Biegowelove.pl

informacje o Polsce. Wybierz tematy, o których chcesz dowiedzieć się więcej

AMD wprowadza na rynek nowe chipsety umożliwiające szybsze uruchamianie szkoleń AI

AMD wprowadza na rynek nowe chipsety umożliwiające szybsze uruchamianie szkoleń AI

AMD chce, żeby ludzie pamiętali, że Nvidia nie jest jedyną firmą sprzedającą chipy AI. Ogłoszono nowe akceleratory i procesory przystosowane do obsługi dużych modeli językowych, czyli LLM.

Producent chipów zaprezentował akcelerator Instinct MI300X i jednostkę przyspieszonego przetwarzania Instinct M1300A (APU), które według firmy są absolwentami studiów magisterskich w zakresie szkolenia i obsługi. Firma podała, że ​​MI300X ma 1,5 razy większą pojemność pamięci niż poprzednia wersja, M1250X. AMD stwierdziło, że obydwa nowe produkty mają lepszą pojemność pamięci i są bardziej energooszczędne od swoich poprzedników.

„LLM stale zwiększają swój rozmiar i złożoność, wymagając ogromnych ilości pamięci i mocy obliczeniowych” – powiedziała Lisa Su, dyrektor generalna AMD. „Wiemy, że dostępność procesorów graficznych jest najważniejszym czynnikiem sprzyjającym przyjęciu sztucznej inteligencji”.

MI300X „jest akceleratorem o najwyższej wydajności na świecie” – powiedział Su podczas prezentacji. Twierdziła, że ​​MI300X jest porównywalny z chipami Nvidia H100 w szkoleniu LLM, ale radzi sobie lepiej pod względem wnioskowania – 1,4 razy lepiej niż H100 podczas pracy z Llamą 2 firmy Meta, LLM o 70 miliardach parametrów.

AMD nawiązało współpracę z firmą Microsoft w celu umieszczenia MI300X na maszynach wirtualnych Azure. Ogłosił także CTO Microsoftu Kevin Scott, który był gościem podczas przemówienia Su Maszyny wirtualne Azure ND MI300X – Po raz pierwszy ujawniono go w listopadzie – a teraz jest dostępny do podglądu. Meta ogłosiła również, że w swoich centrach danych wdroży procesory MI300.

Su powiedział, że AMD wypuściło jednostkę APU MI300A dla centrów danych, która według niej ma zwiększyć całkowity rynek adresowalny do 45 miliardów dolarów. APU zazwyczaj łączą jednostki centralne (CPU) i jednostki przetwarzania grafiki (GPU) w celu szybszego przetwarzania. AMD twierdzi, że MI300A zapewnia wysoką wydajność obliczeniową, szybsze uczenie modeli i 30-krotną poprawę efektywności energetycznej. W porównaniu do H100 AMD stwierdziło, że ma 1,6 razy większą pojemność pamięci. Posiada również zunifikowaną pamięć, dzięki czemu nie ma już potrzeby przesyłania danych z różnych urządzeń.

MI300A będzie zasilać superkomputer El Capitan zbudowany przez firmę Hewlett Packard Enterprise w Lawrence Livermore National Laboratory. El Capitan to jeden z najpotężniejszych superkomputerów, który ma zapewnić ponad dwa eksaflopy wydajności.

Jednostka APU MI300A jest „obecnie w fazie produkcji i integrowana z centrami danych”.

Informacje o cenach nie były od razu dostępne.

Su poruszyła temat chipów MI300 podczas konferencji Code Conference, mówiąc, że firma AMD była podekscytowana możliwością wykorzystania większej liczby użytkowników chipów, nie tylko wśród dostawców usług w chmurze, ale także w przedsiębiorstwach i start-upach.

AMD ogłosiło także najnowszy dodatek do swoich procesorów Ryzen, Ryzen 8040, który może zapewnić więcej natywnych funkcji sztucznej inteligencji w urządzeniach mobilnych. Firma twierdzi, że seria 8040 oferuje 1,6 razy wyższą wydajność przetwarzania AI niż poprzednie modele i integruje jednostki przetwarzania neuronowego (NPU).

Firma twierdzi, że Ryzen 8040 nie będzie ograniczony do przetwarzania AI, ponieważ edycja wideo będzie o 65 procent szybsza, a granie będzie o 77 procent szybsze niż konkurencyjne produkty, takie jak chipy Intela.

AMD spodziewa się, że producenci tacy jak Acer, Asus, Dell, HP, Lenovo i Razer wypuszczą na rynek produkty wyposażone w chipsety Ryzen 8040 w pierwszym kwartale 2024 roku.

Su powiedział, że następna generacja jednostek NPU Strix Point zostanie wypuszczona na rynek w 2024 roku.

AMD ogłosiło również, że platforma oprogramowania Ryzen AI jest już powszechnie dostępna, co umożliwi programistom tworzenie modeli sztucznej inteligencji na laptopach z procesorem Ryzen poprzez przenoszenie modeli do procesora NPU, dzięki czemu procesor będzie mógł zmniejszyć zużycie energii. Użytkownicy otrzymają wsparcie dla podstawowych modeli, takich jak model rozpoznawania mowy Whisper i LLM, takich jak Llama 2.

Aby zasilić modele AI — i wykorzystać obecny szum wokół tej technologii — firmy takie jak AMD, Nvidia i Intel rozpoczęły wyścig zbrojeń w zakresie chipów AI. Do tej pory Nvidia zdobyła największy udział w rynku dzięki bardzo poszukiwanym procesorom graficznym H100 używanym do trenowania modeli takich jak GPT OpenAI.