Nowy układ, o nazwie H200, przewyższy obecny flagowy układ Nvidii, H100. Główną zaletą nowego układu jest pamięć o większej przepustowości, która jest jednym z najdroższych elementów układu i decyduje o szybkości przetwarzania danych.
Układ H200 firmy Nvidia będzie obsługiwał większe systemy sztucznej inteligencji
Nvidia ma obecnie monopol na rynku układów AI, dostarczając układy do usługi ChatGPT firmy OpenAI oraz szeregu usług AI generujących odpowiedzi zbliżone do ludzkich. Dodanie większej ilości pamięci o dużej przepustowości i szybszych połączeń do elementów przetwarzających układ oznacza, że usługi takie jak ChatGPT mogą reagować szybciej, według Reutersa.
Układ H200 ma 141 gigabajtów (GB) pamięci o dużej przepustowości, w porównaniu z 80 GB w poprzednim układzie H100. Nvidia nie ujawniła dostawcy pamięci do nowego układu, ale firma Micron Technology poinformowała we wrześniu, że pracuje nad tym, aby zostać dostawcą dla Nvidii.
Firma Nvidia ujawniła ponadto, że pierwszymi dostawcami usług w chmurze, którzy wykorzystają potencjał układu H200, będą Amazon Web Services, Google Cloud, Microsoft Azure i Oracle Cloud Infrastructure. Do grona tych dostawców należeć będą również profesjonalni dostawcy usług w chmurze opartych na sztucznej inteligencji, tacy jak CoreWeave, Lambda i Vultr.
Microsoft wprowadza na rynek układ AI
Link źródłowy
Komentarz (0)