Nowy układ, o nazwie H200, przewyższy obecny flagowy układ Nvidii, H100. Główną zaletą nowego układu jest pamięć o większej przepustowości, która jest jednym z najdroższych elementów układu i decyduje o szybkości przetwarzania danych.
Układ H200 firmy Nvidia będzie obsługiwał większe systemy sztucznej inteligencji.
Nvidia jest obecnie monopolistą na rynku układów scalonych AI i dostarcza układy scalone do usługi ChatGPT firmy OpenAI oraz wielu innych usług AI generujących odpowiedzi zbliżone do ludzkich. Dodanie pamięci o większej przepustowości i szybszej łączności do elementów przetwarzających układ oznacza, że usługi takie jak ChatGPT mogą reagować szybciej, według Reutersa.
Układ H200 ma 141 gigabajtów (GB) pamięci o dużej przepustowości, w porównaniu z 80 GB w poprzednim układzie H100. Nvidia nie ujawniła dostawcy pamięci do nowego układu, ale firma Micron Technology poinformowała we wrześniu, że pracuje nad tym, aby zostać dostawcą dla Nvidii.
Nvidia ujawniła ponadto, że usługi sieciowe Amazon, Google Cloud, Microsoft Azure i Oracle Cloud Infrastructure będą wśród pierwszych dostawców usług w chmurze wykorzystujących układ H200, obok profesjonalnych dostawców rozwiązań chmurowych opartych na sztucznej inteligencji, takich jak CoreWeave, Lambda i Vultr.
Microsoft wypuszcza układ AI.
Link źródłowy






Komentarz (0)