Az új H200 névre keresztelt chip felülmúlja az Nvidia jelenlegi zászlóshajó chipjét, a H100-at. Az új chip fő fejlesztése a nagyobb sávszélességű memória, amely a chip egyik legdrágább része, és meghatározza az adatfeldolgozás sebességét.
Az Nvidia H200 chipje nagyobb mesterséges intelligencia rendszereket is képes kezelni
Az Nvidia jelenleg monopolhelyzetben van a mesterséges intelligencia chipek piacán, az OpenAI ChatGPT szolgáltatásához és számos olyan mesterséges intelligencia szolgáltatáshoz szállít chipeket, amelyek emberszerű válaszokat generálnak. A Reuters szerint a nagyobb sávszélességű memória és a chip feldolgozó elemeihez való gyorsabb csatlakozás azt jelenti, hogy az olyan szolgáltatások, mint a ChatGPT, gyorsabban tudnak reagálni.
A H200 141 gigabájt (GB) nagy sávszélességű memóriával rendelkezik, szemben az előző H100 chip 80 GB-jával. Az Nvidia nem hozta nyilvánosságra az új chip memória-beszállítóját, de a Micron Technology szeptemberben kijelentette, hogy azon dolgozik, hogy az Nvidia beszállítójává váljon.
Az Nvidia továbbá bejelentette, hogy az Amazon Web Services, a Google Cloud, a Microsoft Azure és az Oracle Cloud Infrastructure lesznek az első felhőszolgáltatók, amelyek kihasználják a H200 chipet, a professzionális mesterséges intelligencián alapuló felhőszolgáltatók, mint például a CoreWeave, a Lambda és a Vultr mellett.
A Microsoft bemutatta a mesterséges intelligencia chipet
[hirdetés_2]
Forráslink
Hozzászólás (0)