Der neue Chip mit der Bezeichnung H200 wird Nvidias aktuelles Flaggschiffmodell H100 übertreffen. Die wichtigste Verbesserung des neuen Chips liegt in seinem Speicher mit höherer Bandbreite, der zu den teuersten Bauteilen des Chips gehört und die Datenverarbeitungsgeschwindigkeit bestimmt.
Der H200-Chip von Nvidia wird größere Systeme für künstliche Intelligenz bewältigen.
Nvidia hält derzeit ein Monopol auf dem Markt für KI-Chips und liefert Chips für OpenAIs ChatGPT-Dienst sowie für viele andere KI-Dienste, die menschenähnliche Antworten generieren. Laut Reuters ermöglicht die Integration von Arbeitsspeicher mit höherer Bandbreite und schnellerer Konnektivität in die Prozessorelemente des Chips die schnellere Reaktionsfähigkeit von Diensten wie ChatGPT.
Der H200 verfügt über 141 Gigabyte (GB) Arbeitsspeicher mit hoher Bandbreite, im Vergleich zu 80 GB beim Vorgängerchip H100. Nvidia gab den Speicherlieferanten für den neuen Chip nicht bekannt, Micron Technology hatte jedoch im September mitgeteilt, dass man daran arbeite, Zulieferer für Nvidia zu werden.
Nvidia gab außerdem bekannt, dass die Webdienste von Amazon, Google Cloud, Microsoft Azure und Oracle Cloud Infrastructure zu den ersten Cloud-Anbietern gehören werden, die den H200-Chip nutzen, zusätzlich zu professionellen KI-Cloud-Anbietern wie CoreWeave, Lambda und Vultr.
Microsoft bringt KI-Chip auf den Markt.
Quellenlink






Kommentar (0)