Der neue Chip mit der Bezeichnung H200 wird Nvidias aktuelles Flaggschiffmodell H100 übertreffen. Die wichtigste Verbesserung des neuen Chips ist der Speicher mit höherer Bandbreite, der zu den teuersten Komponenten des Chips gehört und die Geschwindigkeit der Datenverarbeitung bestimmt.
Der H200-Chip von Nvidia wird größere Systeme für künstliche Intelligenz bewältigen.
Nvidia hat derzeit ein Monopol auf dem Markt für KI-Chips und liefert Chips an OpenAIs ChatGPT-Dienst sowie an eine Reihe weiterer KI-Dienste, die menschenähnliche Antworten generieren. Laut Reuters ermöglicht die Integration von Arbeitsspeicher mit höherer Bandbreite und schnelleren Verbindungen in die Prozessorelemente des Chips die schnellere Reaktionsfähigkeit von Diensten wie ChatGPT.
Der H200 verfügt über 141 Gigabyte (GB) Arbeitsspeicher mit hoher Bandbreite, im Vergleich zu 80 GB beim Vorgängerchip H100. Nvidia gab den Speicherlieferanten für den neuen Chip nicht bekannt, Micron Technology hatte jedoch im September mitgeteilt, dass man daran arbeite, Zulieferer für Nvidia zu werden.
Nvidia gab außerdem bekannt, dass Amazon Web Services, Google Cloud, Microsoft Azure und Oracle Cloud Infrastructure die ersten Cloud-Service-Anbieter sein werden, die den H200-Chip nutzen, zusätzlich zu professionellen KI-Cloud-Service-Anbietern wie CoreWeave, Lambda und Vultr.
Microsoft bringt KI-Chip auf den Markt
Quellenlink






Kommentar (0)