Der neue Chip namens H200 wird Nvidias aktuellen Flaggschiff-Chip, den H100, übertreffen. Die wichtigste Verbesserung des neuen Chips ist der Speicher mit höherer Bandbreite, einer der teuersten Komponenten des Chips, der die Geschwindigkeit der Datenverarbeitung bestimmt.
Der H200-Chip von Nvidia wird größere Systeme der künstlichen Intelligenz verarbeiten
Nvidia hat derzeit ein Monopol auf dem Markt für KI-Chips und beliefert den ChatGPT-Dienst von OpenAI sowie eine Reihe von KI-Diensten, die menschenähnliche Reaktionen generieren. Laut Reuters können Dienste wie ChatGPT durch mehr Speicher mit hoher Bandbreite und schnellere Verbindungen zu den Verarbeitungselementen des Chips schneller reagieren.
Der H200 verfügt über 141 Gigabyte (GB) High-Bandwidth-Speicher, verglichen mit 80 GB beim Vorgängerchip H100. Nvidia gab den Speicherlieferanten für den neuen Chip nicht bekannt, Micron Technology gab jedoch im September bekannt, dass man daran arbeite, Nvidia-Lieferant zu werden.
Nvidia gab außerdem bekannt, dass Amazon Web Services, Google Cloud, Microsoft Azure und Oracle Cloud Infrastructure die ersten Cloud-Dienstanbieter sein werden, die den H200-Chip nutzen, zusätzlich zu professionellen KI-Cloud-Dienstanbietern wie CoreWeave, Lambda und Vultr.
Microsoft bringt KI-Chip auf den Markt
[Anzeige_2]
Quellenlink
Kommentar (0)