Ein Vertrag über die Nutzung von Google-entwickelten TPU-Chips zur Unterstützung von Modellen der künstlichen Intelligenz (KI) für das Technologieunternehmen Meta könnte Milliarden von Dollar wert sein und die Marktdominanz des Chipherstellers Nvidia untergraben.
Laut einem VNA-Reporter in New York berichtete das Wall Street Journal (WSJ) am 25. November, dass Meta Platforms mit Google über den Einsatz von Chips verhandelt, um die Entwicklung seiner KI zu beschleunigen. Dies sei ein Schritt, um die Abhängigkeit von Nvidia zu verringern.
Ein solcher Deal könnte Milliarden von Dollar wert sein, aber die Verhandlungen sind noch nicht abgeschlossen und es ist ungewiss, ob ein endgültiger Abschluss gefunden wird.
Ob Meta die Chips, sogenannte Tensor Processing Units (TPUs), zum Trainieren von KI-Modellen oder für Inferenz einsetzen wird, ist laut einer anonymen Quelle des WSJ unklar. Inferenz ist der Prozess, bei dem ein trainiertes Modell verwendet wird, um eine Antwort auf eine Anfrage zu generieren und benötigt weniger Rechenleistung als das Training.
Google arbeitet seit Jahren an der Weiterentwicklung seiner Chips und dem Ausbau des Geschäfts. Ein bedeutender Deal mit Meta würde Google und anderen Chipherstellern die Chance eröffnen, Nvidias Marktführerschaft anzugreifen. Die Nvidia-Aktie fiel am Morgen des 25. November um 7 %, nachdem Berichte über Googles Gespräche mit Meta bekannt wurden.
Google erklärte, dass sein Google Cloud-Dienst eine „zunehmende Nachfrage“ sowohl nach kundenspezifischen TPU-Chips als auch nach Nvidia-GPU-Chips verzeichne und dass das Unternehmen, wie schon seit Jahren, weiterhin beide unterstützen werde.
Google nutzt TPU-Chips seit über zehn Jahren, zunächst intern, beispielsweise zur Leistungssteigerung seiner Suchmaschine. Seit 2018 bietet das Unternehmen auch Cloud-Kunden Zugriff auf TPUs für Training und Inferenz an.
In jüngerer Zeit hat Google diese Chips zum Trainieren und Ausführen seiner großen Gemini-Sprachmodelle verwendet und sie an Kunden wie Anthropic, das Startup, das das Claude-Modell entwickelt hat, verkauft.
Im vergangenen Monat kündigte Anthropic an, ab 2026 Dutzende Milliarden Dollar für den Kauf von 1 Million TPU-Chips von Google auszugeben, was einer Rechenleistung von etwa 1 Gigawatt entspricht. Mit dem Kauf sollen die KI-Forschung unterstützt und die wachsende Nachfrage nach den KI-Tools für Unternehmen des Unternehmens gedeckt werden.
Heutzutage werden die meisten großen Sprachmodelle auf Nvidia-GPU-Chips trainiert. Tausende von Anwendungsentwicklern bestellen Chips direkt bei Nvidia oder über Cloud-Service-Anbieter, die diese in riesigen Rechenzentren einsetzen.
Im Gegensatz dazu ist Googles TPU ein spezialisierter integrierter Schaltkreis (ASIC), der für eine bestimmte Rechenaufgabe entwickelt wurde und diesen Rechenzentren hilft, mehr Energie zu sparen.
Quelle: https://www.vietnamplus.vn/meta-muon-su-dung-chip-cua-google-de-thach-thuc-nvidia-post1079390.vnp






Kommentar (0)