Eine Vereinbarung zur Nutzung von TPU-Chips, die von Google entwickelt wurden, um künstliche Intelligenz (KI)-Modelle beim Technologieunternehmen Meta anzutreiben, könnte Milliarden von Dollar wert sein und den dominanten Marktanteil des Chipherstellers Nvidia untergraben.
Laut einem VNA-Korrespondenten in New York berichtete das Wall Street Journal (WSJ) am 25. November, dass Meta Platforms in Verhandlungen über den Einsatz von Chips von Google stehe, um die Entwicklung seiner KI zu beschleunigen. Dieser Schritt zielt darauf ab, die Abhängigkeit von Nvidia zu verringern.
Ein solcher Deal könnte Milliarden von Dollar wert sein, aber die Verhandlungen sind noch nicht abgeschlossen und es ist ungewiss, ob ein endgültiger Abschluss gefunden wird.
Laut einer anonymen Quelle des WSJ ist derzeit unklar, ob Meta diese Chips – sogenannte Tensorprozessoren oder TPUs – zum Trainieren von KI-Modellen oder für Inferenz einsetzen wird. Inferenz ist der Prozess, bei dem ein trainiertes Modell Antworten auf Anfragen generiert und benötigt weniger Rechenleistung als das Training selbst.
Google arbeitet seit Jahren an der Weiterentwicklung seiner Chips und dem Ausbau seines Geschäfts in diesem Bereich. Ein bedeutender Deal mit Meta böte Google und anderen Chipherstellern die Chance, Nvidias Marktführerschaft anzugreifen. Die Nvidia-Aktie fiel am Morgen des 25. November um 7 %, nachdem die Gespräche zwischen Google und Meta bekannt wurden.
Google gibt an, dass sein Google Cloud-Dienst eine „beschleunigte Nachfrage“ sowohl nach kundenspezifischen TPU-Chips als auch nach Nvidia-GPUs verzeichnet, und das Unternehmen bekräftigt sein Engagement, beide Chiparten weiterhin zu unterstützen, wie es dies bereits seit vielen Jahren tut.
Google nutzt TPU-Chips seit über zehn Jahren, zunächst intern, beispielsweise zur Verbesserung der Effizienz seiner Suchmaschine. Seit 2018 bietet das Unternehmen seinen Cloud-Kunden Zugriff auf TPUs für Trainings- und Inferenzzwecke.
In jüngerer Zeit hat Google diese Chips zum Trainieren und Ausführen seiner großen Gemini-Sprachmodelle verwendet und verkauft sie an Kunden wie Anthropic – ein Startup, das das Claude-Modell entwickelt.
Im vergangenen Monat kündigte Anthropic an, ab 2026 Dutzende Milliarden Dollar für den Kauf von 1 Million TPU-Chips von Google auszugeben, was einer Rechenleistung von etwa 1 Gigawatt entspricht. Mit dem Geld sollen die KI-Forschung unterstützt und die wachsende Nachfrage nach den KI-Tools für Unternehmen gedeckt werden.
Aktuell werden die meisten großen Programmiersprachenmodelle mithilfe von Nvidia-GPU-Chips trainiert. Tausende von Anwendungsentwicklern bestellen Chips entweder direkt bei Nvidia oder über Cloud-Service-Anbieter, die diese in riesigen Rechenzentren einsetzen.
Im Gegensatz dazu ist Googles TPU ein spezialisierter integrierter Schaltkreis (ASIC), der für eine bestimmte Rechenaufgabe entwickelt wurde, wodurch diese Rechenzentren energieeffizienter sind.
Quelle: https://www.vietnamplus.vn/meta-muon-su-dung-chip-cua-google-de-thach-thuc-nvidia-post1079390.vnp






Kommentar (0)