Umowa na wykorzystanie opracowanych przez Google układów TPU do zasilania modeli sztucznej inteligencji (AI) dla firmy technologicznej Meta może być warta miliardy dolarów i osłabić dominującą pozycję rynkową producenta układów scalonych Nvidia.
Według reportera VNA z Nowego Jorku, 25 listopada Wall Street Journal (WSJ) poinformował, że Meta Platforms prowadzi negocjacje w sprawie wykorzystania układów scalonych wyprodukowanych przez Google w celu przyspieszenia rozwoju sztucznej inteligencji, co ma być krokiem w kierunku zmniejszenia zależności firmy od firmy Nvidia.
Wartość umowy może wynieść miliardy dolarów, jednak negocjacje jeszcze się nie zakończyły i mogą nie doprowadzić do ostatecznego zakończenia.
Według anonimowego źródła zaznajomionego z WSJ, nie jest jasne, czy Meta będzie używać układów scalonych, znanych jako jednostki przetwarzania tensorów (TPU), do trenowania modeli AI, czy do wnioskowania. Wnioskowanie to proces, w którym wytrenowany model jest wykorzystywany do generowania odpowiedzi na zapytanie i wymaga mniejszej mocy obliczeniowej niż trenowanie.
Google od lat pracuje nad udoskonalaniem swoich układów scalonych i rozwojem działalności. Duża umowa z Meta dałaby Google i innym producentom układów scalonych szansę na zajęcie dominującej pozycji rynkowej Nvidii. Akcje Nvidii spadły o 7% rano 25 listopada po pojawieniu się doniesień o rozmowach Google z Meta.
Google poinformowało, że usługa Google Cloud cieszy się „rosnącym popytem” na niestandardowe układy TPU i układy GPU Nvidia, a firma, tak jak od lat, zobowiązała się do obsługi obu tych rozwiązań.
Google zaczął korzystać z układów TPU ponad 10 lat temu, początkowo do celów wewnętrznych, takich jak poprawa wydajności wyszukiwarki. W 2018 roku firma zaczęła oferować klientom chmury dostęp do układów TPU w celu szkolenia i wnioskowania.
Niedawno firma Google zaczęła używać tych układów do trenowania i uruchamiania swoich rozbudowanych modeli językowych Gemini i sprzedawała je klientom, takim jak Anthropic, startup, który opracował model Claude.
W zeszłym miesiącu firma Anthropic ogłosiła, że od 2026 r. zamierza przeznaczyć dziesiątki miliardów dolarów na zakup miliona chipów TPU firmy Google, co odpowiada około 1 gigawatowi mocy obliczeniowej, aby wesprzeć badania nad sztuczną inteligencją i sprostać rosnącemu zapotrzebowaniu na narzędzia AI firmy dla przedsiębiorstw.
Obecnie większość dużych modeli językowych jest trenowana na układach GPU Nvidia. Tysiące programistów aplikacji zamawia układy bezpośrednio od Nvidii lub za pośrednictwem dostawców usług chmurowych, którzy wdrażają je w ogromnych centrach danych.
Natomiast TPU firmy Google to wyspecjalizowany układ scalony (ASIC) zaprojektowany do wykonywania konkretnych zadań obliczeniowych, który pomaga tym ośrodkom oszczędzać więcej energii./.
Źródło: https://www.vietnamplus.vn/meta-muon-su-dung-chip-cua-google-de-thach-thuc-nvidia-post1079390.vnp






Komentarz (0)