Umowa o wykorzystaniu układów TPU opracowanych przez Google do zasilania modeli sztucznej inteligencji (AI) w firmie technologicznej Meta może być warta miliardy dolarów i zniweczyć dominującą pozycję rynkową producenta układów scalonych Nvidia.
Według korespondenta VNA w Nowym Jorku, 25 listopada Wall Street Journal (WSJ) poinformował, że Meta Platforms prowadzi negocjacje w sprawie wykorzystania układów scalonych wyprodukowanych przez Google w celu przyspieszenia rozwoju sztucznej inteligencji. Ma to na celu zmniejszenie zależności firmy od firmy Nvidia.
Wartość umowy może wynieść miliardy dolarów, jednak negocjacje jeszcze się nie zakończyły i mogą nie przynieść ostatecznego rozwiązania.
Według anonimowego źródła, z którym skontaktował się „Wall Street Journal”, obecnie nie jest jasne, czy Meta będzie wykorzystywać te układy – znane jako procesory tensorowe (TPU) – do trenowania modeli sztucznej inteligencji, czy do wnioskowania. Wnioskowanie to proces, w którym wytrenowany model generuje odpowiedzi na zapytania i wymaga mniejszej mocy obliczeniowej niż trenowanie.
Google od lat pracuje nad udoskonalaniem swoich układów scalonych i rozszerzaniem działalności w tym obszarze. Duża umowa z Meta byłaby dla Google i innych producentów układów scalonych szansą na zakwestionowanie dominującej pozycji rynkowej Nvidii. Akcje Nvidii spadły o 7% rano 25 listopada po doniesieniach o rozmowach między Google a Meta.
Google twierdzi, że jego usługa Google Cloud odnotowuje „wzrost popytu” zarówno na niestandardowe układy TPU, jak i procesory graficzne Nvidia, i firma zobowiązała się do obsługi obu typów układów, tak jak robi to od wielu lat.
Google zaczął korzystać z układów TPU ponad 10 lat temu, początkowo do celów wewnętrznych, takich jak poprawa wydajności wyszukiwarki. W 2018 roku firma zaczęła oferować swoim klientom korzystającym z chmury dostęp do układów TPU w celach szkoleniowych i wnioskowania.
Niedawno firma Google zaczęła używać tych układów do trenowania i uruchamiania swoich rozbudowanych modeli językowych Gemini i sprzedaje je klientom, takim jak Anthropic — startup rozwijający model Claude.
W zeszłym miesiącu firma Anthropic ogłosiła, że od 2026 r. zamierza przeznaczyć dziesiątki miliardów dolarów na zakup miliona chipów TPU od Google, co odpowiada około 1 gigawatowi mocy obliczeniowej. Ma to na celu wsparcie badań nad sztuczną inteligencją i zaspokojenie rosnącego popytu na narzędzia AI dla przedsiębiorstw, oferowane przez firmę.
Obecnie większość modeli języków programowania na dużą skalę jest trenowana z wykorzystaniem układów GPU firmy Nvidia. Tysiące programistów aplikacji zamawia układy scalone od firmy Nvidia bezpośrednio lub za pośrednictwem dostawców usług chmurowych, którzy wdrażają je w ogromnych centrach danych.
Z kolei TPU firmy Google to wyspecjalizowany układ scalony (ASIC) zaprojektowany do wykonywania konkretnych zadań obliczeniowych, dzięki czemu te centra są bardziej energooszczędne.
Źródło: https://www.vietnamplus.vn/meta-muon-su-dung-chip-cua-google-de-thach-thuc-nvidia-post1079390.vnp







Komentarz (0)