Firmy takie jak Nvidia Jensena Huanga intensywnie inwestują w superkomputery, które mają napędzać sztuczną inteligencję przyszłości. Zdjęcie: Nvidia Blog . |
Nowe badanie opublikowane przez Epoch AI – instytut badawczy z siedzibą w San Francisco – pokazuje, że zapotrzebowanie superkomputerów na energię rośnie w zawrotnym tempie, równolegle z rozwojem sztucznej inteligencji.
Według Epoch AI, jeśli coroczne podwojenie zapotrzebowania na energię elektryczną utrzyma się do końca dekady, w 2030 roku najlepsze superkomputery świata będą potrzebowały aż 9 gigawatów (GW) – co odpowiada mocy potrzebnej do zasilenia 7–9 milionów gospodarstw domowych.
Obecnie najpotężniejszy superkomputer świata zużywa około 300 megawatów (MW), co odpowiada ilości energii elektrycznej zużywanej przez 250 000 gospodarstw domowych. W porównaniu z tą wartością, przewidywane zużycie energii w przyszłości jest „ogromne”, jak twierdzi zespół badawczy.
Jednym z głównych powodów, dla których superkomputery AI będą coraz bardziej energochłonne, jest ich rosnący rozmiar. Epoch AI szacuje, że jeśli trendy wzrostowe się utrzymają, budowa czołowego superkomputera AI w 2030 roku może wymagać nawet 2 milionów chipów AI, których koszt wyniesie nawet 200 miliardów dolarów .
![]() |
Liczba operacji na sekundę (FLOP/s) w najpopularniejszych systemach podwaja się co dziewięć miesięcy. Źródło: Epoch AI |
Dla porównania system Colossus – superkomputer zbudowany przez xAI Elona Muska w 214 dni – jest obecnie jednym z największych systemów na świecie, składającym się z 200 000 chipów i całkowitej inwestycji wynoszącej około 7 miliardów dolarów .
Wielkie firmy technologiczne ścigają się w budowaniu infrastruktury obliczeniowej wspierającej coraz bardziej zaawansowane modele sztucznej inteligencji. OpenAI ogłosiło na początku tego roku swój projekt Stargate, wart ponad 500 miliardów dolarów w ciągu najbliższych czterech lat, mający na celu opracowanie kluczowego superkomputera AI.
Według Epoch AI, superkomputery nie są już tylko narzędziami badawczymi, jak kiedyś. Stały się „maszynami przemysłowymi” – zapewniającymi realną wartość ekonomiczną , stanowiącymi kluczową infrastrukturę ery sztucznej inteligencji.
Nawet politycy włączyli się do akcji. Na początku tego miesiąca prezydent Donald Trump w serwisie społecznościowym Truth Social zachwalał 500-miliardową inwestycję firmy Nvidia w superkomputery AI w USA, nazywając to „wielką i ekscytującą wiadomością” i podkreślając obietnicę „Złotego Wieku Ameryki”.
Badania Epoch AI opierają się na danych obejmujących około 10% światowej produkcji układów scalonych AI w latach 2023–2024, a także 15% zapasów układów scalonych największych firm na początku 2025 r. Zespół ekspertów twierdzi, że chociaż efektywność energetyczna poprawia się, obecny wzrost wciąż nie jest wystarczający, aby zrównoważyć ogólne tempo wzrostu zapotrzebowania na energię elektryczną.
To jest również powód, dla którego wielu gigantów technologicznych, takich jak Microsoft i Google, a także operatorów centrów danych, bierze pod uwagę alternatywne rozwiązania, takie jak energia jądrowa, aby zapewnić stabilne, długoterminowe źródło energii.
Jeśli obecne trendy się utrzymają, nie tylko sztuczna inteligencja stanie się potężniejsza, ale również rozmiar, koszt i zapotrzebowanie na energię systemów superkomputerowych wzrosną wykładniczo.
Źródło: https://znews.vn/chi-phi-khong-lo-cua-ai-post1548789.html
Komentarz (0)