Powołując się na dane Boston Consulting Group, Barron's stwierdził, że do 2030 roku centra danych będą zużywać 7,5% całej dostępnej energii elektrycznej w USA. Centra danych zbudowane dla systemów sztucznej inteligencji mogą zużywać setki megawatów energii elektrycznej na obiekt, więc system zasilania nie będzie już w stanie nadążyć za szybkim wzrostem liczby centrów danych.
Ogromne zapotrzebowanie na energię do obsługi serwerów AI
Według analizy, w latach 2022–2030 zużycie energii w centrach danych w USA wzrośnie ze 126 do 390 terawatogodzin, co będzie wystarczającą ilością energii do zasilenia 40 milionów amerykańskich gospodarstw domowych.
Grupa 650 szacuje, że wolumen systemów serwerowych zaspokajających potrzeby sztucznej inteligencji wzrośnie sześciokrotnie w porównaniu z ubiegłym rokiem, do 2028 roku, osiągając 6 milionów jednostek. Według prognoz Gartnera, średnie zużycie energii przez serwer akceleracyjny wzrośnie z 650 W do 1000 W.
Zużycie energii wzrośnie nie tylko ze względu na wzrost liczby serwerów, ale również ze względu na warunki. Działania mające na celu optymalizację kosztów energii poprzez wprowadzenie sztucznej inteligencji do systemu kontroli zużycia energii pomogą ograniczyć ten trend, ale nie rozwiążą całkowicie problemu. Przejście na chłodzenie cieczą systemów serwerowych będzie w większości przypadków nieuniknione. Według Super Micro, koszty operacyjne centrów danych można obniżyć o ponad 40% poprzez przejście z tradycyjnych systemów chłodzenia powietrzem na chłodzenie cieczą.
Problem pogłębia nierównomierny rozwój regionalnej sieci energetycznej. Ponadto nie wszystkie lokalizacje są w stanie efektywnie przesyłać wytworzoną energię elektryczną do dużych systemów energetycznych. Eksperci twierdzą, że Stany Zjednoczone generują wystarczającą ilość energii elektrycznej, aby wspierać rozwój systemów sztucznej inteligencji, ale występują problemy z siecią dystrybucyjną.
Link źródłowy
Komentarz (0)