Powołując się na dane Boston Consulting Group, Barron's stwierdził, że do 2030 roku centra danych będą zużywać 7,5% całkowitej energii elektrycznej dostępnej w USA. Centra danych zbudowane dla systemów sztucznej inteligencji mogą zużywać setki megawatów energii elektrycznej na obiekt, co oznacza, że system zasilania nie będzie już w stanie nadążyć za szybkim wzrostem liczby centrów danych.
Zapotrzebowanie na energię do zasilania serwerów AI jest ogromne.
Analiza wskazuje również, że w latach 2022–2030 zużycie energii w centrach danych w USA wzrośnie ze 126 do 390 terawatogodzin, co stanowi ilość energii elektrycznej wystarczającą do zasilenia 40 milionów amerykańskich gospodarstw domowych.
Szacunki 650 Group sugerują, że wolumen systemów serwerowych zaspokajających potrzeby sztucznej inteligencji wzrośnie sześciokrotnie od ubiegłego roku do 2028 roku, osiągając 6 milionów jednostek. Gartner prognozuje, że średnie zużycie energii przez serwer akceleracyjny wzrośnie z 650 W do 1000 W.
Zużycie energii wzrośnie nie tylko ze względu na rosnącą liczbę serwerów, ale także ze względu na uwarunkowania. Działania mające na celu optymalizację kosztów energii poprzez zastosowanie sztucznej inteligencji (AI) w kontroli zużycia energii częściowo złagodzą ten trend, ale nie rozwiążą całkowicie problemu. Przejście na chłodzenie cieczą w systemach serwerowych będzie w większości przypadków nieuniknione. Według Super Micro, koszty operacyjne centrów danych można obniżyć o ponad 40% poprzez wyeliminowanie tradycyjnych systemów chłodzenia powietrzem na rzecz chłodzenia cieczą.
Problem dodatkowo pogłębia nierównomierny rozwój regionalnej sieci energetycznej. Ponadto nie wszystkie lokalizacje są w stanie efektywnie przesyłać wytworzoną energię elektryczną do systemów o dużym zużyciu energii. Eksperci uważają, że Stany Zjednoczone wytwarzają wystarczająco dużo energii elektrycznej, aby wspierać rozwój sztucznej inteligencji, ale sieć dystrybucyjna jest problematyczna.
Link źródłowy






Komentarz (0)