Barron's hänvisar till data från Boston Consulting Group och uppger att datacenter kommer att förbruka 7,5 % av den totala tillgängliga elektriciteten i USA år 2030. Datacenter byggda för AI-system kan förbruka hundratals megawatt el per anläggning, vilket innebär att strömförsörjningssystemet inte längre kommer att kunna hålla jämna steg med den snabba tillväxten av antalet datacenter.
Energibehovet för att driva AI-servrar är enormt.
Analysen indikerar också att energiförbrukningen i datacenter i USA kommer att öka från 126 till 390 terawattimmar från 2022 till 2030, en mängd el som är tillräcklig för att förse 40 miljoner amerikanska hushåll med ström.
Uppskattningar från 650 Group tyder på att volymen serversystem som tillgodoser AI-behov kommer att sexdubblas från förra året till 2028 och nå 6 miljoner enheter. Gartner förutspår att den genomsnittliga strömförbrukningen för en acceleratorserver kommer att öka från 650 W till 1 000 W.
Energiförbrukningen kommer att öka inte bara på grund av det växande antalet servrar utan även på grund av olika förhållanden. Ansträngningar att optimera energikostnaderna genom tillämpning av AI för energiförbrukningskontroll kommer delvis att mildra denna trend, men kommer inte helt att lösa problemet. Övergången till vätskekylning för serversystem kommer att vara oundviklig i de flesta fall. Enligt Super Micro kan driftskostnaderna för datacenter minskas med mer än 40 % genom att eliminera traditionella luftkylningssystem till förmån för vätskekylning.
Problemet förvärras ytterligare av den ojämna utvecklingen av det regionala elnätet. Dessutom kan inte alla platser effektivt överföra genererad el till platser med högenergiförbrukande system. Experter tror att USA genererar tillräckligt med el för att stödja AI-utveckling, men distributionsnätet är problematiskt.
[annons_2]
Källänk






Kommentar (0)