Med hänvisning till data från Boston Consulting Group sa Barron's att datacenter kommer att förbruka 7,5 % av all tillgänglig el i USA år 2030. Datacenter byggda för AI-system kan förbruka hundratals megawatt el per anläggning, så strömförsörjningssystemet kommer inte längre att kunna hålla jämna steg med den snabba tillväxten i antalet datacenter.
Enorma energibehov för att betjäna AI-servrar
Enligt analysen kommer energiförbrukningen i datacenter i USA att öka från 126 till 390 terawattimmar från 2022 till 2030, vilket kommer att räcka för att försörja 40 miljoner amerikanska hushåll.
650 Group uppskattar att volymen serversystem som tillgodoser AI-behov kommer att sexdubblas från förra året till 6 miljoner enheter 2028. Enligt Gartners prognos kommer den genomsnittliga strömförbrukningen för en acceleratorserver att öka från 650 W till 1 000 W.
Energiförbrukningen kommer att öka inte bara på grund av ökningen av antalet servrar utan även på grund av förhållandena. Ansträngningar för att optimera energikostnaderna genom att föra AI till området energiförbrukningskontroll kommer att bidra till att begränsa denna trend, men kommer inte att helt lösa problemet. Övergången till vätskekylning av serversystem kommer att vara oundviklig i de flesta fall. Enligt Super Micro kan driftskostnaderna för datacenter minskas med mer än 40 % genom att byta från traditionella luftkylningssystem till vätskekylning.
Problemet förvärras av den ojämna utvecklingen av regionens elnät. Dessutom kan inte alla platser effektivt överföra den genererade elen till platserna där stora energikrävande system finns. Experter säger att USA genererar tillräckligt med el för att stödja utvecklingen av AI-system, men det finns problem med distributionsnätet.
[annons_2]
Källänk
Kommentar (0)