Barron's citeerde gegevens van Boston Consulting Group en stelde dat datacenters in 2030 7,5% van de totale beschikbare elektriciteit in de VS zullen verbruiken. Datacenters die gebouwd zijn voor AI-systemen kunnen honderden megawatt aan elektriciteit per faciliteit verbruiken, wat betekent dat het elektriciteitsnet de snelle groei van het aantal datacenters niet meer zal kunnen bijbenen.
De energiebehoefte voor het aandrijven van AI-servers is enorm.
De analyse geeft ook aan dat het energieverbruik van datacenters in de VS tussen 2022 en 2030 zal stijgen van 126 naar 390 terawattuur, een hoeveelheid elektriciteit die voldoende is om 40 miljoen Amerikaanse huishoudens van stroom te voorzien.
Volgens schattingen van 650 Group zal het aantal serversystemen dat in de AI-behoeften voorziet, tussen vorig jaar en 2028 verzesvoudigen tot 6 miljoen stuks. Gartner voorspelt dat het gemiddelde stroomverbruik van een acceleratorserver zal stijgen van 650W naar 1000W.
Het energieverbruik zal niet alleen toenemen door het groeiende aantal servers, maar ook door veranderende omstandigheden. Inspanningen om de energiekosten te optimaliseren door de toepassing van AI in energieverbruiksbeheer zullen deze trend gedeeltelijk afremmen, maar het probleem niet volledig oplossen. De overstap naar vloeistofkoeling voor serversystemen zal in de meeste gevallen onvermijdelijk zijn. Volgens Super Micro kunnen de operationele kosten van datacenters met meer dan 40% worden verlaagd door traditionele luchtkoelsystemen te vervangen door vloeistofkoeling.
Het probleem wordt nog verergerd door de ongelijke ontwikkeling van het regionale elektriciteitsnet. Bovendien kunnen niet alle locaties de opgewekte elektriciteit efficiënt transporteren naar de locaties van energie-intensieve systemen. Experts zijn van mening dat de VS voldoende elektriciteit opwekken om de ontwikkeling van AI te ondersteunen, maar het distributienetwerk is problematisch.
Bronlink






Reactie (0)