Barron's siterer data fra Boston Consulting Group og uttaler at datasentre vil forbruke 7,5 % av den totale tilgjengelige elektrisiteten i USA innen 2030. Datasentre bygget for AI-systemer kan forbruke hundrevis av megawatt strøm per anlegg, noe som betyr at strømforsyningssystemet ikke lenger vil kunne holde tritt med den raske veksten i antall datasentre.
Energibehovet for å drive AI-servere er enormt.
Analysen indikerer også at energiforbruket til datasentre i USA vil øke fra 126 til 390 terawattimer fra 2022 til 2030, en mengde strøm som er tilstrekkelig til å forsyne 40 millioner amerikanske husholdninger med strøm.
Anslag fra 650 Group antyder at volumet av serversystemer som dekker behov for kunstig intelligens vil seksdobles fra i fjor til 2028, og nå 6 millioner enheter. Gartner spår at det gjennomsnittlige strømforbruket til en akseleratorserver vil øke fra 650 W til 1000 W.
Energiforbruket vil øke ikke bare på grunn av det økende antallet servere, men også på grunn av ulike forhold. Arbeidet med å optimalisere energikostnadene gjennom bruk av kunstig intelligens i energiforbrukskontroll vil delvis dempe denne trenden, men vil ikke løse problemet fullstendig. Overgangen til væskekjøling for serversystemer vil være uunngåelig i de fleste tilfeller. Ifølge Super Micro kan driftskostnadene for datasentre reduseres med mer enn 40 % ved å eliminere tradisjonelle luftkjølesystemer til fordel for væskekjøling.
Problemet forverres ytterligere av den ujevne utviklingen av det regionale strømforsyningsnettet. I tillegg kan ikke alle steder effektivt overføre generert strøm til steder med høyt energiforbruk. Eksperter mener at USA produserer nok strøm til å støtte AI-utvikling, men distribusjonsnettverket er problematisk.
[annonse_2]
Kildekobling






Kommentar (0)