Barron's viser til data fra Boston Consulting Group og sier at datasentre vil forbruke 7,5 % av all tilgjengelig elektrisitet i USA innen 2030. Datasentre bygget for AI-systemer kan forbruke hundrevis av megawatt strøm per anlegg, slik at strømforsyningssystemet ikke lenger vil kunne holde tritt med den raske veksten i antall datasentre.
Enormt energibehov for å betjene AI-servere
Ifølge analysen vil energiforbruket til datasentre i USA øke fra 126 til 390 terawattimer fra 2022 til 2030, noe som vil være nok til å forsyne 40 millioner amerikanske husholdninger med strøm.
650 Group anslår at volumet av serversystemer som dekker behov for kunstig intelligens vil seksdobles fra i fjor til 2028, til 6 millioner enheter. I følge Gartners prognose vil det gjennomsnittlige strømforbruket til en akseleratorserver øke fra 650 W til 1000 W.
Energiforbruket vil øke ikke bare på grunn av økningen i antall servere, men også på grunn av forholdene. Arbeidet med å optimalisere energikostnadene ved å bringe AI inn i feltet for energiforbrukskontroll vil bidra til å begrense denne trenden, men vil ikke løse problemet fullstendig. Overgangen til væskekjøling av serversystemer vil være uunngåelig i de fleste tilfeller. Ifølge Super Micro kan driftskostnadene for datasentre reduseres med mer enn 40 % ved å bytte fra tradisjonelle luftkjølesystemer til væskekjøling.
Problemet forverres av den ujevne utviklingen av regionens strømnett. I tillegg kan ikke alle steder effektivt overføre den genererte strømmen til stedene med store energikrevende systemer. Eksperter sier at USA produserer nok strøm til å støtte utviklingen av AI-systemer, men det er problemer med distribusjonsnettet.
[annonse_2]
Kildekobling
Kommentar (0)