Společnost Barron's s odvoláním na data společnosti Boston Consulting Group uvedla, že datová centra budou do roku 2030 spotřebovávat 7,5 % celkové elektřiny dostupné v USA. Datová centra postavená pro systémy umělé inteligence mohou spotřebovávat stovky megawattů elektřiny na zařízení, což znamená, že systém napájení již nebude schopen držet krok s rychlým růstem počtu datových center.
Energetické nároky na napájení serverů s umělou inteligencí jsou enormní.
Analýza rovněž naznačuje, že v letech 2022 až 2030 se spotřeba energie v datových centrech v USA zvýší ze 126 na 390 terawatthodin, což je množství elektřiny dostatečné k napájení 40 milionů amerických domácností.
Odhady společnosti 650 Group naznačují, že objem serverových systémů pro potřeby umělé inteligence se od loňského roku do roku 2028 zšestinásobí a dosáhne 6 milionů kusů. Společnost Gartner předpovídá, že průměrná spotřeba energie akceleračního serveru se zvýší z 650 W na 1 000 W.
Spotřeba energie se bude zvyšovat nejen kvůli rostoucímu počtu serverů, ale také kvůli podmínkám. Snahy o optimalizaci nákladů na energii prostřednictvím aplikace umělé inteligence v řízení spotřeby energie tento trend částečně zmírní, ale problém zcela nevyřeší. Přechod na kapalinové chlazení serverových systémů bude ve většině případů nevyhnutelný. Podle společnosti Super Micro lze provozní náklady datových center snížit o více než 40 % eliminací tradičních systémů vzduchového chlazení ve prospěch kapalinového chlazení.
Problém dále zhoršuje nerovnoměrný rozvoj regionální sítě dodávky elektrické energie. Navíc ne všechna místa dokáží efektivně přenášet vyrobenou elektřinu do lokalit s vysokou spotřebou energie. Odborníci se domnívají, že USA vyrábí dostatek elektřiny pro podporu rozvoje umělé inteligence, ale distribuční síť je problematická.
Zdrojový odkaz






Komentář (0)