バロンズはボストン・コンサルティング・グループのデータを引用し、2030年までにデータセンターが米国の全電力の7.5%を消費するだろうと予測した。AIシステム向けに建設されるデータセンターは、施設ごとに数百メガワットの電力を消費する可能性があるため、電力供給システムはデータセンター数の急速な増加に対応できなくなるだろう。
AIサーバーに供給するための膨大なエネルギー需要
分析によると、2022年から2030年にかけて、米国のデータセンターのエネルギー消費量は126テラワット時から390テラワット時に増加し、これは米国の4000万世帯に供給するのに十分な量となる。
650 Groupは、AIニーズに対応するサーバーシステムの数量が2028年までに昨年の6倍となる600万台に達すると予測しています。ガートナーの予測によると、アクセラレーターサーバーの平均消費電力は650Wから1,000Wに増加するとされています。
エネルギー消費量は、サーバー台数の増加だけでなく、環境条件によっても増加します。エネルギー消費制御分野にAIを導入し、エネルギーコストを最適化する取り組みは、この傾向を抑制するのに役立ちますが、問題を完全に解決することはできません。サーバーシステムの液冷への移行は、ほとんどの場合避けられないでしょう。Super Microによると、従来の空冷システムから液冷システムに切り替えることで、データセンターの運用コストを40%以上削減できます。
この問題は、地域の電力網の不均一な発展によってさらに悪化しています。さらに、すべての場所で発電した電力を大規模なエネルギー消費システムの拠点に効率的に送電できるわけではありません。専門家によると、米国はAIシステムの開発を支えるのに十分な電力を発電しているものの、配電網に問題があるとのことです。
[広告2]
ソースリンク
コメント (0)