با استناد به دادههای گروه مشاوره بوستون، بارونز اظهار داشت که مراکز داده تا سال ۲۰۳۰، ۷.۵ درصد از کل برق موجود در ایالات متحده را مصرف خواهند کرد. مراکز داده ساخته شده برای سیستمهای هوش مصنوعی میتوانند صدها مگاوات برق در هر مرکز مصرف کنند، به این معنی که سیستم تامین برق دیگر قادر به همگام شدن با رشد سریع تعداد مراکز داده نخواهد بود.
تقاضای انرژی برای تأمین انرژی سرورهای هوش مصنوعی بسیار زیاد است.
این تحلیل همچنین نشان میدهد که از سال ۲۰۲۲ تا ۲۰۳۰، مصرف انرژی مراکز داده در ایالات متحده از ۱۲۶ به ۳۹۰ تراوات ساعت افزایش خواهد یافت، میزان برقی که برای تأمین انرژی ۴۰ میلیون خانوار آمریکایی کافی است.
برآوردهای گروه ۶۵۰ نشان میدهد که حجم سیستمهای سروری که نیازهای هوش مصنوعی را تأمین میکنند، از سال گذشته تا سال ۲۰۲۸ شش برابر افزایش یافته و به ۶ میلیون واحد خواهد رسید. گارتنر پیشبینی میکند که میانگین مصرف برق یک سرور شتابدهنده از ۶۵۰ وات به ۱۰۰۰ وات افزایش خواهد یافت.
مصرف انرژی نه تنها به دلیل افزایش تعداد سرورها، بلکه به دلیل شرایط نیز افزایش خواهد یافت. تلاش برای بهینهسازی هزینههای انرژی از طریق بهکارگیری هوش مصنوعی در کنترل مصرف انرژی، تا حدی این روند را کاهش میدهد، اما مشکل را به طور کامل حل نمیکند. گذار به خنککننده مایع برای سیستمهای سرور در بیشتر موارد اجتنابناپذیر خواهد بود. طبق گفته سوپر میکرو، با حذف سیستمهای خنککننده هوای سنتی و جایگزینی آنها با خنککننده مایع، میتوان هزینههای عملیاتی مراکز داده را بیش از ۴۰ درصد کاهش داد.
این مشکل با توسعه نامتوازن شبکه تامین برق منطقهای تشدید میشود. علاوه بر این، همه مکانها نمیتوانند برق تولید شده را به طور موثر به سایتهای سیستمهای پرمصرف انرژی منتقل کنند. کارشناسان معتقدند که ایالات متحده برق کافی برای پشتیبانی از توسعه هوش مصنوعی تولید میکند، اما شبکه توزیع مشکلساز است.
لینک منبع






نظر (0)