Barron's dergisi, Boston Consulting Group'tan alınan verilere dayanarak, veri merkezlerinin 2030 yılına kadar ABD'deki toplam elektriğin %7,5'ini tüketeceğini belirtti. Yapay zeka sistemleri için inşa edilen veri merkezleri, tesis başına yüzlerce megawatt elektrik tüketebiliyor; bu da elektrik tedarik sisteminin veri merkezlerinin sayısındaki hızlı artışa ayak uyduramayacağı anlamına geliyor.
Yapay zeka sunucularını çalıştırmak için gereken enerji miktarı çok büyük.
Analiz ayrıca, 2022'den 2030'a kadar ABD'deki veri merkezlerinin enerji tüketiminin 126 terawatt-saatten 390 terawatt-saate yükseleceğini, bu miktarın 40 milyon Amerikan hanesinin elektrik ihtiyacını karşılamaya yetecek bir miktar olduğunu gösteriyor.
650 Group'un tahminlerine göre, yapay zeka ihtiyaçlarını karşılayan sunucu sistemlerinin sayısı geçen yıla göre altı kat artarak 2028'e kadar 6 milyon adede ulaşacak. Gartner ise bir hızlandırıcı sunucunun ortalama güç tüketiminin 650 W'tan 1.000 W'a çıkacağını öngörüyor.
Enerji tüketimi, yalnızca sunucu sayısının artması nedeniyle değil, aynı zamanda koşullar nedeniyle de artacaktır. Enerji tüketimi kontrolünde yapay zekanın uygulanması yoluyla enerji maliyetlerini optimize etme çabaları bu eğilimi kısmen hafifletecek, ancak sorunu tamamen çözmeyecektir. Sunucu sistemleri için sıvı soğutmaya geçiş çoğu durumda kaçınılmaz olacaktır. Super Micro'ya göre, geleneksel hava soğutma sistemlerinin sıvı soğutma lehine ortadan kaldırılmasıyla veri merkezi işletme maliyetleri %40'tan fazla azaltılabilir.
Sorun, bölgesel elektrik tedarik ağının dengesiz gelişimiyle daha da kötüleşiyor. Ayrıca, tüm lokasyonlar üretilen elektriği yüksek enerji tüketen sistemlerin bulunduğu yerlere verimli bir şekilde iletemiyor. Uzmanlar, ABD'nin yapay zeka gelişimini destekleyecek kadar elektrik ürettiğine inanıyor, ancak dağıtım ağı sorunlu.
[reklam_2]
Kaynak bağlantısı






Yorum (0)