Boston Consulting Group'un verilerine atıfta bulunan Barron's, veri merkezlerinin 2030 yılına kadar ABD'deki mevcut elektriğin %7,5'ini tüketeceğini belirtti. Yapay zeka sistemleri için inşa edilen veri merkezleri, tesis başına yüzlerce megavat elektrik tüketebilir; bu nedenle güç kaynağı sistemi artık veri merkezi sayısındaki hızlı artışa ayak uyduramayacak.
Yapay zeka sunucularına güç sağlamak için büyük enerji talepleri
Analize göre, 2022-2030 yılları arasında ABD'deki veri merkezlerinin enerji tüketimi 126 terawatt saatten 390 terawatt saate çıkacak ve bu da 40 milyon ABD hanesinin enerji ihtiyacını karşılamaya yetecek.
650 Group, yapay zeka ihtiyaçlarını karşılayan sunucu sistemlerinin hacminin 2028 yılına göre altı kat artarak 6 milyon üniteye ulaşacağını tahmin ediyor. Gartner'ın tahminine göre, bir hızlandırıcı sunucunun ortalama güç tüketimi 650 W'tan 1.000 W'a yükselecek.
Enerji tüketimi yalnızca sunucu sayısındaki artıştan değil, aynı zamanda mevcut koşullardan da kaynaklanacaktır. Yapay zekâyı enerji tüketimi kontrolü alanına dahil ederek enerji maliyetlerini optimize etme çabaları bu eğilimi sınırlamaya yardımcı olacak, ancak sorunu tamamen çözmeyecektir. Sunucu sistemlerinde sıvı soğutmaya geçiş çoğu durumda kaçınılmaz olacaktır. Super Micro'ya göre, geleneksel hava soğutma sistemleri yerine sıvı soğutmaya geçildiğinde veri merkezi işletme maliyetleri %40'tan fazla azaltılabilir.
Bölgenin elektrik şebekesinin dengesiz gelişimi sorunu daha da kötüleştiriyor. Ayrıca, üretilen elektriğin tüm lokasyonlarda büyük enerji tüketen sistemlerin bulunduğu yerlere verimli bir şekilde iletilebilmesi mümkün değil. Uzmanlar, ABD'nin yapay zeka sistemlerinin gelişimini destekleyecek kadar elektrik ürettiğini, ancak dağıtım şebekesinde sorunlar olduğunu söylüyor.
[reklam_2]
Kaynak bağlantısı






Yorum (0)