Boston Consulting Group'un verilerine atıfta bulunan Barron's, veri merkezlerinin 2030 yılına kadar ABD'deki mevcut elektriğin %7,5'ini tüketeceğini belirtti. Yapay zeka sistemleri için inşa edilen veri merkezleri, tesis başına yüzlerce megavat elektrik tüketebilir, bu nedenle güç kaynağı sistemi artık veri merkezi sayısındaki hızlı artışa ayak uyduramayacak.
Yapay zeka sunucularına hizmet vermek için büyük enerji talepleri
Analize göre, 2022-2030 yılları arasında ABD'deki veri merkezlerinin enerji tüketimi 126 terawatt saatten 390 terawatt saate çıkacak ve bu da 40 milyon ABD hanesinin enerji ihtiyacını karşılamaya yetecek.
650 Group, yapay zeka ihtiyaçlarını karşılayan sunucu sistemlerinin hacminin 2028 yılına göre altı kat artarak 6 milyon üniteye ulaşacağını tahmin ediyor. Gartner'ın tahminine göre, bir hızlandırıcı sunucunun ortalama güç tüketimi 650 W'tan 1.000 W'a yükselecek.
Enerji tüketimi yalnızca sunucu sayısındaki artıştan değil, aynı zamanda mevcut koşullardan da kaynaklanacaktır. Yapay zekâyı enerji tüketimi kontrolü alanına taşıyarak enerji maliyetlerini optimize etme çabaları bu eğilimi sınırlamaya yardımcı olacak, ancak sorunu tamamen çözmeyecektir. Sunucu sistemlerinde sıvı soğutmaya geçiş çoğu durumda kaçınılmaz olacaktır. Super Micro'ya göre, geleneksel hava soğutma sistemlerinden sıvı soğutmaya geçilerek veri merkezi işletme maliyetleri %40'tan fazla azaltılabilir.
Bölgenin elektrik şebekesinin dengesiz gelişimi sorunu daha da kötüleştiriyor. Ayrıca, tüm lokasyonlar üretilen elektriği büyük enerji tüketen sistemlerin bulunduğu yerlere verimli bir şekilde iletemiyor. Uzmanlar, ABD'nin yapay zeka sistemlerinin gelişimini destekleyecek kadar elektrik ürettiğini, ancak dağıtım şebekesinde sorunlar olduğunu söylüyor.
[reklam_2]
Kaynak bağlantısı
Yorum (0)