بوسٹن کنسلٹنگ گروپ کے اعداد و شمار کا حوالہ دیتے ہوئے، بیرنز نے کہا کہ ڈیٹا سینٹرز 2030 تک امریکہ میں تمام دستیاب بجلی کا 7.5 فیصد استعمال کریں گے۔ AI سسٹمز کے لیے بنائے گئے ڈیٹا سینٹرز فی سہولت سینکڑوں میگا واٹ بجلی استعمال کر سکتے ہیں، اس لیے بجلی کی فراہمی کا نظام مزید ڈیٹا سینٹرز کی تعداد میں تیزی سے اضافے کے ساتھ نہیں رہ سکے گا۔
AI سرورز کی خدمت کے لیے توانائی کا بہت زیادہ مطالبہ
تجزیہ کے مطابق، 2022 سے 2030 تک، امریکہ میں ڈیٹا سینٹرز کی توانائی کی کھپت 126 سے 390 ٹیرا واٹ گھنٹے تک بڑھ جائے گی، جو 40 ملین امریکی گھرانوں کو فراہم کرنے کے لیے کافی ہوگی۔
650 گروپ کا اندازہ ہے کہ AI ضروریات کی فراہمی کرنے والے سرور سسٹمز کا حجم پچھلے سال سے 2028 تک چھ گنا بڑھ کر 6 ملین یونٹ ہو جائے گا۔ گارٹنر کی پیشن گوئی کے مطابق، ایک ایکسلریٹر سرور کی اوسط بجلی کی کھپت 650W سے بڑھ کر 1000W ہو جائے گی۔
توانائی کی کھپت نہ صرف سرورز کی تعداد میں اضافے کی وجہ سے بلکہ حالات کی وجہ سے بھی بڑھے گی۔ AI کو توانائی کی کھپت پر قابو پانے کے شعبے میں لا کر توانائی کی لاگت کو بہتر بنانے کی کوششیں اس رجحان کو محدود کرنے میں مدد کریں گی، لیکن اس سے مسئلہ مکمل طور پر حل نہیں ہوگا۔ زیادہ تر معاملات میں سرور سسٹمز کی مائع کولنگ میں منتقلی ناگزیر ہو گی۔ سپر مائیکرو کے مطابق، روایتی ایئر کولنگ سسٹم سے لیکویڈ کولنگ میں تبدیل کر کے ڈیٹا سینٹر کے آپریٹنگ اخراجات کو 40 فیصد سے زیادہ کم کیا جا سکتا ہے۔
علاقے کے پاور گرڈ کی ناہموار ترقی کی وجہ سے مسئلہ مزید بڑھ گیا ہے۔ اس کے علاوہ، تمام جگہیں پیدا ہونے والی بجلی کو موثر طریقے سے توانائی استعمال کرنے والے بڑے نظاموں کے مقامات پر منتقل نہیں کر سکتیں۔ ماہرین کا کہنا ہے کہ امریکہ AI نظام کی ترقی میں مدد کے لیے کافی بجلی پیدا کرتا ہے، لیکن ڈسٹری بیوشن گرڈ میں مسائل ہیں۔
ماخذ لنک
تبصرہ (0)