Boston Consulting Group کے اعداد و شمار کا حوالہ دیتے ہوئے، Barron's نے کہا کہ ڈیٹا سینٹرز 2030 تک امریکہ میں دستیاب کل بجلی کا 7.5% استعمال کریں گے۔ AI سسٹمز کے لیے بنائے گئے ڈیٹا سینٹرز فی سہولت سینکڑوں میگا واٹ بجلی استعمال کر سکتے ہیں، یعنی بجلی کی فراہمی کا نظام اب ڈیٹا سینٹرز کی تعداد میں تیزی سے اضافے کے ساتھ برقرار نہیں رہ سکے گا۔
توانائی کے مطالبات AI سرورز کے لیے بہت زیادہ ہیں۔
تجزیہ یہ بھی بتاتا ہے کہ 2022 سے 2030 تک، امریکہ میں ڈیٹا سینٹرز کی توانائی کی کھپت 126 سے بڑھ کر 390 ٹیرا واٹ گھنٹے ہو جائے گی، جو کہ 40 ملین امریکی گھرانوں کو بجلی فراہم کرنے کے لیے کافی ہے۔
650 گروپ کے تخمینے بتاتے ہیں کہ AI ضروریات کی فراہمی کرنے والے سرور سسٹمز کا حجم پچھلے سال سے 2028 تک چھ گنا بڑھ جائے گا، جو 6 ملین یونٹ تک پہنچ جائے گا۔ گارٹنر نے پیشن گوئی کی ہے کہ ایکسلریٹر سرور کی اوسط بجلی کی کھپت 650W سے بڑھ کر 1,000W ہو جائے گی۔
توانائی کی کھپت نہ صرف سرورز کی بڑھتی ہوئی تعداد کی وجہ سے بلکہ حالات کی وجہ سے بھی بڑھے گی۔ توانائی کی کھپت کے کنٹرول میں AI کے اطلاق کے ذریعے توانائی کی لاگت کو بہتر بنانے کی کوششیں اس رجحان کو جزوی طور پر کم کر دے گی، لیکن اس سے مسئلہ مکمل طور پر حل نہیں ہوگا۔ زیادہ تر معاملات میں سرور سسٹمز کے لیے مائع کولنگ میں منتقلی ناگزیر ہو گی۔ سپر مائیکرو کے مطابق، مائع کولنگ کے حق میں روایتی ایئر کولنگ سسٹم کو ختم کر کے ڈیٹا سینٹر کے آپریٹنگ اخراجات کو 40 فیصد سے زیادہ کم کیا جا سکتا ہے۔
علاقائی پاور سپلائی نیٹ ورک کی ناہموار ترقی کی وجہ سے مسئلہ مزید بڑھ گیا ہے۔ مزید برآں، تمام مقامات موثر طریقے سے پیدا ہونے والی بجلی کو زیادہ توانائی استعمال کرنے والے نظاموں کی جگہوں پر منتقل نہیں کر سکتے۔ ماہرین کا خیال ہے کہ امریکہ AI کی ترقی میں مدد کے لیے کافی بجلی پیدا کرتا ہے، لیکن تقسیم کا نیٹ ورک مسائل کا شکار ہے۔
ماخذ لنک






تبصرہ (0)