बोस्टन कंसल्टिंग ग्रुप के आंकड़ों का हवाला देते हुए, बैरन्स ने कहा कि 2030 तक डेटा सेंटर अमेरिका में उपलब्ध कुल बिजली का 7.5% खपत करेंगे। एआई सिस्टम के लिए निर्मित डेटा सेंटर प्रति सुविधा सैकड़ों मेगावाट बिजली की खपत कर सकते हैं, जिसका अर्थ है कि बिजली आपूर्ति प्रणाली डेटा सेंटरों की संख्या में तेजी से हो रही वृद्धि के साथ तालमेल बिठाने में सक्षम नहीं रह जाएगी।
एआई सर्वरों को चलाने के लिए ऊर्जा की मांग बहुत अधिक है।
विश्लेषण से यह भी पता चलता है कि 2022 से 2030 तक, अमेरिका में डेटा केंद्रों की ऊर्जा खपत 126 से बढ़कर 390 टेरावॉट-घंटे हो जाएगी, जो कि 40 मिलियन अमेरिकी घरों को बिजली देने के लिए पर्याप्त बिजली है।
650 ग्रुप के अनुमानों के अनुसार, एआई की जरूरतों को पूरा करने वाले सर्वर सिस्टम की संख्या पिछले वर्ष की तुलना में 2028 तक छह गुना बढ़कर 60 लाख यूनिट तक पहुंच जाएगी। गार्टनर का अनुमान है कि एक्सेलेरेटर सर्वर की औसत बिजली खपत 650 वाट से बढ़कर 1000 वाट हो जाएगी।
सर्वरों की बढ़ती संख्या के साथ-साथ अन्य परिस्थितियों के कारण भी ऊर्जा की खपत बढ़ेगी। ऊर्जा खपत नियंत्रण में कृत्रिम बुद्धिमत्ता (AI) के प्रयोग से ऊर्जा लागत को अनुकूलित करने के प्रयास इस प्रवृत्ति को कुछ हद तक कम कर सकते हैं, लेकिन समस्या का पूर्ण समाधान नहीं कर पाएंगे। अधिकांश मामलों में सर्वर सिस्टम के लिए लिक्विड कूलिंग की ओर बदलाव अपरिहार्य होगा। सुपर माइक्रो के अनुसार, पारंपरिक एयर कूलिंग सिस्टम को हटाकर लिक्विड कूलिंग सिस्टम अपनाने से डेटा सेंटर के परिचालन लागत में 40% से अधिक की कमी की जा सकती है।
क्षेत्रीय बिजली आपूर्ति नेटवर्क के असमान विकास से समस्या और भी बढ़ जाती है। इसके अलावा, सभी स्थानों पर उच्च ऊर्जा खपत वाले सिस्टमों तक उत्पादित बिजली को कुशलतापूर्वक पहुँचाना संभव नहीं है। विशेषज्ञों का मानना है कि अमेरिका कृत्रिम बुद्धिमत्ता के विकास के लिए पर्याप्त बिजली का उत्पादन करता है, लेकिन वितरण नेटवर्क में समस्याएँ हैं।
[विज्ञापन_2]
स्रोत लिंक






टिप्पणी (0)