एआई पर नियंत्रण खोने का जोखिम
ऐसा लगता है कि मानवता क्षितिज पर मंडरा रहे एक खतरे को नज़रअंदाज़ कर रही है: कृत्रिम बुद्धिमत्ता (एआई) के कारण होने वाले वैश्विक परमाणु युद्ध का खतरा। संयुक्त राष्ट्र महासचिव एंटोनियो गुटेरेस ने इसके बारे में चेतावनी दी है। लेकिन अभी तक, परमाणु-सशस्त्र देश इस भयावह खतरे से निपटने के लिए एक साथ नहीं आए हैं।
कृत्रिम बुद्धिमत्ता (एआई) के तेज़ी से विकास से यह ख़तरा पैदा हो रहा है कि एआई परमाणु हथियार प्रक्षेपण प्रक्रिया में हस्तक्षेप कर सकता है। चित्रांकन
पांच सबसे बड़ी परमाणु शक्तियों - अमेरिका, रूस, चीन, ब्रिटेन और फ्रांस - के बीच "मानव को शामिल करना" सिद्धांत पर लंबे समय से अनौपचारिक सहमति रही है, जिसका अर्थ है कि प्रत्येक देश के पास यह सुनिश्चित करने के लिए एक प्रणाली है कि परमाणु हथियार लॉन्च करने के निर्णय में मानव शामिल हो।
पाँचों शक्तियों में से किसी ने भी यह नहीं कहा है कि उन्होंने अपने परमाणु प्रक्षेपण कमांड सिस्टम में एआई का इस्तेमाल किया है। मुंबई, भारत स्थित एक अंतरराष्ट्रीय शोध संगठन, स्ट्रैटेजिक फ़ोरसाइट ग्रुप के अध्यक्ष डॉ. संदीप वासलेकर के अनुसार, यह बात सच तो है, लेकिन भ्रामक भी है।
खतरे का पता लगाने और लक्ष्य चयन के लिए एआई का इस्तेमाल पहले से ही किया जा रहा है। एआई-संचालित प्रणालियाँ सेंसर, उपग्रहों और रडार से प्राप्त बड़ी मात्रा में डेटा का वास्तविक समय में विश्लेषण करती हैं, आने वाले मिसाइल हमलों का विश्लेषण करती हैं और प्रतिक्रिया के विकल्प सुझाती हैं।
इसके बाद ऑपरेटर विभिन्न स्रोतों से आने वाले खतरे की जांच करता है और निर्णय लेता है कि दुश्मन की मिसाइलों को रोका जाए या जवाबी हमला किया जाए।
"वर्तमान में, मानव ऑपरेटरों के लिए उपलब्ध प्रतिक्रिया समय 10 से 15 मिनट है। 2030 तक, यह घटकर 5 से 7 मिनट रह जाएगा," संदीप वासलेकर ने कहा। "हालाँकि अंतिम निर्णय मनुष्य ही लेंगे, वे एआई के पूर्वानुमानात्मक और निर्देशात्मक विश्लेषण से प्रभावित होंगे। 2030 के दशक की शुरुआत में ही प्रक्षेपण संबंधी निर्णयों के पीछे एआई प्रेरक शक्ति बन सकता है।"
समस्या यह है कि एआई गलत भी हो सकता है। ख़तरा-पहचान एल्गोरिदम मिसाइल हमले का संकेत तब दे सकते हैं जब कोई हमला हो ही नहीं रहा हो। ऐसा कंप्यूटर की त्रुटियों, नेटवर्क में घुसपैठ, या पर्यावरणीय कारकों के कारण हो सकता है जो संकेतों को अस्पष्ट कर देते हैं। जब तक मानव ऑपरेटर दो से तीन मिनट के भीतर अन्य स्रोतों से आने वाले झूठे अलार्म की पुष्टि नहीं कर लेते, तब तक वे जवाबी हमले शुरू कर सकते हैं।
बहुत छोटी सी गलती, बहुत बड़ी आपदा
अपराध की भविष्यवाणी, चेहरे की पहचान और कैंसर के निदान जैसे कई नागरिक कार्यों में एआई के इस्तेमाल में त्रुटि की संभावना 10% तक होती है। संदीप वासलेकर के अनुसार, परमाणु पूर्व चेतावनी प्रणालियों में त्रुटि की संभावना लगभग 5% हो सकती है।
अगले दशक में जैसे-जैसे छवि पहचान एल्गोरिदम की सटीकता में सुधार होगा, त्रुटि का यह मार्जिन 1-2% तक गिर सकता है। लेकिन 1% की त्रुटि भी वैश्विक परमाणु युद्ध शुरू कर सकती है।
परमाणु हथियारों पर हमला करने या जवाबी कार्रवाई करने के फ़ैसले एआई की ग़लतियों के कारण हो सकते हैं। फ़ोटो: मॉडर्न वॉर इंस्टीट्यूट
अगले दो-तीन सालों में यह खतरा और बढ़ सकता है क्योंकि नए मैलवेयर सामने आ रहे हैं जो ख़तरा पहचान प्रणालियों से बच निकलने में सक्षम हैं। ये मैलवेयर पहचान से बचने के लिए खुद को ढाल लेंगे, अपने लक्ष्यों की स्वचालित रूप से पहचान करेंगे और उन पर हमला करेंगे।
शीत युद्ध के दौरान कई बार "खतरनाक" स्थितियाँ आईं। 1983 में, एक सोवियत उपग्रह ने गलती से संयुक्त राज्य अमेरिका द्वारा प्रक्षेपित पाँच मिसाइलों का पता लगा लिया। रूस के सेपुखोव-15 कमांड सेंटर के एक अधिकारी, स्टैनिस्लाव पेत्रोव ने निष्कर्ष निकाला कि यह एक झूठा अलार्म था और उन्होंने अपने वरिष्ठों को सचेत नहीं किया ताकि वे जवाबी हमला कर सकें।
1995 में, ओलेनेगोर्स्क रडार स्टेशन ने नॉर्वे के तट पर एक मिसाइल हमले का पता लगाया। रूस की सामरिक सेनाओं को हाई अलर्ट पर रखा गया और तत्कालीन राष्ट्रपति बोरिस येल्तसिन को परमाणु ब्रीफ़केस सौंपा गया। उन्हें संदेह हुआ कि यह एक गलती थी और उन्होंने बटन नहीं दबाया। यह एक वैज्ञानिक मिसाइल निकली। अगर किसी भी स्थिति में प्रतिक्रिया निर्धारित करने के लिए कृत्रिम बुद्धिमत्ता (एआई) का इस्तेमाल किया जाता, तो परिणाम भयावह हो सकते थे।
हाइपरसोनिक मिसाइलें आजकल एआई के बजाय पारंपरिक स्वचालन का उपयोग करती हैं। ये रडार की पकड़ से बचते हुए और अपने उड़ान पथ को नियंत्रित करते हुए, मैक 5 से मैक 25 की गति से यात्रा कर सकती हैं। महाशक्तियाँ गतिशील लक्ष्यों का तुरंत पता लगाने और उन्हें नष्ट करने के लिए हाइपरसोनिक मिसाइलों को एआई से लैस करने की योजना बना रही हैं, जिससे मारने का निर्णय मनुष्यों से मशीनों के हाथ में चला जाएगा।
सामान्य कृत्रिम बुद्धिमत्ता विकसित करने की भी होड़ चल रही है, जिससे ऐसे कृत्रिम बुद्धिमत्ता मॉडल विकसित हो सकते हैं जो मानव नियंत्रण से परे काम करते हैं। जब ऐसा होगा, तो कृत्रिम बुद्धिमत्ता प्रणालियाँ खुद को बेहतर बनाना और दोहराना सीखेंगी, और निर्णय लेने की प्रक्रियाओं को अपने नियंत्रण में ले लेंगी। अगर ऐसी कृत्रिम बुद्धिमत्ता को परमाणु हथियारों के लिए निर्णय-समर्थन प्रणालियों में एकीकृत किया जाए, तो मशीनें विनाशकारी युद्ध शुरू करने में सक्षम होंगी।
कार्रवाई का समय
उपरोक्त जोखिमों को देखते हुए, कई विशेषज्ञों का मानना है कि मानवता को परमाणु युद्ध के जोखिम को कम करने के लिए प्रमुख शक्तियों के बीच एक व्यापक समझौते की आवश्यकता है, जो कि "मानव लूप में है" के नारे को दोहराने से आगे बढ़ेगा।
इस समझौते में पारदर्शिता, जवाबदेही और सहयोग के उपाय; परीक्षण और मूल्यांकन के लिए अंतर्राष्ट्रीय मानक; संकट संचार चैनल; राष्ट्रीय निरीक्षण बोर्ड; और आक्रामक एआई मॉडल को प्रतिबंधित करने के नियम शामिल होने चाहिए जो मानव ऑपरेटरों को दरकिनार करने में सक्षम हैं।
महासचिव एंटोनियो गुटेरेस हिरोशिमा में एक शांति स्मारक समारोह में भाग लेते हुए, जिस पर 1945 में परमाणु बम गिरा था। फोटो: संयुक्त राष्ट्र
भू-राजनीतिक बदलाव ऐसे समझौते के लिए अवसर पैदा कर रहे हैं। उदाहरण के लिए, चीन और अमेरिका के प्रमुख एआई विशेषज्ञों ने एआई जोखिमों पर कई ट्रैक-टू संवादों में भाग लिया है, जिसके परिणामस्वरूप पिछले नवंबर में पूर्व अमेरिकी राष्ट्रपति जो बाइडेन और चीनी राष्ट्रपति शी जिनपिंग ने एक संयुक्त बयान जारी किया था।
अरबपति एलन मस्क एआई द्वारा उत्पन्न अस्तित्वगत जोखिमों से मानवता को बचाने की आवश्यकता के प्रबल समर्थक हैं, और डॉ. संदीप वासलेकर के अनुसार, वह वर्तमान अमेरिकी राष्ट्रपति डोनाल्ड ट्रम्प से जो बिडेन और शी जिनपिंग के बीच संयुक्त बयान को एक संधि में बदलने का आग्रह कर सकते हैं।
डॉ. संदीप वासलेकर के अनुसार, एआई-परमाणु चुनौती में रूस की भागीदारी भी आवश्यक है। इस साल जनवरी तक, रूस ने यूक्रेन पर चर्चा के बिना, एआई के साथ अभिसरण सहित किसी भी परमाणु जोखिम न्यूनीकरण उपाय पर चर्चा करने से इनकार कर दिया था।
राष्ट्रपति डोनाल्ड ट्रम्प द्वारा द्विपक्षीय संबंधों को सुधारने तथा यूक्रेन में युद्ध को समाप्त करने के लिए रूसी राष्ट्रपति व्लादिमीर पुतिन के साथ बातचीत करने के बाद, रूस अब चर्चा के लिए तैयार हो सकता है।
इस वर्ष फरवरी में, पेरिस एआई एक्शन समिट में अमेरिकी उपराष्ट्रपति जेडी वेंस के भाषण के बाद, सेंटर फॉर ए न्यू अमेरिकन सिक्योरिटी (सीएनएएस) ने भी "एआई प्रलय दिवस की रोकथाम: परमाणु हथियारों और कृत्रिम बुद्धिमत्ता के गठजोड़ पर अमेरिका-चीन-रूस प्रतिस्पर्धा" शीर्षक से एक रिपोर्ट प्रकाशित की।
रिपोर्ट में एआई-परमाणु गठजोड़ के सबसे महत्वपूर्ण जोखिमों की पहचान की गई है और अमेरिकी प्रशासन से चीन और रूस के साथ जोखिम न्यूनीकरण और संकट प्रबंधन तंत्र का एक व्यापक सेट स्थापित करने का आग्रह किया गया है।
इससे पहले, पिछले साल सितंबर में, दक्षिण कोरिया के सियोल में आयोजित रिस्पॉन्सिबल एआई इन मिलिट्री समिट (REAIM) में, अमेरिका समेत लगभग 60 देशों ने सेना में एआई के ज़िम्मेदाराना इस्तेमाल के प्रबंधन के लिए एक "कार्ययोजना" को अपनाया था। पिछले साल हेग में आयोजित सम्मेलन के बाद, यह अपनी तरह का दूसरा सम्मेलन था। इन गतिविधियों से पता चलता है कि एआई द्वारा शुरू किए गए परमाणु युद्ध का ख़तरा कोई विज्ञान कथा नहीं है।
विश्व स्पष्ट रूप से एक तेजी से बढ़ती हुई अस्तित्वगत समस्या का सामना कर रहा है, जिसके लिए परमाणु शक्तियों द्वारा वास्तविक कार्रवाई की आवश्यकता है, ताकि यह सुनिश्चित किया जा सके कि "परमाणु हथियारों के उपयोग के बारे में हर निर्णय लोगों द्वारा लिया जाए, न कि मशीनों या एल्गोरिदम द्वारा" - जैसा कि संयुक्त राष्ट्र महासचिव एंटोनियो गुटेरेस ने आह्वान किया है।
गुयेन खान










टिप्पणी (0)