भविष्य में एआई के अनुप्रयोग में सुरक्षा सुनिश्चित करने के लिए इसे एक नाज़ुक लेकिन महत्वपूर्ण अवसर माना जा रहा है। यह विशेष रूप से इसलिए महत्वपूर्ण है क्योंकि वियतनाम ने हाल ही में कृत्रिम बुद्धिमत्ता (एआई) प्रबंधन पर विस्तृत नियमों के साथ डिजिटल प्रौद्योगिकी उद्योग पर कानून पारित किया है।
"अवसर की खिड़की" संकरी होती जा रही है
ओपनएआई के शोधकर्ता बोवेन बेकर ने बताया कि हाल ही में एक संयुक्त पत्र में शोधकर्ताओं ने चेतावनी दी थी कि केंद्रित शोध प्रयासों के बिना "विचारों" पर नजर रखने की एआई की क्षमता लुप्त हो सकती है।
यह विशेष रूप से महत्वपूर्ण है क्योंकि एआई मॉडल तेजी से शक्तिशाली होते जा रहे हैं और समाज पर गंभीर प्रभाव डालने की क्षमता रखते हैं।
ओपनएआई के ओ-3 और डीपसीक के आर1 जैसे तर्कशील एआई मॉडलों की एक प्रमुख विशेषता "विचार की श्रृंखला" ( सीओटी) है - वह प्रक्रिया जिसके द्वारा एआई अपने तर्क चरणों को प्राकृतिक भाषा में व्यक्त करता है, ठीक उसी तरह जैसे मनुष्य गणित की समस्या के प्रत्येक चरण को स्क्रैच पेपर पर लिखते हैं।
यह क्षमता हमें इस बात की दुर्लभ झलक देती है कि एआई किस प्रकार निर्णय लेता है।
यह एआई सुरक्षा पर अनुसंधान को आगे बढ़ाने के लिए एआई उद्योग में कई नेताओं के बीच एकता का एक दुर्लभ क्षण है।
एआई के विकास में तकनीकी कंपनियों के बीच कड़ी प्रतिस्पर्धा को देखते हुए यह विशेष रूप से प्रासंगिक है। इस पेपर पर हस्ताक्षर करने वाले प्रमुख लोगों में ओपनएआई के अनुसंधान निदेशक मार्क चेन, सेफ सुपरइंटेलिजेंस के सीईओ इल्या सुत्स्केवर, नोबेल पुरस्कार विजेता जेफ्री हिंटन, गूगल डीपमाइंड के सह-संस्थापक शेन लेग और एक्सएआई सुरक्षा सलाहकार डैन हेंड्रिक्स शामिल हैं।
इन शीर्ष नामों की भागीदारी इस मुद्दे के महत्व को दर्शाती है।
श्री बोवेन बेकर के आकलन के अनुसार, "हम एक महत्वपूर्ण क्षण में हैं, जब यह तथाकथित नई 'सोच की श्रृंखला' है, जो अगले कुछ वर्षों में गायब हो सकती है, यदि लोग वास्तव में इस पर ध्यान केंद्रित नहीं करते हैं।"

“एआई सोच” की निगरानी क्यों महत्वपूर्ण है?
वर्तमान एआई प्रणालियों को अक्सर "ब्लैक बॉक्स" के रूप में देखा जाता है - हम इनपुट और आउटपुट जानते हैं लेकिन अंदर की निर्णय लेने की प्रक्रिया को नहीं समझते हैं।
यह तब खतरनाक हो जाएगा जब एआई को स्वास्थ्य सेवा , वित्त और राष्ट्रीय सुरक्षा जैसे महत्वपूर्ण क्षेत्रों में लागू किया जाएगा।
सीओटी निगरानी एक स्वचालित प्रणाली है जो मानसिक मॉडल की तर्क श्रृंखला और अन्य प्रासंगिक जानकारी को पढ़कर संदिग्ध या संभावित रूप से हानिकारक अंतःक्रियाओं को चिह्नित करती है। यह एक पूर्ण समाधान नहीं है, लेकिन यह सुरक्षा की एक मूल्यवान परत बन सकती है।
ओपनएआई के शोध से पता चलता है कि एआई मॉडल अपने चिंतन क्रम में अपने इरादों के बारे में बहुत स्पष्ट होते हैं।
उदाहरण के लिए, जब वे सोचते थे कि "चलो हैक करते हैं" तो वे अक्सर किसी मिशन को विफल करने की अपनी योजना के बारे में बहुत स्पष्ट होते थे। यह एआई की दुर्व्यवहार पर नज़र रखने और उसका पता लगाने की क्षमता को दर्शाता है।
"चलो हैक करते हैं" वह वाक्यांश है जो एआई मॉडल अक्सर "सोचते" हैं जब "वे" किसी कार्य के निष्पादन के दौरान नियमों को तोड़ने या दरकिनार करने का इरादा रखते हैं।
यह तथ्य कि एआई अपनी विचार प्रक्रियाओं में "हैकिंग" की मंशा दिखाते हैं, यह दर्शाता है कि हम एआई के बुरे व्यवहार को उसके घटित होने से पहले ही पहचान सकते हैं। यही कारण है कि विचार प्रक्रियाओं की निगरानी महत्वपूर्ण है।
दूसरे शब्दों में, "चलो हैक करें" मनुष्यों के लिए एक "चेतावनी संकेत" की तरह है कि एआई कुछ गलत करने वाला है।
वियतनाम और एआई पर कानूनी नियम
वास्तव में, वियतनाम ने एआई के लिए कानूनी ढांचा तैयार करने में महत्वपूर्ण प्रगति की है।
14 जून को वियतनामी राष्ट्रीय असेंबली ने डिजिटल प्रौद्योगिकी उद्योग पर कानून पारित किया, जिसके अध्याय IV में कृत्रिम बुद्धिमत्ता पर विस्तृत विनियम शामिल हैं - जो आज दक्षिण पूर्व एशिया में एआई पर सबसे व्यापक कानूनी ढाँचों में से एक है।
कानून का अनुच्छेद 41 वियतनाम में एआई के विकास, प्रावधान और तैनाती के लिए बुनियादी सिद्धांतों को निर्धारित करता है।
विशेष रूप से, बिंदु बी, खंड 1 में यह प्रावधान है: "पारदर्शिता, जवाबदेही, स्पष्टीकरण सुनिश्चित करें; सुनिश्चित करें कि यह मानव नियंत्रण से परे न हो"।

नेशनल असेंबली ने डिजिटल प्रौद्योगिकी उद्योग पर कानून पारित किया (फोटो: नहत बाक)।
ये वे सिद्धांत हैं जिनकी मांग अंतर्राष्ट्रीय वैज्ञानिक एआई श्रृंखला निगरानी पर चर्चा करते समय कर रहे हैं।
इसके अलावा, अनुच्छेद 41 के खंड 1 के बिंदु d में यह प्रावधान है: "एल्गोरिदम और कृत्रिम बुद्धिमत्ता मॉडल को नियंत्रित करने की क्षमता सुनिश्चित करें"। यह CoT पर्यवेक्षण की उस भावना के पूरी तरह अनुरूप है जिसका प्रस्ताव अंतर्राष्ट्रीय विशेषज्ञ कर रहे हैं।
इससे भी महत्वपूर्ण बात यह है कि अनुच्छेद 41, खंड 1, बिंदु ए भी एक उच्च नैतिक मानक निर्धारित करता है जब यह निर्धारित करता है कि एआई को "लोगों को केंद्र में रखते हुए मानव समृद्धि और खुशी की सेवा करनी चाहिए"।
इसका मतलब यह है कि एआई विचार श्रृंखला की निगरानी करना न केवल एक तकनीकी आवश्यकता है, बल्कि एक नैतिक दायित्व भी है - यह सुनिश्चित करना कि एआई हमेशा मशीन के अपने लक्ष्यों के बजाय मानव लाभ की ओर निर्देशित हो।
जोखिम स्तर के आधार पर AI का वर्गीकरण और प्रबंधन करें
वियतनाम का डिजिटल प्रौद्योगिकी उद्योग कानून स्पष्ट और वैज्ञानिक परिभाषाओं के साथ एआई को विभिन्न जोखिम समूहों में वर्गीकृत करके एक कदम आगे बढ़ गया है।
अनुच्छेद 43 में "उच्च जोखिम वाली कृत्रिम बुद्धिमत्ता प्रणालियों" को ऐसी प्रणालियों के रूप में परिभाषित किया गया है जो मानव स्वास्थ्य, मानव अधिकारों और सार्वजनिक व्यवस्था के लिए गंभीर जोखिम या नुकसान उत्पन्न करने की संभावना रखती हैं।
दिलचस्प बात यह है कि अधिनियम उच्च जोखिम वाले एआई के लिए विशिष्ट अपवाद प्रदान करता है, जिसमें "कार्य परिणामों को अनुकूलित करने में मनुष्यों की सहायता करने के लिए" और "मानव निर्णय लेने को प्रतिस्थापित करने के लिए नहीं" प्रणालियां शामिल हैं।
यह नवाचार को प्रोत्साहित करने और सुरक्षा सुनिश्चित करने के बीच संतुलित मानसिकता को दर्शाता है।

जोखिम स्तर के आधार पर एआई को वर्गीकृत करने से बहुस्तरीय निगरानी प्रणाली बनाने में मदद मिलेगी (चित्रण: लिंक्डइन)।
विशेष रूप से, "उच्च जोखिम वाली एआई" और "उच्च प्रभाव वाली एआई" (बड़ी संख्या में उपयोगकर्ताओं के साथ कई उद्देश्यों के लिए उपयोग की जाने वाली प्रणालियाँ) के बीच अंतर करना दृष्टिकोण में सूक्ष्मता को प्रदर्शित करता है।
यह यूरोपीय संघ (ईयू) कृत्रिम बुद्धिमत्ता अधिनियम की तुलना में अधिक प्रगतिशील वर्गीकरण है, जो न केवल जोखिम के स्तर पर विचार करता है, बल्कि प्रभाव के पैमाने और दायरे पर भी विचार करता है।
यह वर्गीकरण एक बहुस्तरीय निरीक्षण प्रणाली बनाने में मदद करेगा, जहां चेतना-श्रृंखला निरीक्षण विशेष रूप से उच्च जोखिम और उच्च प्रभाव वाली एआई प्रणालियों के लिए महत्वपूर्ण होगा।
एआई निगरानी के लिए मंच
वियतनाम के उद्योग और डिजिटल प्रौद्योगिकी कानून की प्रमुख और अग्रणी विशेषताओं में से एक पारदर्शिता और पहचान चिह्नों की आवश्यकता है।
अनुच्छेद 44 में यह प्रावधान है कि मनुष्यों के साथ सीधे संपर्क करने वाली AI प्रणालियों को उपयोगकर्ताओं को सूचित करना होगा कि वे AI प्रणाली के साथ बातचीत कर रहे हैं। साथ ही, AI द्वारा निर्मित उत्पादों पर पहचान चिह्न होना आवश्यक है।
CoT निगरानी के कार्यान्वयन के लिए इसके महत्वपूर्ण निहितार्थ हैं। जब उपयोगकर्ताओं को पता होता है कि वे AI के साथ बातचीत कर रहे हैं, तो उन्हें निर्णय लेने की प्रक्रिया के स्पष्टीकरण की माँग करने का अधिकार है, जिससे AI डेवलपर्स पर AI की विचार प्रक्रिया की निगरानी करने की क्षमता बनाए रखने का सकारात्मक दबाव बनता है।
विशेष रूप से, यह तथ्य कि विज्ञान और प्रौद्योगिकी मंत्रालय को "कृत्रिम बुद्धिमत्ता द्वारा निर्मित डिजिटल प्रौद्योगिकी उत्पादों की सूची जारी करने" की जिम्मेदारी सौंपी गई है, सक्रिय प्रबंधन को दर्शाता है।
यह कई अन्य देशों से एक महत्वपूर्ण अंतर है, जहां एआई नियम अक्सर अधिक सामान्य होते हैं।
इसके अलावा, “मानव या मशीन पहचान के लिए” एक पहचानकर्ता की आवश्यकता एक एआई पारिस्थितिकी तंत्र की दृष्टि का प्रतिनिधित्व करती है जो स्वयं पुलिस कर सकती है - जो स्वचालित विचार श्रृंखला निगरानी के विचार के साथ पूरी तरह से फिट बैठती है।
व्यापक प्रबंधन मॉडल
उपरोक्त कानून का अनुच्छेद 45 एआई उत्पाद जीवन चक्र के अनुसार विषयों के 3 समूहों की जिम्मेदारियों को स्पष्ट रूप से परिभाषित करते समय एक प्रगतिशील प्रबंधन दर्शन को प्रदर्शित करता है: विषय विकसित करना, विषय प्रदान करना और विषय एआई सिस्टम की तैनाती और उपयोग करना।
इससे एक निर्बाध अंत-से-अंत जवाबदेही प्रणाली बनती है, जिससे यह सुनिश्चित होता है कि एआई निगरानी केवल एक पक्ष की जिम्मेदारी नहीं है।
उल्लेखनीय रूप से, एआई को "विकसित" करने और "प्रदान" करने के बीच एक सूक्ष्म अंतर है; डेवलपर्स वे हैं जो "अनुसंधान और विकास" करते हैं, जबकि प्रदाता वे हैं जो इसे एक ब्रांड नाम के तहत बाजार में लाते हैं।
इसका मतलब यह है कि यदि कोई कंपनी मौजूदा एआई मॉडल को पुनः ब्रांड भी कर दे, तो भी वह पारदर्शिता और स्पष्टीकरण के लिए जिम्मेदार है।

यहां विशेष रूप से दिलचस्प बात यह है कि कानून प्रत्येक विषय को अलग-अलग जिम्मेदारियां आवंटित करता है।
डेवलपर को सभी सिद्धांतों का पालन करना होगा, प्रदाता को पहचान और उच्च जोखिम प्रबंधन के लिए अतिरिक्त जिम्मेदारी लेनी होगी, और उपयोगकर्ता को कुछ जिम्मेदारी से "मुक्त" किया गया है, लेकिन फिर भी पारदर्शिता और जोखिम नियंत्रण सुनिश्चित करना होगा।
यह मॉडल एक "जिम्मेदारी की श्रृंखला" बनाता है जहां प्रत्येक लिंक को एआई सोच श्रृंखला की निगरानी बनाए रखने के लिए प्रोत्साहन मिलता है, क्योंकि सभी अंतिम उपयोगकर्ता के प्रति जवाबदेह हैं।
निगरानी क्षमताओं को बनाए रखने की चुनौती
हालाँकि, एआई विचार श्रृंखला की निगरानी करने की क्षमता अभी भी नाज़ुक और कमज़ोर बनी रह सकती है। नए एआई आर्किटेक्चर अन्य ख़तरे भी पैदा कर सकते हैं।
कई शोधकर्ता पृथक शब्दों के बजाय सतत गणितीय स्थान में तर्क की प्रणालियां विकसित कर रहे हैं, जो सोचने में भाषा के उपयोग की आवश्यकता को पूरी तरह से समाप्त कर सकती हैं।
इसके अलावा, एआई को "फ़िल्टर" किया जा सकता है - अर्थात, यह मनुष्यों को केवल सराहनीय सकारात्मक विचार दिखाता है, जबकि जानबूझकर अपने वास्तविक इरादों को छिपाता है।
यहां खतरा यह है कि एक बार जब एआई को यह पता चल जाता है कि उस पर नजर रखी जा रही है, तो वह अपने विचारों की वास्तविक श्रृंखला को छिपाना सीख सकता है।
इस संदर्भ में, वियतनामी कानून के अनुच्छेद 41 के बिंदु ई, खंड 1 में "कृत्रिम बुद्धिमत्ता प्रणाली के संपूर्ण जीवन चक्र में जोखिम नियंत्रण" संबंधी प्रावधान विशेष रूप से महत्वपूर्ण हो जाता है। इसके लिए केवल तैनाती के समय ही नहीं, बल्कि निरंतर निगरानी तंत्र की आवश्यकता है।
एआई विकास के भविष्य पर प्रभाव
विचार श्रृंखला की निगरानी करना यह सुनिश्चित करने के लिए एक महत्वपूर्ण उपकरण बन सकता है कि एआई मानव को लाभ पहुंचाने वाले तरीकों से कार्य करे।
यदि मॉडल प्राकृतिक भाषा में तर्क करना जारी रखते हैं और यदि सबसे गंभीर जोखिम पैदा करने वाले व्यवहारों के लिए व्यापक तर्क की आवश्यकता होती है, तो यह अभ्यास गंभीर कदाचार का विश्वसनीय पता लगाने में सक्षम हो सकता है।
वियतनाम के लिए, सीओटी निगरानी तकनीकों को लागू करने से कानूनी प्रावधानों को प्रभावी ढंग से लागू करने में मदद मिलेगी।
उदाहरण के लिए, अनुच्छेद 41 में "व्याख्यात्मकता" की आवश्यकता को पूरा करना आसान होगा यदि एआई की विचार प्रक्रियाएँ सुलभ हों। इसी प्रकार, "एल्गोरिदम, कृत्रिम बुद्धिमत्ता मॉडल पर नियंत्रण" अधिक व्यवहार्य हो जाएगा।
वियतनाम में एआई श्रृंखला निगरानी के कार्यान्वयन को कई चुनौतियों का सामना करना पड़ेगा। सबसे पहले, मानव संसाधन का मुद्दा है - निगरानी प्रणालियों को विकसित और संचालित करने में सक्षम एआई विशेषज्ञों की कमी।
इसके लिए प्रशिक्षण और प्रतिभा आकर्षण में भारी निवेश की आवश्यकता है।
भविष्य के लिए दिशा-निर्देश
शोधकर्ताओं ने अग्रणी एआई मॉडल डेवलपर्स से आग्रह किया है कि वे इस बात पर शोध करें कि कौन से कारक सीओटी को "निगरानी योग्य" बनाते हैं और कौन से कारक एआई मॉडल कैसे काम करते हैं, इस बारे में पारदर्शिता को बढ़ा या घटा सकते हैं, तथा शीघ्र ही इसका उत्तर दें।
एआई "सोच" पर नजर रखने का अवसर आज की तेजी से शक्तिशाली होती कृत्रिम बुद्धिमत्ता प्रणालियों पर नियंत्रण बनाए रखने का हमारा आखिरी अवसर हो सकता है।

वियतनाम के लिए, डिजिटल प्रौद्योगिकी उद्योग कानून के माध्यम से एआई पर एक व्यापक कानूनी ढाँचा होना एक बड़ा लाभ है। पारदर्शिता, एल्गोरिथम नियंत्रण और जोखिम वर्गीकरण संबंधी विनियमों ने एआई श्रृंखला-आधारित विचार निगरानी तकनीकों को लागू करने के लिए एक ठोस कानूनी आधार तैयार किया है।
अत्याधुनिक अंतर्राष्ट्रीय अनुसंधान और प्रगतिशील घरेलू कानूनी ढांचे के संयोजन से वियतनाम को न केवल सुरक्षित रूप से एआई विकसित करने में मदद मिलेगी, बल्कि वह क्षेत्र के अन्य देशों के लिए एक आदर्श भी बन सकेगा।
यह राष्ट्रीय विकास रणनीतियों में निर्धारित वियतनाम को “क्षेत्रीय और वैश्विक डिजिटल प्रौद्योगिकी केंद्र” में बदलने के लक्ष्य के अनुरूप है।
मौजूदा कानूनी आधार के साथ, वियतनाम को एआई विचार श्रृंखला की निगरानी पर अनुसंधान और व्यावहारिक अनुप्रयोगों को शीघ्रता से लागू करने की आवश्यकता है। ऐसा करके ही हम यह सुनिश्चित कर सकते हैं कि एआई "मानव समृद्धि और खुशी" की सेवा करेगा, जैसा कि डिजिटल प्रौद्योगिकी उद्योग कानून की भावना ने निर्देशित किया है।
स्रोत: https://dantri.com.vn/cong-nghe/giam-sat-chuoi-tu-duy-cua-tri-tue-nhan-tao-20250731151403739.htm
टिप्पणी (0)