कृत्रिम बुद्धिमत्ता (एआई) के संबंध में, राष्ट्रीय सभा ने डिजिटल प्रौद्योगिकी उद्योग कानून पारित किया है, जिसमें एआई को विनियमित करने वाला एक अध्याय शामिल है। यह एआई के विकास और अनुप्रयोग के लिए प्रारंभिक कानूनी आधार है। हालांकि, ये नियम अभी तक एक व्यापक कानूनी ढांचा तैयार नहीं कर पाए हैं, जो एआई के अनुसंधान, विकास, तैनाती और उपयोग तथा एक व्यापक एआई पारिस्थितिकी तंत्र को सुगम बनाने के लिए पर्याप्त रूप से खुला हो।
इसके अलावा, हमारे पास एआई सिस्टम के जोखिमों को वर्गीकृत और नियंत्रित करने के लिए कोई तंत्र नहीं है; एआई सिस्टम, विशेष रूप से उच्च जोखिम वाले एआई सिस्टम, के निरीक्षण, लाइसेंसिंग और निगरानी के लिए कोई तंत्र नहीं है; और उच्च गुणवत्ता वाले एआई मानव संसाधनों को विकसित करने और आकर्षित करने के लिए तंत्र और नीतियों का भी अभाव है। हालांकि संकल्प संख्या 57-एनक्यू/टीडब्ल्यू में स्पष्ट रूप से कहा गया है कि "डेटा को उत्पादन का मुख्य साधन बनाना" और "डेटा अर्थव्यवस्था और डेटा बाजार का विकास करना" आवश्यक है, फिर भी एआई मॉडल को प्रशिक्षित करने के लिए डेटा का संग्रह, प्रसंस्करण, साझाकरण और उपयोग वर्तमान में कई कठिनाइयों का सामना कर रहा है। राष्ट्रीय डेटाबेस और उद्योग डेटाबेस के बीच डेटा का जुड़ाव और साझाकरण अभी भी धीमा है और बड़े पैमाने पर एआई सिस्टम विकसित करने की आवश्यकताओं को पूरा नहीं करता है।
यह उल्लेखनीय है कि कृत्रिम बुद्धिमत्ता (एआई) से होने वाले नुकसान के मामले में कानूनी जिम्मेदारी का अभाव है। एआई द्वारा उत्पन्न परिणामों से निपटने में यह कानूनी कमी सबसे बड़ी चुनौतियों में से एक है। सवाल यह है कि जब कोई एआई प्रणाली नुकसान पहुंचाती है, जैसे कि: एक स्व-चालित कार दुर्घटना का कारण बनती है, या एक चिकित्सा निदान सॉफ्टवेयर गलत परिणाम देता है... तो कौन जिम्मेदार होगा? क्या यह डेवलपर, निर्माता, उपयोगकर्ता या स्वयं एआई प्रणाली होगी? जब तक हमारे पास जिम्मेदारी पर कोई विशिष्ट नियम नहीं हैं, एआई का उपयोग करने वाले उपभोक्ताओं और व्यवसायों के लिए यह एक बड़ा जोखिम होगा।
बात यहीं खत्म नहीं होती, कृत्रिम बुद्धिमत्ता के "अति उन्नत" विकास के साथ-साथ गैर-पारंपरिक सुरक्षा जोखिमों को लेकर भी चिंताएं बढ़ रही हैं। डीपफेक तकनीक का दुरुपयोग झूठी जानकारी फैलाने, संगठनों और व्यक्तियों को बदनाम करने और धोखाधड़ी के विभिन्न रूपों को अंजाम देने के लिए किया जा रहा है। यदि इस स्थिति को पर्याप्त कानूनी ढांचे और कड़े दंडों के माध्यम से नियंत्रित नहीं किया गया, तो इससे सामाजिक अस्थिरता उत्पन्न होगी।
पार्टी और राज्य के उस दृष्टिकोण को साकार करने के लिए, जिसमें डिजिटल युग में राष्ट्रीय क्षमता को बढ़ाने के लिए कृत्रिम बुद्धिमत्ता को एक अग्रणी और क्रांतिकारी शक्ति के रूप में देखा गया है, सरकार द्वारा कृत्रिम बुद्धिमत्ता पर मसौदा कानून को एक सुसंगत दृष्टिकोण के साथ विकसित किया जा रहा है: यह कानून लोगों को केंद्र में रखता है, इस सर्वोच्च सिद्धांत के साथ कि कृत्रिम बुद्धिमत्ता का निर्माण लोगों की सेवा के लिए किया गया है, न कि लोगों को प्रतिस्थापित करने के लिए, और महत्वपूर्ण निर्णयों में कृत्रिम बुद्धिमत्ता की निगरानी लोगों द्वारा की जानी चाहिए; कृत्रिम बुद्धिमत्ता पारदर्शी, उत्तरदायी और सुरक्षित होनी चाहिए। कृत्रिम बुद्धिमत्ता पर कानून जोखिम के स्तर के अनुसार कृत्रिम बुद्धिमत्ता प्रणालियों का प्रबंधन करता है, घरेलू कृत्रिम बुद्धिमत्ता विकास और कृत्रिम बुद्धिमत्ता स्वायत्तता को प्रोत्साहित करता है, और तीव्र और सतत विकास के लिए कृत्रिम बुद्धिमत्ता को प्रेरक शक्ति के रूप में लेता है।
प्रबंधन दक्षता में सुधार सुनिश्चित करने और उपयोगकर्ताओं के अधिकारों की रक्षा के लिए, मसौदा कानून में एआई घटनाओं के प्रबंधन और निपटान की जिम्मेदारी निर्धारित की गई है। तदनुसार, एआई प्रणालियों के विकास, प्रावधान, तैनाती और उपयोग में भाग लेने वाले संगठन और व्यक्ति प्रणाली के संचालन के दौरान सुरक्षा, संरक्षा और विश्वसनीयता सुनिश्चित करने के लिए जिम्मेदार हैं; साथ ही, लोगों, संपत्ति, डेटा या सामाजिक व्यवस्था को नुकसान पहुँचाने वाली घटनाओं का सक्रिय रूप से पता लगाने, उन्हें रोकने और उनका तुरंत समाधान करने के लिए भी जिम्मेदार हैं।
जब एआई सिस्टम में कोई तकनीकी गड़बड़ी, गलत परिणाम या अप्रत्याशित व्यवहार होता है, तो डेवलपर और आपूर्तिकर्ता को संभावित रूप से हानिकारक सिस्टम को ठीक करने, निलंबित करने या रद्द करने के लिए तुरंत तकनीकी उपाय करने होंगे; घटना की जांच और निपटान के लिए सक्षम राज्य प्रबंधन एजेंसी को सूचित करना और उनके साथ समन्वय करना होगा। सिस्टम को तैनात करने वाले और उपयोगकर्ता घटना को रिकॉर्ड करने और आपूर्तिकर्ता को तुरंत सूचित करने और इसे ठीक करने की प्रक्रिया में संबंधित पक्षों के साथ समन्वय करने के लिए बाध्य हैं, और बिना अनुमति के सिस्टम में मनमाने ढंग से हस्तक्षेप या संशोधन नहीं करना चाहिए। इसके अलावा, मसौदा कानून में उच्च जोखिम वाले एआई सिस्टम के लिए आपूर्तिकर्ता और तैनात करने वाले के दायित्वों का भी उल्लेख किया गया है।
वियतनाम द्वारा कृत्रिम बुद्धिमत्ता संबंधी कानून को शीघ्र लागू करने से एआई के क्षेत्र में एक महत्वपूर्ण उपलब्धि हासिल होगी, नवाचार को बढ़ावा देने के लिए अनुकूल कानूनी वातावरण बनेगा, राष्ट्रीय प्रतिस्पर्धात्मकता में वृद्धि होगी और प्रौद्योगिकी के क्षेत्र में आत्मनिर्भर होने की क्षमता वाले देश के रूप में वियतनाम की स्थिति की पुष्टि होगी।
स्रोत: https://daibieunhandan.vn/hoan-thien-khung-kho-phap-ly-cho-ai-10390839.html










टिप्पणी (0)