10 और 11 जुलाई को न्याय मंत्रालय ने हॅन्स सीडेल फाउंडेशन के साथ मिलकर कृत्रिम बुद्धिमत्ता से संबंधित संस्थाओं की कानूनी जिम्मेदारियों पर एक कार्यशाला आयोजित की।
कानूनी उत्तरदायित्व पर प्रावधान जोड़ने की आवश्यकता
कार्यशाला में बोलते हुए, न्याय उप मंत्री ट्रान टीएन डुंग ने कहा कि हम चौथी औद्योगिक क्रांति (उद्योग 4.0) के गहन और शक्तिशाली प्रभावों को देख रहे हैं, जिसमें ब्लॉकचेन, बिग डेटा, रोबोट, इंटरनेट ऑफ थिंग्स (IoT), क्लाउड कंप्यूटिंग जैसी सफल प्रौद्योगिकियां शामिल हैं... जिनमें आर्टिफिशियल इंटेलिजेंस (AI) प्रौद्योगिकी का विस्फोट प्रमुख है।

परिवहन, वित्त, खुदरा, विज्ञापन आदि जैसे कई क्षेत्रों में एआई प्रौद्योगिकी का विकास और व्यापक अनुप्रयोग कई अवसरों के साथ-साथ चुनौतियां भी लाता है, जिसमें कानूनी चुनौतियां जैसे सुरक्षा और सुरक्षा के मुद्दे; प्रत्येक व्यक्ति की गोपनीयता की रक्षा के मुद्दे; बौद्धिक संपदा अधिकारों की रक्षा के मुद्दे; उद्योग मानकों के निर्माण के मुद्दे; एआई से संबंधित विषयों की कानूनी जिम्मेदारियों को निर्धारित करने के मुद्दे शामिल हैं।
26 जनवरी, 2021 को, प्रधान मंत्री ने 2030 तक अनुसंधान, विकास और अनुप्रयोग पर राष्ट्रीय रणनीति पर निर्णय संख्या 127/QD-TTg जारी किया, जिसमें न्याय मंत्रालय को कृत्रिम बुद्धिमत्ता से संबंधित विषयों की कानूनी जिम्मेदारियों पर अतिरिक्त कानूनी दस्तावेजों को विकसित करने और पूरा करने का कार्य सौंपा गया था।
उप मंत्री ट्रान तिएन डुंग ने इस बात पर जोर दिया कि कृत्रिम बुद्धिमत्ता से संबंधित संस्थाओं की कानूनी जिम्मेदारियों पर अतिरिक्त कानूनी दस्तावेजों को विकसित करने और पूरा करने के लिए, हमें कृत्रिम बुद्धिमत्ता से उत्पन्न होने वाले जोखिमों को स्पष्ट रूप से समझने की आवश्यकता है; कृत्रिम बुद्धिमत्ता से संबंधित संस्थाओं की कानूनी जिम्मेदारियों से संबंधित कानूनी दस्तावेजों को प्रख्यापित करने या संशोधित करने और पूरक बनाने में यूरोपीय संघ और जर्मनी के संघीय गणराज्य के अनुभव सहित अंतर्राष्ट्रीय अनुभव का संदर्भ लें।
अपराध करने के लिए एआई का उपयोग करना एक गंभीर परिस्थिति है
न्याय मंत्रालय के आपराधिक और प्रशासनिक कानून विभाग की उप निदेशक सुश्री ले थी वान अन्ह के अनुसार, एआई से संबंधित 4 संबंधित विषय हैं जिनमें (1) वह विषय जो एआई बनाता है, प्रोग्रामर और लेखक जो सॉफ्टवेयर डिजाइन करते हैं, (2) एआई के मालिक, निर्माता और निवेशक, (3) उपयोगकर्ता जो एआई को संचालन में डालते हैं, संचालन प्रक्रिया की निगरानी करते हैं और अंत में (4) स्वयं एआई इकाई।
ऐसे मामलों में जहां निर्माता, उत्पाद मालिक और एआई उत्पादों के उपयोगकर्ता अपराध करने के लिए एआई का उपयोग करते हैं, इन विषयों को आपराधिक जिम्मेदारी वहन करनी होगी।
2015 दंड संहिता ने सूचना क्षेत्र में कई अपराधों को निर्धारित किया है, जिनमें एआई से संबंधित अपराध भी शामिल हैं। विशेष रूप से, दंड संहिता का अनुच्छेद 285 अवैध उद्देश्यों के लिए औजारों, उपकरणों और सॉफ्टवेयर के निर्माण, व्यापार, आदान-प्रदान या दान करने के अपराध को निर्धारित करता है; दंड संहिता का अनुच्छेद 286 कंप्यूटर नेटवर्क, दूरसंचार नेटवर्क और इलेक्ट्रॉनिक उपकरणों के संचालन को नुकसान पहुंचाने वाले कंप्यूटर प्रोग्रामों को प्रसारित करने के अपराध को निर्धारित करता है; दंड संहिता का अनुच्छेद 287 अन्य लोगों के कंप्यूटर नेटवर्क, दूरसंचार नेटवर्क और इलेक्ट्रॉनिक उपकरणों के संचालन में बाधा डालने और उन्हें बाधित करने के अपराध को निर्धारित करता है; दंड संहिता का अनुच्छेद 289 अवैध रूप से कंप्यूटर नेटवर्क, दूरसंचार नेटवर्क और इलेक्ट्रॉनिक उपकरणों तक पहुंचने के अपराध को निर्धारित करता है
हालाँकि, वर्तमान आपराधिक कानून उन मामलों को नियंत्रित नहीं करता जहाँ एआई का सीधे तौर पर अपराध करने के लिए इस्तेमाल किया जाता है। इसलिए, सुश्री वान आन्ह के अनुसार, एआई से जुड़े लोग, जिनमें लोग, मालिक और उपयोगकर्ता शामिल हैं, अपराधी होंगे और उन पर आपराधिक दंड लगाया जाएगा।
आपराधिक कानून को एआई से संबंधित व्यवहारों को सीधे तौर पर नियंत्रित करने के लिए विशिष्ट विनियमों की आवश्यकता है, जैसे कि अपराध करने के उद्देश्य से एआई उत्पादों का निर्माण, डिजाइन और प्रोग्रामिंग करना, तथा अपराध करने के लिए एआई उत्पादों का उपयोग करना।
इस आधार पर, सुश्री वान आन्ह का मानना है कि यह निर्धारित करना संभव है कि अपराध करने के लिए कृत्रिम बुद्धिमत्ता उत्पादों का उपयोग आपराधिक दायित्व की एक गंभीर स्थिति है। इस विनियमन के साथ, इसे दंड संहिता में निर्धारित किसी भी अपराध पर लागू किया जा सकता है। इसके साथ ही, अपराध करने के लिए कृत्रिम बुद्धिमत्ता का उपयोग करने के मामलों में आपराधिक दायित्व के विभेदन के विनियमन का अध्ययन करना संभव है, जैसे कि मिलीभगत, संगठित अपराध आदि।
स्रोत
टिप्पणी (0)