एआई गतिविधियों में नैतिक विनियमन की आवश्यकता है।
21 नवंबर की सुबह, विज्ञान , प्रौद्योगिकी और पर्यावरण समिति (केएच, सीएन एंड एमटी) की ओर से, आर्टिफिशियल इंटेलिजेंस (एआई) कानून परियोजना की समीक्षा पर रिपोर्ट पेश करते हुए, समिति के अध्यक्ष गुयेन थान हाई ने कहा: मसौदा कानून के अनुच्छेद 27 ने शुरू में लोगों के प्रति सम्मान, पारदर्शिता, निष्पक्षता, अहिंसा और गोपनीयता की सुरक्षा जैसे अंतरराष्ट्रीय प्रथाओं के अनुसार बुनियादी सिद्धांतों को निर्धारित किया है।
हालांकि, विज्ञान, प्रौद्योगिकी और पर्यावरण संबंधी समिति ने पाया कि कई देशों में, कृत्रिम बुद्धिमत्ता पर नीतियां विकसित करने की प्रक्रिया अक्सर नैतिक ढांचे और मार्गदर्शक सिद्धांतों के प्रचार के साथ शुरू होती है, जिसके बाद अंतिम रूप देने और कानून बनाने की दिशा में आगे बढ़ने के लिए प्रथाओं का मूल्यांकन किया जाता है।
उस आधार पर, विज्ञान, प्रौद्योगिकी और पर्यावरण समिति ने प्रस्ताव दिया कि मसौदा तैयार करने वाली एजेंसी सरकार के लिए नैतिकता पर सामान्य सिद्धांतों का अध्ययन और पूरक करे ताकि विस्तार से निर्दिष्ट किया जा सके । जिसमें, यूनेस्को और ओईसीडी के मूल्यों का संदर्भ हो, जिसमें लोगों के प्रति सम्मान, निष्पक्षता, सुरक्षा, पारदर्शिता, जवाबदेही और सतत विकास के सिद्धांत शामिल हों; व्यवसायों को इस ढांचे के अनुसार अपनी आंतरिक एआई आचार संहिता विकसित करने के लिए प्रोत्साहित करें, और इसे निर्धारित अनुसार राज्य प्रबंधन एजेंसियों के लिए सार्वजनिक करें।

प्रदर्शनी A80 में प्रदर्शित मानवरूपी रोबोट मॉडल का आनंद लेते आगंतुक। चित्रात्मक चित्र
साथ ही, "अनुसंधान से लेकर प्रणाली उपयोग तक की पूरी प्रक्रिया में एआई प्रणालियों के नैतिक और सामाजिक प्रभावों के लिए हितधारकों की जवाबदेही" के सिद्धांत को जोड़ने पर शोध करें; नैतिक नियमों (सिफारिश) और कानूनी दायित्वों (अनिवार्य) के बीच संबंध को स्पष्ट करें।
इसके अलावा, विज्ञान, प्रौद्योगिकी और पर्यावरण समिति के अनुसार, मसौदा कानून का अनुच्छेद 28 केवल सार्वजनिक क्षेत्र के लिए नैतिक ज़िम्मेदारियों को निर्धारित करता है, जबकि निजी क्षेत्र (जैसे स्वास्थ्य सेवा, वित्त, शिक्षा , आदि) में एआई अनुप्रयोग भी समान सामाजिक और नैतिक प्रभाव डाल सकते हैं। इसलिए, यह अनुशंसा की जाती है कि मसौदा तैयार करने वाली एजेंसी निजी क्षेत्र में नैतिक ज़िम्मेदारियों पर प्रावधानों को जोड़ने पर शोध और विचार करे, ताकि कानून के प्रावधानों में व्यापकता सुनिश्चित हो सके ।
बच्चों की सुरक्षा के लिए विशिष्ट नियम जोड़ें
विज्ञान, प्रौद्योगिकी और पर्यावरण समिति के अध्यक्ष गुयेन थान हाई ने कानून परियोजना की समीक्षा पर रिपोर्ट में स्पष्ट रूप से कहा: बच्चों जैसे संवेदनशील विषयों के लिए, एआई के कुछ चिंताजनक नकारात्मक पहलू भी हैं, जैसे: उत्तर खोजने या अभ्यासों को हल करने के लिए एआई पर बहुत अधिक निर्भर होने पर, बच्चों को स्वतंत्र रूप से सोचने, विश्लेषण करने और रचनात्मक होने की क्षमता का अभ्यास करने का अवसर खोने का खतरा होता है; वे विचलित व्यवहार के शिकार हो सकते हैं; एआई को सच्चा मित्र समझने की भूल कर सकते हैं और एआई की सलाह पर काम कर सकते हैं जो अनुचित या खतरनाक हो सकती है; उनके साथ छेड़छाड़ की जा सकती है या उन्हें ठगा जा सकता है...

आर्टिफिशियल इंटेलिजेंस पर कानून में बच्चों को एआई के नकारात्मक पहलुओं से बचाने के लिए अलग नियम बनाने की ज़रूरत है, ताकि बच्चों को एआई का सुरक्षित और स्वस्थ तरीके से इस्तेमाल करने के लिए मार्गदर्शन मिल सके। चित्रात्मक चित्र
विज्ञान, प्रौद्योगिकी और पर्यावरण समिति के अध्यक्ष गुयेन थान हाई ने उद्धृत किया: इटली का एआई कानून यह निर्धारित करता है कि 14 वर्ष से कम उम्र के लोग केवल अपने माता-पिता या अभिभावकों की सहमति से एआई का उपयोग कर सकते हैं; हाल के एक प्रस्ताव के अनुसार, यूरोपीय संघ में उपयोगकर्ताओं को माता-पिता की सहमति के बिना एआई का उपयोग करने के लिए 16 वर्ष से अधिक आयु का होना चाहिए; कैलिफोर्निया राज्य (यूएसए) के एआई चैटबॉट नियंत्रण कानून में कहा गया है कि एआई प्लेटफार्मों को 18 वर्ष से कम उम्र के उपयोगकर्ताओं को हर 3 घंटे में स्पष्ट रूप से सूचित करना आवश्यक है कि वे एक चैटबॉट के साथ चैट कर रहे हैं, न कि किसी इंसान के साथ।
इस आधार पर, समिति सिफारिश करती है कि मसौदा तैयार करने वाली एजेंसी बच्चों को एआई के नकारात्मक पहलुओं से बचाने के लिए विशिष्ट विनियमों का अध्ययन और अनुपूरण करे, बच्चों को सुरक्षित और स्वस्थ तरीके से एआई का उपयोग करने के लिए मार्गदर्शन करे, जिसमें बच्चों की एआई के बारे में जागरूकता बढ़ाने और निगरानी करने में माता-पिता और स्कूलों की भूमिका और जिम्मेदारी को बढ़ावा दिया जाए।
स्रोत: https://phunuvietnam.vn/can-co-che-de-bao-ve-tre-em-truoc-cac-mat-trai-cua-ai-20251121112842757.htm






टिप्पणी (0)