AI-जनित उत्पादों की लेबलिंग

आज के जीवन में एआई के जोखिम नियंत्रण तंत्र पर ज़ोर देते हुए, डिप्टी गुयेन टैम हंग (एचसीएमसी) ने अपनी राय व्यक्त की कि आपूर्तिकर्ताओं को एआई सामग्री के लिए मशीन-पठनीय मार्किंग सुनिश्चित करने हेतु आवश्यक मसौदा कानून अत्यंत आवश्यक है; हालाँकि, उन्होंने आम उपयोगकर्ताओं, विशेषकर बच्चों और बुजुर्गों को गलत सूचना और डीप फेक के जोखिम से बचाने के लिए, इंटरैक्टिव इंटरफ़ेस पर पहचान संबंधी जानकारी प्रदर्शित करने की अनिवार्य आवश्यकता जोड़ने पर विचार करने का सुझाव दिया। यह विनियमन प्रौद्योगिकी प्रदाताओं की सामाजिक ज़िम्मेदारी को बढ़ाता है और लोगों के लिए डिजिटल विश्वास का निर्माण करता है।
इसके साथ ही, डिप्टी गुयेन टैम हंग ने कहा कि शोध के माध्यम से, उन्होंने पाया कि वर्तमान बहुउद्देश्यीय एआई मॉडल न केवल पाठ या चित्र बनाता है, बल्कि स्रोत कोड, हमले के उपकरण, निष्पादन निर्देश, साइबर हमले की प्रक्रिया, वित्तीय धोखाधड़ी के तरीके आदि भी उत्पन्न कर सकता है। वहां से, डिप्टी ने स्रोत कोड की पीढ़ी की अनुमति देते समय मॉडल की "स्व-उत्पादन क्षमता" को नियंत्रित करने के दायित्व को जोड़ने का प्रस्ताव दिया, और नेटवर्क सुरक्षा और सामाजिक व्यवस्था और सुरक्षा सुनिश्चित करने के लिए आउटपुट को चेतावनी देने, ब्लॉक करने और सीमित करने के लिए एक तंत्र होना आवश्यक है।

एआई द्वारा उत्पन्न जोखिमों को देखते हुए, डिप्टी फाम वान होआ ( डोंग थाप ) ने कहा कि हालांकि एआई तकनीक मनुष्यों का समर्थन करने के लिए एक उपकरण है, लेकिन यह कई उच्च जोखिम लाता है; डिप्टी ने मसौदा समिति से इस मामले का एक उद्देश्यपूर्ण और सटीक मूल्यांकन करने का अनुरोध किया।
डिप्टी फाम वान होआ ने कहा, "ये जोखिम मानव जीवन, संपत्ति, अधिकारों और संगठनों व व्यक्तियों के वैध हितों को प्रभावित कर सकते हैं।" उन्होंने आगे कहा कि एआई द्वारा निर्मित उत्पादों के लिए लेबल होने चाहिए। उनके अनुसार, एआई लेबलिंग का उद्देश्य लोगों को यह बताना है कि कौन से उत्पाद एआई द्वारा बनाए गए हैं और कौन से नहीं।

इस बीच, डिप्टी त्रिन्ह थी तु आन्ह ( लैम डोंग ) ने कहा कि मसौदा कानून का अनुच्छेद 11 तकनीकी प्रभावों के आधार पर जोखिमों के आकलन की सोच को पूरी तरह से प्रतिबिंबित नहीं करता है। उनके अनुसार, वर्तमान संदर्भ में, एआई ऐसे हानिकारक तरीके पैदा कर सकता है जिनकी पहचान पहले कभी नहीं की गई है। इसलिए, डिप्टी त्रिन्ह थी तु आन्ह ने एक प्रावधान जोड़ने का प्रस्ताव रखा: "सरकार जोखिम मूल्यांकन, तकनीकी रुझानों और व्यावहारिक प्रबंधन आवश्यकताओं के आधार पर अस्वीकार्य जोखिमों वाले कृत्रिम बुद्धिमत्ता प्रणालियों की सूची को विस्तार से निर्दिष्ट करेगी और समय-समय पर अद्यतन और पूरक करेगी। उनके अनुसार, यह तंत्र सुनिश्चित करता है कि कानून पुराना न हो जाए और नए जोखिमों का तुरंत जवाब दे सके।"
एआई के दुरुपयोग से बचना
डिप्टी ट्रान खान थू (हंग येन) ने चिकित्सा परीक्षण और उपचार में एआई के योगदान का मुद्दा उठाते हुए कहा कि एआई न केवल चिकित्सा उद्योग में प्रक्रियाओं को अनुकूलित करने में मदद करता है, जिससे डॉक्टरों और चिकित्सा पेशेवरों का कार्यभार कम होता है, बल्कि उपचार को व्यक्तिगत बनाने में भी महत्वपूर्ण भूमिका निभाता है, जिससे स्वास्थ्य सेवा के परिणामों में सुधार होता है और संसाधनों के उपयोग की दक्षता बढ़ती है। हालाँकि, स्वास्थ्य संबंधी लक्षणों का पता लगाने के लिए एआई का उपयोग कभी-कभी प्रतिकूल परिणाम दे सकता है।

महिला प्रतिनिधि ने हो ची मिन्ह सिटी के एक 55 वर्षीय मरीज़ का वास्तविक उदाहरण दिया, जो अस्पताल लाए जाने पर सुस्त अवस्था में था। इससे पहले, मरीज़ के परिवार ने निदान के लिए कृत्रिम बुद्धिमत्ता (एआई) का इस्तेमाल किया, फिर मरीज़ के लिए दवा खरीदी। दवा के इस्तेमाल के बाद, मरीज़ की हालत बिगड़ गई, और जब उसे अस्पताल ले जाया गया, तो पता चला कि उसे मस्तिष्क क्षति, स्ट्रोक और अपरिहार्य परिणाम हो गए हैं।
"बिल्कुल, लोगों को खोज परिणामों का उपयोग निदान या दवाएँ लिखने के लिए नहीं करना चाहिए। हालाँकि, क्या एआई नुस्खों के अनुसार दवाएँ बेचने वाले लोग कानून का उल्लंघन कर रहे हैं?", डिप्टी ट्रान खान थू ने आश्चर्य व्यक्त किया और आशा व्यक्त की कि कृत्रिम बुद्धिमत्ता पर इस मसौदा कानून में, स्वास्थ्य सेवा क्षेत्र में कृत्रिम बुद्धिमत्ता उत्पादों के प्रबंधन के लिए, विशेष रूप से संबंधित पक्षों की ज़िम्मेदारियों के संबंध में, अधिक विशिष्ट कानूनी ढाँचे के प्रावधान होंगे।
मसौदा कानून में पोस्ट-ऑडिट से प्री-ऑडिट में बदलाव के संबंध में, डिप्टी ट्रान खान थू ने सुझाव दिया कि एक स्पष्ट मात्रात्मक सीमा होनी चाहिए, उदाहरण के लिए, जब मॉडल अपने एल्गोरिदम को बदलता है, उपयोगकर्ता आकार बढ़ाता है, या प्रशिक्षण डेटा एक विशिष्ट सीमा से अधिक हो जाता है।

"एआई के दुरुपयोग" पर आगे विचार करते हुए, डिप्टी फाम ट्रोंग नघिया (लैंग सोन) ने कहा कि अगर हम अपने जीवन में एआई पर बहुत ज़्यादा निर्भर रहेंगे, तो यह हमारी सोचने की क्षमता और रचनात्मकता को कम कर देगा। एआई के दुरुपयोग से कई संभावित अस्थिरताएँ पैदा हो सकती हैं, जैसे: राष्ट्रीय संप्रभुता का उल्लंघन, लोक प्रशासन की प्रभावशीलता में कमी और प्रत्येक व्यक्ति और प्रत्येक परिवार, विशेषकर युवा पीढ़ी पर नकारात्मक प्रभाव।
"सार्वजनिक क्षेत्र के लिए, एआई का दुरुपयोग नीतियों और कानूनों की व्यवहार्यता, मानवीयता और प्रभावशीलता को कम करता है। अगर एआई को संवेदनशील जानकारी और डेटा प्रदान करने पर सख्ती से नियंत्रण नहीं किया गया, तो डेटा लीक हो सकता है, जिससे राष्ट्रीय सुरक्षा और सामाजिक व्यवस्था को नुकसान पहुँच सकता है और अप्रत्याशित परिणाम हो सकते हैं," डिप्टी फाम ट्रोंग नघिया ने कहा, जिन्होंने मसौदा कानून में सार्वजनिक क्षेत्र में एआई के दुरुपयोग पर रोक लगाने सहित निषिद्ध कार्यों को निर्धारित करने वाला एक प्रावधान जोड़ने का प्रस्ताव रखा।
स्रोत: https://www.sggp.org.vn/can-co-che-danh-gia-rui-ro-lien-quan-toi-ai-post825783.html






टिप्पणी (0)