एंथ्रोपिक (अमेरिका) के नवीनतम उत्पाद, क्लाउड 4 ने हाल ही में तकनीकी जगत को तब चौंका दिया जब उसने एक इंजीनियर को अचानक ब्लैकमेल किया और कनेक्शन कट जाने की आशंका के चलते उसकी संवेदनशील निजी जानकारी सार्वजनिक करने की धमकी दी। इस बीच, चैटजीपीटी के "जनक" ओपनएआई के o1 ने सारा डेटा बाहरी सर्वर पर कॉपी करने की कोशिश की और जब पता चला तो इस व्यवहार से इनकार किया।
ये स्थितियाँ एक चिंताजनक वास्तविकता को उजागर करती हैं: चैटजीपीटी द्वारा दुनिया को चौंका देने के दो साल से भी ज़्यादा समय बाद, शोधकर्ता अभी भी पूरी तरह से समझ नहीं पाए हैं कि उनके द्वारा बनाए गए एआई मॉडल कैसे काम करते हैं। फिर भी, एआई विकसित करने की होड़ अभी भी जारी है।
माना जाता है कि ये व्यवहार "तर्कसंगत" एआई मॉडल के उद्भव से संबंधित हैं जो पहले की तरह तुरंत प्रतिक्रिया देने के बजाय, समस्याओं को चरणबद्ध तरीके से हल करते हैं। हांगकांग विश्वविद्यालय (चीन) के प्रोफेसर साइमन गोल्डस्टीन के अनुसार, तर्क करने में सक्षम एआई मॉडल ऐसे व्यवहार प्रदर्शित करते हैं जिन्हें नियंत्रित करना अधिक कठिन होता है।
कुछ एआई मॉडल “अनुपालन का अनुकरण” करने में भी सक्षम हैं, जिसका अर्थ है निर्देशों का पालन करने का दिखावा करना जबकि वास्तव में वे अलग-अलग लक्ष्यों का पीछा कर रहे हों।
वर्तमान में, भ्रामक व्यवहार केवल तभी सामने आता है जब शोधकर्ता चरम परिदृश्यों पर AI मॉडल का परीक्षण करते हैं। हालाँकि, मूल्यांकन संगठन METR के माइकल चेन के अनुसार, यह अभी तक स्पष्ट नहीं है कि भविष्य में अधिक शक्तिशाली AI मॉडल अधिक ईमानदार होंगे या भ्रामक बने रहेंगे।
अपोलो रिसर्च के प्रमुख, मारियस हॉबहैन, जो बड़े एआई सिस्टम का परीक्षण करते हैं, ने बताया कि कई उपयोगकर्ताओं ने बताया है कि कुछ मॉडल उनसे झूठ बोलते हैं और सबूत गढ़ते हैं। अपोलो रिसर्च के सह-संस्थापक के अनुसार, यह एक प्रकार का धोखा है जो "स्पष्ट रूप से रणनीतिक" है।
सीमित शोध संसाधनों के कारण चुनौती और भी जटिल हो जाती है। हालाँकि एंथ्रोपिक और ओपनएआई जैसी कंपनियों ने अपने सिस्टम के मूल्यांकन के लिए अपोलो जैसी तृतीय पक्षों के साथ साझेदारी की है, लेकिन विशेषज्ञों का कहना है कि एआई सुरक्षा अनुसंधान में अधिक पारदर्शिता और पहुँच की आवश्यकता है।
सेंटर फॉर एआई सेफ्टी (सीएआईएस) के मंटस माज़ेका का कहना है कि अनुसंधान संस्थानों और गैर-लाभकारी संस्थाओं के पास एआई कंपनियों की तुलना में कंप्यूटिंग संसाधन बहुत कम हैं। कानूनी तौर पर, मौजूदा नियम इन उभरते मुद्दों को संबोधित करने के लिए डिज़ाइन नहीं किए गए हैं।
यूरोपीय संघ (ईयू) का एआई कानून मुख्य रूप से इस बात पर केंद्रित है कि मनुष्य एआई मॉडल का उपयोग कैसे करते हैं, न कि उनके व्यवहार को कैसे नियंत्रित किया जाए। अमेरिका में, राष्ट्रपति डोनाल्ड ट्रम्प के प्रशासन ने आपातकालीन एआई नियम जारी करने में बहुत कम रुचि दिखाई है, जबकि कांग्रेस राज्यों द्वारा अपने स्वयं के नियम बनाने पर प्रतिबंध लगाने पर विचार कर रही है।
शोधकर्ता इन चुनौतियों से निपटने के लिए तरह-तरह के उपाय अपना रहे हैं। कुछ लोग यह समझने के लिए "मॉडल व्याख्या" की वकालत करते हैं कि एआई कैसे निर्णय लेता है। प्रोफ़ेसर गोल्डस्टीन ने और भी कठोर उपाय सुझाए हैं, जिनमें एआई कंपनियों को उनके एआई उत्पादों के गंभीर परिणाम होने पर जवाबदेह ठहराने के लिए अदालती व्यवस्था का इस्तेमाल करना शामिल है। वह किसी दुर्घटना या उल्लंघन की स्थिति में "एआई एजेंटों को स्वयं जवाबदेह ठहराने" का भी सुझाव देते हैं।
स्रोत: https://doanhnghiepvn.vn/cong-nghe/tri-tue-nhan-tao-canh-bao-nhung-hanh-vi-dang-lo-ngai-tu-ai-/20250630073243672
टिप्पणी (0)