कृत्रिम बुद्धिमत्ता लोगों को ईमेल लिखने, फिल्मों की सिफारिश करने, डेटा का विश्लेषण करने और रोगों के निदान में सहायता करने में मदद कर रही है...
लेकिन जैसे-जैसे एआई ज़्यादा स्मार्ट होता जा रहा है, वैसे-वैसे असुरक्षा की भावना भी बढ़ती जा रही है। इसका एक कारण यह है कि हम जिस तकनीक का इस्तेमाल कर रहे हैं, उसे पूरी तरह समझ नहीं पाते। बाकी सब हमारी अपनी मनोवैज्ञानिक प्रवृत्तियों से उपजता है।

एआई मानव मनोवैज्ञानिक अनुकूलनशीलता की तुलना में तेजी से विकसित हो रहा है (चित्रण फोटो)।
जब AI एक “ब्लैक बॉक्स” बन जाता है और उपयोगकर्ता नियंत्रण खो देते हैं
लोग अक्सर उसी पर भरोसा करते हैं जिसे वे समझते और नियंत्रित करते हैं। जब आप बटन दबाते हैं, तो लिफ्ट चल पड़ती है। जब आप स्विच दबाते हैं, तो लाइट जल जाती है। स्पष्ट प्रतिक्रियाएँ सुरक्षा की भावना पैदा करती हैं।
इसके विपरीत, कई AI सिस्टम एक बंद बॉक्स की तरह काम करते हैं। आप डेटा इनपुट करते हैं, लेकिन परिणाम देने का तरीका छिपा होता है। इससे उपयोगकर्ताओं के लिए उसे समझना या उससे पूछताछ करना असंभव हो जाता है।
अस्पष्टता का यह भाव परेशान करने वाला है। उपयोगकर्ताओं को न केवल एक ऐसे टूल की ज़रूरत होती है जो काम करे, बल्कि उन्हें यह भी पता होना चाहिए कि वह टूल काम क्यों करता है।
अगर एआई कोई स्पष्टीकरण देने में विफल रहता है, तो लोग उस पर सवाल उठाने लगते हैं। इससे "एल्गोरिदम से विमुखता" नामक एक अवधारणा जन्म लेती है, जिसे व्यवहार शोधकर्ता एक ऐसी घटना के रूप में वर्णित करते हैं जहाँ लोग मशीन के निर्णय पर भरोसा करने के बजाय, दूसरों के निर्णयों को, भले ही वे गलत हों, चुन लेते हैं।
बहुत से लोग एआई के बहुत ज़्यादा सटीक होने से चिंतित हैं। अगर कोई कंटेंट रेकमेंडेशन इंजन उन्हें बहुत अच्छी तरह से पढ़ता है, तो यह परेशान कर सकता है। ऐसा महसूस होने लगता है जैसे कोई देख रहा है या आपके साथ छेड़छाड़ कर रहा है, जबकि सिस्टम में खुद कोई भावना या इरादे नहीं होते।
यह प्रतिक्रिया एक सहज व्यवहार से उपजती है: मानवरूपी। हालाँकि हम जानते हैं कि AI मानव नहीं है, फिर भी हम इस पर ऐसे प्रतिक्रिया देते हैं जैसे हम किसी व्यक्ति से संवाद कर रहे हों। जब AI बहुत विनम्र या बहुत ठंडा होता है, तो उपयोगकर्ता अजीब और अविश्वासी महसूस करते हैं।
मनुष्य मनुष्यों के प्रति क्षमाशील है, लेकिन मशीनों के प्रति नहीं।
एक दिलचस्प विरोधाभास यह है कि जब इंसान गलतियाँ करते हैं, तो हम सहानुभूति और स्वीकार्यता दिखा सकते हैं। लेकिन जब गलती एआई से होती है, खासकर जब इसे वस्तुनिष्ठ और डेटा-आधारित बताया जाता है, तो उपयोगकर्ता अक्सर ठगा हुआ महसूस करते हैं।
यह अपेक्षा के उल्लंघन की घटना से संबंधित है। हम मशीनों से तार्किक, सटीक और अचूक होने की अपेक्षा करते हैं। जब इस विश्वास का उल्लंघन होता है, तो मनोवैज्ञानिक प्रतिक्रिया अक्सर अधिक तीव्र होती है। यदि उपयोगकर्ता नियंत्रण से बाहर या अस्पष्ट महसूस करता है, तो एल्गोरिथम में एक छोटी सी त्रुटि भी गंभीर मानी जा सकती है।
हमें सहज रूप से किसी गलती का कारण समझने की ज़रूरत होती है। इंसानों के मामले में, हम पूछ सकते हैं कि क्यों। एआई के मामले में, इसका उत्तर अक्सर मौजूद नहीं होता या बहुत अस्पष्ट होता है।
जब शिक्षक, लेखक, वकील या डिजाइनर एआई को अपने काम का हिस्सा करते हुए देखते हैं, तो उन्हें न केवल अपनी नौकरी खोने का डर होता है, बल्कि अपने कौशल और व्यक्तिगत पहचान के मूल्य के बारे में भी चिंता होती है।
यह एक स्वाभाविक प्रतिक्रिया है, जिसे पहचान का ख़तरा कहा जाता है। यह इनकार, प्रतिरोध या मनोवैज्ञानिक बचाव की ओर ले जा सकती है। इन मामलों में, संदेह अब एक भावनात्मक प्रतिक्रिया नहीं, बल्कि एक आत्म-सुरक्षा तंत्र बन जाता है।
विश्वास केवल तर्क से नहीं आता।
मनुष्य भावनाओं, हाव-भाव, आँखों के संपर्क और सहानुभूति के ज़रिए भरोसा करते हैं। एआई स्पष्टवादी, यहाँ तक कि विनोदी भी हो सकता है, लेकिन यह नहीं जानता कि वास्तविक संबंध कैसे स्थापित किया जाए।
विशेषज्ञों द्वारा "अद्भुत घाटी" की घटना को ऐसी असहज अनुभूति के रूप में वर्णित किया गया है, जब आपको ऐसी चीजों का सामना करना पड़ता है जो लगभग मानवीय होती हैं, लेकिन उनमें कुछ ऐसा नहीं होता जो उन्हें अवास्तविक बनाता है।

जब मशीनें बहुत अधिक मानवीय हो जाती हैं, तो असुरक्षा की भावना और भी अधिक स्पष्ट हो जाती है (फोटो: गेटी)
एआई के मामले में, भावना का अभाव ही है जो कई लोगों को भ्रमित कर देता है, तथा उन्हें यह समझ नहीं आता कि भरोसा करें या संदेह करें।
फर्जी खबरों, फर्जी वीडियो और एल्गोरिदम से जुड़े फैसलों से भरी दुनिया में, भावनात्मक रूप से त्याग की भावनाएँ लोगों को तकनीक से सावधान कर देती हैं। इसलिए नहीं कि एआई कुछ गलत करता है, बल्कि इसलिए कि हमें नहीं पता कि इसके बारे में कैसा महसूस करना चाहिए।
इसके अलावा, संदेह कभी-कभी सिर्फ़ एक भावना से कहीं ज़्यादा होता है। एल्गोरिदम पहले ही नियुक्ति, आपराधिक फ़ैसले और क्रेडिट मंज़ूरी में पक्षपात पैदा कर चुके हैं। जिन लोगों को अपारदर्शी डेटा सिस्टम से नुकसान हुआ है, उनके लिए सावधान रहना ज़रूरी है।
मनोवैज्ञानिक इसे सीखा हुआ अविश्वास कहते हैं। जब कोई व्यवस्था बार-बार विफल होती है, तो स्वाभाविक है कि विश्वास खत्म हो जाएगा। लोग सिर्फ़ इसलिए भरोसा नहीं करेंगे क्योंकि उन्हें ऐसा करने के लिए कहा गया है। विश्वास अर्जित किया जाना चाहिए, थोपा नहीं जाना चाहिए।
अगर एआई को व्यापक रूप से अपनाना है, तो डेवलपर्स को ऐसी प्रणालियाँ बनानी होंगी जिन्हें समझा जा सके, उन पर सवाल उठाए जा सकें और उन्हें जवाबदेह ठहराया जा सके। उपयोगकर्ताओं को निर्णय लेने में शामिल होना होगा, न कि सिर्फ़ किनारे से देखते रहना होगा। विश्वास तभी सच्चा बना रह सकता है जब लोग सम्मानित और सशक्त महसूस करें।
स्रोत: https://dantri.com.vn/cong-nghe/vi-sao-tri-tue-nhan-tao-cham-vao-noi-so-sau-nhat-cua-con-nguoi-20251110120843170.htm






टिप्पणी (0)