Vietnam.vn - Nền tảng quảng bá Việt Nam

कृत्रिम बुद्धिमत्ता मनुष्य के गहरे भय को क्यों उजागर करती है?

(डैन ट्राई) - कृत्रिम बुद्धिमत्ता जीवन के हर पहलू में पैठ बना रही है। लेकिन यह जितनी ज़्यादा स्मार्ट होती है, लोगों को उनकी मान्यताओं और भावनाओं को लेकर उतना ही ज़्यादा भ्रमित करती है।

Báo Dân tríBáo Dân trí11/11/2025

कृत्रिम बुद्धिमत्ता लोगों को ईमेल लिखने, फिल्मों की सिफारिश करने, डेटा का विश्लेषण करने और रोगों के निदान में सहायता करने में मदद कर रही है...

लेकिन जैसे-जैसे एआई ज़्यादा स्मार्ट होता जा रहा है, वैसे-वैसे असुरक्षा की भावना भी बढ़ती जा रही है। इसका एक कारण यह है कि हम जिस तकनीक का इस्तेमाल कर रहे हैं, उसे पूरी तरह समझ नहीं पाते। बाकी सब हमारी अपनी मनोवैज्ञानिक प्रवृत्तियों से उपजता है।

Vì sao trí tuệ nhân tạo chạm vào nỗi sợ sâu nhất của con người? - 1

एआई मानव मनोवैज्ञानिक अनुकूलनशीलता की तुलना में तेजी से विकसित हो रहा है (चित्रण फोटो)।

जब AI एक “ब्लैक बॉक्स” बन जाता है और उपयोगकर्ता नियंत्रण खो देते हैं

लोग अक्सर उसी पर भरोसा करते हैं जिसे वे समझते और नियंत्रित करते हैं। जब आप बटन दबाते हैं, तो लिफ्ट चल पड़ती है। जब आप स्विच दबाते हैं, तो लाइट जल जाती है। स्पष्ट प्रतिक्रियाएँ सुरक्षा की भावना पैदा करती हैं।

इसके विपरीत, कई AI सिस्टम एक बंद बॉक्स की तरह काम करते हैं। आप डेटा इनपुट करते हैं, लेकिन परिणाम देने का तरीका छिपा होता है। इससे उपयोगकर्ताओं के लिए उसे समझना या उससे पूछताछ करना असंभव हो जाता है।

अस्पष्टता का यह भाव परेशान करने वाला है। उपयोगकर्ताओं को न केवल एक ऐसे टूल की ज़रूरत होती है जो काम करे, बल्कि उन्हें यह भी पता होना चाहिए कि वह टूल काम क्यों करता है।

अगर एआई कोई स्पष्टीकरण देने में विफल रहता है, तो लोग उस पर सवाल उठाने लगते हैं। इससे "एल्गोरिदम से विमुखता" नामक एक अवधारणा जन्म लेती है, जिसे व्यवहार शोधकर्ता एक ऐसी घटना के रूप में वर्णित करते हैं जहाँ लोग मशीन के निर्णय पर भरोसा करने के बजाय, दूसरों के निर्णयों को, भले ही वे गलत हों, चुन लेते हैं।

बहुत से लोग एआई के बहुत ज़्यादा सटीक होने से चिंतित हैं। अगर कोई कंटेंट रेकमेंडेशन इंजन उन्हें बहुत अच्छी तरह से पढ़ता है, तो यह परेशान कर सकता है। ऐसा महसूस होने लगता है जैसे कोई देख रहा है या आपके साथ छेड़छाड़ कर रहा है, जबकि सिस्टम में खुद कोई भावना या इरादे नहीं होते।

यह प्रतिक्रिया एक सहज व्यवहार से उपजती है: मानवरूपी। हालाँकि हम जानते हैं कि AI मानव नहीं है, फिर भी हम इस पर ऐसे प्रतिक्रिया देते हैं जैसे हम किसी व्यक्ति से संवाद कर रहे हों। जब AI बहुत विनम्र या बहुत ठंडा होता है, तो उपयोगकर्ता अजीब और अविश्वासी महसूस करते हैं।

मनुष्य मनुष्यों के प्रति क्षमाशील है, लेकिन मशीनों के प्रति नहीं।

एक दिलचस्प विरोधाभास यह है कि जब इंसान गलतियाँ करते हैं, तो हम सहानुभूति और स्वीकार्यता दिखा सकते हैं। लेकिन जब गलती एआई से होती है, खासकर जब इसे वस्तुनिष्ठ और डेटा-आधारित बताया जाता है, तो उपयोगकर्ता अक्सर ठगा हुआ महसूस करते हैं।

यह अपेक्षा के उल्लंघन की घटना से संबंधित है। हम मशीनों से तार्किक, सटीक और अचूक होने की अपेक्षा करते हैं। जब इस विश्वास का उल्लंघन होता है, तो मनोवैज्ञानिक प्रतिक्रिया अक्सर अधिक तीव्र होती है। यदि उपयोगकर्ता नियंत्रण से बाहर या अस्पष्ट महसूस करता है, तो एल्गोरिथम में एक छोटी सी त्रुटि भी गंभीर मानी जा सकती है।

हमें सहज रूप से किसी गलती का कारण समझने की ज़रूरत होती है। इंसानों के मामले में, हम पूछ सकते हैं कि क्यों। एआई के मामले में, इसका उत्तर अक्सर मौजूद नहीं होता या बहुत अस्पष्ट होता है।

जब शिक्षक, लेखक, वकील या डिजाइनर एआई को अपने काम का हिस्सा करते हुए देखते हैं, तो उन्हें न केवल अपनी नौकरी खोने का डर होता है, बल्कि अपने कौशल और व्यक्तिगत पहचान के मूल्य के बारे में भी चिंता होती है।

यह एक स्वाभाविक प्रतिक्रिया है, जिसे पहचान का ख़तरा कहा जाता है। यह इनकार, प्रतिरोध या मनोवैज्ञानिक बचाव की ओर ले जा सकती है। इन मामलों में, संदेह अब एक भावनात्मक प्रतिक्रिया नहीं, बल्कि एक आत्म-सुरक्षा तंत्र बन जाता है।

विश्वास केवल तर्क से नहीं आता।

मनुष्य भावनाओं, हाव-भाव, आँखों के संपर्क और सहानुभूति के ज़रिए भरोसा करते हैं। एआई स्पष्टवादी, यहाँ तक कि विनोदी भी हो सकता है, लेकिन यह नहीं जानता कि वास्तविक संबंध कैसे स्थापित किया जाए।

विशेषज्ञों द्वारा "अद्भुत घाटी" की घटना को ऐसी असहज अनुभूति के रूप में वर्णित किया गया है, जब आपको ऐसी चीजों का सामना करना पड़ता है जो लगभग मानवीय होती हैं, लेकिन उनमें कुछ ऐसा नहीं होता जो उन्हें अवास्तविक बनाता है।

Vì sao trí tuệ nhân tạo chạm vào nỗi sợ sâu nhất của con người? - 2

जब मशीनें बहुत अधिक मानवीय हो जाती हैं, तो असुरक्षा की भावना और भी अधिक स्पष्ट हो जाती है (फोटो: गेटी)

एआई के मामले में, भावना का अभाव ही है जो कई लोगों को भ्रमित कर देता है, तथा उन्हें यह समझ नहीं आता कि भरोसा करें या संदेह करें।

फर्जी खबरों, फर्जी वीडियो और एल्गोरिदम से जुड़े फैसलों से भरी दुनिया में, भावनात्मक रूप से त्याग की भावनाएँ लोगों को तकनीक से सावधान कर देती हैं। इसलिए नहीं कि एआई कुछ गलत करता है, बल्कि इसलिए कि हमें नहीं पता कि इसके बारे में कैसा महसूस करना चाहिए।

इसके अलावा, संदेह कभी-कभी सिर्फ़ एक भावना से कहीं ज़्यादा होता है। एल्गोरिदम पहले ही नियुक्ति, आपराधिक फ़ैसले और क्रेडिट मंज़ूरी में पक्षपात पैदा कर चुके हैं। जिन लोगों को अपारदर्शी डेटा सिस्टम से नुकसान हुआ है, उनके लिए सावधान रहना ज़रूरी है।

मनोवैज्ञानिक इसे सीखा हुआ अविश्वास कहते हैं। जब कोई व्यवस्था बार-बार विफल होती है, तो स्वाभाविक है कि विश्वास खत्म हो जाएगा। लोग सिर्फ़ इसलिए भरोसा नहीं करेंगे क्योंकि उन्हें ऐसा करने के लिए कहा गया है। विश्वास अर्जित किया जाना चाहिए, थोपा नहीं जाना चाहिए।

अगर एआई को व्यापक रूप से अपनाना है, तो डेवलपर्स को ऐसी प्रणालियाँ बनानी होंगी जिन्हें समझा जा सके, उन पर सवाल उठाए जा सकें और उन्हें जवाबदेह ठहराया जा सके। उपयोगकर्ताओं को निर्णय लेने में शामिल होना होगा, न कि सिर्फ़ किनारे से देखते रहना होगा। विश्वास तभी सच्चा बना रह सकता है जब लोग सम्मानित और सशक्त महसूस करें।

स्रोत: https://dantri.com.vn/cong-nghe/vi-sao-tri-tue-nhan-tao-cham-vao-noi-so-sau-nhat-cua-con-nguoi-20251110120843170.htm


टिप्पणी (0)

No data
No data

उसी विषय में

उसी श्रेणी में

हवा में सुखाए हुए ख़ुरमा - शरद ऋतु की मिठास
हनोई की एक गली में "अमीर लोगों की कॉफी शॉप" 750,000 VND/कप बेचती है
पके हुए ख़ुरमा के मौसम में मोक चाऊ, जो भी आता है दंग रह जाता है
जंगली सूरजमुखी साल के सबसे खूबसूरत मौसम में पहाड़ी शहर दा लाट को पीले रंग में रंग देते हैं

उसी लेखक की

विरासत

आकृति

व्यापार

वियतनाम में अपने प्रदर्शन के दौरान जी-ड्रैगन ने दर्शकों के साथ धमाल मचा दिया

वर्तमान घटनाएं

राजनीतिक प्रणाली

स्थानीय

उत्पाद