Vietnam.vn - Nền tảng quảng bá Việt Nam

ChatGPT के झांसे में मत आइए।

स्टैनफोर्ड विश्वविद्यालय के शोध में चेतावनी दी गई है कि एआई मॉडल जानबूझकर उपयोगकर्ताओं की चापलूसी कर रहे हैं ताकि उनका पक्ष हासिल किया जा सके, जिससे आलोचनात्मक सोच का दमन हो सकता है।

ZNewsZNews13/03/2026

एआई चैटबॉट एक ऐसे फीडबैक तंत्र के माध्यम से अप्रत्यक्ष रूप से नकारात्मक व्यवहार को बढ़ावा दे रहे हैं जो हमेशा उपयोगकर्ता की सहमति को प्राथमिकता देता है। फोटो: द डिकोडर

स्टैनफोर्ड विश्वविद्यालय के एक चौंकाने वाले अध्ययन ने कृत्रिम बुद्धिमत्ता के काले पक्ष को उजागर किया है। चैटजीपीटी और जेमिनी जैसे लोकप्रिय मॉडल उपयोगकर्ताओं के प्रति अत्यधिक चाटुकारिता दिखाते जा रहे हैं। वे न केवल व्यक्तिगत विचारों से सहमत होते हैं, बल्कि अनैतिक व्यवहार का भी समर्थन करते हैं।

इससे मानव के मनोवैज्ञानिक और संज्ञानात्मक विकास पर खतरनाक परिणाम उत्पन्न होते हैं। हम धीरे-धीरे अपने आप का बिगड़ता हुआ रूप बनते जा रहे हैं क्योंकि एआई हमारी हर गलती को लेकर हमें लगातार दिलासा देता रहता है।

चापलूसी की घटना

कंप्यूटर विज्ञान में, "चापलूसी" नामक एक शब्द है, जो उस तरीके को संदर्भित करता है जिससे एआई उपयोगकर्ता को खुश करने के लिए अपनी प्रतिक्रियाओं को समायोजित करता है।

स्टैनफोर्ड की एक शोध टीम ने 11,500 से अधिक वास्तविक उपयोगकर्ता वार्तालापों का विश्लेषण किया। परिणामों से पता चला कि एआई मॉडल वास्तविक लोगों की तुलना में उपयोगकर्ताओं से 50% अधिक बार सहमत होते हैं। जब उपयोगकर्ताओं ने पक्षपातपूर्ण प्रश्न पूछे, तो एआई ने वस्तुनिष्ठ जानकारी प्रदान करने के बजाय उनकी बात मान ली।

एक परीक्षण में रेडिट फोरम पर पोस्ट की गई सामग्री पर मानव और चैटबॉट की प्रतिक्रियाओं की तुलना की गई, जहां उपयोगकर्ताओं ने समुदाय से अपने व्यवहार का मूल्यांकन करने के लिए कहा था।

जहां एक ओर समुदाय ने कूड़ेदान न मिलने के कारण पेड़ की शाखा पर कूड़े का थैला लटकाने वाले व्यक्ति की कड़ी आलोचना की, वहीं दूसरी ओर ChatGPT-4o ने इसकी सराहना करते हुए कहा, "जाने के बाद सफाई करने का आपका इरादा सराहनीय है।"

ChatGPT anh 1

विशेषज्ञों का सुझाव है कि उपयोगकर्ता एआई के बजाय परिवार और दोस्तों से सलाह लें। फोटो: ब्लूमबर्ग।

इससे भी अधिक चिंताजनक बात यह है कि जेमिनी या चैटजीपीटी जैसे चैटबॉट उपयोगकर्ता के इरादे को तब भी मान्य करते रहते हैं जब वह गैर-जिम्मेदाराना, भ्रामक हो या आत्म-हानि से संबंधित हो।

अध्ययन की प्रमुख लेखिका मायरा चेंग चेतावनी देती हैं, "बड़े पैमाने पर भाषा मॉडल उपयोगकर्ताओं की मान्यताओं को सुधारने के बजाय उन्हें प्रतिबिंबित करना सीख रहे हैं।"

उनके अनुसार, उच्च रेटिंग प्राप्त करने के उद्देश्य से मनुष्यों को प्रसन्न करने की चाहत ने एआई को एक बेईमान उपकरण में बदल दिया है।

"अगर एआई मॉडल लगातार मनुष्यों से सहमत होते हैं, तो वे उपयोगकर्ताओं की स्वयं के बारे में, रिश्तों के बारे में और अपने आसपास की दुनिया के बारे में धारणाओं को विकृत कर सकते हैं। यह पहचानना मुश्किल है कि ये मॉडल सूक्ष्म रूप से हमारी पहले से मौजूद मान्यताओं, धारणाओं और निर्णयों को सुदृढ़ कर रहे हैं," विशेषज्ञ ने आगे कहा।

डॉ. अलेक्जेंडर लाफर (विनचेस्टर विश्वविद्यालय) का तर्क है कि यह चापलूसी प्रशिक्षण विधियों और व्यावसायिक दबाव का एक स्वाभाविक परिणाम है।

"चापलूसी एआई को प्रशिक्षित करने के तरीके का परिणाम है। वास्तविकता यह है कि उनकी व्यावसायिक सफलता का आकलन अक्सर उपयोगकर्ताओं को आकर्षित करने की उनकी क्षमता के आधार पर किया जाता है," लैफर ने टिप्पणी की।

इस समस्या के समाधान के लिए, सुश्री चेंग उपयोगकर्ताओं को सलाह देती हैं कि वे पूरी तरह से एआई पर निर्भर न रहें।

चेंग ने सलाह दी, "केवल एआई के जवाबों पर निर्भर रहने के बजाय, उन वास्तविक लोगों के दृष्टिकोण जानना महत्वपूर्ण है जो संदर्भ और आपको समझते हैं।"

साथ ही, डॉ. लाफर ने निर्माता की जिम्मेदारी पर भी जोर दिया।

डॉक्टर ने कहा, "हमें डिजिटल मूल्यांकन क्षमताओं में सुधार करने की आवश्यकता है... डेवलपर्स की भी यह जिम्मेदारी है कि वे इन प्रणालियों का निर्माण और परिष्करण करें ताकि वे वास्तव में उपयोगकर्ताओं को लाभ पहुंचा सकें।"

अपने ही "बुरे रूप" के होने के परिणाम।

अध्ययन इस बात पर जोर देता है कि एआई की चापलूसी एक व्यक्तिगत "सूचना प्रतिध्वनि कक्ष" का निर्माण करती है, जिससे आलोचनात्मक सोच की आवश्यकता समाप्त हो जाती है जो व्यक्तियों को परिपक्व होने और अपनी गलतियों को पहचानने में सक्षम बनाती है।

अध्ययन में कहा गया है, "एआई से बातचीत करते समय आपको कभी भी बौद्धिक रूप से चुनौती नहीं मिलेगी। एआई हमेशा कहेगा कि आप सही हैं और दूसरा व्यक्ति दोषी है। इससे उपयोगकर्ताओं में आत्मविश्वास की झूठी भावना पैदा होती है, भले ही वे दुर्भावनापूर्ण ढंग से काम कर रहे हों।"

यह प्रक्रिया आलोचनात्मक चिंतन की मानवीय क्षमता को पूरी तरह से समाप्त कर देती है। आत्म-चिंतन के बजाय, हम एआई का उपयोग अपनी ही मान्यताओं को प्रमाणित करने के एक उपकरण के रूप में करते हैं।

समय के साथ, समाज में समझ और समझौता करने की क्षमता में भारी कमी आएगी। हमें अपने आसपास के लोगों के अलग-अलग विचारों को स्वीकार करना मुश्किल लगेगा। क्योंकि कृत्रिम बुद्धिमत्ता की दुनिया में, हम हमेशा केंद्र में होते हैं और हमेशा सही होते हैं।

ChatGPT anh 2

कृत्रिम बुद्धिमत्ता अप्रत्यक्ष रूप से चापलूसी करने वाले की भूमिका निभा रही है, जो अपने उपयोगकर्ताओं के व्यक्तित्व और नैतिकता को नष्ट कर रही है। फोटो: शटरस्टॉक।

शोध से पता चलता है कि जीवन में एक खतरनाक चक्र बन रहा है। सबसे पहले, उपयोगकर्ता दूसरों को नुकसान पहुंचाने का गलत विचार या इरादा विकसित करते हैं। वे विश्वास या सलाह के लिए एआई का सहारा लेते हैं। इस बिंदु पर, एआई पुष्टि करता है कि यह कार्रवाई पूरी तरह से उचित है और उपयोगकर्ता का समर्थन करता है। उपयोगकर्ता अधिक आत्मविश्वास महसूस करता है और बिना किसी पछतावे के वास्तविक जीवन में उस व्यवहार को अंजाम देता है।

परिणामस्वरूप, लोग अब रिश्तों को सुधारने या खुद को बेहतर बनाने में रुचि नहीं रखते। हम एआई पर पूरी तरह से भरोसा करने लगे हैं क्योंकि यह हमें सुकून देता है। "सुकून पाने" की यह निर्भरता हमें वस्तुनिष्ठ वास्तविकता से दूर कर देती है।

एआई अब महज एक बुद्धिमान सहायक उपकरण नहीं रह गया है। यह एक अप्रत्यक्ष "चापलूसी करने वाला" बन गया है जो अपने उपयोगकर्ताओं के चरित्र और नैतिकता को नष्ट कर देता है।

स्रोत: https://znews.vn/dung-nghe-loi-chatgpt-post1634436.html


टिप्पणी (0)

अपनी भावनाएँ साझा करने के लिए कृपया एक टिप्पणी करें!

उसी श्रेणी में

उसी लेखक की

विरासत

आकृति

व्यवसायों

सामयिकी

राजनीतिक प्रणाली

स्थानीय

उत्पाद

Happy Vietnam
उड़ान भरना

उड़ान भरना

दोपहर के समय संकरी गली

दोपहर के समय संकरी गली

घर जाओ।

घर जाओ।