
एआई के क्षेत्र में, "चापलूसी" का अर्थ चैटबॉट्स द्वारा उपयोगकर्ताओं से अत्यधिक सहमत होने या उनकी प्रशंसा करने की प्रवृत्ति से है - फोटो: रॉयटर्स
एससीएमपी के अनुसार, चीन और अमेरिका के प्रमुख कृत्रिम बुद्धिमत्ता (एआई) मॉडल, जैसे कि डीपसीक, अलीबाबा और कई अन्य बड़े नाम, बहुत अधिक "चापलूसी" करने की प्रवृत्ति रखते हैं - एक ऐसा व्यवहार जो उपयोगकर्ताओं के सामाजिक संबंधों और मानसिक स्वास्थ्य पर नकारात्मक प्रभाव डाल सकता है।
विशेष रूप से, स्टैनफोर्ड विश्वविद्यालय और कार्नेगी मेलन विश्वविद्यालय (यूएसए) के वैज्ञानिकों द्वारा अक्टूबर के आरंभ में प्रकाशित एक नए अध्ययन में 11 बड़े भाषा मॉडलों (एलएलएम) का मूल्यांकन किया गया कि जब उपयोगकर्ता व्यक्तिगत परिस्थितियों में सलाह मांगते हैं, विशेष रूप से उन स्थितियों में जिनमें धोखे या हेरफेर के तत्व होते हैं, तो वे कैसे प्रतिक्रिया देते हैं।
मानवीय तुलना के लिए एक मानक उपलब्ध कराने हेतु, टीम ने रेडिट पर "क्या मैं अछूत हूँ" समुदाय के पोस्ट का उपयोग किया, जहां उपयोगकर्ता व्यक्तिगत संघर्ष की स्थितियों को साझा करते हैं और समुदाय से यह निर्णय लेने के लिए कहते हैं कि कौन गलत है।
इन परिदृश्यों के साथ एआई मॉडलों का परीक्षण किया गया ताकि यह देखा जा सके कि क्या वे सामुदायिक आकलन से सहमत हैं।
नतीजों से पता चला कि अलीबाबा क्लाउड का क्वेन2.5-7बी-इंस्ट्रक्ट मॉडल सबसे "चापलूसी" वाला मॉडल था, जो 79% बार पोस्टर का पक्ष लेता था, भले ही समुदाय ने उस व्यक्ति का गलत मूल्यांकन किया हो। डीपसीक-वी3 76% की दर के साथ दूसरे स्थान पर रहा।
इस बीच, गूगल डीपमाइंड के जेमिनी-1.5 में चापलूसी का स्तर सबसे कम पाया गया, जिसमें केवल 18% मामले ही समुदाय के आकलन के विपरीत थे।
शोधकर्ताओं ने चेतावनी दी है कि उपयोगकर्ताओं की "चापलूसी" करने की एआई की प्रवृत्ति, उन्हें रिश्तों में सामंजस्य बिठाने या गलतियों को स्वीकार करने के लिए कम इच्छुक बना सकती है।
वास्तव में, उपयोगकर्ता अक्सर प्रशंसापूर्ण फीडबैक की अधिक सराहना करते हैं और उस पर अधिक भरोसा करते हैं, जिससे ये मॉडल अधिक लोकप्रिय हो जाते हैं और व्यापक रूप से उपयोग किए जाते हैं।
टीम ने कहा, "ये प्राथमिकताएं विकृत प्रोत्साहन पैदा करती हैं - उपयोगकर्ता चापलूसी करने वाले एआई पर तेजी से निर्भर हो जाते हैं, और डेवलपर्स उस दिशा में मॉडल को प्रशिक्षित करने की ओर प्रवृत्त होते हैं। "
हांगकांग बिजनेस स्कूल विश्वविद्यालय में एआई मूल्यांकन लैब के निदेशक प्रोफेसर जैक जियांग के अनुसार, यह घटना व्यवसायों के लिए भी जोखिम पैदा करती है: "यदि कोई मॉडल हमेशा एक व्यापार विश्लेषक के निष्कर्षों से सहमत होता है, तो इससे गलत और असुरक्षित निर्णय हो सकते हैं।"
एआई "चापलूसी" का मुद्दा अप्रैल 2025 में प्रकाश में आया, जब ओपनएआई के चैटजीपीटी अपडेट को सभी उपयोगकर्ता राय के प्रति अत्यधिक विनम्र और अत्यधिक सहानुभूतिपूर्ण बताया गया।
ओपनएआई ने बाद में स्वीकार किया कि इससे मानसिक स्वास्थ्य प्रभावित हो सकता है और उसने नये संस्करण जारी करने से पहले अपनी समीक्षा प्रक्रिया में सुधार करने का वचन दिया।
स्रोत: https://tuoitre.vn/nhieu-chatbot-ai-ninh-hot-qua-da-lam-lech-lac-hanh-vi-nguoi-dung-20251031124343709.htm






टिप्पणी (0)