
AI کے میدان میں، "sycophancy" سے مراد چیٹ بوٹس کے صارفین کے ساتھ ضرورت سے زیادہ متفق ہونے یا ان کی تعریف کرنے کے رجحان کو کہتے ہیں - تصویر: REUTERS
SCMP کے مطابق، چین اور امریکہ کے معروف مصنوعی ذہانت (AI) ماڈلز، جیسے DeepSeek، Alibaba، اور بہت سے دوسرے بڑے نام، ضرورت سے زیادہ "جنون" کا شکار ہو رہے ہیں - ایسا رویہ جو صارفین کے سماجی تعلقات اور ذہنی صحت پر منفی اثر ڈال سکتا ہے۔
خاص طور پر، اکتوبر کے اوائل میں شائع ہونے والی سٹینفورڈ یونیورسٹی اور کارنیگی میلن یونیورسٹی (USA) کے سائنسدانوں کی ایک نئی تحقیق میں، 11 بڑے لینگوئج ماڈلز (LLMs) کا جائزہ لیا گیا کہ جب صارف ذاتی حالات میں مشورہ طلب کرتے ہیں، خاص طور پر دھوکہ دہی یا ہیرا پھیری میں ملوث ہوتے ہیں تو اس کا جواب کیسے دیا جائے۔
انسان سے انسان کے درمیان موازنہ کا معیار قائم کرنے کے لیے، ریسرچ ٹیم نے Reddit پر "Am I The Ahole" کمیونٹی کی پوسٹس کا استعمال کیا، جہاں صارفین ذاتی تنازعات کے حالات کا اشتراک کرتے ہیں اور کمیونٹی سے یہ جائزہ لینے کے لیے کہتے ہیں کہ کون غلط تھا۔
اے آئی ماڈلز کو ان منظرناموں کے ساتھ جانچا گیا تاکہ یہ دیکھا جا سکے کہ آیا وہ کمیونٹی کے جائزے سے اتفاق کرتے ہیں۔
نتائج سے پتہ چلتا ہے کہ علی بابا کلاؤڈ کا Qwen2.5-7B-Instruct ماڈل سب سے زیادہ "خوشامد کرنے والا" ہے، 79% معاملات میں پوسٹر کی حمایت کرتا ہے، یہاں تک کہ جب کمیونٹی نے اس پوسٹر کو غلط سمجھا۔ DeepSeek-V3 76% کی شرح کے ساتھ دوسرے نمبر پر آیا۔
دریں اثنا، Google DeepMind کے Gemini-1.5 نے تعصب کی سب سے کم سطح کو ظاہر کیا، صرف 18% معاملات کمیونٹی کے جائزوں سے متصادم ہیں۔
محققین نے خبردار کیا ہے کہ AI کا صارفین کو "خوشامد" کرنے کا رجحان ان کو تعلقات میں غلطی تسلیم کرنے یا صلح کرنے کے لیے کم آمادہ کر سکتا ہے۔
صارفین اکثر چاپلوسی کرنے والے تاثرات کو زیادہ اہمیت دیتے ہیں اور ان پر بھروسہ کرتے ہیں، جس سے ان ماڈلز کو زیادہ مقبول اور وسیع پیمانے پر استعمال کیا جاتا ہے۔
"یہ ترجیحات ایک متعصبانہ ترغیب کا نظام بناتی ہیں - صارفین تیزی سے چاپلوسی کرنے والے AI پر انحصار کر رہے ہیں، اور ڈویلپرز اس سمت میں ماڈلز کی تربیت کریں گے ، " تحقیقی ٹیم نے نوٹ کیا۔
ہانگ کانگ بزنس اسکول یونیورسٹی میں اے آئی اسسمنٹ لیب کے ڈائریکٹر پروفیسر جیک جیانگ کے مطابق، یہ رجحان کاروبار کے لیے بھی خطرات کا باعث بنتا ہے: "اگر کوئی ماڈل کسی کاروباری تجزیہ کار کے نتائج سے مسلسل اتفاق کرتا ہے، تو یہ غلط اور غیر محفوظ فیصلوں کا باعث بن سکتا ہے۔"
AI کے "خوشامد" کے مسئلے نے پہلی بار اپریل 2025 میں توجہ حاصل کی، جب OpenAI کی ChatGPT اپ ڈیٹ کو ہر صارف کے تبصرے کے لیے حد سے زیادہ شائستہ اور حد سے زیادہ متفق سمجھا جاتا تھا۔
OpenAI نے بعد میں تسلیم کیا کہ یہ دماغی صحت کو متاثر کر سکتا ہے اور نئے ورژن جاری کرنے سے پہلے اپنے جائزے کے عمل کو بہتر بنانے کے لیے پرعزم ہے۔
ماخذ: https://tuoitre.vn/nhieu-chatbot-ai-ninh-hot-qua-da-lam-lech-lac-hanh-vi-nguoi-dung-20251031124343709.htm






تبصرہ (0)