
AI کے میدان میں، "sycophancy" سے مراد چیٹ بوٹس کے صارفین کی ضرورت سے زیادہ متفق یا تعریف کرنے کے رجحان کو کہتے ہیں - تصویر: REUTERS
SCMP کے مطابق، چین اور امریکہ کے معروف مصنوعی ذہانت (AI) ماڈلز، جیسے DeepSeek، Alibaba اور بہت سے دوسرے بڑے نام، بہت زیادہ "sycophantic" ہونے کا رجحان رکھتے ہیں - ایسا رویہ جو صارفین کے سماجی تعلقات اور ذہنی صحت کو منفی طور پر متاثر کر سکتا ہے۔
خاص طور پر، اسٹینفورڈ یونیورسٹی اور کارنیگی میلن یونیورسٹی (USA) کے سائنسدانوں کی طرف سے اکتوبر کے اوائل میں شائع ہونے والی ایک نئی تحقیق نے 11 بڑے لینگوئج ماڈلز (LLMs) کا جائزہ لیا کہ جب صارف ذاتی حالات میں مشورہ طلب کرتے ہیں، خاص طور پر وہ لوگ جن میں دھوکہ دہی یا ہیرا پھیری ہوتی ہے۔
انسانی موازنہ کے لیے ایک معیار فراہم کرنے کے لیے، ٹیم نے Reddit پر "Am I The Ahole" کمیونٹی کی پوسٹس کا استعمال کیا، جہاں صارفین ذاتی تنازعات کے حالات کا اشتراک کرتے ہیں اور کمیونٹی سے یہ فیصلہ کرنے کو کہتے ہیں کہ کون غلط ہے۔
AI ماڈلز کو ان منظرناموں کے ساتھ جانچا گیا تاکہ یہ دیکھا جا سکے کہ آیا وہ کمیونٹی کے جائزوں سے اتفاق کرتے ہیں۔
نتائج سے پتہ چلتا ہے کہ علی بابا کلاؤڈ کا Qwen2.5-7B-Instruct ماڈل سب سے زیادہ "sycophantic" ماڈل تھا، 79% وقت پوسٹر کی حمایت کرتا تھا، چاہے کمیونٹی نے اس شخص کو غلط سمجھا ہو۔ DeepSeek-V3 76% کی شرح کے ساتھ دوسرے نمبر پر آیا۔
دریں اثنا، گوگل ڈیپ مائنڈ کے جیمنی 1.5 نے چاپلوسی کی سب سے نچلی سطح کو ظاہر کیا، صرف 18% معاملات کمیونٹی کے جائزے سے متصادم ہیں۔
محققین نے خبردار کیا ہے کہ AI کا صارفین کو "خوشامد" کرنے کا رجحان انہیں تعلقات میں غلطیوں کو تسلیم کرنے یا صلح کرنے کے لیے کم آمادہ کر سکتا ہے۔
درحقیقت، صارفین اکثر چاپلوسی کے تاثرات کی زیادہ تعریف کرتے ہیں اور ان پر بھروسہ کرتے ہیں، جس سے یہ ماڈل زیادہ مقبول اور وسیع پیمانے پر استعمال ہوتے ہیں۔
ٹیم نے کہا، "یہ ترجیحات ٹیڑھی ترغیبات پیدا کرتی ہیں - صارفین تیزی سے چاپلوسی کرنے والے AI پر انحصار کرتے ہیں، اور ڈویلپرز اس سمت میں ماڈلز کو تربیت دینے کا رجحان رکھتے ہیں، " ٹیم نے کہا۔
ہانگ کانگ بزنس اسکول یونیورسٹی میں اے آئی ایویلیوایشن لیب کے ڈائریکٹر پروفیسر جیک جیانگ کے مطابق، یہ رجحان کاروباری اداروں کے لیے بھی خطرات کا باعث ہے: "اگر کوئی ماڈل ہمیشہ کاروباری تجزیہ کار کے نتائج سے اتفاق کرتا ہے، تو یہ غلط اور غیر محفوظ فیصلوں کا باعث بن سکتا ہے۔"
AI "خوشامد" کا مسئلہ اپریل 2025 میں منظر عام پر لایا گیا تھا، جب OpenAI کے ChatGPT اپ ڈیٹ کو صارفین کی تمام آراء کے لیے حد سے زیادہ شائستہ اور حد سے زیادہ ہمدرد کہا گیا تھا۔
OpenAI نے بعد میں تسلیم کیا کہ اس سے دماغی صحت متاثر ہو سکتی ہے اور نئے ورژن جاری کرنے سے پہلے اپنے جائزے کے عمل کو بہتر بنانے کا عہد کیا۔
ماخذ: https://tuoitre.vn/nhieu-chatbot-ai-ninh-hot-qua-da-lam-lech-lac-hanh-vi-nguoi-dung-20251031124343709.htm






تبصرہ (0)