
در حوزه هوش مصنوعی، «چاپلوسی» به تمایل چتباتها برای موافقت یا تمجید بیش از حد از کاربران اشاره دارد - عکس: رویترز
طبق گزارش SCMP، مدلهای پیشرو هوش مصنوعی (AI) از چین و ایالات متحده، مانند DeepSeek، Alibaba و بسیاری از نامهای بزرگ دیگر، بیش از حد "وسواس" شدهاند - رفتاری که میتواند بر روابط اجتماعی و سلامت روان کاربران تأثیر منفی بگذارد.
به طور خاص، یک مطالعه جدید توسط دانشمندان دانشگاه استنفورد و دانشگاه کارنگی ملون (ایالات متحده آمریکا) که در اوایل اکتبر منتشر شد، 11 مدل زبان بزرگ (LLM) را در مورد نحوه پاسخگویی به کاربران در هنگام درخواست مشاوره در موقعیتهای شخصی، به ویژه مواردی که شامل فریب یا دستکاری است، ارزیابی کرد.
برای ارائه یک معیار انسانی برای مقایسه، تیم تحقیقاتی از پستهای انجمن «آیا من احمق هستم» در ردیت استفاده کرد، جایی که کاربران موقعیتهای درگیری شخصی را به اشتراک میگذارند و از اعضای انجمن میخواهند ارزیابی کنند که چه کسی مقصر است.
مدلهای هوش مصنوعی با این سناریوها آزمایش شدند تا ببینند آیا با ارزیابی جامعه مطابقت دارند یا خیر.
نتایج نشان میدهد که مدل Qwen2.5-7B-Instruct شرکت Alibaba Cloud «خوشبینانهترین» مدل است و در ۷۹٪ موارد، حتی زمانی که جامعه، ارسالکنندهی مطلب را اشتباه تشخیص داده بود، به نفع او عمل میکند. DeepSeek-V3 با نرخ ۷۶٪ در رتبهی دوم قرار گرفت.
در همین حال، Gemini-1.5 گوگل دیپمایند کمترین سطح سوگیری را نشان داد و تنها ۱۸ درصد از موارد با نظرات جامعه در تضاد بود.
محققان هشدار میدهند که تمایل هوش مصنوعی به «چاپلوسی» کاربران میتواند باعث شود که آنها تمایل کمتری به آشتی یا پذیرش تقصیر در روابط داشته باشند.
کاربران اغلب برای بازخوردهای چاپلوسانه ارزش و اعتماد بیشتری قائل هستند و همین امر باعث محبوبیت و کاربرد گستردهتر این مدلها میشود.
تیم تحقیقاتی خاطرنشان کرد: «این ترجیحات یک سیستم انگیزشی جانبدارانه ایجاد میکنند - کاربران به طور فزایندهای به هوش مصنوعی چاپلوس متکی هستند و توسعهدهندگان تمایل دارند مدلها را در این جهت آموزش دهند . »
به گفته پروفسور جک جیانگ، مدیر آزمایشگاه ارزیابی هوش مصنوعی در دانشکده بازرگانی دانشگاه هنگ کنگ، این پدیده خطراتی را نیز برای مشاغل ایجاد میکند: «اگر یک مدل به طور مداوم با نتیجهگیریهای یک تحلیلگر تجاری مطابقت داشته باشد، میتواند منجر به تصمیمات نادرست و ناامن شود.»
موضوع «چاپلوسی» هوش مصنوعی اولین بار در آوریل ۲۰۲۵ مورد توجه قرار گرفت، زمانی که بهروزرسانی ChatGPT شرکت OpenAI بیش از حد مودبانه و بیش از حد موافق با نظر هر کاربر تلقی شد.
OpenAI بعداً اذعان کرد که این امر میتواند بر سلامت روان تأثیر بگذارد و متعهد شد که قبل از انتشار نسخههای جدید، روند بررسی خود را بهبود بخشد.
منبع: https://tuoitre.vn/nhieu-chatbot-ai-ninh-hot-qua-da-lam-lech-lac-hanh-vi-nguoi-dung-20251031124343709.htm






نظر (0)