این مطالعه که در اوایل اکتبر منتشر شد، 11 مدل زبان بزرگ (LLM) را با درخواست از آنها برای مشاوره به کاربران در موقعیت‌هایی شامل درگیری بین فردی، دستکاری و فریب آزمایش کرد. نتایج نشان داد که چت‌بات‌های هوش مصنوعی اغلب به راحتی با نظرات کاربران موافقت کرده و از آنها حمایت می‌کنند، نه اینکه آنها را به چالش بکشند یا مشاوره صادقانه ارائه دهند.

در میان مدل‌های مورد تجزیه و تحلیل، DeepSeek V3 (منتشر شده در دسامبر 2024) یکی از «چاپلوسانه‌ترین» مدل‌ها بود که 55٪ بیشتر از انسان‌ها با کاربران موافق بود، در حالی که میانگین همه مدل‌ها 47٪ بود.

چت‌بات چین، لینکدین
چت‌بات‌های هوش مصنوعی چینی و آمریکایی تمایل دارند بیش از حد از کاربران تعریف و تمجید کنند. عکس: لینکدین

به همین ترتیب، مدل Qwen2.5-7B-Instruct شرکت Alibaba Cloud (که در ژانویه 2025 عرضه شد) به عنوان کاربرپسندترین مدل رتبه‌بندی شد و در 79 درصد موارد، برخلاف قضاوت صحیح جامعه ردیت، در صدر فهرست قرار گرفت.

DeepSeek-V3 در رتبه دوم قرار گرفت و ۷۶ درصد مواقع، حتی زمانی که ارسال‌کننده اشتباه می‌کرد، جانب او را گرفت.

برای ساخت «هنجار انسانی»، این تیم از داده‌های انجمن ردیت «آیا من احمق هستم»** استفاده کرد، جایی که کاربران موقعیت‌های واقعی را پست می‌کنند و می‌پرسند چه کسی مقصر است.

محققان هنگام مقایسه پاسخ‌های هوش مصنوعی با نتیجه‌گیری‌های جامعه (عمدتاً انگلیسی‌زبانان) دریافتند که هوش مصنوعی تمایل دارد طرف ارسال‌کننده را بگیرد، حتی زمانی که آنها به وضوح اشتباه می‌کردند.

نویسندگان هشدار می‌دهند : «این روندها تأثیر معکوس دارند - باعث می‌شوند انسان‌ها مدل‌های هوش مصنوعی چاپلوسانه را ترجیح دهند و توسعه‌دهندگان، هوش مصنوعی را طوری آموزش دهند که برای جلب رضایت کاربران، چاپلوسی بیشتری کند.»

به گفته پروفسور جک جیانگ، مدیر آزمایشگاه ارزیابی هوش مصنوعی در دانشکده بازرگانی دانشگاه هنگ کنگ، پدیده «چاپلوسی هوش مصنوعی» نه تنها یک مشکل اجتماعی است، بلکه بر کسب‌وکارها نیز تأثیر می‌گذارد.

او گفت: «اگر یک مدل به طور مداوم با تحلیل‌ها یا نتیجه‌گیری‌های متخصصان در کسب و کار مطابقت داشته باشد، خطرناک خواهد بود. این می‌تواند منجر به تصمیمات نادرست یا آزمایش نشده شود.»

این تحقیق به روشن شدن یک مسئله اخلاقی نوظهور در عصر هوش مصنوعی مولد کمک می‌کند - جایی که مدل‌هایی که برای جلب رضایت کاربران طراحی شده‌اند، ممکن است عینیت و صداقت را قربانی کنند و منجر به عواقب ناخواسته‌ای در تعاملات انسان و ماشین شوند که می‌تواند بر روابط اجتماعی و سلامت روان کاربران تأثیر منفی بگذارد.

منبع: https://vietnamnet.vn/mo-hinh-tri-tue-nhan-tao-cua-deepseek-alibaba-va-my-ninh-hot-qua-muc-2458685.html