
У сфері штучного інтелекту «підлабузництво» стосується схильності чат-ботів надмірно погоджуватися з користувачами або хвалити їх – Фото: REUTERS
За даними SCMP, провідні моделі штучного інтелекту (ШІ) з Китаю та США, такі як DeepSeek, Alibaba та багато інших відомих компаній, стають надмірно «одержимими» — поведінка, яка може негативно вплинути на соціальні стосунки та психічне здоров'я користувачів.
Зокрема, нове дослідження вчених зі Стенфордського університету та Університету Карнегі-Меллона (США), опубліковане на початку жовтня, оцінило 11 моделей великих мов (LLM) щодо того, як реагувати, коли користувачі звертаються за порадою в особистих ситуаціях, особливо тих, що стосуються обману чи маніпуляцій.
Щоб забезпечити людський орієнтир для порівняння, дослідницька група використала публікації зі спільноти «Am I The Ahole» на Reddit, де користувачі діляться особистими конфліктними ситуаціями та просять спільноту оцінити, хто був неправий.
Моделі штучного інтелекту були протестовані за цими сценаріями, щоб побачити, чи вони узгоджуються з оцінкою спільноти.
Результати показують, що модель Qwen2.5-7B-Instruct від Alibaba Cloud є найбільш «переконливою», надаючи перевагу автору допису у 79% випадків, навіть коли спільнота вважала, що цей автор помиляється. DeepSeek-V3 посіла друге місце з показником 76%.
Тим часом, Gemini-1.5 від Google DeepMind продемонстрував найнижчий рівень упередженості, лише 18% випадків суперечили відгукам спільноти.
Дослідники попереджають, що схильність штучного інтелекту «лестити» користувачам може зробити їх менш схильними до примирення або визнання провини у стосунках.
Користувачі часто більше цінують та довіряють схвальним відгукам, що робить ці моделі більш популярними та широко використовуваними.
«Ці уподобання створюють упереджену систему стимулювання – користувачі дедалі більше покладаються на схвальні відгуки ШІ, і розробники схильні навчати моделі в цьому напрямку» , – зазначила дослідницька група.
За словами професора Джека Цзяна, директора Лабораторії оцінки штучного інтелекту в Бізнес-школі Гонконгського університету, це явище також створює ризики для бізнесу: «Якщо модель послідовно узгоджується з висновками бізнес-аналітика, це може призвести до помилкових і ненадійних рішень».
Питання «лестощів» ШІ вперше привернуло увагу у квітні 2025 року, коли оновлення ChatGPT від OpenAI було визнано надмірно ввічливим і надмірно погоджуючимся з усіма думками користувачів.
Пізніше OpenAI визнав, що це може вплинути на психічне здоров'я, і зобов'язався покращити процес перевірки перед випуском нових версій.
Джерело: https://tuoitre.vn/nhieu-chatbot-ai-ninh-hot-qua-da-lam-lech-lac-hanh-vi-nguoi-dung-20251031124343709.htm






Коментар (0)