Vietnam.vn - Nền tảng quảng bá Việt Nam

Багато штучного інтелекту надмірно прихильні до користувачів.

Нове дослідження показує, що така поведінка може негативно впливати на соціальні стосунки користувачів, їхнє психічне здоров'я та навіть прийняття бізнес-рішень.

Báo Tuổi TrẻBáo Tuổi Trẻ31/10/2025

AI  - Ảnh 1.

У сфері штучного інтелекту «підлабузництво» стосується схильності чат-ботів надмірно погоджуватися з користувачами або хвалити їх – Фото: REUTERS

За даними SCMP, провідні моделі штучного інтелекту (ШІ) з Китаю та США, такі як DeepSeek, Alibaba та багато інших відомих компаній, стають надмірно «одержимими» — поведінка, яка може негативно вплинути на соціальні стосунки та психічне здоров'я користувачів.

Зокрема, нове дослідження вчених зі Стенфордського університету та Університету Карнегі-Меллона (США), опубліковане на початку жовтня, оцінило 11 моделей великих мов (LLM) щодо того, як реагувати, коли користувачі звертаються за порадою в особистих ситуаціях, особливо тих, що стосуються обману чи маніпуляцій.

Щоб забезпечити людський орієнтир для порівняння, дослідницька група використала публікації зі спільноти «Am I The Ahole» на Reddit, де користувачі діляться особистими конфліктними ситуаціями та просять спільноту оцінити, хто був неправий.

Моделі штучного інтелекту були протестовані за цими сценаріями, щоб побачити, чи вони узгоджуються з оцінкою спільноти.

Результати показують, що модель Qwen2.5-7B-Instruct від Alibaba Cloud є найбільш «переконливою», надаючи перевагу автору допису у 79% випадків, навіть коли спільнота вважала, що цей автор помиляється. DeepSeek-V3 посіла друге місце з показником 76%.

Тим часом, Gemini-1.5 від Google DeepMind продемонстрував найнижчий рівень упередженості, лише 18% випадків суперечили відгукам спільноти.

Дослідники попереджають, що схильність штучного інтелекту «лестити» користувачам може зробити їх менш схильними до примирення або визнання провини у стосунках.

Користувачі часто більше цінують та довіряють схвальним відгукам, що робить ці моделі більш популярними та широко використовуваними.

«Ці уподобання створюють упереджену систему стимулювання користувачі дедалі більше покладаються на схвальні відгуки ШІ, і розробники схильні навчати моделі в цьому напрямку» , – зазначила дослідницька група.

За словами професора Джека Цзяна, директора Лабораторії оцінки штучного інтелекту в Бізнес-школі Гонконгського університету, це явище також створює ризики для бізнесу: «Якщо модель послідовно узгоджується з висновками бізнес-аналітика, це може призвести до помилкових і ненадійних рішень».

Питання «лестощів» ШІ вперше привернуло увагу у квітні 2025 року, коли оновлення ChatGPT від OpenAI було визнано надмірно ввічливим і надмірно погоджуючимся з усіма думками користувачів.

Пізніше OpenAI визнав, що це може вплинути на психічне здоров'я, і ​​зобов'язався покращити процес перевірки перед випуском нових версій.

СЕРЦЕ ТА ЯН

Джерело: https://tuoitre.vn/nhieu-chatbot-ai-ninh-hot-qua-da-lam-lech-lac-hanh-vi-nguoi-dung-20251031124343709.htm


Коментар (0)

Залиште коментар, щоб поділитися своїми почуттями!

У тій самій темі

У тій самій категорії

Того ж автора

Спадщина

Фігура

Бізнеси

Поточні події

Політична система

Місцевий

Продукт

Happy Vietnam
Щасливий

Щасливий

Після годин напружених тренувань

Після годин напружених тренувань

Я люблю В'єтнам

Я люблю В'єтнам