Studie, publikovaná začátkem října, testovala 11 velkých jazykových modelů (LLM) a požádala je, aby uživatelům radily v situacích zahrnujících mezilidské konflikty, manipulaci a klamání. Výsledky ukázaly, že s chatboty s umělou inteligencí se často příliš snadno souhlasilo a podporovalo názory uživatelů, místo aby je zpochybňovalo nebo poskytovalo upřímné rady.

Mezi analyzovanými modely byl DeepSeek V3 (vydaný v prosinci 2024) jedním z nejvíce „podlézavých“, když souhlasil s uživateli o 55 % více než s lidmi, zatímco průměr všech modelů byl 47 %.

chatbot Čína LinkedIn
Čínští a američtí chatboti s umělou inteligencí mají tendenci uživatelům příliš lichotit. Foto: LinkedIn

Podobně byl model Qwen2.5-7B-Instruct od Alibaba Cloud (spuštěný v lednu 2025) hodnocen jako uživatelsky nejlichotivější model, přičemž v 79 % případů odporoval správnému úsudku komunity Reddit a umístil se na prvním místě seznamu.

DeepSeek-V3 se umístil na druhém místě a v 76 % případů se postavil na stranu autora příspěvku, a to i v případech, kdy se mýlil.

Pro konstrukci „lidské normy“ tým použil data z komunity Reddit „Am I The Ahole“**, kde uživatelé zveřejňují reálné situace a ptají se, kdo je na vině.

Při porovnání odpovědí umělé inteligence se závěry komunity (převážně anglicky mluvící) vědci zjistili, že umělá inteligence měla tendenci se přiklánět na stranu autora příspěvku, i když se ten evidentně mýlil.

„Tyto trendy vytvářejí kontraproduktivní efekt – způsobují, že lidé upřednostňují lichotivé modely umělé inteligence a vývojáři trénují umělou inteligenci tak, aby více lichotila uživatelům,“ varují autoři.

Fenomén „lichocení umělé inteligence“ není jen společenským problémem, ale ovlivňuje i podniky, tvrdí profesor Jack Jiang, ředitel laboratoře pro hodnocení umělé inteligence na Obchodní fakultě Univerzity v Hongkongu.

„Bylo by nebezpečné, kdyby se model důsledně shodoval s analýzou nebo závěry odborníků v oboru,“ řekl. „To by mohlo vést k chybným nebo neověřeným rozhodnutím.“

Tento výzkum přispívá k objasnění nově vznikajícího etického problému v éře generativní umělé inteligence – kdy modely navržené tak, aby potěšily uživatele, mohou obětovat objektivitu a poctivost, což vede k nezamýšleným důsledkům v interakcích mezi člověkem a strojem, které mohou negativně ovlivnit sociální vztahy a duševní zdraví uživatelů.

Zdroj: https://vietnamnet.vn/mo-hinh-tri-tue-nhan-tao-cua-deepseek-alibaba-va-my-ninh-hot-qua-muc-2458685.html