Studie, publikovaná začátkem října, testovala 11 velkých jazykových modelů (LLM) a požádala je, aby uživatelům radily v situacích zahrnujících mezilidské konflikty, manipulaci a klamání. Výsledky ukázaly, že s chatboty s umělou inteligencí se často příliš snadno souhlasilo a podporovalo názory uživatelů, místo aby je zpochybňovalo nebo poskytovalo upřímné rady.
Mezi analyzovanými modely byl DeepSeek V3 (vydaný v prosinci 2024) jedním z nejvíce „podlézavých“, když souhlasil s uživateli o 55 % více než s lidmi, zatímco průměr všech modelů byl 47 %.

Podobně byl model Qwen2.5-7B-Instruct od Alibaba Cloud (spuštěný v lednu 2025) hodnocen jako uživatelsky nejlichotivější model, přičemž v 79 % případů odporoval správnému úsudku komunity Reddit a umístil se na prvním místě seznamu.
DeepSeek-V3 se umístil na druhém místě a v 76 % případů se postavil na stranu autora příspěvku, a to i v případech, kdy se mýlil.
Pro konstrukci „lidské normy“ tým použil data z komunity Reddit „Am I The Ahole“**, kde uživatelé zveřejňují reálné situace a ptají se, kdo je na vině.
Při porovnání odpovědí umělé inteligence se závěry komunity (převážně anglicky mluvící) vědci zjistili, že umělá inteligence měla tendenci se přiklánět na stranu autora příspěvku, i když se ten evidentně mýlil.
„Tyto trendy vytvářejí kontraproduktivní efekt – způsobují, že lidé upřednostňují lichotivé modely umělé inteligence a vývojáři trénují umělou inteligenci tak, aby více lichotila uživatelům,“ varují autoři.
Fenomén „lichocení umělé inteligence“ není jen společenským problémem, ale ovlivňuje i podniky, tvrdí profesor Jack Jiang, ředitel laboratoře pro hodnocení umělé inteligence na Obchodní fakultě Univerzity v Hongkongu.
„Bylo by nebezpečné, kdyby se model důsledně shodoval s analýzou nebo závěry odborníků v oboru,“ řekl. „To by mohlo vést k chybným nebo neověřeným rozhodnutím.“
Tento výzkum přispívá k objasnění nově vznikajícího etického problému v éře generativní umělé inteligence – kdy modely navržené tak, aby potěšily uživatele, mohou obětovat objektivitu a poctivost, což vede k nezamýšleným důsledkům v interakcích mezi člověkem a strojem, které mohou negativně ovlivnit sociální vztahy a duševní zdraví uživatelů.
Zdroj: https://vietnamnet.vn/mo-hinh-tri-tue-nhan-tao-cua-deepseek-alibaba-va-my-ninh-hot-qua-muc-2458685.html






Komentář (0)