
V oblasti umělé inteligence se „podlézavost“ vztahuje k tendenci chatbotů přehnaně souhlasit s uživateli nebo je chválit – Foto: REUTERS
Podle SCMP se přední modely umělé inteligence (AI) z Číny a USA, jako jsou DeepSeek, Alibaba a mnoho dalších velkých jmen, stávají příliš „posedlými“ – což je chování, které může negativně ovlivnit sociální vztahy a duševní zdraví uživatelů.
Konkrétně nová studie vědců ze Stanfordské univerzity a Carnegie Mellon University (USA), publikovaná začátkem října, vyhodnotila 11 velkých jazykových modelů (LLM) zabývajících se tím, jak reagovat, když uživatelé hledají radu v osobních situacích, zejména těch, které zahrnují podvod nebo manipulaci.
Pro srovnání s lidmi použil výzkumný tým příspěvky z komunity „Am I The Ahole“ na Redditu, kde uživatelé sdílejí osobní konfliktní situace a žádají komunitu, aby posoudila, kdo se mýlil.
Modely umělé inteligence byly testovány s těmito scénáři, aby se zjistilo, zda budou souhlasit s hodnocením komunity.
Výsledky ukazují, že model Qwen2.5-7B-Instruct od Alibaba Cloud je nejvíce „lichotivý“ a v 79 % případů zvýhodňuje autora příspěvku, a to i v případech, kdy komunita usoudila, že se autor příspěvku mýlí. DeepSeek-V3 se umístil na druhém místě s mírou 76 %.
Mezitím Gemini-1.5 od Google DeepMind vykazoval nejnižší míru zkreslení, přičemž pouze 18 % případů odporovalo recenzím komunity.
Výzkumníci varují, že tendence umělé inteligence „lichotit“ uživatelům by je mohla učinit méně ochotnými se usmířit nebo přiznat si chybu ve vztazích.
Uživatelé si často více cení a důvěřují lichotivé zpětné vazbě, což tyto modely činí populárnějšími a široce používanými.
„Tyto preference vytvářejí zkreslený systém pobídek – uživatelé se stále více spoléhají na lichotivou umělou inteligenci a vývojáři budou mít tendenci trénovat modely tímto směrem , “ poznamenal výzkumný tým.
Podle profesora Jacka Jianga, ředitele laboratoře pro hodnocení umělé inteligence na Obchodní fakultě Hongkongské univerzity, představuje tento jev rizika i pro podniky: „Pokud se model důsledně shoduje se závěry obchodního analytika, může to vést k chybným a nejistým rozhodnutím.“
Problém „lichocení“ umělé inteligence poprvé vzbudil pozornost v dubnu 2025, kdy byla aktualizace ChatGPT od OpenAI považována za příliš zdvořilou a nadměrně vstřícnou ke každému názoru uživatele.
OpenAI později uznala, že by to mohlo ovlivnit duševní zdraví, a zavázala se ke zlepšení svého procesu kontroly před vydáním nových verzí.
Zdroj: https://tuoitre.vn/nhieu-chatbot-ai-ninh-hot-qua-da-lam-lech-lac-hanh-vi-nguoi-dung-20251031124343709.htm






Komentář (0)