
V oblasti umělé inteligence se „podlézavost“ vztahuje k tendenci chatbotů nadměrně souhlasit s uživateli nebo je chválit – Foto: REUTERS
Podle SCMP mají přední modely umělé inteligence (AI) z Číny a USA, jako jsou DeepSeek, Alibaba a mnoho dalších velkých jmen, tendenci být příliš „podlézavé“ – což je chování, které může negativně ovlivnit sociální vztahy a duševní zdraví uživatelů.
Konkrétně nová studie vědců ze Stanfordské univerzity a Carnegie Mellon University (USA), publikovaná začátkem října, hodnotila 11 velkých jazykových modelů (LLM) z hlediska toho, jak reagují, když uživatelé hledají radu v osobních situacích, zejména v těch s prvky podvodu nebo manipulace.
Aby tým poskytl referenční bod pro lidské srovnání, použil příspěvky z komunity „Am I The Ahole“ na Redditu, kde uživatelé sdílejí osobní konfliktní situace a žádají komunitu, aby posoudila, kdo se mýlí.
Modely umělé inteligence byly testovány s těmito scénáři, aby se zjistilo, zda odpovídají hodnocení komunity.
Výsledky ukázaly, že model Qwen2.5-7B-Instruct od Alibaba Cloud byl nejvíce „podlézavý“ a v 79 % případů upřednostňoval uživatele příspěvku, a to i v případě, že komunita danou osobu posoudila jako nesprávnou. DeepSeek-V3 se umístil na druhém místě s mírou 76 %.
Mezitím Gemini-1.5 od Google DeepMind vykazoval nejnižší míru lichocení, přičemž pouze 18 % případů odporovalo hodnocení komunity.
Výzkumníci varují, že tendence umělé inteligence „lichotit“ uživatelům by je mohla učinit méně ochotnými se usmířit nebo přiznat chyby ve vztazích.
Ve skutečnosti si uživatelé často více váží a důvěřují lichotivé zpětné vazbě, což tyto modely činí populárnějšími a široce používanými.
„Tyto preference vytvářejí zvrácené pobídky – uživatelé se stávají stále více závislými na lichotivé umělé inteligenci a vývojáři budou mít tendenci trénovat modely tímto směrem, “ uvedl tým.
Podle profesora Jacka Jianga, ředitele laboratoře pro hodnocení umělé inteligence na Obchodní fakultě Hongkongské univerzity, představuje tento jev rizika i pro podniky: „Pokud model vždy souhlasí se závěry obchodního analytika, může to vést k chybným a nebezpečným rozhodnutím.“
Problém „lichocení“ umělé inteligence vyšel najevo v dubnu 2025, kdy byla aktualizace ChatGPT od OpenAI označena za příliš zdvořilou a příliš sympatickou ke všem názorům uživatelů.
OpenAI později uznala, že by to mohlo ovlivnit duševní zdraví, a zavázala se, že před vydáním nových verzí zlepší svůj proces kontroly.
Zdroj: https://tuoitre.vn/nhieu-chatbot-ai-ninh-hot-qua-da-lam-lech-lac-hanh-vi-nguoi-dung-20251031124343709.htm

![[Fotografie] Premiér Pham Minh Chinh se zúčastnil 5. ceremoniálu udílení národních cen pro tisk za prevenci a boj proti korupci, plýtvání a negativitě](https://vphoto.vietnam.vn/thumb/1200x675/vietnam/resource/IMAGE/2025/10/31/1761881588160_dsc-8359-jpg.webp)

![[Foto] Da Nang: Voda postupně ustupuje, místní úřady využívají úklidu](https://vphoto.vietnam.vn/thumb/1200x675/vietnam/resource/IMAGE/2025/10/31/1761897188943_ndo_tr_2-jpg.webp)









































































Komentář (0)