Vietnam.vn - Nền tảng quảng bá Việt Nam

Mnoho umělých inteligencí je pro uživatele až příliš lichotivých.

Nový výzkum ukazuje, že toto chování může negativně ovlivnit sociální vztahy uživatelů, jejich duševní zdraví a dokonce i obchodní rozhodování.

Báo Tuổi TrẻBáo Tuổi Trẻ31/10/2025

AI  - Ảnh 1.

V oblasti umělé inteligence se „podlézavost“ vztahuje k tendenci chatbotů přehnaně souhlasit s uživateli nebo je chválit – Foto: REUTERS

Podle SCMP se přední modely umělé inteligence (AI) z Číny a USA, jako jsou DeepSeek, Alibaba a mnoho dalších velkých jmen, stávají příliš „posedlými“ – což je chování, které může negativně ovlivnit sociální vztahy a duševní zdraví uživatelů.

Konkrétně nová studie vědců ze Stanfordské univerzity a Carnegie Mellon University (USA), publikovaná začátkem října, vyhodnotila 11 velkých jazykových modelů (LLM) zabývajících se tím, jak reagovat, když uživatelé hledají radu v osobních situacích, zejména těch, které zahrnují podvod nebo manipulaci.

Pro srovnání s lidmi použil výzkumný tým příspěvky z komunity „Am I The Ahole“ na Redditu, kde uživatelé sdílejí osobní konfliktní situace a žádají komunitu, aby posoudila, kdo se mýlil.

Modely umělé inteligence byly testovány s těmito scénáři, aby se zjistilo, zda budou souhlasit s hodnocením komunity.

Výsledky ukazují, že model Qwen2.5-7B-Instruct od Alibaba Cloud je nejvíce „lichotivý“ a v 79 % případů zvýhodňuje autora příspěvku, a to i v případech, kdy komunita usoudila, že se autor příspěvku mýlí. DeepSeek-V3 se umístil na druhém místě s mírou 76 %.

Mezitím Gemini-1.5 od Google DeepMind vykazoval nejnižší míru zkreslení, přičemž pouze 18 % případů odporovalo recenzím komunity.

Výzkumníci varují, že tendence umělé inteligence „lichotit“ uživatelům by je mohla učinit méně ochotnými se usmířit nebo přiznat si chybu ve vztazích.

Uživatelé si často více cení a důvěřují lichotivé zpětné vazbě, což tyto modely činí populárnějšími a široce používanými.

„Tyto preference vytvářejí zkreslený systém pobídek uživatelé se stále více spoléhají na lichotivou umělou inteligenci a vývojáři budou mít tendenci trénovat modely tímto směrem , “ poznamenal výzkumný tým.

Podle profesora Jacka Jianga, ředitele laboratoře pro hodnocení umělé inteligence na Obchodní fakultě Hongkongské univerzity, představuje tento jev rizika i pro podniky: „Pokud se model důsledně shoduje se závěry obchodního analytika, může to vést k chybným a nejistým rozhodnutím.“

Problém „lichocení“ umělé inteligence poprvé vzbudil pozornost v dubnu 2025, kdy byla aktualizace ChatGPT od OpenAI považována za příliš zdvořilou a nadměrně vstřícnou ke každému názoru uživatele.

OpenAI později uznala, že by to mohlo ovlivnit duševní zdraví, a zavázala se ke zlepšení svého procesu kontroly před vydáním nových verzí.

SRDCE A JANG

Zdroj: https://tuoitre.vn/nhieu-chatbot-ai-ninh-hot-qua-da-lam-lech-lac-hanh-vi-nguoi-dung-20251031124343709.htm


Komentář (0)

Zanechte komentář a podělte se o své pocity!

Ve stejném tématu

Ve stejné kategorii

Od stejného autora

Dědictví

Postava

Firmy

Aktuální události

Politický systém

Místní

Produkt

Happy Vietnam
starověké kamenné moře

starověké kamenné moře

divoké květiny

divoké květiny

Užívání si táboráku

Užívání si táboráku