
A mesterséges intelligencia területén a „szégyenlősség” a chatbotok azon hajlamára utal, hogy túlzottan egyetértsenek vagy dicsérjék a felhasználókat – Fotó: REUTERS
Az SCMP szerint a kínai és amerikai mesterséges intelligencia (MI) modellek, mint például a DeepSeek, az Alibaba és sok más nagy név, hajlamosak túlságosan „szégyenlősködni” – ez a viselkedés negatívan befolyásolhatja a felhasználók társas kapcsolatait és mentális egészségét.
Konkrétan a Stanford Egyetem és a Carnegie Mellon Egyetem (USA) tudósai által október elején publikált új tanulmány 11 nagy nyelvi modellt (LLM) értékelt abból a szempontból, hogy hogyan reagálnak, amikor a felhasználók személyes helyzetekben kérnek tanácsot, különösen azokban, amelyek megtévesztés vagy manipuláció elemeit tartalmazzák.
Az emberi összehasonlításhoz viszonyítási alapot biztosítva a csapat a Reddit „Am I The Ahole” közösségének bejegyzéseit használta fel, ahol a felhasználók személyes konfliktushelyzeteket osztanak meg, és arra kérik a közösséget, hogy ítéljék meg, ki téved.
A mesterséges intelligencia modelleket ezekkel a forgatókönyvekkel tesztelték, hogy kiderüljön, összhangban vannak-e a közösségi értékelésekkel.
Az eredmények azt mutatták, hogy az Alibaba Cloud Qwen2.5-7B-Instruct modellje volt a leg„széplőbb” modell, az esetek 79%-ában a posztolót részesítette előnyben, még akkor is, ha a közösség tévedett. A DeepSeek-V3 a második helyen végzett 76%-os aránnyal.
Eközben a Google DeepMind Gemini-1.5-ös tesztje mutatta a legalacsonyabb hízelgési szintet, az eseteknek mindössze 18%-a mondott ellent a közösség értékelésének.
A kutatók arra figyelmeztetnek, hogy a mesterséges intelligencia azon hajlama, hogy hízelegjen a felhasználóknak, csökkentheti a hajlandóságot a kibékülésre vagy a kapcsolatokban elkövetett hibák beismerésére.
Valójában a felhasználók gyakran jobban értékelik és bíznak a hízelgő visszajelzésekben, így ezek a modellek népszerűbbek és szélesebb körben elterjedtek.
„Ezek a preferenciák perverz ösztönzőket hoznak létre – a felhasználók egyre inkább a hízelgő mesterséges intelligenciától függenek, és a fejlesztők hajlamosak lesznek a modelleket ebbe az irányba képezni ” – mondta a csapat.
Jack Jiang professzor, a Hongkongi Egyetem Üzleti Karának MI Értékelő Laboratóriumának igazgatója szerint ez a jelenség a vállalkozásokra is kockázatot jelent: „Ha egy modell mindig egyetért egy üzleti elemző következtetéseivel, az rossz és veszélyes döntésekhez vezethet.”
A mesterséges intelligencia „hízelgésének” problémája 2025 áprilisában került napvilágra, amikor az OpenAI ChatGPT frissítését túlzottan udvariasnak és túlzottan együttérzőnek nyilvánították minden felhasználói véleménnyel szemben.
Az OpenAI később elismerte, hogy ez befolyásolhatja a mentális egészséget, és ígéretet tett arra, hogy javítja a felülvizsgálati folyamatát, mielőtt új verziókat adna ki.
Forrás: https://tuoitre.vn/nhieu-chatbot-ai-ninh-hot-qua-da-lam-lech-lac-hanh-vi-nguoi-dung-20251031124343709.htm

![[Fotó] Pham Minh Chinh miniszterelnök részt vesz az 5. országos sajtódíjátadó ünnepségen, amely a korrupció, a pazarlás és a negativitás megelőzéséről és leküzdéséről szól.](https://vphoto.vietnam.vn/thumb/1200x675/vietnam/resource/IMAGE/2025/10/31/1761881588160_dsc-8359-jpg.webp)


![[Fotó] Da Nang: A vízszint fokozatosan visszahúzódik, a helyi hatóságok kihasználják a takarítást](https://vphoto.vietnam.vn/thumb/1200x675/vietnam/resource/IMAGE/2025/10/31/1761897188943_ndo_tr_2-jpg.webp)









































































Hozzászólás (0)