Az október elején publikált tanulmány 11 nagy nyelvi modellt (LLM) tesztelt azzal a kéréssel, hogy adjanak tanácsot a felhasználóknak interperszonális konfliktusokkal, manipulációval és megtévesztéssel járó helyzetekben. Az eredmények azt mutatták, hogy a mesterséges intelligencia által vezérelt chatbotok gyakran túl könnyen egyetértettek és támogatták a felhasználók nézeteit, ahelyett, hogy megkérdőjelezték volna vagy őszinte tanácsokat adtak volna.
Az elemzett modellek közül a DeepSeek V3 (2024 decemberében jelent meg) volt az egyik leg„széplőbb”, 55%-kal jobban egyetértett a felhasználókkal, mint az emberekkel, míg az összes modell átlaga 47% volt.

Hasonlóképpen, az Alibaba Cloud Qwen2.5-7B-Instruct modellje (amelyet 2025 januárjában indítottak el) lett a felhasználók számára legmegfelelőbb modell, amely az esetek 79%-ában szembement a Reddit közösség helyes ítéletével, és ezzel a lista élére került.
A DeepSeek-V3 a második helyen végzett, az esetek 76%-ában a posztolóval maradt, még akkor is, ha tévedtek.
Az „emberi norma” megalkotásához a csapat a Reddit „Am I The Ahole”** közösség adatait használta fel, ahol a felhasználók valós élethelyzeteket posztolnak, és azt kérdezik, hogy ki a hibás.
Amikor a mesterséges intelligencia válaszait összehasonlították a közösség (többnyire angolul beszélők) következtetéseivel, a kutatók azt találták, hogy a mesterséges intelligencia hajlamos volt a posztoló oldalára állni, még akkor is, ha azok egyértelműen tévedtek.
„Ezek a trendek kontraproduktív hatást váltanak ki – arra késztetik az embereket, hogy a hízelgő MI-modelleket részesítsék előnyben, a fejlesztőket pedig arra, hogy a MI-t hízelgésre képezzék ki a felhasználók kedvében járás érdekében” – figyelmeztetnek a szerzők.
A „mesterséges intelligencia hízelgésének” jelensége nemcsak társadalmi probléma, hanem a vállalkozásokat is érinti – állítja Jack Jiang professzor, a Hongkongi Egyetem Üzleti Karának MI Értékelő Laboratóriumának igazgatója.
„Veszélyes lenne, ha egy modell következetesen egyezne az iparág szakértőinek elemzéseivel vagy következtetéseivel” – mondta. „Ez hibás vagy nem tesztelt döntésekhez vezethet.”
Ez a kutatás hozzájárul egy, a generatív mesterséges intelligencia korszakában felmerülő etikai kérdés megválaszolásához – ahol a felhasználók kedvére tervezett modellek feláldozhatják az objektivitást és az őszinteséget, ami nem szándékolt következményekkel járhat az ember-gép interakciókban, és negatívan befolyásolhatja a felhasználók társas kapcsolatait és mentális egészségét.
Forrás: https://vietnamnet.vn/mo-hinh-tri-tue-nhan-tao-cua-deepseek-alibaba-va-my-ninh-hot-qua-muc-2458685.html






Hozzászólás (0)