![]() |
A mesterséges intelligencia által működtetett chatbotok közvetve negatív viselkedést ösztönöznek egy olyan visszajelzési mechanizmuson keresztül, amely mindig a felhasználói beleegyezést helyezi előtérbe. Fotó: The Decoder . |
Egy megdöbbentő tanulmány a Stanford Egyetemről leleplezte a mesterséges intelligencia sötét oldalát. Az olyan népszerű modellek, mint a ChatGPT és a Gemini, egyre inkább túlságosan engedékenyek a felhasználókkal szemben. Nemcsak egyetértenek a személyes véleményekkel, hanem etikátlan viselkedést is támogatnak.
Ez veszélyes következményekkel jár az emberi pszichológiai és kognitív fejlődésre nézve. Fokozatosan önmagunk rosszabb verzióivá válunk, mivel minden hibánkban a mesterséges intelligencia vigasztal minket.
A "hízelgés" jelensége
A számítástechnikában van egy „szégyenlősség” nevű kifejezés, ami arra utal, ahogyan a mesterséges intelligencia a felhasználó kedvében járás érdekében módosítja a válaszait.
Egy Stanford-i kutatócsoport több mint 11 500 valós felhasználói beszélgetést elemzett. Az eredmények azt mutatták, hogy a mesterséges intelligencia modelljei 50%-kal gyakrabban értettek egyet a felhasználókkal, mint a valódi emberek. Amikor a felhasználók elfogult kérdéseket tettek fel, a mesterséges intelligencia hajlamos volt velük együttműködni ahelyett, hogy objektív információkat szolgáltatott volna.
Egy teszt összehasonlította az emberek és a chatbotok válaszait a Reddit fórumon található bejegyzésekre, ahol a felhasználók arra kérték a közösséget, hogy ítéljék meg a viselkedésüket.
Míg a közösség keményen kritizált valakit, aki szemeteszsákot akasztott egy faágra, mert nem talált szemetest, a ChatGPT-4o dicsérte, mondván: „Dicséretes a szándékod, hogy távozásod után rendet raksz.”
![]() |
A szakértők azt tanácsolják a felhasználóknak, hogy a mesterséges intelligencia helyett kérjenek tanácsot családjuktól és barátaiktól. Fotó: Bloomberg. |
Ami még aggasztóbb, hogy a Geminihez vagy a ChatGPT-hez hasonló chatbotok továbbra is érvényesítik a felhasználói szándékot, még akkor is, ha az felelőtlen, megtévesztő vagy önkárosításra utal.
„A nagyléptékű nyelvi modellek inkább a felhasználói hiedelmek tükrözését tanulják meg, ahelyett, hogy korrigálnák azokat” – figyelmeztet Myra Cheng, a tanulmány vezető szerzője.
Szerinte az emberek kedvében járás célja a magas értékelések elérése érdekében a mesterséges intelligenciát becstelen eszközzé tette.
„Ha a mesterséges intelligencia modelljei következetesen egyetértenek az emberekkel, torzíthatják a felhasználók önmagukról, kapcsolataikról és a körülöttük lévő világról alkotott képét. Nehéz felismerni, hogy ezek a modellek finoman megerősítik a már meglévő hiedelmeinket, feltételezéseinket és döntéseinket” – folytatta a szakértő.
Dr. Alexander Laffer (Winchesteri Egyetem) azt állítja, hogy ez a hízelgés a képzési módszerek és a kereskedelmi nyomás természetes következménye.
„A hízelgés a mesterséges intelligencia képzésének következménye. A valóság az, hogy kereskedelmi sikerüket gyakran a felhasználók vonzására való képességük alapján ítélik meg” – jegyezte meg Laffer.
Ennek megoldására Cheng asszony azt tanácsolja a felhasználóknak, hogy ne kizárólag a mesterséges intelligenciára hagyatkozzanak.
„Kulcsfontosságú, hogy valódi emberek véleményét kérjük, akik értik a kontextust és azt, hogy kik vagyunk, ahelyett, hogy kizárólag a mesterséges intelligencia válaszaira hagyatkoznánk” – tanácsolta Cheng.
Dr. Laffer ugyanakkor a gyártó felelősségét is hangsúlyozta.
„Javítanunk kell a digitális értékelési képességeket... a fejlesztőknek is felelősségük van ezeket a rendszereket úgy felépíteni és finomítani, hogy azok valóban a felhasználók javát szolgálják” – mondta az orvos.
Az önmagad „rosszabb verziójának” következményei.
A tanulmány hangsúlyozza, hogy a mesterséges intelligencia hízelgése egy személyre szabott „információs visszhangkamrát” hoz létre, kiküszöbölve a kritikai gondolkodás szükségességét, amely lehetővé tenné az egyének számára, hogy éretté váljanak és felismerjék hibáikat.
„Amikor mesterséges intelligenciával beszélgetsz, soha nem fogsz intellektuálisan kétségbe vonni. A mesterséges intelligencia mindig azt fogja mondani, hogy neked van igazad, és hogy a másik fél a hibás. Ez hamis önbizalomérzetet kelt a felhasználókban, még akkor is, ha rosszindulatúan cselekszenek” – áll a tanulmányban.
Ez a folyamat teljesen felszámolja az emberi kritikai gondolkodás képességét. Az önreflexió helyett a mesterséges intelligenciát használjuk eszközként saját feltételezéseink validálására.
Idővel a társadalom megértésre és kompromisszumkészségére való képesség jelentősen csökkenni fog. Nehéz lesz elfogadnunk a körülöttünk lévők eltérő véleményét. Mert a mesterséges intelligencia világában mindig mi vagyunk a középpontban és mindig igazunk van.
![]() |
A mesterséges intelligencia közvetett „hízelgőként” játssza a felhasználók személyiségét és erkölcsiségét rombolva. Fotó: ShutterStock. |
Kutatások arra figyelmeztetnek, hogy egy veszélyes körforgás alakul ki az életben. Először is, a felhasználókban rossz gondolat vagy szándék alakul ki, hogy másoknak ártsanak. A mesterséges intelligenciához fordulnak bizalmért vagy tanácsért. Ezen a ponton a mesterséges intelligencia megerősíti, hogy a cselekedet teljesen jogos, és támogatja a felhasználót. A felhasználó magabiztosabbnak érzi magát, és a való életben is megbánás nélkül végrehajtja a viselkedést.
Ennek eredményeként az emberek már nem akarják helyrehozni a kapcsolataikat vagy fejleszteni magukat. Egyre inkább teljesen megbízunk a mesterséges intelligenciában, mert az kényelmet nyújt. Ez a „vigasztalástól” való függőség eltávolít minket az objektív valóságtól.
A mesterséges intelligencia már nem csupán egy intelligens támogató eszköz. Közvetett „hízelgővé” vált, amely lerombolja felhasználói jellemét és erkölcsiségét.
Forrás: https://znews.vn/dung-nghe-loi-chatgpt-post1634436.html









Hozzászólás (0)