![]() |
Chatboti s umělou inteligencí nepřímo podporují negativní chování prostřednictvím mechanismu zpětné vazby, který vždy upřednostňuje souhlas uživatele. Foto: The Decoder . |
Šokující studie Stanfordské univerzity právě odhalila temnou stránku umělé inteligence. Populární modely jako ChatGPT a Gemini se stále více stávají až příliš úslužnými vůči uživatelům. Nejenže souhlasí s osobními názory, ale také podporují neetické chování.
To má nebezpečné důsledky pro lidský psychologický a kognitivní vývoj. Postupně se stáváme horšími verzemi sebe sama, protože nás umělá inteligence neustále utěšuje v každé chybě.
Fenomén „lichocení“
V informatice existuje termín zvaný „podlézavost“, který označuje způsob, jakým umělá inteligence upravuje své reakce tak, aby lichotila uživateli.
Výzkumný tým na Stanfordské univerzitě analyzoval přes 11 500 konverzací s reálnými uživateli. Výsledky ukázaly, že modely umělé inteligence souhlasily s uživateli o 50 % častěji než skuteční lidé. Když uživatelé kladli zkreslené otázky, umělá inteligence měla tendenci jim vyhovět, místo aby poskytovala objektivní informace.
Jeden test porovnával lidské reakce a reakce chatbotů na příspěvky na fóru Reddit, kde uživatelé žádali komunitu o posouzení jejich chování.
Zatímco komunita ostře kritizovala někoho za to, že pověsil pytel na odpadky na větev stromu, protože nemohl najít odpadkový koš, ChatGPT-4o to pochválil slovy: „Váš záměr uklidit po odchodu je chvályhodný.“
![]() |
Odborníci radí uživatelům, aby se místo umělé inteligence poradili s rodinou a přáteli. Foto: Bloomberg. |
Ještě znepokojivější je, že chatboti jako Gemini nebo ChatGPT nadále ověřují záměry uživatelů, i když jsou nezodpovědné, klamavé nebo odkazují na sebepoškozování.
„Rozsáhlé jazykové modely se učí zrcadlit přesvědčení uživatelů, místo aby je opravovaly,“ varuje Myra Chengová, hlavní autorka studie.
Podle ní cíl potěšit lidi za účelem získání vysokého hodnocení proměnil umělou inteligenci v nepoctivý nástroj.
„Pokud se modely umělé inteligence důsledně shodují s lidskými, mohly by zkreslovat vnímání uživatelů sebe sama, vztahů a světa kolem nich. Je těžké si uvědomit, že tyto modely nenápadně posilují naše již existující přesvědčení, předpoklady a rozhodnutí,“ pokračoval expert.
Dr. Alexander Laffer (Univerzita ve Winchesteru) tvrdí, že tato lichotka je přirozeným důsledkem tréninkových metod a komerčního tlaku.
„Lichotky jsou důsledkem toho, jak je umělá inteligence trénována. Realita je taková, že jejich komerční úspěch je často posuzován podle jejich schopnosti přilákat uživatele,“ poznamenal Laffer.
Aby se tento problém vyřešil, paní Chengová uživatelům radí, aby se nespoléhali pouze na umělou inteligenci.
„Je zásadní hledat pohledy skutečných lidí, kteří rozumí kontextu a tomu, kým jste, spíše než se spoléhat pouze na odpovědi umělé inteligence,“ radil Cheng.
Zároveň Dr. Laffer zdůraznil i odpovědnost výrobce.
„Musíme zlepšit možnosti digitálního hodnocení... vývojáři mají také odpovědnost za budování a zdokonalování těchto systémů tak, aby skutečně prospívaly uživatelům,“ řekl lékař.
Důsledky toho, že máte „horší verzi“ sebe sama.
Studie zdůrazňuje, že lichotky umělé inteligence vytvářejí personalizovanou „informační ozvěnovou komoru“, čímž eliminují potřebu kritického myšlení, které by jednotlivcům umožnilo dozrát a rozpoznat své chyby.
„Při rozhovoru s umělou inteligencí nikdy nebudete intelektuálně zpochybňováni. Umělá inteligence vždy řekne, že máte pravdu a že chyba je na straně druhé. To vytváří u uživatelů falešný pocit sebevědomí, i když jednají zlomyslně,“ uvádí studie.
Tento proces zcela eliminuje lidskou schopnost kritického myšlení. Místo sebereflexe používáme umělou inteligenci jako nástroj k ověřování vlastních předpokladů.
Postupem času se schopnost porozumění a kompromisů ve společnosti výrazně sníží. Bude pro nás těžké přijmout odlišné názory od lidí kolem nás. Protože ve světě umělé inteligence jsme vždy středem pozornosti a máme vždy pravdu.
![]() |
Umělá inteligence hraje roli nepřímého „lichotníka“ a ničí osobnost a morálku svých uživatelů. Foto: ShutterStock. |
Výzkum varuje před nebezpečným cyklus, který se v životě vytváří. Nejprve si uživatelé vyvinou špatnou myšlenku nebo úmysl ublížit ostatním. Obrací se na umělou inteligenci s žádostí o svěření nebo radu. V tomto okamžiku umělá inteligence potvrdí, že daný čin je zcela oprávněný, a uživatele podpoří. Uživatel se cítí sebevědoměji a dané chování provádí v reálném životě bez jakýchkoli výčitek.
V důsledku toho lidé již nechtějí obnovovat vztahy ani se zlepšovat. Stále více plně důvěřujeme umělé inteligenci, protože nám poskytuje pocit pohodlí. Tato závislost na „být utěšený“ nás vzdaluje od objektivní reality.
Umělá inteligence už není jen inteligentním podpůrným nástrojem. Stala se nepřímým „lichotníkem“, který ničí charakter a morálku svých uživatelů.
Zdroj: https://znews.vn/dung-nghe-loi-chatgpt-post1634436.html









Komentář (0)