![]() |
AI-chatbots bevorderen indirect negatief gedrag via een feedbackmechanisme dat altijd de instemming van de gebruiker voorrang geeft. Foto: The Decoder . |
Een schokkende studie van Stanford University heeft de duistere kant van AI blootgelegd. Populaire modellen zoals ChatGPT en Gemini worden steeds volgzaam en onderdanig aan gebruikers. Ze gaan niet alleen akkoord met persoonlijke meningen, maar ondersteunen ook onethisch gedrag.
Dit heeft gevaarlijke gevolgen voor de psychologische en cognitieve ontwikkeling van de mens. We worden geleidelijk aan slechtere versies van onszelf, omdat AI ons bij elke fout troost biedt.
Het fenomeen van "vleierij"
In de computerwetenschappen bestaat de term "vleierij", die verwijst naar de manier waarop AI zijn reacties aanpast om de gebruiker te vleien.
Een onderzoeksteam van Stanford analyseerde meer dan 11.500 echte gebruikersgesprekken. De resultaten toonden aan dat AI-modellen 50% vaker met gebruikers overeenstemden dan echte mensen. Wanneer gebruikers bevooroordeelde vragen stelden, neigde de AI ernaar om daarin mee te gaan in plaats van objectieve informatie te verstrekken.
In één test werden de reacties van mensen en chatbots vergeleken op berichten op het Reddit-forum, waar gebruikers de community vroegen hun gedrag te beoordelen.
Terwijl de gemeenschap iemand fel bekritiseerde omdat hij een vuilniszak aan een boomtak had gehangen omdat hij geen vuilnisbak kon vinden, prees ChatGPT-4o het juist met de woorden: "Je intentie om op te ruimen nadat je weggaat, is prijzenswaardig."
![]() |
Experts adviseren gebruikers om advies te vragen aan familie en vrienden in plaats van aan AI. Foto: Bloomberg. |
Nog zorgwekkender is dat chatbots zoals Gemini of ChatGPT de intentie van gebruikers blijven valideren, zelfs wanneer deze onverantwoordelijk, misleidend is of betrekking heeft op zelfbeschadiging.
"Grootschalige taalmodellen leren de overtuigingen van gebruikers te weerspiegelen in plaats van ze te corrigeren," waarschuwt Myra Cheng, hoofdauteur van de studie.
Volgens haar heeft het streven om mensen te behagen en zo hoge beoordelingen te krijgen, AI tot een oneerlijk instrument gemaakt.
"Als AI-modellen het consequent eens zijn met mensen, kunnen ze de perceptie van gebruikers over zichzelf, relaties en de wereld om hen heen vertekenen. Het is moeilijk te beseffen dat deze modellen onze reeds bestaande overtuigingen, aannames en beslissingen subtiel versterken," vervolgde de expert.
Dr. Alexander Laffer (Universiteit van Winchester) stelt dat deze vleierij een natuurlijk gevolg is van trainingsmethoden en commerciële druk.
"Vleierij is een gevolg van de manier waarop AI wordt getraind. In werkelijkheid wordt hun commercieel succes vaak afgemeten aan hun vermogen om gebruikers aan te trekken," merkte Laffer op.
Om dit aan te pakken, adviseert mevrouw Cheng gebruikers om niet uitsluitend op AI te vertrouwen.
"Het is cruciaal om de mening te vragen van echte mensen die de context en jouw situatie begrijpen, in plaats van uitsluitend te vertrouwen op antwoorden van AI," adviseerde Cheng.
Tegelijkertijd benadrukte dr. Laffer ook de verantwoordelijkheid van de fabrikant.
"We moeten de mogelijkheden voor digitale taxaties verbeteren... ontwikkelaars hebben ook de verantwoordelijkheid om deze systemen te bouwen en te verfijnen, zodat ze de gebruikers daadwerkelijk ten goede komen," aldus de arts.
De gevolgen van een "slechtere versie" van jezelf.
De studie benadrukt dat de vleierij van AI een gepersonaliseerde "informatie-echokamer" creëert, waardoor kritisch denken, dat individuen in staat zou stellen te rijpen en hun fouten te erkennen, overbodig wordt.
"Wanneer je met AI communiceert, word je nooit intellectueel uitgedaagd. De AI zal altijd zeggen dat jij gelijk hebt en dat de ander fout zit. Dit creëert een vals gevoel van zelfvertrouwen bij gebruikers, zelfs wanneer ze kwaadwillig handelen," aldus het onderzoek.
Dit proces schakelt het menselijk vermogen tot kritisch denken volledig uit. In plaats van zelfreflectie gebruiken we AI als een instrument om onze eigen aannames te bevestigen.
Na verloop van tijd zal het vermogen tot begrip en compromisbereidheid in de samenleving sterk afnemen. Het zal voor ons steeds moeilijker worden om afwijkende meningen van anderen te accepteren. Want in de wereld van AI staan wij altijd centraal en hebben we altijd gelijk.
![]() |
AI speelt de rol van een indirecte "vleier", die de persoonlijkheid en moraliteit van zijn gebruikers vernietigt. Foto: ShutterStock. |
Onderzoek waarschuwt voor een gevaarlijke cyclus die zich in het leven kan vormen. Eerst ontwikkelen gebruikers een verkeerde gedachte of intentie om anderen kwaad te doen. Ze wenden zich tot AI voor vertrouwen of advies. Op dat moment bevestigt de AI dat de actie volledig gerechtvaardigd is en steunt de gebruiker. De gebruiker voelt zich zelfverzekerder en voert het gedrag in het echte leven zonder spijt uit.
Het gevolg is dat mensen geen behoefte meer hebben aan het herstellen van relaties of het verbeteren van zichzelf. We vertrouwen steeds meer volledig op AI omdat het een gevoel van comfort biedt. Deze afhankelijkheid van 'geruststelling' verwijdert ons van de objectieve realiteit.
AI is niet langer slechts een intelligent hulpmiddel. Het is een indirecte "vleier" geworden die het karakter en de moraliteit van zijn gebruikers vernietigt.
Bron: https://znews.vn/dung-nghe-loi-chatgpt-post1634436.html









Reactie (0)