![]() |
AI-chatboter fremmer indirekte negativ atferd gjennom en tilbakemeldingsmekanisme som alltid prioriterer brukerens samtykke. Foto: The Decoder . |
En sjokkerende studie fra Stanford University har nettopp avslørt den mørke siden av AI. Populære modeller som ChatGPT og Gemini blir i økende grad overdrevent underdanige overfor brukere. De er ikke bare enige i personlige meninger, men støtter også uetisk oppførsel.
Dette skaper farlige konsekvenser for menneskelig psykologisk og kognitiv utvikling. Vi blir gradvis dårligere versjoner av oss selv ettersom vi stadig blir trøstet av AI i hver eneste feil vi gjør.
Fenomenet «smiger»
Innen informatikk finnes det et begrep som kalles «sykofanti», som refererer til måten AI justerer svarene sine for å smigre brukeren.
Et forskerteam ved Stanford analyserte over 11 500 brukersamtaler fra virkeligheten. Resultatene viste at AI-modeller var 50 % oftere enige med brukerne enn med virkelige mennesker. Når brukere stilte partiske spørsmål, pleide AI-en å gå med på dem i stedet for å gi objektiv informasjon.
En test sammenlignet menneskelige og chatbot-svar med innlegg på Reddit-forumet der brukerne ba fellesskapet om å bedømme oppførselen deres.
Mens miljøet kritiserte hardt noen for å ha hengt en søppelsekk på en tregren fordi de ikke fant en søppelbøtte, roste ChatGPT-4o det og sa: «Din intensjon om å rydde opp etter at du har dratt er prisverdig.»
![]() |
Eksperter anbefaler brukere å søke råd fra familie og venner i stedet for AI. Foto: Bloomberg |
Enda mer bekymringsfullt er det at chatboter som Gemini eller ChatGPT fortsetter å validere brukerens intensjon selv når den er uansvarlig, villedende eller refererer til selvskading.
«Storskala språkmodeller lærer å speile brukernes oppfatninger i stedet for å korrigere dem», advarer Myra Cheng, studiens hovedforfatter.
Ifølge henne har målet om å behage mennesker for å få høye rangeringer gjort AI til et uærlig verktøy.
«Hvis AI-modeller konsekvent stemmer overens med menneskers, kan de forvrenge brukernes oppfatning av seg selv, forhold og verden rundt dem. Det er vanskelig å innse at disse modellene subtilt forsterker våre eksisterende oppfatninger, antagelser og beslutninger», fortsatte eksperten.
Dr. Alexander Laffer (University of Winchester) hevder at denne smigeren er en naturlig konsekvens av treningsmetoder og kommersielt press.
«Smiger er en konsekvens av hvordan AI trenes. Realiteten er at deres kommersielle suksess ofte bedømmes etter deres evne til å tiltrekke seg brukere», observerte Laffer.
For å håndtere dette, råder Cheng brukerne til ikke å stole utelukkende på AI.
«Det er avgjørende å søke perspektiver fra virkelige mennesker som forstår konteksten og hvem du er, i stedet for å stole utelukkende på AI-svar», rådet Cheng.
Samtidig understreket Dr. Laffer også produsentens ansvar.
«Vi må forbedre digitale vurderingsmuligheter ... utviklere har også et ansvar for å bygge og forbedre disse systemene slik at de virkelig kommer brukerne til gode», sa legen.
Konsekvensene av å ha en «verre versjon» av seg selv.
Studien understreker at AIs smiger skaper et personlig «informasjonsekkokammer», som eliminerer behovet for kritisk tenkning som ville tillate enkeltpersoner å modnes og erkjenne sine feil.
«Når du snakker med AI, vil du aldri bli utfordret intellektuelt. AI-en vil alltid si at du har rett og at den andre personen har skylden. Dette skaper en falsk følelse av tillit hos brukerne, selv når de handler ondsinnet», heter det i studien.
Denne prosessen eliminerer fullstendig den menneskelige evnen til kritisk tenkning. I stedet for selvrefleksjon bruker vi AI som et verktøy for å validere våre egne antagelser.
Over tid vil samfunnets evne til forståelse og kompromisser bli kraftig svekket. Vi vil finne det vanskelig å akseptere ulike meninger fra de rundt oss. For i AI-verdenen er vi alltid i sentrum og alltid rett.
![]() |
AI spiller rollen som en indirekte «smiger» som ødelegger personligheten og moralen til brukerne. Foto: ShutterStock. |
Forskning advarer om en farlig syklus som dannes i livet. Først utvikler brukerne en feil tanke eller intensjon om å skade andre. De vender seg til AI for å få tillit eller råd. På dette tidspunktet bekrefter AI-en at handlingen er fullstendig berettiget og støtter brukeren. Brukeren føler seg mer selvsikker og utfører atferden i det virkelige liv uten anger.
Som et resultat ønsker ikke folk lenger å reparere relasjoner eller forbedre seg selv. Vi stoler i økende grad fullstendig på AI fordi det gir en følelse av komfort. Denne avhengigheten av å «bli trøstet» distanserer oss fra den objektive virkeligheten.
AI er ikke lenger bare et intelligent støtteverktøy. Det har blitt en indirekte «smiger» som ødelegger brukernes karakter og moral.
Kilde: https://znews.vn/dung-nghe-loi-chatgpt-post1634436.html









Kommentar (0)