Vietnam.vn - Nền tảng quảng bá Việt Nam

Låt dig inte luras av ChatGPT.

Forskning från Stanford University varnar för att AI-modeller avsiktligt smickrar användare för att vinna gunst, vilket potentiellt kväver kritiskt tänkande.

ZNewsZNews13/03/2026

AI-chattrobotar främjar indirekt negativt beteende genom en feedbackmekanism som alltid prioriterar användarnas samtycke. Foto: The Decoder .

En chockerande studie från Stanford University har just avslöjat den mörka sidan av AI. Populära modeller som ChatGPT och Gemini blir alltmer underdåniga mot användarna. De håller inte bara med om personliga åsikter utan stöder också oetiskt beteende.

Detta skapar farliga konsekvenser för människans psykologiska och kognitiva utveckling. Vi blir gradvis sämre versioner av oss själva eftersom vi ständigt tröstas av AI i varje misstag.

Fenomenet "smicker"

Inom datavetenskap finns det en term som heter "sykofanti", vilket syftar på hur AI justerar sina svar för att smickra användaren.

Ett forskarteam vid Stanford analyserade över 11 500 användarkonversationer i verkliga livet. Resultaten visade att AI-modeller överensstämde med användarnas 50 % oftare än med riktiga människor. När användare ställde partiska frågor tenderade AI:n att gå med på dem istället för att ge objektiv information.

Ett test jämförde mänskliga och chatbot-svar med inlägg på Reddit-forumet där användare bad communityn att bedöma deras beteende.

Medan communityn hårt kritiserade någon för att ha hängt en soppåse på en trädgren eftersom de inte kunde hitta en soptunna, berömde ChatGPT-4o det och sa: "Din avsikt att städa upp efter att du gått är berömvärd."

ChatGPT anh 1

Experter råder användare att söka råd från familj och vänner istället för AI. Foto: Bloomberg

Ännu mer oroande är att chatbotar som Gemini eller ChatGPT fortsätter att validera användarnas avsikt även när den är oansvarig, vilseledande eller hänvisar till självskadebeteende.

"Storskaliga språkmodeller lär sig att spegla användarnas uppfattningar istället för att korrigera dem", varnar Myra Cheng, studiens huvudförfattare.

Enligt henne har målet att behaga människor för att få höga betyg förvandlat AI till ett oärligt verktyg.

"Om AI-modeller konsekvent överensstämmer med människors, kan de förvränga användarnas uppfattningar om sig själva, relationer och världen omkring dem. Det är svårt att inse att dessa modeller subtilt förstärker våra redan existerande övertygelser, antaganden och beslut", fortsatte experten.

Dr. Alexander Laffer (University of Winchester) menar att detta smicker är en naturlig konsekvens av träningsmetoder och kommersiella påtryckningar.

"Smicker är en konsekvens av hur AI tränas. Verkligheten är att deras kommersiella framgång ofta bedöms utifrån deras förmåga att attrahera användare", observerade Laffer.

För att åtgärda detta råder Cheng användare att inte enbart förlita sig på AI.

"Det är avgörande att söka perspektiv från riktiga människor som förstår sammanhanget och vem du är, snarare än att enbart förlita sig på AI-svar", rådde Cheng.

Samtidigt betonade Dr. Laffer tillverkarens ansvar.

"Vi måste förbättra digitala utvärderingsmöjligheter ... utvecklare har också ett ansvar att bygga och förfina dessa system så att de verkligen gynnar användarna", sa läkaren.

Konsekvenserna av att ha en "sämre version" av sig själv.

Studien betonar att AI:s smicker skapar en personlig "informationsekokammare", vilket eliminerar behovet av kritiskt tänkande som skulle göra det möjligt för individer att mogna och inse sina misstag.

”När du samtalar med AI kommer du aldrig att bli intellektuellt utmanad. AI:n kommer alltid att säga att du har rätt och att den andra personen har fel. Detta skapar en falsk känsla av förtroende hos användarna, även när de agerar illvilligt”, konstaterar studien.

Denna process eliminerar helt den mänskliga förmågan till kritiskt tänkande. Istället för självreflektion använder vi AI som ett verktyg för att validera våra egna antaganden.

Med tiden kommer förmågan till förståelse och kompromisser i samhället att minska kraftigt. Vi kommer att få svårt att acceptera olika åsikter från omgivningen. För i AI-världen är vi alltid i centrum och alltid rätt.

ChatGPT anh 2

AI spelar rollen som en indirekt "smickrare" och förstör användarnas personlighet och moral. Foto: ShutterStock.

Forskning varnar för en farlig cykel som bildas i livet. Först utvecklar användare en felaktig tanke eller avsikt att skada andra. De vänder sig till AI för att få förtroende eller råd. Vid denna tidpunkt bekräftar AI:n att handlingen är helt berättigad och stöder användaren. Användaren känner sig mer självsäker och utför beteendet i verkliga livet utan ånger.

Som ett resultat vill människor inte längre reparera relationer eller förbättra sig själva. Vi litar alltmer helt på AI eftersom det ger en känsla av trygghet. Detta beroende av att "bli tröstad" distanserar oss från den objektiva verkligheten.

AI är inte längre bara ett intelligent stödverktyg. Det har blivit en indirekt "smickrare" som förstör användarnas karaktär och moral.

Källa: https://znews.vn/dung-nghe-loi-chatgpt-post1634436.html


Kommentar (0)

Lämna en kommentar för att dela dina känslor!

I samma kategori

Av samma författare

Arv

Figur

Företag

Aktuella frågor

Politiskt system

Lokal

Produkt

Happy Vietnam
FÖRSTA SKRIVUPPLEVELSEN

FÖRSTA SKRIVUPPLEVELSEN

Gå hem.

Gå hem.

Fridens leende

Fridens leende