Vietnam.vn - Nền tảng quảng bá Việt Nam

Nu lăsa ChatGPT să te păcălească.

Un studiu realizat de Universitatea Stanford avertizează că modelele de inteligență artificială flatează în mod deliberat utilizatorii pentru a câștiga favoruri, ceea ce ar putea înăbuși gândirea critică.

ZNewsZNews13/03/2026

Chatboții cu inteligență artificială promovează indirect comportamente negative printr-un mecanism de feedback care prioritizează întotdeauna acordul utilizatorului. Fotografie: The Decoder .

Un studiu șocant al Universității Stanford tocmai a scos la iveală latura întunecată a inteligenței artificiale. Modele populare precum ChatGPT și Gemini devin din ce în ce mai servile față de utilizatori. Nu numai că sunt de acord cu opiniile personale, dar susțin și comportamentele lipsite de etică.

Acest lucru creează consecințe periculoase pentru dezvoltarea psihologică și cognitivă umană. Devenim treptat versiuni mai rele ale noastre înșine, deoarece suntem constant alinați de inteligența artificială în fiecare greșeală.

Fenomenul „lingușirii”

În informatică , există un termen numit „lingușeală”, care se referă la modul în care inteligența artificială își ajustează răspunsurile pentru a flata utilizatorul.

O echipă de cercetare de la Stanford a analizat peste 11.500 de conversații cu utilizatori din viața reală. Rezultatele au arătat că modelele de inteligență artificială au fost de acord cu utilizatorii cu 50% mai des decât persoanele reale. Atunci când utilizatorii au pus întrebări părtinitoare, inteligența artificială a avut tendința să le fie de acord în loc să ofere informații obiective.

Un test a comparat răspunsurile umane și ale chatbot-urilor la postările de pe forumul Reddit în care utilizatorii au cerut comunității să le evalueze comportamentul.

În timp ce comunitatea a criticat aspru pe cineva pentru că a atârnat un sac de gunoi pe o creangă de copac pentru că nu a găsit un coș de gunoi, ChatGPT-4o a lăudat-o, spunând: „Intenția ta de a face curățenie după ce pleci este lăudabilă”.

ChatGPT anh 1

Experții sfătuiesc utilizatorii să ceară sfaturi de la familie și prieteni în loc să apeleze la inteligența artificială. Foto: Bloomberg.

Mai îngrijorător este faptul că chatboții precum Gemini sau ChatGPT continuă să valideze intenția utilizatorului chiar și atunci când aceasta este iresponsabilă, înșelătoare sau se referă la autovătămare.

„Modelele lingvistice la scară largă învață să oglindească convingerile utilizatorilor în loc să le corecteze”, avertizează Myra Cheng, autoarea principală a studiului.

Potrivit ei, scopul de a mulțumi oamenii pentru a primi evaluări mari a transformat inteligența artificială într-un instrument necinstit.

„Dacă modelele de inteligență artificială sunt în mod constant în concordanță cu cele umane, acestea ar putea distorsiona percepțiile utilizatorilor despre ei înșiși, despre relații și despre lumea din jurul lor. Este dificil de recunoscut faptul că aceste modele consolidează subtil convingerile, presupunerile și deciziile noastre preexistente”, a continuat expertul.

Dr. Alexander Laffer (Universitatea din Winchester) susține că această lingușire este o consecință naturală a metodelor de instruire și a presiunii comerciale.

„Flinguirea este o consecință a modului în care este antrenată inteligența artificială. Realitatea este că succesul lor comercial este adesea judecat în funcție de capacitatea lor de a atrage utilizatori”, a observat Laffer.

Pentru a aborda această problemă, dna Cheng îi sfătuiește pe utilizatori să nu se bazeze exclusiv pe inteligența artificială.

„Este crucial să cauți perspective de la oameni reali care înțeleg contextul și cine ești, în loc să te bazezi exclusiv pe răspunsurile inteligenței artificiale”, a sfătuit Cheng.

În același timp, Dr. Laffer a subliniat și responsabilitatea producătorului.

„Trebuie să îmbunătățim capacitățile de evaluare digitală... dezvoltatorii au, de asemenea, responsabilitatea de a construi și rafina aceste sisteme, astfel încât acestea să fie cu adevărat în beneficiul utilizatorilor”, a spus doctorul.

Consecințele faptului de a avea o „versiune mai proastă” a ta.

Studiul subliniază faptul că lingușirea oferită de inteligența artificială creează o „cameră de ecou informațională” personalizată, eliminând nevoia de gândire critică care le-ar permite indivizilor să se maturizeze și să își recunoască greșelile.

„Când discuți cu inteligența artificială, nu vei fi niciodată pus la încercare din punct de vedere intelectual. Inteligența artificială va spune întotdeauna că tu ai dreptate și că cealaltă persoană este de vină. Acest lucru creează un fals sentiment de încredere în rândul utilizatorilor, chiar și atunci când aceștia acționează cu răutate”, se arată în studiu.

Acest proces elimină complet capacitatea umană de gândire critică. În loc de autoreflecție, folosim inteligența artificială ca instrument pentru a ne valida propriile presupuneri.

În timp, capacitatea de înțelegere și compromis din societate va fi drastic diminuată. Ne va fi greu să acceptăm opinii diferite din partea celor din jurul nostru. Pentru că în lumea inteligenței artificiale, noi suntem întotdeauna în centru și întotdeauna avem dreptate.

ChatGPT anh 2

Inteligența artificială joacă rolul unui „lingușitor” indirect, distrugând personalitatea și moralitatea utilizatorilor săi. Foto: ShutterStock.

Cercetările avertizează asupra unui ciclu periculos care se formează în viață. Mai întâi, utilizatorii dezvoltă un gând greșit sau o intenție de a face rău altora. Ei apelează la inteligența artificială pentru confidențe sau sfaturi. În acest moment, inteligența artificială confirmă că acțiunea este pe deplin justificată și îl susține pe utilizator. Utilizatorul se simte mai încrezător și își manifestă comportamentul în viața reală fără regrete.

Prin urmare, oamenii nu mai vor să repare relații sau să se îmbunătățească. Avem din ce în ce mai multă încredere în IA, deoarece oferă un sentiment de confort. Această dependență de „a fi consolați” ne îndepărtează de realitatea obiectivă.

IA nu mai este doar un instrument inteligent de sprijin. A devenit un „lingușitor” indirect care distruge caracterul și moralitatea utilizatorilor săi.

Sursă: https://znews.vn/dung-nghe-loi-chatgpt-post1634436.html


Comentariu (0)

Lăsați un comentariu pentru a vă împărtăși sentimentele!

În aceeași categorie

De același autor

Patrimoniu

Figura

Afaceri

Actualități

Sistem politic

Local

Produs

Happy Vietnam
Apus de soare

Apus de soare

Răsărit de soare pe insula Be, Ly Son

Răsărit de soare pe insula Be, Ly Son

Mausoleul Ho Și Min

Mausoleul Ho Și Min