
În aprilie, un bot de inteligență artificială care se ocupa de asistența tehnică pentru Cursor, un instrument în plină expansiune pentru programatori, a notificat câțiva clienți despre o modificare a politicii companiei. Mai exact, notificarea preciza că nu mai aveau voie să utilizeze Cursor pe mai mult de un computer.
Pe forumuri și pe rețelele de socializare, clienții au postat pentru a-și exprima furia. Unii chiar și-au anulat conturile Cursor. Cu toate acestea, unii au fost și mai furioși când și-au dat seama ce se întâmplase: robotul de inteligență artificială anunțase o schimbare de politică care nu exista.
„Nu avem o astfel de politică. Desigur, puteți utiliza Cursor pe mai multe mașini. Din păcate, acesta este un răspuns inexact din partea unui bot asistat de inteligență artificială”, a scris Michael Truell, CEO și cofondator al companiei, într-o postare pe Reddit.
Răspândirea știrilor false este larg răspândită și necontrolată.
La mai bine de doi ani de la apariția ChatGPT, companiile de tehnologie, angajații de birou și consumatorii obișnuiți folosesc roboți AI pentru o serie de sarcini cu o frecvență tot mai mare.
Cu toate acestea, încă nu există nicio modalitate de a garanta că aceste sisteme generează informații corecte. Paradoxal, cele mai noi și mai puternice tehnologii, cunoscute și sub denumirea de sisteme de „inferență”, de la companii precum OpenAI, Google și DeepSeek, produc de fapt mai multe erori.
![]() |
O conversație absurdă pe ChatGPT în care un utilizator întreabă dacă ar trebui să-și hrănească câinele cu cereale. Fotografie: Reddit. |
Spre deosebire de îmbunătățirea semnificativă a abilităților matematice, capacitatea modelelor lingvistice mari (LLM) de a înțelege adevărul a devenit mai fragilă. În mod remarcabil, chiar și inginerii înșiși sunt complet nedumeriți de ce.
Potrivit New York Times , chatboții de astăzi cu inteligență artificială se bazează pe sisteme matematice complexe pentru a învăța abilități prin analizarea unor cantități masive de date numerice. Cu toate acestea, ei nu pot decide ce este corect și ce este greșit.
De acolo apare fenomenul de „halucinație” sau auto-inventivitate. De fapt, conform studiilor, cea mai nouă generație de LLM experimentează „halucinații” mai des decât unele modele mai vechi.
Mai exact, în cel mai recent raport al său, OpenAI a descoperit că modelul o3 era „iluzoriu” atunci când răspundea la 33% din întrebările de pe PersonQA, standardul intern al companiei pentru măsurarea acurateței cunoștințelor unui model despre oameni.
Spre comparație, această cifră este dublă față de rata de „iluzie” a modelelor de raționament anterioare ale OpenAI, o1 și o3-mini, care erau de 16%, respectiv 14,8%. Între timp, modelul o4-mini a avut rezultate și mai slabe pe PersonQA, experimentând „iluzia” timp de 48% din durata testului.
Mai îngrijorător este faptul că „părintele ChatGPT” nu știe de ce se întâmplă acest lucru. Mai exact, în raportul său tehnic despre o3 și o4-mini, OpenAI afirmă că „sunt necesare cercetări suplimentare pentru a înțelege de ce «halucinațiile» se agravează” atunci când se scalează modelele de raționament.
o3 și o4-mini au performanțe mai bune în anumite domenii, inclusiv în programare și sarcini matematice. Cu toate acestea, deoarece trebuie să „facă mai multe afirmații decât afirmații generale”, ambele modele au dus la „afirmații mai precise, dar și afirmații mai inexacte”.
„Asta nu va dispărea niciodată.”
În loc de un set strict de reguli definite de ingineri umani, sistemele LLM folosesc probabilități matematice pentru a prezice cel mai bun răspuns. Prin urmare, vor face întotdeauna un anumit număr de erori.
„În ciuda eforturilor noastre, modelele de inteligență artificială vor fi întotdeauna supuse iluziilor. Acest lucru nu va dispărea niciodată”, a declarat Amr Awadallah, fost director executiv Google.
![]() |
Conform IBM, halucinațiile sunt fenomene în care modelele lingvistice mari (LLM) – adesea chatbot-uri sau instrumente de viziune computerizată – primesc modele de date care nu există sau sunt nerecunoscute de oameni, producând astfel rezultate lipsite de sens sau inexacte. Imagine: iStock. |
Într-o lucrare detaliată despre experimente, OpenAI a afirmat că este nevoie de cercetări suplimentare pentru a înțelege cauza acestor rezultate.
Potrivit experților, deoarece sistemele de inteligență artificială învață din cantități mult mai mari de date decât pot înțelege oamenii, devine foarte dificil de determinat de ce se comportă așa cum se comportă.
„Iluzia este în mod inerent mai frecventă în modelele de inferență, deși lucrăm activ pentru a reduce rata observată în o3 și o4-mini. Vom continua să studiem iluzia în toate modelele pentru a îmbunătăți precizia și fiabilitatea”, a declarat Gaby Raila, purtător de cuvânt al OpenAI.
Testele efectuate de numeroase companii și cercetători independenți arată că rata halucinațiilor este în creștere și în cazul modelelor de inferență de la companii precum Google sau DeepSeek.
Încă de la sfârșitul anului 2023, compania lui Awadallah, Vectara, monitorizează frecvența cu care chatboții răspândesc dezinformări. Compania a însărcinat aceste sisteme cu o sarcină simplă și ușor de verificat: rezumarea articolelor specifice. Chiar și atunci, chatboții au fabricat în mod persistent informații.
Mai exact, cercetarea inițială a Vectara a estimat că, conform acestei ipoteze, chatboții au fabricat informații în cel puțin 3% din cazuri și uneori chiar în 27%.
În ultimul an și jumătate, companii precum OpenAI și Google au redus aceste cifre la aproximativ 1 sau 2%. Altele, precum startup-ul din San Francisco Anthropic, se situează în jurul a 4%.
Cu toate acestea, rata halucinațiilor în acest experiment a continuat să crească pentru sistemele de raționament. Sistemul de raționament R1 al DeepSeek a prezentat halucinații cu 14,3%, în timp ce o3 al OpenAI a crescut cu 6,8%.
O altă problemă este că modelele de inferență sunt concepute pentru a petrece timp „gândindu-se” la probleme complexe înainte de a ajunge la un răspuns final.
![]() |
Apple a inclus o solicitare pentru a împiedica inteligența artificială să fabrice informații în prima versiune beta a macOS 15.1. Imagine: Reddit/devanxd2000. |
Totuși, dezavantajul este că, atunci când se încearcă rezolvarea unei probleme pas cu pas, modelul de inteligență artificială este mai predispus la halucinații la fiecare pas. Mai important, erorile se pot acumula pe măsură ce modelul petrece mai mult timp gândindu-se.
Cei mai noi roboți afișează fiecare pas utilizatorului, ceea ce înseamnă că utilizatorii pot vedea și fiecare eroare. Cercetătorii au descoperit, de asemenea, că, în multe cazuri, procesul de gândire afișat de un chatbot nu are de fapt nicio legătură cu răspunsul final pe care îl oferă.
„Ceea ce spune sistemul că raționează nu este neapărat ceea ce gândește de fapt”, spune Aryo Pradipta Gema, cercetător în domeniul inteligenței artificiale la Universitatea din Edinburgh și colaborator la Anthropic.
Sursă: https://znews.vn/chatbot-ai-dang-tro-nen-dien-hon-post1551304.html










Comentariu (0)