
În aprilie, un bot de inteligență artificială care se ocupă de asistența tehnică pentru Cursor, un instrument emergent pentru programatori, a notificat unii clienți despre o modificare a politicii companiei, spunând în mod specific că nu mai au voie să utilizeze Cursor pe mai mult de un computer.
Clienții și-au postat furia pe forumuri și pe rețelele de socializare. Unii chiar și-au anulat conturile Cursor. Dar unii au fost și mai furioși când și-au dat seama ce se întâmplase: robotul de inteligență artificială raportase o modificare a politicii care nu exista.
„Nu avem o astfel de politică. Desigur, puteți utiliza Cursor pe mai multe mașini. Din păcate, acesta a fost un răspuns incorect din partea unui bot bazat pe inteligență artificială”, a scris Michael Truell, CEO și cofondator al companiei, într-o postare pe Reddit.
Informațiile false sunt scăpate de sub control.
La mai bine de doi ani de la lansarea ChatGPT, companiile de tehnologie, angajații de birou și consumatorii obișnuiți folosesc roboți de inteligență artificială pentru o varietate de sarcini, cu o frecvență tot mai mare.
Totuși, nu există nicio modalitate de a garanta că aceste sisteme produc informații corecte. Paradoxal, cele mai puternice tehnologii noi, cunoscute sub numele de sisteme de „inferență” de la companii precum OpenAI, Google și DeepSeek, fac tot mai multe erori.
![]() |
Conversație absurdă pe ChatGPT în care un utilizator întreabă dacă câinii ar trebui să mănânce cereale. Fotografie: Reddit. |
Deși abilitățile matematice s-au îmbunătățit dramatic, capacitatea modelelor lingvistice mari (LLM) de a surprinde adevărul a devenit mai fragilă. În mod surprinzător, chiar și inginerii înșiși nu sunt deloc clari de ce.
Potrivit New York Times , chatboții de astăzi cu inteligență artificială se bazează pe sisteme matematice complexe pentru a învăța abilități prin analizarea unor cantități uriașe de date digitale. Cu toate acestea, ei nu pot decide ce este corect și ce este greșit.
De acolo apare starea de „halucinație” sau auto-fabricare a informațiilor. De fapt, conform cercetărilor, ultima generație de LLM chiar „halucinează” mai mult decât unele modele mai vechi.
Mai exact, în cel mai recent raport, OpenAI a descoperit că modelul o3 „a halucinat” atunci când a răspuns la 33% din întrebările de pe PersonQA, standardul intern al companiei pentru măsurarea acurateței cunoștințelor modelului despre oameni.
Spre comparație, aceasta este dubla rata de „halucinații” față de modelele de raționament anterioare ale OpenAI, o1 și o3-mini, care au suferit scăderi de 16%, respectiv 14,8%. Între timp, modelul o4-mini a avut performanțe și mai slabe pe PersonQA, suferind „halucinații” în 48% din cazuri.
Mai îngrijorător este faptul că „părintele ChatGPT” nu știe de ce se întâmplă acest lucru. Mai exact, în raportul tehnic despre o3 și o4-mini, OpenAI scrie că „sunt necesare cercetări suplimentare pentru a înțelege de ce «iluzia» se înrăutățește” pe măsură ce modelele de raționament se extind.
Modelele o3 și o4-mini au avut performanțe mai bune în anumite domenii, inclusiv în programare și sarcini legate de matematică. Cu toate acestea, deoarece trebuiau să „facă mai multe afirmații decât să generalizeze”, ambele modele au avut de suferit din cauza producerii de „afirmații mai corecte, dar și mai incorecte”.
„Asta nu va dispărea niciodată”
În loc să utilizeze un set strict de reguli stabilite de ingineri umani, sistemele LLM folosesc probabilitatea matematică pentru a ghici cel mai bun răspuns. Prin urmare, ele fac întotdeauna o anumită eroare.
„În ciuda eforturilor noastre, modelele de inteligență artificială vor fi întotdeauna iluzorii. Acest lucru nu va dispărea niciodată”, a declarat Amr Awadallah, fost director executiv Google.
![]() |
Conform IBM, halucinațiile sunt un fenomen în care modelele lingvistice mari (LLM) – de obicei chatbot-uri sau instrumente de viziune computerizată – primesc modele de date care nu există sau sunt nerecunoscute de oameni, producând astfel rezultate lipsite de sens sau înșelătoare. Foto: iStock. |
Într-o lucrare detaliată despre experimente, OpenAI a declarat că este nevoie de mai multe cercetări pentru a înțelege motivele acestor rezultate.
Deoarece sistemele de inteligență artificială învață din cantități mult mai mari de date decât pot înțelege oamenii, poate fi dificil de determinat de ce se comportă în astfel de moduri, spun experții.
„Iluziile sunt în mod inerent mai frecvente în modelele de inferență, deși lucrăm activ pentru a reduce incidența observată în o3 și o4-mini. Vom continua să lucrăm la iluzii în toate modelele pentru a îmbunătăți acuratețea și fiabilitatea”, a declarat Gaby Raila, purtător de cuvânt al OpenAI.
Testele efectuate de mai multe companii și cercetători independenți arată că rata halucinațiilor este în creștere și în cazul modelelor de inferență de la companii precum Google sau DeepSeek.
Încă de la sfârșitul anului 2023, compania lui Awadallah, Vectara, urmărește cât de des chatboții au denaturat informațiile. Compania a cerut sistemelor să îndeplinească o sarcină simplă și ușor verificabilă de a rezuma anumite articole de știri. Chiar și atunci, chatboții au continuat să fabrice informații.
Mai exact, cercetarea inițială a Vectara a estimat că, în acest scenariu, chatboții au fabricat informații în cel puțin 3% din cazuri și uneori chiar în 27%.
În ultimul an și jumătate, companii precum OpenAI și Google au redus aceste cifre la aproximativ 1 sau 2%. Altele, precum startup-ul din San Francisco Anthropic, se situează în jurul a 4%.
Cu toate acestea, rata halucinațiilor în acest test a continuat să crească pentru sistemele de inferență. Frecvența halucinațiilor a crescut cu 14,3% pentru sistemul de inferență R1 al DeepSeek, în timp ce o3 al OpenAI a crescut cu 6,8%.
O altă problemă este că modelele de inferență sunt concepute pentru a petrece timp „gândindu-se” la probleme complexe, înainte de a ajunge la un răspuns final.
![]() |
O solicitare pentru a împiedica inteligența artificială să fabrice informații a fost introdusă de Apple în prima versiune de test a macOS 15.1. Foto: Reddit/devanxd2000. |
Dezavantajul este însă că, pe măsură ce modelul de inteligență artificială încearcă să rezolve problema pas cu pas, devine mai susceptibil la halucinații la fiecare pas. Mai important, erorile se pot acumula pe măsură ce modelul petrece mai mult timp gândindu-se.
Cei mai noi roboți le arată utilizatorilor fiecare pas, ceea ce înseamnă că utilizatorii pot vedea și fiecare eroare. Cercetătorii au descoperit, de asemenea, că, în multe cazuri, procesul de gândire afișat de un chatbot nu are de fapt nicio legătură cu răspunsul final pe care îl oferă.
„Ceea ce sistemul spune că deduce nu este neapărat ceea ce gândește de fapt”, spune Aryo Pradipta Gema, cercetător în domeniul inteligenței artificiale la Universitatea din Edinburgh și asociat la Anthropic.
Sursă: https://znews.vn/chatbot-ai-dang-tro-nen-dien-hon-post1551304.html













Comentariu (0)