Cele două modele ChatGPT lansate recent au o frecvență mai mare de informații fabricate decât generația anterioară. Foto: Fireflies . |
La doar două zile după anunțarea GPT-4.1, OpenAI a lansat oficial nu unul, ci două modele noi, numite o3 și o4-mini. Ambele modele demonstrează capacități superioare de raționament cu multe îmbunătățiri puternice.
Totuși, potrivit TechCrunch , aceste două modele noi încă suferă de „halucinații” sau auto-inventivitate. De fapt, ele prezintă mai multe halucinații decât unele dintre modelele mai vechi ale OpenAI.
Conform IBM, halucinațiile sunt fenomene în care modelele lingvistice mari (LLM) – adesea chatbot-uri sau instrumente de viziune computerizată – primesc modele de date care nu există sau sunt nerecunoscute de oameni, producând astfel rezultate lipsite de sens sau inexacte.
Cu alte cuvinte, utilizatorii se așteaptă adesea ca inteligența artificială să producă rezultate precise pe baza datelor antrenate. Cu toate acestea, în unele cazuri, rezultatele inteligenței artificiale nu se bazează pe date precise, creând un răspuns „fals”.
În cel mai recent raport al său, OpenAI a descoperit că o3 era „iluzoriu” atunci când răspundea la 33% din întrebările de pe PersonQA, standardul intern al companiei pentru măsurarea acurateței cunoștințelor unui model despre oameni.
Spre comparație, această cifră este dublă față de rata de „iluzie” a modelelor de raționament anterioare ale OpenAI, o1 și o3-mini, care erau de 16%, respectiv 14,8%. Între timp, modelul O4-mini a avut rezultate și mai slabe pe PersonQA, experimentând „iluzia” timp de 48% din durata testului.
Mai îngrijorător este faptul că „părintele ChatGPT” nu știe de ce se întâmplă acest lucru. Mai exact, în raportul său tehnic despre o3 și o4-mini, OpenAI afirmă că „sunt necesare cercetări suplimentare pentru a înțelege de ce «halucinațiile» se agravează” atunci când se scalează modelele de raționament.
O3 și o4-mini au performanțe mai bune în anumite domenii, inclusiv în programare și sarcini matematice. Cu toate acestea, deoarece trebuie să „facă mai multe afirmații decât afirmații generale”, ambele modele au dus la „afirmații mai precise, dar și afirmații mai inexacte”.
Sursă: https://znews.vn/canh-bao-ve-chatgpt-ao-giac-post1547242.html







Comentariu (0)