Vietnam.vn - Nền tảng quảng bá Việt Nam

Avertisment despre ChatGPT „halucinogen”

Studii recente au arătat că GPT o3 și o4-mini – cele mai puternice modele din portofoliul de produse OpenAI – fabrică și mai multe informații false decât predecesoarele lor.

ZNewsZNews20/04/2025

Cele două modele ChatGPT lansate recent au o frecvență mai mare de informații fabricate decât generația anterioară. Foto: Fireflies .

La doar două zile după anunțarea GPT-4.1, OpenAI a lansat oficial nu unul, ci două modele noi, numite o3 și o4-mini. Ambele modele demonstrează capacități superioare de raționament cu multe îmbunătățiri puternice.

Totuși, potrivit TechCrunch , aceste două modele noi încă suferă de „halucinații” sau auto-inventivitate. De fapt, ele prezintă mai multe halucinații decât unele dintre modelele mai vechi ale OpenAI.

Conform IBM, halucinațiile sunt fenomene în care modelele lingvistice mari (LLM) – adesea chatbot-uri sau instrumente de viziune computerizată – primesc modele de date care nu există sau sunt nerecunoscute de oameni, producând astfel rezultate lipsite de sens sau inexacte.

Cu alte cuvinte, utilizatorii se așteaptă adesea ca inteligența artificială să producă rezultate precise pe baza datelor antrenate. Cu toate acestea, în unele cazuri, rezultatele inteligenței artificiale nu se bazează pe date precise, creând un răspuns „fals”.

În cel mai recent raport al său, OpenAI a descoperit că o3 era „iluzoriu” atunci când răspundea la 33% din întrebările de pe PersonQA, standardul intern al companiei pentru măsurarea acurateței cunoștințelor unui model despre oameni.

Spre comparație, această cifră este dublă față de rata de „iluzie” a modelelor de raționament anterioare ale OpenAI, o1 și o3-mini, care erau de 16%, respectiv 14,8%. Între timp, modelul O4-mini a avut rezultate și mai slabe pe PersonQA, experimentând „iluzia” timp de 48% din durata testului.

Mai îngrijorător este faptul că „părintele ChatGPT” nu știe de ce se întâmplă acest lucru. Mai exact, în raportul său tehnic despre o3 și o4-mini, OpenAI afirmă că „sunt necesare cercetări suplimentare pentru a înțelege de ce «halucinațiile» se agravează” atunci când se scalează modelele de raționament.

O3 și o4-mini au performanțe mai bune în anumite domenii, inclusiv în programare și sarcini matematice. Cu toate acestea, deoarece trebuie să „facă mai multe afirmații decât afirmații generale”, ambele modele au dus la „afirmații mai precise, dar și afirmații mai inexacte”.

Sursă: https://znews.vn/canh-bao-ve-chatgpt-ao-giac-post1547242.html


Comentariu (0)

Lăsați un comentariu pentru a vă împărtăși sentimentele!

În aceeași categorie

De același autor

Patrimoniu

Figura

Afaceri

Actualități

Sistem politic

Local

Produs

Happy Vietnam
Elevii ICOSCHOOL

Elevii ICOSCHOOL

Esența poporului vietnamez

Esența poporului vietnamez

FERICIREA ÎN PRIMELE PERIOADE DE VIAȚĂ

FERICIREA ÎN PRIMELE PERIOADE DE VIAȚĂ