Vietnam.vn - Nền tảng quảng bá Việt Nam

Advarsel om ChatGPT «hallusinogen»

Nyere studier har vist at GPT o3 og o4-mini – de kraftigste modellene i OpenAIs produktportefølje – fabrikerer enda mer falsk informasjon enn forgjengerne.

ZNewsZNews20/04/2025

De to nylig lanserte ChatGPT-modellene har en høyere frekvens av fabrikkert informasjon enn forrige generasjon. Foto: Fireflies .

Bare to dager etter at GPT-4.1 ble annonsert, lanserte OpenAI offisielt ikke én, men to nye modeller, kalt o3 og o4-mini. Begge modellene demonstrerer overlegne resonneringsevner med mange kraftige forbedringer.

Ifølge TechCrunch lider imidlertid disse to nye modellene fortsatt av «hallusinasjoner» eller selvoppfinnsomhet. Faktisk viser de flere hallusinasjoner enn noen av OpenAIs eldre modeller.

Ifølge IBM er hallusinasjoner fenomener der store språkmodeller (LLM-er) – ofte chatboter eller datasynsverktøy – mottar datamønstre som ikke eksisterer eller er ugjenkjennelige for mennesker, og dermed produserer meningsløse eller unøyaktige resultater.

Med andre ord forventer brukere ofte at AI skal produsere nøyaktige resultater basert på trente data. I noen tilfeller er imidlertid ikke AI-ens resultater basert på nøyaktige data, noe som skaper en «falsk» respons.

I sin siste rapport oppdaget OpenAI at o3 var «illusorisk» når den svarte på 33 % av spørsmålene på PersonQA, selskapets interne standard for å måle nøyaktigheten av en modells kunnskap om mennesker.

Til sammenligning er dette tallet dobbelt så høyt som «illusjonsraten» til OpenAIs tidligere resonneringsmodeller, o1 og o3-mini, som var henholdsvis 16 % og 14,8 %. O4-mini-modellen gjorde det enda dårligere på PersonQA, og opplevde «illusjon» i 48 % av testvarigheten.

Enda mer bekymringsfullt er det at «ChatGPTs far» faktisk ikke vet hvorfor dette skjer. I sin tekniske rapport om o3 og o4-mini sier OpenAI spesifikt at «ytterligere forskning er nødvendig for å forstå hvorfor 'hallusinasjonene' forverres» når man skalerer resonneringsmodeller.

O3 og o4-mini presterer bedre på noen områder, inkludert programmering og matematiske oppgaver. Men fordi de må «komme med flere utsagn enn generelle utsagn», har begge modellene resultert i «mer nøyaktige utsagn, men også mer unøyaktige utsagn».

Kilde: https://znews.vn/canh-bao-ve-chatgpt-ao-giac-post1547242.html


Kommentar (0)

Legg igjen en kommentar for å dele følelsene dine!

Arv

Figur

Bedrifter

Aktuelle saker

Det politiske systemet

Lokalt

Produkt

Happy Vietnam
Kitesurfing på Mui Ne-stranden

Kitesurfing på Mui Ne-stranden

Høsten kommer ved Dray Nur-fossen.

Høsten kommer ved Dray Nur-fossen.

Den glitrende Hoai-elven

Den glitrende Hoai-elven