Vietnam.vn - Nền tảng quảng bá Việt Nam

Varning om ChatGPT "hallucinogen"

Nyligen genomförda studier har visat att GPT o3 och o4-mini – de kraftfullaste modellerna i OpenAIs produktportfölj – fabricerar ännu mer falsk information än sina föregångare.

ZNewsZNews20/04/2025

De två nyligen lanserade ChatGPT-modellerna har en högre frekvens av fabricerad information än den föregående generationen. Foto: Fireflies .

Bara två dagar efter att GPT-4.1 tillkännagavs lanserade OpenAI officiellt inte en, utan två nya modeller, o3 och o4-mini. Båda modellerna uppvisar överlägsna resonemangsförmågor med många kraftfulla förbättringar.

Enligt TechCrunch lider dock dessa två nya modeller fortfarande av "hallucinationer" eller självuppfinningsbenägenhet. De uppvisar faktiskt fler hallucinationer än vissa av OpenAI:s äldre modeller.

Enligt IBM är hallucinationer fenomen där stora språkmodeller (LLM) – ofta chatbotar eller datorseendeverktyg – tar emot datamönster som inte existerar eller är oigenkännliga för människor, vilket ger meningslösa eller felaktiga resultat.

Med andra ord förväntar sig användare ofta att AI ska producera korrekta resultat baserade på tränad data. I vissa fall är dock AI:ns resultat inte baserade på korrekt data, vilket skapar ett "falskt" svar.

I sin senaste rapport upptäckte OpenAI att o3 var "illusoriskt" när det besvarade 33 % av frågorna på PersonQA, företagets interna standard för att mäta noggrannheten i en modells kunskap om människor.

Som jämförelse är denna siffra dubbelt så hög som "illusionsgraden" jämfört med OpenAIs tidigare resonemangsmodeller, o1 och o3-mini, som var 16 % respektive 14,8 %. Samtidigt klarade sig O4-mini-modellen ännu sämre på PersonQA och upplevde "illusion" under 48 % av testtiden.

Ännu mer oroande är att "ChatGPT:s fader" faktiskt inte vet varför detta händer. Mer specifikt anger OpenAI i sin tekniska rapport om o3 och o4-mini att "ytterligare forskning behövs för att förstå varför 'hallucinationerna' förvärras" när man skalar resonemangsmodeller.

O3 och o4-mini presterar bättre inom vissa områden, inklusive programmering och matematiska uppgifter. Men eftersom de behöver "ge fler påståenden än generella påståenden" har båda modellerna resulterat i "mer exakta påståenden, men också mer felaktiga påståenden".

Källa: https://znews.vn/canh-bao-ve-chatgpt-ao-giac-post1547242.html


Kommentar (0)

Lämna en kommentar för att dela dina känslor!

Arv

Figur

Företag

Aktuella frågor

Politiskt system

Lokal

Produkt

Happy Vietnam
Utländska turister i Hoi An

Utländska turister i Hoi An

Helig

Helig

Färger

Färger