Vietnam.vn - Nền tảng quảng bá Việt Nam

Ny forskning: AI "resonerar" inte som människor

Program för artificiell intelligens (AI) har uppnått imponerande resultat, men ny forskning tyder på att vi inte bör överdriva påståendet att AI kan resonera som människor.

Báo Tuổi TrẻBáo Tuổi Trẻ07/09/2025

trí tuệ nhân tạo - Ảnh 1.

Program för artificiell intelligens har uppnått många framgångar de senaste åren - Foto: REUTERS

Vi kan inte observera hela processen från indata till utdata för stora språkmodeller (LLM).

För att göra det lättare att förstå har forskare använt vanliga termer som ”resonemang” för att beskriva hur dessa program fungerar. De säger också att programmen kan ”tänka”, ”resonera” och ”förstå” på samma sätt som människor gör.

Överdriver AI:s förmågor

Under de senaste två åren har många AI-chefer använt överdrifter för att överdriva enkla tekniska prestationer, enligt ZDNET den 6 september.

I september 2024 tillkännagav OpenAI att o1-resonemangsmodellen "använder en inferenskedja när de löser problem, liknande hur människor tänker länge när de ställs inför svåra frågor."

AI-forskare invänder dock. De tror att AI inte har mänsklig intelligens.

En studie av arXiv-databasen av en grupp författare vid Arizona State University (USA) har verifierat AI:s resonemangsförmåga med ett enkelt experiment.

Resultaten visade att "inferens genom tankekedjan är en bräcklig illusion", inte en verklig logisk mekanism, utan bara en sofistikerad form av mönstermatchning.

Termen ”tankekedja” (CoT) gör det möjligt för AI att inte bara komma fram till ett slutgiltigt svar utan också presentera varje steg i det logiska resonemanget, som i GPT-o1- eller DeepSeek V1-modellerna.

Nghiên cứu mới: AI không 'suy luận' như con người - Ảnh 2.

Illustration av OpenAI:s GPT-2-språkmodell - Foto: ECHOCRAFTAI

Kolla in vad AI faktiskt gör

Storskaliga analyser visar att LLM tenderar att förlita sig på semantik och ytliga ledtrådar snarare än logiska resonemangsprocesser, säger forskarna.

"LLM konstruerar ytliga logikkedjor baserade på inlärda inmatningsassociationer, och misslyckas ofta med uppgifter som avviker från konventionella resonemangsmetoder eller välbekanta mönster", förklarar teamet.

För att testa hypotesen att LLM bara matchade mönster och inte faktiskt drog slutsatser, tränade teamet GPT-2, en modell med öppen källkod som släpptes av OpenAI 2019.

Modellen tränades initialt på mycket enkla uppgifter på de 26 engelska bokstäverna, som att vända på vissa bokstäver, till exempel att göra om "APPLE" till "EAPPL". Sedan ändrade teamet uppgiften och bad GPT-2 att hantera den.

Resultaten visar att för uppgifter som inte ingår i träningsdata kan GPT-2 inte lösa dem korrekt med hjälp av CoT.

Istället försöker modellen tillämpa de mest liknande inlärda uppgifterna. Så dess "slutsatser" kan låta rimliga, men resultaten är ofta felaktiga.

Gruppen drog slutsatsen att man inte borde lita för mycket eller blint på LLM:s svar, eftersom de kan producera "nonsens som låter väldigt övertygande".

De betonade också behovet av att förstå AI:s sanna natur, undvika hype och sluta marknadsföra att AI har förmågan att resonera som människor.

Tillbaka till ämnet
ANH TOR

Källa: https://tuoitre.vn/nghien-cuu-moi-ai-khong-suy-luan-nhu-con-nguoi-20250907152120294.htm


Kommentar (0)

No data
No data

I samma ämne

I samma kategori

Otroligt vackra terrasserade fält i Luc Hon-dalen
"Rika" blommor som kostar 1 miljon VND styck är fortfarande populära den 20 oktober.
Vietnamesiska filmer och resan till Oscarsgalan
Ungdomar åker till nordvästra USA för att checka in under årets vackraste rissäsong.

Av samma författare

Arv

Figur

Företag

Ungdomar åker till nordvästra USA för att checka in under årets vackraste rissäsong.

Aktuella händelser

Politiskt system

Lokal

Produkt