
Kunstmatige intelligentieprogramma's hebben de afgelopen jaren veel doorbraken bereikt - Foto: REUTERS
We kunnen het volledige proces van invoergegevens tot uitvoerresultaten van grote taalmodellen (LLM's) niet observeren.
Om het begrijpelijker te maken, gebruiken wetenschappers gangbare termen zoals 'redeneren' om te beschrijven hoe deze programma's werken. Ze zeggen ook dat de programma's kunnen 'denken', 'redeneren' en 'begrijpen' zoals mensen dat doen.
De mogelijkheden van AI overdrijven.
De afgelopen twee jaar hebben veel AI-managers volgens ZDNET op 6 september overdreven taal gebruikt om simpele technische prestaties op te hemelen.
In september 2024 kondigde OpenAI aan dat het o1-redeneermodel "een keten van gevolgtrekkingen gebruikt bij het oplossen van problemen, vergelijkbaar met de manier waarop mensen langdurig nadenken wanneer ze met moeilijke vragen worden geconfronteerd."
AI-wetenschappers zijn het hier echter niet mee eens. Zij stellen dat AI geen menselijke intelligentie bezit.
Een onderzoek op de arXiv-database door een groep auteurs van de Arizona State University (VS) heeft het redeneervermogen van AI geverifieerd met een eenvoudig experiment.
De resultaten toonden aan dat "inferentie door middel van gedachtegang een fragiele illusie is", geen echt logisch mechanisme, maar slechts een geavanceerde vorm van patroonherkenning.
De term 'gedachtenketen' (chain of thought, CoT) stelt AI in staat om niet alleen tot een definitief antwoord te komen, maar ook elke stap van de logische redenering te presenteren, zoals in de GPT-o1- of DeepSeek V1-modellen.

Illustratie van het GPT-2-taalmodel van OpenAI - Foto: ECHOCRAFTAI
Ontdek wat AI daadwerkelijk doet.
Het onderzoeksteam stelde dat grootschalige analyses aantoonden dat LLM meer op semantiek en oppervlakkige aanwijzingen vertrouwt dan op logische redeneerprocessen.
"LLM construeert oppervlakkige logische ketens op basis van aangeleerde inputassociaties, en faalt vaak bij taken die afwijken van conventionele redeneermethoden of bekende patronen," legt het team uit.
Om de hypothese te testen dat LLM alleen patronen herkende en geen daadwerkelijke conclusies trok, trainde het team GPT-2, een open-source model dat in 2019 door OpenAI werd uitgebracht.
Het model werd aanvankelijk getraind op zeer eenvoudige taken met de 26 Engelse letters, zoals het omkeren van sommige letters, bijvoorbeeld "APPLE" in "EAPPL". Vervolgens veranderde het team de taak en vroeg GPT-2 om deze uit te voeren.
De resultaten toonden aan dat GPT-2 taken die niet in de trainingsdata waren opgenomen, niet nauwkeurig kon oplossen met behulp van CoT.
Het model probeert daarentegen de aangeleerde taken zo nauwkeurig mogelijk toe te passen. Daardoor klinkt de "redenering" misschien logisch, maar zijn de resultaten vaak onjuist.
De groep concludeerde dat men niet te veel moet vertrouwen op de antwoorden van de LLM, noch deze blindelings moet aannemen, aangezien deze "onzin kunnen produceren die zeer overtuigend klinkt".
Ze benadrukten ook de noodzaak om de ware aard van AI te begrijpen, overdrijvingen te vermijden en te stoppen met het promoten van het idee dat AI over menselijke redeneervermogens beschikt.
Bron: https://tuoitre.vn/nghien-cuu-moi-ai-khong-suy-luan-nhu-con-nguoi-20250907152120294.htm






Reactie (0)