
A mesterséges intelligencia programok számos áttörést értek el az elmúlt években - Fotó: REUTERS
Nem tudjuk megfigyelni a teljes folyamatot a bemeneti adatoktól a nagy nyelvi modellek (LLM-ek) kimeneti eredményeiig.
A könnyebb megértés érdekében a tudósok olyan közismert kifejezéseket használtak, mint az „érvelés”, hogy leírják ezeknek a programoknak a működését. Azt is mondják, hogy a programok képesek „gondolkodni”, „érvelni” és „megérteni” az emberek módját.
A mesterséges intelligencia képességeinek eltúlzása.
A ZDNET szeptember 6-i jelentése szerint az elmúlt két évben számos mesterséges intelligencia területén dolgozó vezető eltúlzott nyelvezettel próbálta feldobni az egyszerű technikai eredményeket.
2024 szeptemberében az OpenAI bejelentette, hogy az o1 érvelési modell "következtetési láncot használ a problémák megoldása során, hasonlóan ahhoz, ahogyan az emberek hosszú ideig gondolkodnak, amikor nehéz kérdésekkel szembesülnek".
A mesterséges intelligenciával foglalkozó tudósok azonban nem értenek ezzel egyet. Azt állítják, hogy a mesterséges intelligencia nem rendelkezik az emberhez hasonló intelligenciával.
Az Arizonai Állami Egyetem (USA) szerzőinek egy csoportja az arXiv adatbázison végzett tanulmánya egy egyszerű kísérlettel igazolta a mesterséges intelligencia érvelési képességét.
Az eredmények azt mutatták, hogy a „gondolatláncolat alapján történő következtetés egy törékeny illúzió”, nem egy valódi logikai mechanizmus, hanem csupán a mintaillesztés egy kifinomult formája.
A „gondolatlánc” (CoT) kifejezés lehetővé teszi a mesterséges intelligencia számára, hogy ne csak a végső választ adja meg, hanem bemutassa a logikai érvelés minden egyes lépését is, ahogyan a GPT-o1 vagy a DeepSeek V1 modellekben is.

A GPT-2 nyelvi modell illusztrációja az OpenAI-tól - Fotó: ECHOCRAFTAI
Nézd meg, mit csinál valójában a mesterséges intelligencia.
A kutatócsoport kijelentette, hogy a nagyszabású elemzések kimutatták, hogy az LLM inkább a szemantikára és a felszíni utalásokra támaszkodik, mint a logikai gondolkodási folyamatokra.
„Az LLM felszínes logikai láncokat konstruál a tanult bemeneti asszociációk alapján, gyakran kudarcot vallva azokon a feladatokon, amelyek eltérnek a hagyományos érvelési módszerektől vagy az ismerős mintáktól” – magyarázza a csapat.
Annak a hipotézisnek a tesztelésére, miszerint az LLM csak mintákat illesztett, és valójában nem vont le következtetéseket, a csapat betanította a GPT-2-t, az OpenAI által 2019-ben kiadott nyílt forráskódú modellt.
A modellt kezdetben nagyon egyszerű feladatokra képezték ki a 26 angol betűn, például néhány betű megfordítására, például az "APPLE" szó "EAPPL"-lé alakítására. Ezután a csapat megváltoztatta a feladatot, és megkérte a GPT-2-t, hogy kezelje azt.
Az eredmények azt mutatták, hogy a betanítási adatokban nem szereplő feladatokat a GPT-2 nem tudta pontosan megoldani CoT használatával.
Ehelyett a modell a tanult feladatokat a lehető legpontosabban próbálja alkalmazni. Ezért az „érvelése” logikusnak tűnhet, de az eredmények gyakran tévesek.
A csoport arra a következtetésre jutott, hogy nem szabad túlságosan támaszkodni vagy vakon megbízni az LLM válaszaiban, mivel azok "nagyon meggyőzően hangzó ostobaságokat" tudnak produkálni.
Azt is hangsúlyozták, hogy meg kell érteni a mesterséges intelligencia valódi természetét, el kell kerülni a túlzásba vitt reklámokat, és abba kell hagyni azt a tévhitet, hogy a mesterséges intelligencia képes az emberekhez hasonlóan gondolkodni.
Forrás: https://tuoitre.vn/nghien-cuu-moi-ai-khong-suy-luan-nhu-con-nguoi-20250907152120294.htm






Hozzászólás (0)