A mesterséges intelligencia programok számos sikert értek el az elmúlt években - Fotó: REUTERS
Nem tudjuk megfigyelni a teljes folyamatot a bemeneti adatoktól a nagy nyelvi modellek (LLM-ek) kimeneti eredményeiig.
A könnyebb megértés érdekében a tudósok olyan közismert kifejezéseket használtak, mint az „érvelés”, hogy leírják ezeknek a programoknak a működését. Azt is mondják, hogy a programok képesek „gondolkodni”, „érvelni” és „megérteni” az emberek módját.
A mesterséges intelligencia képességeinek túlbecsülése
A ZDNET szeptember 6-i jelentése szerint az elmúlt két évben számos mesterséges intelligencia területén dolgozó vezető túlzásokat alkalmazott az egyszerű technikai eredmények eltúlzására.
2024 szeptemberében az OpenAI bejelentette, hogy az o1 érvelési modell "következtetési láncot használ a problémák megoldása során, hasonlóan ahhoz, ahogyan az emberek hosszú ideig gondolkodnak, amikor nehéz kérdésekkel szembesülnek".
A mesterséges intelligenciával foglalkozó tudósok azonban tiltakoznak. Úgy vélik, hogy a mesterséges intelligencia nem rendelkezik emberi intelligenciával.
Az Arizonai Állami Egyetem (USA) szerzőinek egy csoportja az arXiv adatbázison végzett tanulmánya egy egyszerű kísérlettel igazolta a mesterséges intelligencia érvelési képességét.
Az eredmények azt mutatták, hogy a „gondolatláncolat alapján történő következtetés egy törékeny illúzió”, nem egy valódi logikai mechanizmus, hanem csupán a mintaillesztés egy kifinomult formája.
A „gondolatlánc” (CoT) kifejezés lehetővé teszi a mesterséges intelligencia számára, hogy ne csak a végső választ adja meg, hanem bemutassa a logikai érvelés minden egyes lépését is, ahogyan a GPT-o1 vagy a DeepSeek V1 modellekben is.
Az OpenAI GPT-2 nyelvi modelljének illusztrációja - Fotó: ECHOCRAFTAI
Nézd meg, mit csinál valójában a mesterséges intelligencia
A kutatók szerint a nagyszabású elemzések azt mutatják, hogy az LLM inkább a szemantikára és a felszíni utalásokra támaszkodik, mintsem a logikus érvelési folyamatokra.
„Az LLM felszínes logikai láncokat konstruál a tanult bemeneti asszociációk alapján, gyakran kudarcot vallva azokon a feladatokon, amelyek eltérnek a hagyományos érvelési módszerektől vagy az ismerős mintáktól” – magyarázza a csapat.
Annak a hipotézisnek a tesztelésére, miszerint az LLM csak mintákat illesztett, és valójában nem vont le következtetéseket, a csapat betanította a GPT-2-t, az OpenAI által 2019-ben kiadott nyílt forráskódú modellt.
A modellt kezdetben nagyon egyszerű feladatokra képezték ki a 26 angol betűn, például néhány betű megfordítására, például az "APPLE" szó "EAPPL"-lé alakítására. Ezután a csapat megváltoztatta a feladatot, és megkérte a GPT-2-t, hogy kezelje azt.
Az eredmények azt mutatják, hogy a betanítási adatokban nem szereplő feladatokat a GPT-2 nem tudja pontosan megoldani CoT használatával.
Ehelyett a modell a leghasonlóbb tanult feladatokat próbálja alkalmazni. Így a „következtetései” ésszerűnek tűnhetnek, de az eredmények gyakran tévesek.
A csoport arra a következtetésre jutott, hogy nem szabad túlságosan támaszkodni vagy vakon megbízni az LLM válaszaiban, mivel azok "nagyon meggyőzően hangzó ostobaságokat" tudnak produkálni.
Azt is hangsúlyozták, hogy meg kell érteni a mesterséges intelligencia valódi természetét, el kell kerülni a túlzásba vitt reklámokat, és abba kell hagyni azt a tévhitet, hogy a mesterséges intelligencia képes az emberekhez hasonlóan gondolkodni.
Forrás: https://tuoitre.vn/nghien-cuu-moi-ai-khong-suy-luan-nhu-con-nguoi-20250907152120294.htm
Hozzászólás (0)