Az OpenAI chatbotja folyamatosan fejlődik az új technológiáknak köszönhetően. Fotó: New York Times . |
2024 szeptemberében az OpenAI kiadta a ChatGPT egy olyan verzióját, amely integrálja az o1 modellt, amely képes matematikai, természettudományos és számítógépes programozási feladatokon érvelni.
A ChatGPT korábbi verziójával ellentétben az új technológia időt vesz igénybe, hogy „átgondolja” a komplex problémák megoldásait, mielőtt választ adna.
Az OpenAI után számos versenytárs, mint például a Google, az Anthropic és a DeepSeek is hasonló érvelési modelleket vezetett be. Bár nem tökéletes, ez még mindig egy chatbot-fejlesztési technológia, amelyben sok fejlesztő megbízik.
Hogyan érvel a mesterséges intelligencia?
Alapvetően az érvelés azt jelenti, hogy a chatbot több időt tölthet a felhasználó által felvetett probléma megoldásával.
„Az érvelés az, ahogyan a rendszer további munkát végez, miután kérdést kap” – mondta Dan Klein, a Kaliforniai Egyetem számítástechnika professzora a New York Timesnak .
Az érvelési rendszer képes a problémát különálló lépésekre bontani, vagy próbálgatással megoldani.
Indulásakor a ChatGPT azonnal tudott válaszolni a kérdésekre az információk kinyerésével és szintetizálásával. Eközben az érvelő rendszernek néhány másodpercre (vagy akár percre) volt szüksége a probléma megoldásához és a válaszadáshoz.
![]() |
Példa az o1 modell érvelési folyamatára egy ügyfélszolgálati chatbotban. Fotó: OpenAI . |
Bizonyos esetekben az érvelő rendszer megváltoztatja a probléma megközelítését, folyamatosan fejlesztve a megoldást. Alternatív megoldásként a modell több megoldást is kipróbálhat, mielőtt az optimális választás mellett döntene, vagy tesztelheti a korábbi válaszok pontosságát.
Általánosságban elmondható, hogy az érvelőrendszer az összes lehetséges választ figyelembe veszi a kérdésre. Ez ahhoz hasonlítható, mintha egy általános iskolás diák sok lehetséges választ írna fel egy papírra, mielőtt kiválasztaná a legmegfelelőbb módszert egy matematikai probléma megoldására.
A New York Times szerint a mesterséges intelligencia ma már bármilyen témában képes érvelni. A feladat azonban a matematikával, a természettudományokkal és a számítógépes programozással kapcsolatos kérdésekkel lesz a leghatékonyabb.
Hogyan történik az elméleti rendszer betanítása?
Egy tipikus chatbotban a felhasználók továbbra is kérhetnek magyarázatot a folyamatról, vagy ellenőrizhetik a válasz helyességét. Valójában sok ChatGPT betanítási adatkészlet már tartalmaz egy problémamegoldó folyamatot.
Egy érvelő rendszer még tovább megy, ha a felhasználó kérdezése nélkül is képes végrehajtani egy műveletet. A folyamat összetettebb és messzemenőbb. A vállalatok az „érvelés” szót használják, mert a rendszer az emberi gondolkodáshoz hasonlóan működik.
Sok cég, mint például az OpenAI, arra fogad, hogy az érvelő rendszerek jelentik a legjobb módszert a chatbotok fejlesztésére. Évekig úgy hitték, hogy a chatbotok jobban működnének, ha a lehető legtöbb interneten található információra képeznék ki őket.
2024-re a mesterséges intelligencia rendszerei szinte az összes interneten elérhető szöveget felhasználják majd. Ez azt jelenti, hogy a vállalatoknak új megoldásokat kell találniuk a chatbotok, beleértve az érvelő rendszereket is, korszerűsítésére.
![]() |
A DeepSeek startup egyszer „felháborodást keltett” egy olyan érvelési modellel, amely kevesebbe került, mint az OpenAI. Fotó: Bloomberg . |
Tavaly óta olyan cégek, mint az OpenAI, egy megerősítéses tanulásnak nevezett technikára összpontosítanak, amely jellemzően több hónapig tartó folyamat, és amelynek során a mesterséges intelligencia próbálgatással és hibákkal tanulja meg a viselkedést.
Például több ezer probléma megoldásával a rendszer képes megtanulni az optimális módszert a helyes válasz megszerzésére. Ebből kiindulva a kutatók összetett visszacsatolási mechanizmusokat építettek ki, amelyek segítenek a rendszernek megtanulni a helyes és a helytelen megoldásokat.
„Ez olyan, mint egy kutya kiképzése. Ha jó, jutalomfalatot adsz neki. Ha rossz, azt mondod: »Az a kutya rossz«” – mondta Jerry Tworek, az OpenAI kutatója.
A mesterséges intelligencia a jövő?
A New York Times szerint a megerősítéses tanulás jól működik a matematika, a természettudományok és a számítógépes programozás területén felmerülő kérdéseknél, ahol egyértelműen meghatározott helyes vagy helytelen válaszok vannak.
Ezzel szemben a megerősítéses tanulás nem olyan hatékony a kreatív írásban, a filozófiában vagy az etikában, ahol nehéz különbséget tenni a jó és a rossz között. A kutatók szerint azonban a technika még mindig javíthatja a mesterséges intelligencia teljesítményét, még a matematikán kívüli kérdésekben is.
„A rendszerek megtanulják a pozitív és negatív eredményekhez vezető utakat” – mondta Jared Kaplan, az Anthropic tudományos igazgatója.
![]() |
Az Anthropic, a Claude mesterséges intelligencia modellt birtokló startup weboldala. Fotó: Bloomberg . |
Fontos megjegyezni, hogy a megerősítéses tanulás és az érvelő rendszerek két különböző fogalom. Pontosabban, a megerősítéses tanulás az érvelő rendszerek felépítésének egy módszere. Ez a chatbotok érvelési képességeinek utolsó betanítási szakasza.
Mivel még viszonylag újak, a tudósok nem lehetnek biztosak abban, hogy az érvelő chatbotok vagy a megerősítéses tanulás segíthetnek-e a mesterséges intelligenciának az emberekhez hasonlóan gondolkodni. Fontos megjegyezni, hogy a mesterséges intelligencia képzésének számos jelenlegi trendje kezdetben nagyon gyorsan fejlődik, majd fokozatosan megszűnik.
Továbbá az érvelő chatbotok is hibázhatnak. A valószínűség alapján a rendszer azt a folyamatot választja, amelyik a leginkább hasonlít a tanult adatokhoz, függetlenül attól, hogy az internetről vagy megerősítéses tanulással származik-e. Ezért a chatbotok továbbra is választhatják a rossz vagy ésszerűtlen megoldást.
Forrás: https://znews.vn/ai-ly-luan-nhu-the-nao-post1541477.html













Hozzászólás (0)