Chatbot-ul OpenAI continuă să se îmbunătățească prin intermediul noilor tehnologii. Foto: New York Times . |
În septembrie 2024, OpenAI a lansat o versiune de ChatGPT care integrează modelul o1, care poate raționa asupra unor sarcini legate de matematică, știință și programare pe calculator.
Spre deosebire de versiunea anterioară a ChatGPT, noua tehnologie va necesita timp pentru a „gândi” la soluții la probleme complexe înainte de a oferi un răspuns.
După OpenAI, mulți competitori precum Google, Anthropic și DeepSeek au introdus și ei modele de raționament similare. Deși nu este perfectă, aceasta este totuși o tehnologie de îmbunătățire a chatbot-urilor în care mulți dezvoltatori au încredere.
Cum raționează IA
Practic, raționamentul înseamnă că chatbot-ul poate petrece mai mult timp rezolvând problema prezentată de utilizator.
„Raționamentul este modul în care sistemul efectuează o muncă suplimentară după ce primește o întrebare”, a declarat pentru New York Times Dan Klein, profesor de informatică la Universitatea din California.
Sistemul de raționament poate descompune o problemă în etape individuale sau o poate rezolva prin încercări și erori.
Când a fost lansat pentru prima dată, ChatGPT putea răspunde instantaneu la întrebări prin extragerea și sintetizarea informațiilor. Între timp, sistemul de raționament avea nevoie de câteva secunde (sau chiar minute) în plus pentru a rezolva problema și a oferi un răspuns.
![]() |
Exemplu al procesului de raționament al modelului o1 într-un chatbot de asistență clienți. Fotografie: OpenAI . |
În unele cazuri, sistemul de raționament își va schimba abordarea problemei, îmbunătățind continuu soluția. Alternativ, modelul poate încerca mai multe soluții înainte de a se stabili asupra alegerii optime sau poate testa acuratețea răspunsurilor anterioare.
În general, sistemul de raționament va lua în considerare toate răspunsurile posibile la întrebare. Este ca și cum un elev de școală primară ar scrie mai multe răspunsuri posibile pe o foaie de hârtie înainte de a alege cea mai potrivită modalitate de a rezolva o problemă de matematică.
Potrivit New York Times , inteligența artificială este acum capabilă să raționeze pe orice subiect. Cu toate acestea, sarcina va fi cea mai eficientă cu întrebări legate de matematică, științe și programare pe calculator.
Cum este antrenat sistemul teoretic?
Într-un chatbot tipic, utilizatorii pot solicita în continuare o explicație a procesului sau pot verifica corectitudinea unui răspuns. De fapt, multe seturi de date de antrenament ChatGPT includ deja un proces de rezolvare a problemelor.
Un sistem de raționament merge și mai departe atunci când poate efectua o acțiune fără ca utilizatorul să fie nevoit să îl solicite. Procesul este mai complex și mai amplu. Companiile folosesc cuvântul „raționament” deoarece sistemul funcționează într-un mod similar cu gândirea umană.
Multe companii precum OpenAI pariază că sistemele de raționament sunt cea mai bună modalitate de a îmbunătăți chatboții. Ani de zile, au crezut că chatboții ar funcționa mai bine dacă ar fi instruiți cu cât mai multe informații posibil de pe internet.
Până în 2024, sistemele de inteligență artificială vor fi consumat aproape tot textul disponibil pe internet. Aceasta înseamnă că firmele vor trebui să găsească noi soluții pentru a moderniza chatboții, inclusiv sistemele de raționament.
![]() |
Startup-ul DeepSeek a „făcut vâlvă” cândva cu un model de raționament care costa mai puțin decât OpenAI. Foto: Bloomberg . |
Încă de anul trecut, companii precum OpenAI s-au concentrat pe o tehnică numită învățare prin consolidare, un proces care durează de obicei câteva luni, în care inteligența artificială învață comportamentul prin încercări și erori.
De exemplu, prin rezolvarea a mii de probleme, sistemul poate învăța metoda optimă pentru a obține răspunsul corect. Pornind de acolo, cercetătorii au construit mecanisme complexe de feedback care ajută sistemul să învețe soluțiile corecte și greșite.
„E ca și cum ai dresa un câine. Dacă e bun, îi dai o recompensă. Dacă e rău, spui: «Câinele ăla e rău»”, a spus Jerry Tworek, cercetător la OpenAI.
Este IA viitorul?
Potrivit New York Times , învățarea prin consolidare funcționează bine cu întrebări de matematică, științe și programare pe calculator, unde există răspunsuri corecte sau greșite clar definite.
În schimb, învățarea prin consolidare nu este la fel de eficientă în scrierea creativă, filozofie sau etică, domenii în care este dificil să se facă distincția între bine și rău. Însă cercetătorii spun că tehnica poate îmbunătăți în continuare performanța inteligenței artificiale, chiar și la întrebări din afara matematicii.
„Sistemele vor învăța căile care duc la rezultate pozitive și negative”, a declarat Jared Kaplan, director științific la Anthropic.
![]() |
Site-ul web al Anthropic, startup-ul care deține modelul de inteligență artificială Claude. Fotografie: Bloomberg . |
Este important de menționat că învățarea prin consolidare și sistemele de raționament sunt două concepte diferite. Mai exact, învățarea prin consolidare este o metodă de construire a sistemelor de raționament. Aceasta este etapa finală de antrenament pentru ca chatboții să aibă capacități de raționament.
Deoarece sunt încă relativ noi, oamenii de știință nu pot fi siguri dacă chatboții de raționament sau învățarea prin consolidare pot ajuta inteligența artificială să gândească la fel ca oamenii. Este important de menționat că multe tendințe actuale în antrenamentul inteligenței artificiale se dezvoltă foarte rapid la început și apoi se stabilizează treptat.
În plus, chatboții raționali pot face în continuare greșeli. Pe baza probabilității, sistemul va alege procesul cel mai similar cu datele pe care le-a învățat, fie că provin de pe internet, fie prin învățare prin consolidare. Prin urmare, chatboții pot alege în continuare soluția greșită sau nerezonabilă.
Sursă: https://znews.vn/ai-ly-luan-nhu-the-nao-post1541477.html













Comentariu (0)