
Programele de inteligență artificială au realizat numeroase progrese în ultimii ani - Foto: REUTERS
Nu putem observa întregul proces, de la datele de intrare până la rezultatele de ieșire ale modelelor lingvistice mari (LLM).
Pentru a facilita înțelegerea, oamenii de știință au folosit termeni comuni precum „raționament” pentru a descrie modul în care funcționează aceste programe. De asemenea, ei spun că programele pot „gândi”, „raționa” și „înțelege” în același mod în care o fac oamenii.
Exagerarea capacităților IA.
În ultimii doi ani, mulți directori din domeniul inteligenței artificiale au folosit un limbaj exagerat pentru a lăuda simple realizări tehnice, potrivit ZDNET din 6 septembrie.
În septembrie 2024, OpenAI a anunțat că modelul său de raționament o1 „folosește un lanț de raționament atunci când rezolvă probleme, similar modului în care oamenii gândesc mult timp atunci când se confruntă cu întrebări dificile”.
Totuși, oamenii de știință din domeniul inteligenței artificiale nu sunt de acord. Ei susțin că inteligența artificială nu posedă inteligență similară cu cea umană.
Un studiu bazat pe baza de date arXiv, realizat de o echipă de autori de la Universitatea de Stat din Arizona (SUA), a testat capacitatea de raționament a inteligenței artificiale printr-un experiment simplu.
Rezultatele sugerează că „referențierea prin secvențe de gândire este o iluzie fragilă”, nu un adevărat mecanism logic, ci doar o formă sofisticată de potrivire a tiparelor.
Termenul „CoT” (Co-Thought Chain - Lanț de Gândire Coordonată) permite inteligenței artificiale nu doar să ofere un răspuns final, ci și să prezinte fiecare pas al raționamentului logic, ca în modele precum GPT-o1 sau DeepSeek V1.

Ilustrație a modelului lingvistic GPT-2 realizată de OpenAI - Fotografie: ECHOCRAFTAI
Vezi ce face de fapt IA.
Echipa de cercetare a afirmat că analizele la scară largă au arătat că LLM tinde să se bazeze mai mult pe semantică și indicii superficiale decât pe procese de raționament logic.
„Mai multe persoane cu logica defectuoasă construiesc secvențe logice superficiale bazate pe asocieri de input învățate, eșuând adesea în sarcini care deviază de la metodele de raționament convenționale sau de la tiparele familiare”, a explicat echipa.
Pentru a testa ipoteza că LLM doar potrivește modele și nu face deducții, echipa de cercetare a antrenat GPT-2, un model open-source de la OpenAI lansat în 2019.
Modelul a fost inițial antrenat cu sarcini foarte simple care implicau cele 26 de litere englezești, cum ar fi rearanjarea unor litere, de exemplu, schimbarea cuvântului „APPLE” în „EAPPL”. Apoi, echipa a modificat sarcina și a cerut GPT-2 să o proceseze.
Rezultatele au arătat că pentru sarcinile care nu au fost incluse în datele de antrenament, GPT-2 nu le-a putut rezolva cu precizie folosind CoT.
În schimb, modelul încearcă să aplice sarcinile învățate cât mai fidel posibil. Prin urmare, „raționamentul” său poate părea logic, dar rezultatele sunt adesea greșite.
Grupul a concluzionat că nu ar trebui să se bazeze prea mult pe răspunsurile LLM sau să aibă încredere orbește în ele, deoarece acestea pot produce „afirmații absurde, dar foarte convingătoare”.
De asemenea, au subliniat necesitatea de a înțelege adevărata natură a IA, de a evita exagerările și de a înceta promovarea ideii că IA are abilități de raționament asemănătoare celor umane.
Sursă: https://tuoitre.vn/nghien-cuu-moi-ai-khong-suy-luan-nhu-con-nguoi-20250907152120294.htm






Comentariu (0)