Programele de inteligență artificială au obținut numeroase succese în ultimii ani - Foto: REUTERS
Nu putem observa întregul proces, de la datele de intrare până la rezultatele de ieșire ale modelelor lingvistice mari (LLM).
Pentru a facilita înțelegerea, oamenii de știință au folosit termeni comuni precum „raționament” pentru a descrie modul în care funcționează aceste programe. De asemenea, ei spun că programele pot „gândi”, „raționa” și „înțelege” așa cum o fac oamenii.
Exagerarea capacităților IA
În ultimii doi ani, mulți directori din domeniul inteligenței artificiale au folosit hiperbola pentru a exagera simple realizări tehnice, potrivit ZDNET din 6 septembrie.
În septembrie 2024, OpenAI a anunțat că modelul de raționament o1 „folosește un lanț de inferențe atunci când rezolvă probleme, similar modului în care oamenii gândesc mult timp atunci când se confruntă cu întrebări dificile”.
Totuși, oamenii de știință din domeniul inteligenței artificiale obiectează. Ei cred că inteligența artificială nu are inteligență umană.
Un studiu asupra bazei de date arXiv, realizat de un grup de autori de la Universitatea de Stat din Arizona (SUA), a verificat capacitatea de raționament a inteligenței artificiale printr-un experiment simplu.
Rezultatele au arătat că „inferența prin lanț de gândire este o iluzie fragilă”, nu un mecanism logic real, ci doar o formă sofisticată de potrivire a tiparelor.
Termenul „lanț de gândire” (CoT) permite inteligenței artificiale nu doar să vină cu un răspuns final, ci și să prezinte fiecare pas al raționamentului logic, ca în modelele GPT-o1 sau DeepSeek V1.
Ilustrație a modelului de limbaj GPT-2 al OpenAI - Fotografie: ECHOCRAFTAI
Vezi ce face de fapt IA
Analizele la scară largă arată că LLM tinde să se bazeze pe semantică și indicii superficiale, mai degrabă decât pe procese de raționament logic, spun cercetătorii.
„LLM construiește lanțuri logice superficiale bazate pe asocieri de input învățate, eșuând adesea în sarcini care deviază de la metodele de raționament convenționale sau de la modelele familiare”, explică echipa.
Pentru a testa ipoteza că LLM doar potrivea tipare și nu făcea de fapt inferențe, echipa a antrenat GPT-2, un model open-source lansat de OpenAI în 2019.
Modelul a fost inițial antrenat cu sarcini foarte simple pe cele 26 de litere englezești, cum ar fi inversarea unor litere, de exemplu transformarea textului „APPLE” în „EAPPL”. Apoi, echipa a modificat sarcina și a cerut GPT-2 să o gestioneze.
Rezultatele arată că pentru sarcinile care nu sunt incluse în datele de antrenament, GPT-2 nu le poate rezolva cu precizie folosind CoT.
În schimb, modelul încearcă să aplice cele mai similare sarcini învățate. Așadar, „inferențele” sale pot părea rezonabile, dar rezultatele sunt adesea greșite.
Grupul a concluzionat că nu ar trebui să ne bazăm prea mult sau să avem încredere orbește în răspunsurile masteratului în drept, deoarece acestea pot produce „prostii care sună foarte convingător”.
De asemenea, au subliniat necesitatea de a înțelege adevărata natură a inteligenței artificiale, de a evita exagerările și de a înceta să se promoveze faptul că inteligența artificială are capacitatea de a raționa la fel ca oamenii.
Sursă: https://tuoitre.vn/nghien-cuu-moi-ai-khong-suy-luan-nhu-con-nguoi-20250907152120294.htm
Comentariu (0)