Aceasta este considerată o oportunitate fragilă, dar importantă, de a asigura siguranța în aplicarea IA în viitor. În special, este semnificativă având în vedere că Vietnamul tocmai a adoptat Legea privind industria tehnologiei digitale , cu reglementări detaliate privind gestionarea inteligenței artificiale (IA).
„Fereastra de oportunitate” se îngustează
Într-o lucrare comună recentă, cercetătorii OpenAI avertizează că abilitatea inteligenței artificiale de a monitoriza „gândurile” ar putea dispărea fără eforturi de cercetare concentrate, a declarat Bowen Baker, cercetător la OpenAI.
Acest lucru este deosebit de important, deoarece modelele de inteligență artificială devin din ce în ce mai puternice și au potențialul de a avea impacturi serioase asupra societății.
O caracteristică cheie a modelelor de raționament bazate pe inteligență artificială, precum o-3 de la OpenAI și R1 de la DeepSeek, este „lanțul gândirii” ( CoT) - procesul prin care inteligența artificială își exprimă pașii de raționament în limbaj natural, similar modului în care oamenii scriu fiecare pas al unei probleme de matematică pe hârtie de notițe.
Această abilitate ne oferă o perspectivă rară asupra modului în care inteligența artificială ia decizii.
Acesta marchează un moment rar de unitate între mulți lideri din industria inteligenței artificiale pentru a avansa cercetarea privind siguranța inteligenței artificiale.
Acest lucru este deosebit de relevant, având în vedere concurența acerbă dintre companiile de tehnologie în dezvoltarea inteligenței artificiale. Printre semnatarii notabili ai documentului se numără Mark Chen, director de cercetare la OpenAI, Ilya Sutskever, CEO al Safe Superintelligence, laureatul Premiului Nobel Geoffrey Hinton, cofondatorul Google DeepMind, Shane Legg, și consilierul de siguranță xAI, Dan Hendrycks.
Implicarea acestor nume importante demonstrează importanța problemei.
De asemenea, conform evaluării domnului Bowen Baker, „Ne aflăm într-un moment critic în care există acest așa-numit nou «lanț al gândirii» care ar putea dispărea în următorii ani dacă oamenii nu se concentrează cu adevărat asupra lui”.

De ce este importantă monitorizarea „gândirii bazate pe inteligență artificială”?
Sistemele actuale de inteligență artificială sunt adesea considerate „cutii negre” – cunoaștem intrările și ieșirile, dar nu înțelegem procesele decizionale din interior.
Acest lucru va deveni periculos atunci când inteligența artificială va fi aplicată în domenii importante precum sănătatea , finanțele și securitatea națională.
Monitorizarea CoT este un sistem automat care citește lanțul mental al modelului mental și alte informații relevante pentru a semnala interacțiunile suspecte sau potențial dăunătoare. Nu este o soluție completă, dar poate deveni un strat valoros de protecție a securității.
Cercetările OpenAI arată că modelele de IA tind să fie foarte explicite în ceea ce privește intențiile lor în secvențele lor de gândire.
De exemplu, aceștia erau adesea foarte expliciți în legătură cu planurile lor de a sabota o misiune atunci când se gândeau „Hai să atacăm sistemul informatic”. Acest lucru demonstrează capacitatea inteligenței artificiale de a monitoriza și detecta comportamentele necorespunzătoare.
„Hai să atacăm” este expresia pe care modelele de inteligență artificială o „gândesc” adesea atunci când „ele” intenționează să saboteze sau să ocolească regulile în timpul executării unei sarcini.
Faptul că inteligența artificială manifestă intenție de „hacking” în procesele lor de gândire sugerează că putem detecta comportamentul negativ al inteligenței artificiale înainte ca acesta să se întâmple. De aceea, monitorizarea proceselor de gândire este importantă.
Cu alte cuvinte, „hai să hackăm” este ca un „semnal de avertizare” pentru a anunța oamenii că inteligența artificială este pe cale să facă ceva greșit.
Vietnam și reglementările legale privind IA
De fapt, Vietnamul a făcut progrese importante în construirea unui cadru juridic pentru IA.
Pe 14 iunie, Adunarea Națională a Vietnamului a adoptat Legea privind industria tehnologiei digitale, în care capitolul IV conține reglementări detaliate privind inteligența artificială - unul dintre cele mai cuprinzătoare cadre juridice privind IA din Asia de Sud-Est în prezent.
Articolul 41 din lege stabilește principiile de bază pentru dezvoltarea, furnizarea și implementarea inteligenței artificiale în Vietnam.
În special, punctul b, clauza 1 stipulează: „Asigurați transparența, responsabilitatea, explicabilitatea; asigurați-vă că aceasta nu depășește controlul uman”.

Adunarea Națională a adoptat Legea privind industria tehnologiei digitale (Foto: Nhat Bac).
Acestea sunt principiile pe care oamenii de știință internaționali le solicită atunci când discutăm despre supravegherea lanțului de inteligență artificială.
În plus, punctul d, clauza 1, articolul 41 stipulează: „Asigurarea capacității de a controla algoritmii și modelele de inteligență artificială”. Acest lucru este în deplină concordanță cu spiritul supravegherii CoT pe care experții internaționali îl propun.
Mai important, articolul 41, clauza 1, punctul a, stabilește, de asemenea, un standard etic ridicat atunci când stipulează că IA trebuie „slujească prosperității și fericirii umane, cu oamenii în centru”.
Aceasta înseamnă că monitorizarea lanțului de gândire al inteligenței artificiale nu este doar o cerință tehnică, ci și o obligație etică – asigurându-se că inteligența artificială este întotdeauna orientată spre beneficiul uman, nu spre obiectivele proprii ale mașinii.
Clasificarea și gestionarea IA în funcție de nivelul de risc
Legea vietnameză privind industria tehnologiei digitale a mers un pas mai departe, clasificând inteligența artificială în diferite grupuri de risc, cu definiții clare și științifice.
Articolul 43 definește „Sistemele de inteligență artificială cu risc ridicat” ca fiind sistemele care pot prezenta riscuri grave sau daune pentru sănătatea umană, drepturile omului și ordinea publică.
Interesant este că legea prevede excepții specifice pentru IA cu risc ridicat, inclusiv sisteme „destinate să ajute oamenii să optimizeze rezultatele muncii” și „care nu sunt destinate să înlocuiască procesul decizional uman”.
Aceasta demonstrează o mentalitate echilibrată între încurajarea inovației și asigurarea siguranței.

Clasificarea inteligenței artificiale în funcție de nivelul de risc va ajuta la crearea unui sistem de monitorizare cu mai multe straturi (Ilustrație: LinkedIn).
În special, distincția dintre „IA cu risc ridicat” și „IA cu impact ridicat” (sisteme utilizate în scopuri multiple și cu un număr mare de utilizatori) demonstrează o nuanță în abordare.
Aceasta este o clasificare mai progresivă decât Legea Uniunii Europene (UE) privind inteligența artificială, care ia în considerare nu doar nivelul de risc, ci și amploarea și domeniul de aplicare al impactului.
Această clasificare ar contribui la crearea unui sistem de supraveghere cu mai multe niveluri, în care supravegherea prin lanțul vizual ar fi deosebit de importantă pentru sistemele de IA cu risc ridicat și impact ridicat.
Platformă pentru supravegherea prin inteligență artificială
Unul dintre punctele importante și inovatoare ale Legii vietnameze privind industria și tehnologia digitală este cerința privind transparența și mărcile de identificare.
Articolul 44 prevede că sistemele de inteligență artificială care interacționează direct cu oamenii trebuie să notifice utilizatorii că interacționează cu sistemul de inteligență artificială. În același timp, produsele create de inteligența artificială trebuie să aibă marcaje de identificare.
Acest lucru are implicații importante pentru implementarea monitorizării CoT. Atunci când utilizatorii știu că interacționează cu IA, vor avea dreptul să ceară explicații privind procesul decizional, creând o presiune pozitivă asupra dezvoltatorilor de IA pentru a-și menține capacitatea de a monitoriza procesul de gândire al IA.
În special, faptul că Ministerului Științei și Tehnologiei i-a fost atribuită responsabilitatea de a „publica Lista produselor tehnologice digitale create prin inteligență artificială” demonstrează un management proactiv.
Aceasta este o diferență importantă față de multe alte țări, unde reglementările privind inteligența artificială sunt adesea mai generale.
În plus, solicitarea unui identificator „care să fie recunoscut de utilizator sau mașină” reprezintă o viziune a unui ecosistem de inteligență artificială care se poate auto-supraveghea - ceea ce se potrivește perfect cu ideea de supraveghere automată prin lanț vizual.
Model de management cuprinzător
Articolul 45 din Legea menționată demonstrează o filozofie managerială progresistă atunci când definește clar responsabilitățile a trei grupuri de subiecți în funcție de ciclul de viață al produsului IA: subiectul dezvoltării, subiectul furnizării și subiectul implementării utilizării sistemului IA.
Acest lucru creează un sistem de responsabilitate complet și fără probleme, asigurând că supravegherea IA nu este responsabilitatea doar a unei singure părți.
În special, este importantă distincția subtilă dintre „dezvoltarea” și „furnizarea” de inteligență artificială; dezvoltatorii sunt cei care „cercetează și dezvoltă”, în timp ce furnizorii sunt cei care o introduc pe piață sub un nume de marcă.
Aceasta înseamnă că, chiar dacă o companie pur și simplu redenumește un model de inteligență artificială existent, aceasta este în continuare responsabilă pentru transparență și explicabilitate.

Ceea ce este deosebit de interesant aici este modul în care legea alocă responsabilități diferite entităților diferite.
Dezvoltatorul trebuie să respecte toate principiile, furnizorul trebuie să își asume responsabilitatea suplimentară pentru identificarea și gestionarea riscurilor ridicate, iar utilizatorul este parțial „exceptat” de responsabilitate, dar trebuie să asigure în continuare transparența și controlul riscurilor.
Acest model creează un „lanț al responsabilității” în care fiecare verigă are un stimulent pentru a menține supravegherea lanțului de gândire al inteligenței artificiale, deoarece toate sunt responsabile față de utilizatorul final.
Provocarea menținerii capacităților de supraveghere
Cu toate acestea, capacitatea de a monitoriza lanțurile de gândire ale inteligenței artificiale poate rămâne fragilă și vulnerabilă. Noile arhitecturi ale inteligenței artificiale pot reprezenta și alte amenințări.
Mulți cercetători dezvoltă sisteme de raționament în spațiu matematic continuu, mai degrabă decât cuvinte discrete, care ar putea elimina complet necesitatea utilizării limbajului în gândire.
În plus, IA poate fi „filtrată” – adică le arată oamenilor doar gândurile pozitive pentru a fi apreciate, ascunzându-și în mod deliberat adevăratele intenții.
Pericolul aici este că, odată ce o inteligență artificială își dă seama că este monitorizată, ar putea învăța să-și ascundă adevăratul șir al gândurilor.
În acest context, prevederea privind „controlul riscurilor pe tot parcursul ciclului de viață al sistemelor de inteligență artificială” din articolul 41, punctul e, clauza 1, din legea vietnameză devine deosebit de importantă. Aceasta necesită un mecanism de monitorizare continuă, nu doar în momentul implementării.
Impactul asupra viitorului dezvoltării inteligenței artificiale
Monitorizarea lanțului de gândire ar putea deveni un instrument important pentru a ne asigura că IA funcționează în moduri care să beneficieze oamenii.
Dacă modelele continuă să raționeze în limbaj natural și dacă comportamentele care prezintă cele mai grave riscuri necesită un raționament extins, acest lucru ar putea permite detectarea fiabilă a abaterilor grave.
Pentru Vietnam, aplicarea tehnicilor de monitorizare a CoT va ajuta la implementarea eficientă a prevederilor legii.
De exemplu, cerința de „explicabilitate” din Articolul 41 ar fi mai ușor de îndeplinit dacă șirul de idei al IA ar fi accesibil. În mod similar, „controlul algoritmilor, al modelelor de inteligență artificială” ar deveni mai fezabil.
Implementarea monitorizării lanțului de inteligență artificială în Vietnam se va confrunta cu o serie de provocări. În primul rând, există problema resurselor umane - o lipsă de experți în inteligență artificială capabili să dezvolte și să opereze sisteme de monitorizare.
Acest lucru necesită investiții masive în formare și atragerea talentelor.
Direcții pentru viitor
Cercetătorii fac apel la dezvoltatorii de top de modele de inteligență artificială să cerceteze ce anume face ca CoT să fie „monitorizabil” – factori care pot crește sau reduce transparența cu privire la modul în care sunt utilizate modelele de inteligență artificială – și să vină în curând cu răspunsuri.
Oportunitatea de a monitoriza „gândirea” inteligenței artificiale ar putea fi ultima noastră fereastră pentru a menține controlul asupra sistemelor de inteligență artificială din ce în ce mai puternice de astăzi.

Pentru Vietnam, existența unui cadru juridic cuprinzător privind inteligența artificială, prin Legea privind industria tehnologiei digitale, reprezintă un mare avantaj. Reglementările privind transparența, controlul algoritmilor și clasificarea riscurilor au creat o bază juridică solidă pentru aplicarea tehnicilor de monitorizare a lanțului de gândire bazate pe inteligența artificială.
Combinarea cercetării internaționale de ultimă generație cu un cadru juridic intern progresist va ajuta Vietnamul nu numai să dezvolte inteligența artificială în siguranță, ci și să devină un model pentru alte țări din regiune.
Acest lucru este în conformitate cu obiectivul de a transforma Vietnamul într-un „centru tehnologic digital regional și global”, așa cum este stabilit în strategiile naționale de dezvoltare.
Având în vedere baza legală existentă, Vietnamul trebuie să implementeze rapid cercetări și aplicații practice privind monitorizarea lanțului de gândire bazat pe inteligența artificială. Numai astfel putem garanta că inteligența artificială va servi „prosperității și fericirii umane”, așa cum prevede spiritul Legii industriei tehnologiei digitale.
Sursă: https://dantri.com.vn/cong-nghe/giam-sat-chuoi-tu-duy-cua-tri-tue-nhan-tao-20250731151403739.htm






Comentariu (0)