În ceea ce privește IA, Adunarea Națională a emis Legea privind industria tehnologiei digitale , care include un capitol care reglementează IA. Aceasta este baza juridică inițială pentru dezvoltarea și aplicarea IA. Cu toate acestea, aceste reglementări nu au format încă un coridor juridic cuprinzător, suficient de deschis pentru a facilita cercetarea, dezvoltarea, implementarea și utilizarea IA și un ecosistem IA cuprinzător.
În plus, ne lipsește un mecanism de clasificare și control al riscurilor sistemelor de IA; un mecanism de inspectare, licențiere și monitorizare a sistemelor de IA, în special a sistemelor de IA cu risc ridicat; și o lipsă de mecanisme și politici pentru dezvoltarea și atragerea resurselor umane de IA de înaltă calitate. Deși Rezoluția nr. 57-NQ/TW prevede clar că este necesar să „facem din date principalul mijloc de producție” și să „dezvoltăm economia datelor și piața datelor”, colectarea, prelucrarea, partajarea și utilizarea datelor pentru antrenarea modelelor de IA se confruntă în prezent cu numeroase dificultăți. Conectarea și partajarea datelor între bazele de date naționale și bazele de date din industrie sunt încă lente și nu îndeplinesc cerințele pentru dezvoltarea unor sisteme de IA la scară largă.
Este de menționat faptul că ne lipsește o lacună juridică în ceea ce privește responsabilitatea atunci când IA provoacă daune. Această lacună juridică reprezintă una dintre cele mai mari provocări atunci când se abordează consecințele cauzate de IA. Întrebarea este, atunci când un sistem de IA provoacă daune, cum ar fi: o mașină autonomă care provoacă un accident, un software de diagnostic medical care dă rezultate greșite... atunci cine va fi responsabil? Este dezvoltatorul, producătorul, utilizatorul sau sistemul de IA în sine? Atunci când nu avem reglementări specifice privind responsabilitatea, acesta va reprezenta un risc uriaș pentru consumatori și pentru companii atunci când utilizează IA.
Fără a se opri aici, odată cu dezvoltarea „superioară” a inteligenței artificiale, există și îngrijorări cu privire la riscurile de securitate netradiționale. Tehnologia deepfake este abuzată pentru a crea informații false, a defăima organizații și persoane și a crea forme de fraudă. Dacă această situație nu este controlată de un cadru legal suficient de strict, cu sancțiuni suficient de puternice, va provoca instabilitate socială.
Pentru a realiza punctul de vedere al Partidului și al Statului de a identifica IA ca vârf de lance și revoluționare pentru îmbunătățirea capacității naționale în era digitală, proiectul de Lege privind Inteligența Artificială este elaborat de Guvern cu un punct de vedere consecvent: Legea plasează omul în centru, cu principiul suprem conform căruia IA este creată pentru a servi oamenii, nu pentru a-i înlocui, iar oamenii supraveghează IA în luarea deciziilor importante; IA trebuie să fie transparentă, responsabilă și sigură. Legea privind Inteligența Artificială gestionează sistemele de IA în funcție de nivelul de risc, încurajează dezvoltarea IA internă și autonomia IA și consideră IA ca o forță motrice pentru o creștere rapidă și durabilă.
Pentru a asigura o eficiență sporită a managementului și a proteja drepturile utilizatorilor, proiectul de lege stipulează responsabilitatea gestionării și tratării incidentelor legate de IA. În consecință, organizațiile și persoanele care participă la dezvoltarea, furnizarea, implementarea și utilizarea sistemelor de IA sunt responsabile pentru asigurarea siguranței, securității și fiabilității în timpul funcționării sistemului; detectarea proactivă, prevenirea și rezolvarea promptă a incidentelor care pot cauza daune persoanelor, proprietății, datelor sau ordinii sociale.
Atunci când apare un incident tehnic, rezultate incorecte sau un comportament neașteptat al sistemului de inteligență artificială, dezvoltatorul și furnizorul trebuie să aplice prompt măsuri tehnice pentru a remedia, suspenda sau revoca sistemul potențial dăunător; să notifice și să se coordoneze cu agenția de management competentă a statului pentru a investiga și gestiona incidentul. Implementatorul și utilizatorul sunt obligați să înregistreze și să notifice prompt furnizorul cu privire la incident și să se coordoneze cu părțile relevante în procesul de remediere a acestuia și nu trebuie să intervină arbitrar sau să modifice sistemul fără permisiune. În plus, proiectul de lege prevede, de asemenea, obligațiile furnizorului și ale implementatorului pentru sistemele de inteligență artificială cu risc ridicat...
Promulgarea rapidă de către Vietnam a Legii privind Inteligența Artificială va reprezenta un progres important pentru IA, va crea un mediu juridic favorabil pentru promovarea inovației, va spori competitivitatea națională și va afirma poziția unei țări cu capacitatea de a fi autonomă în domeniul tehnologiei.
Sursă: https://daibieunhandan.vn/hoan-thien-khung-kho-phap-ly-cho-ai-10390839.html






Comentariu (0)