Vietnam.vn - Nền tảng quảng bá Việt Nam

Inteligența artificială trebuie să funcționeze în limite legale și etice.

În această dimineață, 21 noiembrie, în cadrul discuțiilor din cadrul Grupului 6 (inclusiv Delegația Adunării Naționale din Lang Son, Dong Nai, orașul Hue) pe marginea proiectului Legii privind Inteligența Artificială, deputații Adunării Naționale au declarat că, pentru a finaliza proiectul de lege cu scopul de a gestiona și promova cercetarea și dezvoltarea inteligenței artificiale în Vietnam, este necesară clarificarea unor aspecte cheie precum: datele de intrare, proprietatea intelectuală, domeniul de aplicare, clasificarea riscurilor, responsabilitatea utilizatorului și etica IA...

Báo Đại biểu Nhân dânBáo Đại biểu Nhân dân21/11/2025



Necesitatea de a proiecta un mecanism modern și sincron de guvernanță a inteligenței artificiale

Exprimându-și aprobarea pentru abordarea elaborării acestei legi ca lege-cadru pentru gestionarea și promovarea cercetării, dezvoltării, implementării și utilizării inteligenței artificiale în Vietnam, deputații Adunării Naționale au apreciat foarte mult pregătirea Guvernului; dosarul proiectului de lege a fost elaborat cu atenție, asigurând respectarea reglementărilor; în același timp, propunerea de a abroga o serie de articole și clauze conexe din Legea privind industria tehnologiei digitale este necesară pentru a evita suprapunerea, creând o bază juridică unificată pentru gestionarea și promovarea dezvoltării inteligenței artificiale. Cu toate acestea, pentru a finaliza acest proiect de lege, deputații au solicitat Comitetului de redactare să continue revizuirea și modificarea, completarea și abrogarea în mod corespunzător a unei serii de articole și clauze.

Grupa 6 (Hue, Lang Son, Dong Nai)

Scena întâlnirii Grupului 6 în dimineața zilei de 21 noiembrie. Fotografie: Ho Long

Mai exact, în ceea ce privește domeniul de aplicare al reglementării și subiectele aplicabile, deputatul Adunării Naționale Pham Trong Nghia (Lang Son) a declarat că este necesară continuarea clarificării acestei probleme. Deoarece în prezent, prevederile referitoare la „activitățile de cercetare” din proiect riscă să se suprapună cu conținutul deja reglementat de Legea privind știința , tehnologia și inovația. Între timp, proiectul nu are o politică specifică de promovare a cercetării în domeniul sistemelor de inteligență artificială și nu a definit clar subiecții care desfășoară această activitate. Prin urmare, delegatul a sugerat clarificarea activităților care intră în domeniul de aplicare al reglementării Legii și a activităților care se încadrează în legea actuală pentru a asigura fezabilitatea, consecvența și a evita suprapunerile.

Deputatul Adunării Naționale Pham Trong Nghia (Lang Son)

Deputatul Adunării Naționale Pham Trong Nghia ( Lang Son ) oferă comentarii cu privire la proiectul de lege privind inteligența artificială. Foto: Ho Long

În ceea ce privește explicarea termenilor, membrul Adunării Naționale Pham Trong Nghia a acordat o atenție deosebită conceptului de „reglaj fin” în modelul de inteligență artificială cu scop general. Reprezentantul a spus că acesta este un termen specializat, încă nepopular, așadar conținutul trebuie definit clar pentru a facilita aplicarea și respectarea legii ulterioare. Proiectul prevede în prezent o singură propoziție despre Comitetul Național pentru Inteligență Artificială, care nu arată clar: poziția juridică; funcțiile, sarcinile, competențele; structura organizatorică, mecanismul de funcționare; relația cu ministerele și ramurile. În consecință, reprezentantul a sugerat clarificarea necesității înființării acestei instituții și, în același timp, evaluarea conformității cu politica de eficientizare a aparatului în conformitate cu regulamentele Partidului. În cazul menținerii acesteia în continuare, este necesar să se suplimenteze regulamentele sau să se dea Guvernului sarcina de a specifica în detaliu aspectele menționate mai sus.

În ceea ce privește actele interzise, ​​delegații au afirmat că proiectul de lege nu a stipulat încă actele interzise, ​​acesta fiind un „scut juridic” important pentru protejarea drepturilor omului, asigurarea concurenței loiale și respectarea standardelor internaționale. Între timp, Legea avansată la nivel mondial privind inteligența artificială (IA) stipulează clar actele interzise, ​​cum ar fi abuzul de date cu caracter personal, discriminarea sistematică, utilizarea IA în scopuri dăunătoare etc. Prin urmare, se propune adăugarea unui articol separat privind actele interzise, ​​bazat pe principiile: transparență, siguranță, responsabilitate, supraveghere umană, echitate, nediscriminare și sprijin pentru inovarea controlată.

Deputata Adunării Naționale Nguyen Thi Suu (Hue)

Delegata Adunării Naționale, Nguyen Thi Suu (orașul Hue), a vorbit la sesiunea de discuții de dimineață din 21 noiembrie. Foto: Ho Long

Comentarii la proiectul de lege, deputații Adunării Naționale Nguyen Thi Suu (orașul Hue) s-a concentrat pe analiza reglementărilor legate de infrastructură, resurse umane și cadrul etic al inteligenței artificiale - piloni cheie care determină eficacitatea implementării legii în practică.

Mai exact, în Capitolul III (Articolele 17 și 18) care reglementează infrastructura de inteligență artificială, delegații au afirmat că foaia de parcurs pentru implementarea infrastructurii naționale de IA, rolurile ministerelor, departamentelor, localităților, precum și ale întreprinderilor și institutelor de cercetare în procesul de construcție și operare nu au fost clar definite. Delegații au propus completarea unui plan specific de implementare cu termene limită, responsabilități pentru fiecare agenție și un mecanism de monitorizare pentru a asigura fezabilitatea la promulgarea Legii.

În ceea ce privește dezvoltarea resurselor umane (articolul 24), delegata Nguyen Thi Suu a declarat că proiectul de lege stabilește doar obiectivele, dar nu prevede un mecanism real de sprijin pentru instituțiile de formare și cursanți, cum ar fi finanțarea, standardele internaționale de formare sau programe comune cu întreprinderi și institute de cercetare. Prin urmare, este necesar să se suplimenteze politicile de burse, să se sprijine formarea și să se promoveze parteneriatele public-private.

În ceea ce privește Cadrul Național de Etică a IA (Articolul 27), delegații au afirmat că reglementările actuale sunt doar principiale și duc lipsă de mecanisme de monitorizare, evaluare și gestionare a încălcărilor, ceea ce face dificilă asigurarea unui caracter obligatoriu în practică; în același timp, termenul „etică a IA” nu a fost clar definit și nu a atribuit responsabilități specifice organizațiilor și persoanelor în cazul încălcărilor. Prin urmare, delegații au propus schimbarea sintagmei „revizuire” în „public” în reglementările privind actualizarea cadrului etic; în același timp, adăugarea de prevederi privind înființarea unei Autorități Naționale de Etică a IA responsabilă de monitorizarea, evaluarea și gestionarea încălcărilor; stabilirea obligațiilor de conformitate pentru organizațiile și persoanele care dezvoltă sau operează sisteme de IA cu risc ridicat; afirmarea valorii obligatorii din punct de vedere juridic a Cadrului de Etică a IA, în care încălcările pot fi supuse sancțiunilor administrative sau penale; și încurajarea participării organizațiilor sociale, a mediului academic și a întreprinderilor la activitățile de construire și evaluare a eticii IA. „Numai atunci când mecanismele de mai sus sunt finalizate, Cadrul de Etică a IA poate fi eficient, asigurând că tehnologia se dezvoltă în direcția corectă, în siguranță și pentru oameni”, a subliniat delegata Nguyen Thi Suu.

Care este responsabilitatea atunci când IA greșește?

Discutând proiectul de lege privind inteligența artificială, deputatul Adunării Naționale Pham Nhu Hiep (orașul Hue) a declarat că inteligența artificială creează schimbări profunde în domeniul medical, de la chirurgie și diagnostic până la cercetare științifică. Delegatul a menționat că chirurgia la distanță a apărut de mai bine de 20 de ani și, până în prezent, multe sisteme robotizate sunt capabile să efectueze intervenții chirurgicale endoscopice fără intervenție umană directă. Odată cu dezvoltarea rapidă a tehnologiei, dacă este permisă, inteligența artificială poate prelua complet anumite etape chirurgicale, amenințând chiar să schimbe rolul tradițional al chirurgilor. În diagnosticul imagistic, inteligența artificială a fost aplicată pe scară largă în spitale, inclusiv la Spitalul Central din Hue, oferind suport pentru citirea radiografiilor, a tomografiilor computerizate și a filmelor cerebrale.

Deputatul Adunării Naționale Pham Nhu Hiep (Hue)

Delegatul Adunării Naționale, Pham Nhu Hiep (orașul Hue), și-a exprimat opiniile cu privire la proiectul de lege privind inteligența artificială în cadrul Grupului 6. Foto: Ho Long

Cu toate acestea, delegații au subliniat necesitatea responsabilității atunci când IA face greșeli. În prezent, toate rezultatele IA trebuie să fie în continuare verificate și verificate de către medici și radiologi. Atunci când rezultatele nu corespund realității clinice, medicul le va edita și actualiza, astfel încât IA să poată continua să învețe. Acest proces de „învățare pasivă” este aplicat de multe spitale, dar este încă nevoie de un cadru legal clar pentru a asigura siguranța pacienților.

Delegatul Pham Nhu Hiep și-a exprimat, de asemenea, îngrijorarea cu privire la impactul inteligenței artificiale asupra cercetării științifice, deoarece software-ul de verificare a plagiatului a devenit popular, iar unele instrumente de inteligență artificială permit acum să scrie aproape o întreagă teză de doctorat într-o singură zi, pe baza datelor furnizate. Acest lucru reprezintă o provocare majoră pentru etica cercetării și integritatea științifică și ar trebui luat în considerare pentru includerea în reglementările legale de specialitate.

În ceea ce privește responsabilitatea legală a furnizorilor de IA (Articolul 13), delegații au propus clarificarea entității responsabile atunci când sistemele de IA provoacă incidente sau accidente. Cazul mașinilor autonome este un exemplu tipic: dacă are loc o coliziune, este necesar să se determine responsabilitatea sistemului, a producătorului sau a unității de management operațional. Delegatul a citat accidentul auto Tesla din 2015, care a obligat producătorul să plătească despăgubiri substanțiale, afirmând că IA nu poate fi responsabilă singură, ci responsabilitatea trebuie să aparțină oamenilor - organizațiilor și persoanelor care proiectează, produc și pun în funcțiune sistemul.

Referindu-se la conceptul de etică a IA, aplicat de multe țări pentru a determina ce acțiuni ale IA sunt permise și ce nu, delegatul Pham Nhu Hiep a recunoscut, de asemenea, că, în contextul sistemelor de IA care au capacitatea de a se auto-învăța, de a gândi singure și chiar de a depăși limitele inițiale ale producătorului, dezvoltarea și operarea IA trebuie plasate în cadrul legal și etic. Acest lucru nu este doar pentru a asigura siguranța societății, ci și pentru a crea o bază pentru dezvoltarea sănătoasă a industriei IA din Vietnam.

Pentru a gestiona eficient IA, datele de intrare și proprietatea intelectuală trebuie clarificate.

De acord cu opiniile de mai sus, deputatul Adunării Naționale Trinh Xuan An (Dong Nai) a făcut, de asemenea, o serie de comentarii profunde legate de proiectul de Lege privind Inteligența Artificială, concentrându-se pe grupuri majore de probleme: date de intrare, proprietate intelectuală, domeniul de aplicare, abordarea managementului riscurilor și modelul de organizare a implementării.

Trinh Xuan An, membră a Adunării Naționale (Dong Nai)

Delegatul Adunării Naționale Trinh Xuan An (Dong Nai) vorbește la Grupul 6 în dimineața zilei de 21 noiembrie. Foto: Ho Long

În ceea ce privește datele de intrare pentru IA, delegații au afirmat că datele reprezintă fundamentul inteligenței artificiale, însă proiectul de lege nu a clarificat acest conținut. Reglementările privind datele se află în prezent în temeiul Legii privind datele și al Legii privind protecția datelor cu caracter personal. Dacă nu sunt menționate în mod specific în această lege, cel puțin trebuie să existe o referire completă. Delegații au fost de acord cu cerința ca datele să fie „corecte - suficiente - curate - vii”, dar au subliniat necesitatea adăugării criteriului ca datele să fie sistematizate și actualizate continuu, deoarece aceasta este o condiție pentru ca IA să funcționeze eficient și în siguranță.

În ceea ce privește proprietatea intelectuală, deputata Adunării Naționale Trinh Xuan a comentat că, în contextul conținutului proiectului, inteligența artificială este încă prea vag definită, întrucât inteligența artificială este un produs uman și este strâns legată de aspectele legate de drepturile de autor, proprietate, responsabilitatea legală și etica. Dacă componenta proprietății intelectuale nu este clarificată în lege, gestionarea inteligenței artificiale va fi foarte dificilă. Prin urmare, delegatul a recomandat modificarea Legii proprietății intelectuale și, în același timp, reglementarea aspectelor legate de proprietate în cadrul acestei legi.

În ceea ce privește domeniul de aplicare, delegatul a subliniat ilogicitatea articolului 1, când legea exclude aplicarea IA pentru apărarea națională, securitate, criptografie și informații, dar următoarele clauze deschid posibilitatea ajustării dacă aceste sisteme sunt utilizate în alte scopuri. În mediul digital, este dificil să se separe IA pentru securitate și apărare de scopurile civile, deoarece IA poate sprijini simultan medicina, industria de apărare sau sistemele fără pilot. Prin urmare, excluderea pe domenii nu este fezabilă. Delegatul a sugerat construirea unui cadru de reglementare comun, în loc de împărțirea pe scopuri de utilizare.

Grupul Dong Nai 1

Deputații Adunării Naționale din provincia Dong Nai la sesiunea de discuții a Grupului 6 în dimineața zilei de 21 noiembrie. Fotografie: Ho Long

În ceea ce privește abordarea managementului și clasificării riscurilor, delegatul a afirmat că proiectul „aplică” modelul european de management, creând sarcini inutile în contextul în care Vietnamul trebuie să încurajeze dezvoltarea IA. Clasificarea riscurilor pe patru niveluri, așa cum este prevăzută în proiect, este atât complicată, cât și incompatibilă cu Legea privind calitatea produselor. Delegatul a propus clasificarea a doar două grupuri: produse IA riscante și fără riscuri, și combinarea managementului riscurilor cu managementul bazat pe eficiența producției și impactul economic. De asemenea, a afirmat că reglementarea privind autoevaluarea riscurilor de către întreprinderi și atribuirea Guvernului sarcina de a stabili criterii este „pe jumătate închisă, pe jumătate deschisă”, dificil de implementat în practică.

În ceea ce privește modelul de organizare a implementării, deputata Adunării Naționale Trinh Xuan An și-a exprimat îngrijorarea cu privire la propunerea de a înființa un fond financiar extrabugetar și un Comitet Național pentru IA. Potrivit delegatului, este necesar să se analizeze cu atenție necesitatea acestor instituții, evitând situația de „înființare de fonduri și comitete pentru orice”, dar cu o eficiență scăzută. Dacă este cu adevărat necesar, fondul pentru IA ar trebui integrat în fondurile existente, cu excepția cazurilor speciale, cum ar fi fondurile care deservesc apărarea și securitatea națională. Delegatul a menționat, de asemenea, că IA trebuie să fie legată de activitățile economice și de inițiativa întreprinderilor, astfel încât modelul de management trebuie să fie eficientizat și orientat spre o eficiență reală.

Reprezentantul Adunării Naționale Bui Xuan Thong (Dong Nai)

Delegatul Adunării Naționale Bui Xuan Thong (Dong Nai)

De acord cu opinia de mai sus, deputații Adunării Naționale Nguyen Thi Nhu Y și Bui Xuan Thong (Dong Nai) au subliniat, de asemenea, cadrul etic în utilizarea inteligenței artificiale. Potrivit delegatului Bui Xuan Thong, dacă se stipulează că utilizatorii trebuie să fie responsabili pentru deciziile luate de IA, atunci, în realitate, decizia finală aparține în continuare omului. IA este doar un instrument care oferă informații de referință. Persoana care ia decizia finală este responsabilă pentru acea decizie. Prin urmare, cadrul etic ar trebui să se concentreze pe responsabilitatea umană în utilizarea informațiilor provenite de la IA, nu pe stipularea faptului că IA trebuie să fie responsabilă.

În ceea ce privește problema gestionării încălcărilor, delegații au afirmat că proiectul prevede, în general, că acestea pot fi gestionate pe cale administrativă, civilă sau penală, dar nu este clar în ceea ce privește limitele responsabilității. Prin urmare, se recomandă definirea clară a comportamentelor care vor face obiectul răspunderii penale, a comportamentelor care vor face obiectul răspunderii administrative și a responsabilităților specifice ale furnizorului, dezvoltatorului și utilizatorului. În același timp, este necesar să se completeze comportamentele interzise și să se reproiecteze acest cadru pentru a fi clar, atât pentru a crea condiții pentru dezvoltarea inteligenței artificiale, cât și pentru a defini clar responsabilitățile părților relevante.


Sursă: https://daibieunhandan.vn/artificial-intelligence-must-operate-in-the-law-and-moral-system-10396524.html


Comentariu (0)

No data
No data

Pe aceeași temă

În aceeași categorie

A patra oară când am văzut muntele Ba Den clar și rar din orașul Ho Chi Minh
Bucură-te de peisajele frumoase ale Vietnamului la bordul navei MV Muc Ha Vo Nhan a lui Soobin
Cafenelele cu decorațiuni de Crăciun timpurii fac vânzările să crească vertiginos, atrăgând mulți tineri
Ce este special la insula de lângă granița maritimă cu China?

De același autor

Patrimoniu

Figura

Afaceri

Admirând costumele naționale a 80 de frumuseți care concurează la Miss International 2025 în Japonia

Evenimente actuale

Sistem politic

Local

Produs