Continuând programul celei de-a 10-a sesiuni, în dimineața zilei de 21 noiembrie, ministrul Științei și Tehnologiei, Nguyen Manh Hung, a prezentat Adunării Naționale proiectul de Lege privind Inteligența Artificială.

Ministrul Științei și Tehnologiei, Nguyen Manh Hung.
Ministrul Nguyen Manh Hung a declarat că legea prevede măsuri sistematice și cuprinzătoare pentru a echilibra gestionarea și promovarea cercetării, dezvoltării, implementării și aplicării inteligenței artificiale (IA) în Vietnam.
„ Legea privind inteligența artificială pune oamenii în centru, având ca principiu suprem că inteligența artificială este în slujba oamenilor, nu îi înlocuiește, oamenii supraveghează inteligența artificială în luarea deciziilor importante; inteligența artificială trebuie să fie transparentă, responsabilă și sigură ”, a subliniat dl. Nguyen Manh Hung.
Comandantul sectorului Știință și Tehnologie a declarat că proiectul de Lege privind managementul sistemelor de inteligență artificială în funcție de nivelurile de risc încurajează dezvoltarea internă a inteligenței artificiale și autonomia în domeniul inteligenței artificiale, consideră inteligența artificială drept forță motrice pentru o creștere rapidă și durabilă și asigură suveranitatea digitală națională.
Guvernul reglementează patru niveluri de risc în dezvoltarea inteligenței artificiale, inclusiv: inacceptabil (nivelul cel mai înalt); risc ridicat; risc mediu și risc scăzut.
Pentru sistemele cu risc mediu și ridicat, furnizorul trebuie să notifice Ministerul Științei și Tehnologiei. Este interzisă dezvoltarea, furnizarea, implementarea sau utilizarea sub orice formă a sistemelor cu riscuri inacceptabile.
Guvernul a propus, de asemenea, o listă de activități interzise care include sisteme utilizate pentru acte interzise de lege, utilizarea de elemente false pentru a înșela, manipula și provoca daune grave, exploatarea slăbiciunilor grupurilor vulnerabile (copii, vârstnici etc.) sau crearea de conținut fals care dăunează grav securității naționale.
Conform planului prezentat de Guvern, organizațiile și persoanele care încalcă acest domeniu vor fi supuse unor măsuri disciplinare, sancțiuni administrative sau urmăririi penale. În cazul în care se produc daune, despăgubirile trebuie plătite conform legii civile.
În cazul mai multor participanți (dezvoltare, furnizare, implementare), aceștia trebuie să compenseze în comun. Răspunderea pentru compensare este determinată pe baza nivelului real de control, predictibilitate și măsuri de gestionare a riscurilor pe care fiecare parte le-a aplicat.
Proiectul de lege prevede o amendă administrativă maximă de 2 miliarde VND pentru organizații și de 1 miliard VND pentru persoane fizice.
Pentru încălcări grave, amenda maximă poate fi de până la 2% din cifra de afaceri a organizației din anul precedent. În cazul încălcărilor repetate, amenda maximă este de până la 2% din cifra de afaceri globală a organizației din anul precedent.
Pe lângă soluționarea încălcărilor, Guvernul a propus și numeroase politici pentru a sprijini cercetarea, investițiile și formarea resurselor umane de înaltă calitate, creând condiții pentru ca întreprinderile, organizațiile și persoanele fizice să participe la dezvoltarea și aplicarea inteligenței artificiale.

Președintele Comitetului pentru știință, tehnologie și mediu, Nguyen Thanh Hai, a prezentat raportul de analiză.
Prezentând raportul de analiză, președintele Comitetului pentru știință, tehnologie și mediu, Nguyen Thanh Hai, a declarat că, în principiu, Comitetul este de acord cu clasificarea riscurilor în 4 niveluri (riscuri scăzute, medii, ridicate și inacceptabile).
„ Cu toate acestea, proiectul de lege nu a definit clar criterii cantitative sau calitative pentru identificarea și clasificarea riscurilor și nu conține reglementări privind măsurile de gestionare, instrumentele și metodele de evaluare a riscurilor, astfel încât clasificarea și autoclasificarea riscurilor sunt dificile, ceea ce duce la îngrijorări cu privire la responsabilitatea juridică în implementare ”, a declarat dna Nguyen Thanh Hai.
În ceea ce privește reglementările prealabile inspecției, agenția de audit a propus revizuirea și reducerea reglementărilor prealabile inspecției, cum ar fi cerințele privind documentele tehnice și jurnalele de operare înainte de punerea în circulație a produselor, ceea ce va crește costurile de conformitate, va încetini procesul de inovare și aplicare a inteligenței artificiale, va reduce competitivitatea și atragerea investițiilor și va necesita studierea unei treceri puternice la un mecanism post-inspecție.
În ceea ce privește baza de date națională a sistemelor de inteligență artificială și a bazelor de date care deservesc inteligența artificială, Comisia pentru știință, tehnologie și mediu a propus adăugarea unor principii de bază pentru a asigura calitatea datelor care deservesc IA, cum ar fi: datele trebuie să fie „corecte - suficiente - curate - vii” și partajate într-un mod unificat.
În plus, potrivit agenției de inspecție, este nevoie de un mecanism de interconectare și partajare a datelor pentru a preveni dispersarea datelor, creând blocaje în cercetarea și dezvoltarea IA; și principii obligatorii privind asigurarea securității rețelei, a securității datelor și a apărării infrastructurii naționale de IA, prevenind riscul de deturnare și scurgere de date.
În ceea ce privește responsabilitatea juridică a părților implicate, acțiunile și erorile comise de oameni pot fi, de asemenea, efectuate de IA. Între timp, există multe opinii diferite cu privire la responsabilitatea juridică a IA în sine, astfel încât este dificil să se determine responsabilitatea în sens tradițional. Atunci când apare un incident, acesta va cauza dispute privind răspunderea administrativă, civilă și penală.
„ Prin urmare, este necesar să se completeze principiile pentru a distinge responsabilitățile între subiecți și părțile afiliate, inclusiv furnizorii străini, atunci când se furnizează servicii transfrontaliere de inteligență artificială și să se facă distincția între cazurile sau erorile intenționate și cele neintenționate datorate limitărilor tehnice și situațiilor imprevizibile”, a declarat președintele Comisiei pentru știință, tehnologie și mediu.
În ceea ce privește actele interzise, agenția de inspecție a propus completarea reglementărilor privind actele interzise pentru a contribui la identificarea timpurie a încălcărilor, de la etapa de cercetare până la implementarea utilizării IA.
Aceasta trebuie să includă comportamentul utilizatorilor, organizațiilor și persoanelor care profită de IA pentru a efectua acte interzise în următoarele direcții: Interzicerea utilizării IA pentru a provoca tulburări, a incita la politică, a încălca securitatea națională, a manipula voturile și alegerile; Interzicerea utilizării IA pentru a crea conținut fals, a crea imagini, videoclipuri care să servească la fraudă, să insulte onoarea, demnitatea, să provoace diviziune și alte scopuri rele.
Engleză






Comentariu (0)