Clasificarea sistemelor de inteligență artificială în patru niveluri de risc
În dimineața zilei de 21 noiembrie, Adunarea Națională a ascultat prezentarea și raportul privind examinarea proiectului de Lege privind Inteligența Artificială.
Prezentând raportul, ministrul Științei și Tehnologiei, Nguyen Manh Hung, a declarat că proiectul de lege a fost conceput pentru a crea un coridor juridic inovator pentru inteligența artificială, creând un mediu juridic favorabil pentru promovarea inovației, sporirea competitivității naționale și, în același timp, gestionarea riscurilor, protejarea intereselor naționale, a drepturilor omului și a suveranității digitale.

Ministrul Științei și Tehnologiei, Nguyen Manh Hung, a prezentat raportul.
Pentru a reglementa sistemele de inteligență artificială, proiectul de lege a adoptat o abordare de management bazată pe riscuri, clasificând inteligența artificială în patru niveluri și impunând obligații corespunzătoare.
Sistemele de inteligență artificială sunt clasificate în patru niveluri de risc: Risc inacceptabil: sistemul are potențialul de a provoca daune grave, ireparabile.
Riscul ridicat este sistemul care poate cauza daune vieții, sănătății, drepturilor și intereselor legitime; riscul mediu este sistemul care prezintă riscul de a induce în eroare, manipula sau înșela utilizatorii. Riscul scăzut reprezintă restul cazurilor.
Furnizorul trebuie să autoclasifice sistemul înainte de punerea în circulație și este responsabil pentru rezultatele clasificării.
Pentru sistemele cu risc mediu și ridicat, furnizorul trebuie să notifice Ministerul Științei și Tehnologiei prin intermediul Portalului Unic. Autoritatea competentă are dreptul de a revizui și reevalua clasificarea.
Legea stipulează responsabilitatea pentru transparență, etichetare și responsabilitate. Mai exact, partea care implementează legea trebuie să notifice și să eticheteze în mod clar conținutul creat sau editat cu elemente false, care simulează persoane reale (deepfake) ce pot cauza neînțelegeri sau conținutul creat de Inteligența Artificială în scopuri de comunicare și publicitate.
Furnizorii și implementatorii trebuie să explice rezultatele manipulării sistemelor cu risc ridicat atunci când părțile afectate le solicită.
În caz de incident, părțile sunt responsabile pentru corectarea, suspendarea sau retragerea promptă a sistemului și raportarea acestuia prin intermediul Portalului Unic. În scopuri de gestionare a riscurilor, în cazul unui risc inacceptabil, dezvoltarea, furnizarea, implementarea sau utilizarea acestor sisteme sub orice formă este interzisă.
Lista interzisă include sisteme utilizate pentru acte interzise de lege, utilizarea de elemente false pentru a înșela, manipula și provoca daune grave, exploatarea punctelor slabe ale grupurilor vulnerabile (copii, vârstnici etc.) sau crearea de conținut fals care dăunează grav securității naționale.
Pentru sistemele cu risc ridicat, sistemul cu risc ridicat trebuie evaluat pentru adecvare înainte de a fi pus în circulație sau pus în funcțiune.
Evaluarea poate lua forma certificării conformității (efectuată de un organism acreditat) sau a supravegherii conformității (autoevaluare de către furnizor).
Prim-ministrul prescrie Lista sistemelor de inteligență artificială cu risc ridicat corespunzătoare fiecărei forme de evaluare.
Sunt stabilite obligații detaliate pentru furnizor (stabilirea unor măsuri de gestionare a riscurilor, gestionarea datelor de instruire, pregătirea documentației tehnice, asigurarea supravegherii umane) și pentru implementator (funcționarea în scopul propus, asigurarea siguranței, îndeplinirea obligațiilor de transparență).
Furnizorii străini cu sisteme cu risc ridicat trebuie să aibă un reprezentant autorizat în Vietnam și trebuie să înființeze o entitate juridică în Vietnam dacă sistemul este supus certificării obligatorii de conformitate.
Pentru modelele cu risc mediu, scăzut și multifuncțional, sistemul cu risc mediu trebuie să asigure transparența și etichetarea.
Proiectul stipulează, de asemenea, responsabilitățile dezvoltatorilor și utilizatorilor de modele de inteligență artificială de uz general pentru a asigura conformitatea cu legislația vietnameză. Se aplică obligații sporite modelelor GPAI cu risc sistemic (potențial de impacturi de amploare), inclusiv evaluarea impactului, păstrarea evidențelor tehnice și notificarea către Ministerul Științei și Tehnologiei.
Cu toate acestea, modelele de IA cu sursă deschisă și uz general sunt exceptate de la aceste obligații sporite; în cazul în care un model cu sursă deschisă este utilizat pentru a dezvolta un sistem de IA, organizația utilizatoare trebuie să se ocupe de gestionarea riscurilor sistemului respectiv.
Luați în considerare utilizarea etichetării invizibile pentru a reduce costurile
Dintr-o perspectivă de examinare, președintele Comitetului pentru știință, tehnologie și mediu, Nguyen Thanh Hai, a declarat că, în cadrul Comitetului, etichetarea produselor bazate pe inteligență artificială este o responsabilitate etică și juridică obligatorie pentru a construi încredere în era inteligenței artificiale.

Președintele Comisiei pentru știință, tehnologie și mediu, Nguyen Thanh Hai.
Deși, în principiu, este de acord cu prevederile privind etichetarea din proiectul de lege, Comitetul recomandă totuși să se facă referire la experiența internațională privind produsele generate de inteligența artificială pentru a asigura compatibilitatea cu condițiile practice din Vietnam.
Pentru produsele și dispozitivele hardware cu aplicații de inteligență artificială (cum ar fi frigidere, televizoare, mașini de spălat etc.), se recomandă cercetarea și luarea în considerare a aplicării unor filigrane invizibile pentru a reduce costurile și procedurile, asigurând în același timp managementul și trasabilitatea.
Totodată, se propune stipularea în proiectul de lege a principiilor prin care Guvernul va furniza instrucțiuni detaliate privind formularele, standardele tehnice și scutirile.
Există o propunere de modificare a regulamentului de etichetare din obligatoriu în recomandat, cu îndrumări tehnice minime.
În același timp, este necesar să se piloteze un mecanism de etichetare voluntară într-o serie de domenii; în același timp, să se consolideze comunicarea pentru a evita neînțelegerea conform căreia „lipsa etichetei înseamnă că nu este un produs bazat pe inteligență artificială”.
În ceea ce privește clasificarea riscurilor, Comitetul consideră că clasificarea pe patru niveluri, în timp ce Legea privind calitatea produselor și bunurilor clasifică produsele și bunurile în trei tipuri, este inconsistentă dacă IA este considerată produse și bunuri.
Reglementările privind certificarea conformității sistemelor de inteligență artificială cu risc ridicat nu sunt în concordanță cu principiile de gestionare a produselor și bunurilor cu risc ridicat, așa cum sunt prevăzute în Legea privind calitatea produselor și bunurilor.
Prin urmare, se recomandă continuarea revizuirii și comparării cu atenție a prevederilor proiectului de lege cu legile în vigoare.
Sursă: https://mst.gov.vn/de-xuat-dung-ai-de-truyen-thong-quang-cao-phai-dan-nhan-thong-bao-ro-197251125140252967.htm










Comentariu (0)