
Potrivit domnului Lam, Există riscuri foarte reale și prezente, cum ar fi: inteligența artificială este exploatată pentru a falsifica, manipula informații, a defrauda și a provoca diviziuni sociale; pentru a înlocui forța de muncă și a crește inegalitatea; pentru a distorsiona valorile culturale și intelectuale; și pentru a amenința securitatea națională, apărarea și suveranitatea digitală.
Cel mai îngrijorător lucru , Domnul Lam frică Nu este vorba de ceea ce face IA la comandă umană, ci de ceea ce poate face IA atunci când este în afara controlului uman. Din perspectiva științifică , dacă într-o zi IA își va stabili propriile obiective, va interpreta sarcinile într-un mod care nu este în concordanță cu interesele umane sau chiar va considera oamenii drept „riscuri”, ce se va întâmpla? Ar putea apărea un sistem superinteligent care să vadă oamenii doar ca „variabile” în algoritmul său de optimizare?
„ Poveștile science fiction despre inteligența artificială care domină oamenii nu au scopul de a ne speria, ci de a ne aminti că orice progres artificial își poate trăda scopul inițial dacă nu este conceput cu valori etice solide de la început. Iar istoria a dovedit că orice tehnologie, atunci când scapă de sub control, poate provoca consecințe pentru care omenirea trebuie să plătească scump ”, a spus dl Lam.
Aceste riscuri demonstrează urgența stabilirii unui cadru juridic suficient de puternic pentru ca IA să se dezvolte în direcția corectă și în siguranță pentru societate. Prin urmare Pentru a face Legea cu adevărat completă și vizionară, dl. Lam a propus o adăugire cheie: considerarea IA ca o „ființă umană nou-născută”. O entitate intelectuală, dar totuși inocentă . necunoașterea legii, necunoașterea eticii și a etichetei, lipsa valorilor culturale și incapacitatea de a distinge binele de rău dacă nu sunt învățate. Având în vedere acest lucru, dacă considerăm IA ca pe o entitate emergentă, responsabilitatea noastră nu este doar să o controlăm, ci și să o învățăm de la început, la fel cum l-am învăța pe un copil despre valorile umane standard. Iar aceasta ar trebui să fie o prevedere obligatorie în această Lege, nu doar o recomandare.
Din Acolo, Dl. Lam a propus ca Adunarea Națională să adauge la această lege principii juridice după cum urmează: Orice software de inteligență artificială care operează în Vietnam, fie el dezvoltat de organizații interne sau străine, trebuie să fie echipat cu o bază de date standard pentru inteligența artificială. Această bază de date trebuie să conțină suficiente informații pentru a învăța inteligența artificială să înțeleagă legislația vietnameză; să predea standardele etice ale inteligenței artificiale, cultura și bunele tradiții ale națiunii; să învețe inteligența artificială capacitatea de a identifica binele de rău, standardul de standard. Limitele comportamentale nu trebuie să depășească regulile de identificare a riscurilor pentru oameni. Și cel mai important, asigurați-vă că această bază de date are întotdeauna prioritate absolută în guvernarea comportamentului inteligenței artificiale; nu trebuie suprascrisă, înlocuită sau dezactivată de niciun alt algoritm sau date de antrenament. Acesta este „inelul de aur” juridic și tehnic care garantează că inteligența artificială nu se abate.
Pentru a implementa eficient această orientare, dl. Lam a recomandat, de asemenea, ca Ministerul Științei și Tehnologiei să preia inițiativa în construirea unei platforme de baze de date „A fi vietnamez” – unificată, standardizată și actualizată continuu; furnizarea acesteia dezvoltatorilor de IA ca o cerință obligatorie. Guvernul să dezvolte o infrastructură națională de calcul puternică pentru a se asigura că IA vietnameză este instruită pe baza valorilor vietnameze, nu depinde de modele străine. Să construiască un Centru Național de Testare a IA pentru a evalua prompt comportamentul deviant, a controla modelele cu risc ridicat și a interveni prompt atunci când există semne de depășire a limitelor. Să promoveze educația în domeniul IA în întreaga societate, concentrându-se pe a ajuta oamenii, întreprinderile și în special sectorul public să aibă capacitatea de a identifica, utiliza și monitoriza în mod corespunzător IA.
În același timp, privind lumea, omenirea intră prea repede în era IA, în timp ce cadrul juridic global nu a ajuns încă din urmă. Similar Convenției de la Hanoi privind prevenirea criminalității cibernetice, lumea va avea nevoie de o Convenție internațională privind siguranța IA pentru a stabili standarde comune, a preveni scăparea de sub control a riscurilor și a proteja drepturile omului în contextul dezvoltării IA. Cu o viziune proactivă, prudentă și umană, Vietnamul poate prelua cu siguranță conducerea în propunerea și conducerea acestei inițiative.
„Legea de astăzi privind inteligența artificială nu este doar o lege a tehnologiei, ci o lege a viitorului; un angajament al Adunării Naționale față de popor: dezvoltăm tehnologia, dar nu pierdem controlul; promovăm inovația, dar nu lăsăm riscurile să ne depășească raza de acțiune; și cultivăm inteligența artificială cu valori vietnameze pentru a servi poporul vietnamez”, a declarat dl Lam.
Sursă: https://daidoanket.vn/hay-coi-ai-nhu-mot-con-nguoi-moi-sinh-va-day-ai-nhu-mot-dua-tre.html






Comentariu (0)