Etichetarea produselor generate de inteligența artificială

Subliniind mecanismul de control al riscurilor pentru IA în viața de astăzi, deputatul Nguyen Tam Hung (HCMC) și-a exprimat opinia că proiectul de lege care impune furnizorilor să asigure marcarea lizibilă automată a conținutului IA este foarte necesar; cu toate acestea, el a sugerat luarea în considerare a adăugării unei cerințe obligatorii de afișare a informațiilor de identificare direct pe interfața interactivă atunci când conținutul riscă să cauzeze confuzie, pentru a proteja utilizatorii obișnuiți, în special copiii și vârstnicii, de riscul de dezinformare și de falsuri profunde. Această reglementare sporește responsabilitatea socială a furnizorilor de tehnologie și construiește încredere digitală pentru oameni.
În plus, adjunctul Nguyen Tam Hung a declarat că, prin cercetări, a descoperit că modelul actual de inteligență artificială multifuncțională nu numai că creează text sau imagini, ci poate genera și cod sursă, instrumente de atac, instrucțiuni de execuție, procese de atac cibernetic, metode de fraudă financiară etc. Pornind de aici, adjunctul a propus adăugarea obligației de a controla „capacitatea de autogenerare” a modelului atunci când se permite generarea de cod sursă și existența unui mecanism de avertizare, blocare și limitare a ieșirii este necesară pentru a asigura securitatea rețelei și ordinea și siguranța socială.

Analizând, de asemenea, riscurile create de inteligența artificială, deputatul Pham Van Hoa ( Dong Thap ) a declarat că, deși tehnologia inteligenței artificiale este un instrument de sprijin pentru oameni, aceasta prezintă multe riscuri ridicate; deputatul a solicitat comitetului de redactare să aibă o evaluare obiectivă și precisă a acestei chestiuni.
„Riscurile pot afecta viața umană, proprietatea, drepturile și interesele legitime ale organizațiilor și indivizilor”, a declarat deputatul Pham Van Hoa, adăugând că ar trebui să existe etichete pentru produsele create prin inteligență artificială. Potrivit acestuia, etichetarea inteligenței artificiale are rolul de a informa oamenii care produse sunt create de inteligență artificială și care nu.

Între timp, deputata Trinh Thi Tu Anh ( Lam Dong ) a declarat că articolul 11 din proiectul de lege nu reflectă pe deplin gândirea privind evaluarea riscurilor pe baza impactului tehnologic. Potrivit acesteia, în contextul actual, IA poate crea metode dăunătoare care nu au fost niciodată identificate. Prin urmare, deputata Trinh Thi Tu Anh a propus adăugarea unei prevederi: „Guvernul va specifica în detaliu și va actualiza și completa periodic lista sistemelor de inteligență artificială cu riscuri inacceptabile pe baza evaluării riscurilor, a tendințelor tehnologice și a cerințelor practice de management. Potrivit acesteia, acest mecanism garantează că legea nu devine depășită și poate răspunde rapid la noile riscuri.”
Evitarea abuzului de inteligență artificială
Deputatul Tran Khanh Thu (Hung Yen) a ridicat problema utilizării inteligenței artificiale în sprijinul examinărilor și tratamentelor medicale, afirmând că IA nu numai că ajută la optimizarea proceselor din industria medicală, reducând volumul de muncă pentru medici și profesioniștii din domeniul sănătății, dar joacă și un rol important în personalizarea tratamentului, îmbunătățind astfel rezultatele asistenței medicale și crescând eficiența utilizării resurselor. Cu toate acestea, aplicarea IA pentru detectarea semnelor de sănătate este uneori contraproductivă.

Delegata a citat exemplul real al unui pacient în vârstă de 55 de ani din orașul Ho Și Min, care se afla într-o stare letargică atunci când a fost adus la spital. Înainte de aceasta, familia pacientului folosea inteligența artificială pentru a diagnostica, apoi mergea să cumpere medicamente pentru pacient. După utilizarea medicamentelor, starea pacientului s-a agravat, iar când a fost dus la spital, i s-a diagnosticat cu leziuni cerebrale, accident vascular cerebral și sechele inevitabile.
„Absolut, oamenii nu ar trebui să folosească rezultatele căutării pentru a diagnostica sau prescrie medicamente. Totuși, încalcă legea persoanele care vând medicamente conform prescripțiilor bazate pe inteligență artificială?”, s-a întrebat deputatul Tran Khanh Thu, care a sperat că în acest proiect de lege privind inteligența artificială vor exista prevederi juridice mai specifice pentru gestionarea produselor de inteligență artificială în sectorul sănătății, în special în ceea ce privește responsabilitățile părților relevante.
În ceea ce privește trecerea de la auditul post-audit la auditul pre-audit din proiectul de lege, deputatul Tran Khanh Thu a sugerat că ar trebui să existe un prag cantitativ clar, de exemplu, atunci când modelul își modifică algoritmul, crește dimensiunea utilizatorului sau datele de antrenament depășesc un anumit prag.

Analizând mai departe „abuzul de IA”, deputatul Pham Trong Nghia (Lang Son) a declarat că, dacă depindem prea mult de IA în viața noastră, aceasta ne va reduce capacitatea de gândire și creativitatea. Abuzul de IA are multe potențiale instabilități, cum ar fi: încălcarea suveranității naționale, reducerea eficacității administrației publice și afectarea negativă a fiecărui individ și a fiecărei familii, în special a tinerei generații.
„Pentru sectorul public, abuzul de IA reduce fezabilitatea, umanitatea și eficacitatea politicilor și legilor. Furnizarea de informații și date sensibile către IA, dacă nu este strict controlată, poate duce la scurgeri de date, dăunând securității naționale și ordinii și siguranței sociale cu consecințe imprevizibile”, a declarat deputatul Pham Trong Nghia, care a propus adăugarea unei prevederi la proiectul de lege care să stipuleze actele interzise, inclusiv interzicerea abuzului de IA în sectorul public.
Sursă: https://www.sggp.org.vn/can-co-che-danh-gia-rui-ro-lien-quan-toi-ai-post825783.html






Comentariu (0)