På morgenmøtet til den 10. nasjonalforsamlingen den 21. november presenterte vitenskaps- og teknologiminister Nguyen Manh Hung en rapport om lovutkastet om kunstig intelligens (KI), en lov som forventes å være et gjennombrudd i å skape en juridisk korridor for tidens grunnleggende teknologi.
Ifølge ministeren er lovens mål ikke bare å fremme innovasjon og styrke nasjonal konkurranseevne, men også å håndtere risikoer, beskytte menneskerettigheter, digital sikkerhet og suverenitet , og institusjonalisere viktig politikk fra partiet og staten om AI-utvikling.

Vitenskaps- og teknologiminister Nguyen Manh Hung.
En av kjerneåndene i lovutkastet er å sette mennesket i sentrum, med prinsippet: KI tjener mennesker, erstatter ikke mennesker, og mennesker beholder retten til å føre tilsyn med viktige beslutninger. KI må sikre åpenhet, ansvar og sikkerhet gjennom hele den operative livssyklusen.
Det nye punktet i utkastet er den risikobaserte styringsmetoden, som deler AI-systemer inn i ulike nivåer for å sikre fleksibilitet og oppmuntre til utvikling og bevegelse mot autonomi innen AI-teknologi.
Dette utkastet arver og opphever samtidig relaterte forskrifter i lov om teknologibransjen nr. 71/2025/QH15, og fyller dermed de manglende «hullene» for å bygge et synkront rettssystem for AI.
Lovutkastet gjelder både innenlandske og utenlandske individer og organisasjoner som utvikler, leverer, distribuerer eller bruker AI-systemer i Vietnam, eller lager AI-produkter som brukes i Vietnam.
Dette ville være i samsvar med den grenseoverskridende naturen til AI-teknologi og internasjonale plattformmodeller.
På vegne av tilsynsorganet sa lederen av komiteen for vitenskap, teknologi og miljø, Nguyen Thanh Hai, at det er rimelig å utforme loven i form av en rammelov.
Den raske utviklingen av AI gjør imidlertid risikoen for at loven må endres i løpet av kort tid «mulig».

Leder av komiteen for vitenskap, teknologi og miljø, Nguyen Thanh Hai.
Noen meninger foreslår å betrakte KI-loven som den "opprinnelige loven", hvorfra hver spesiallov må legge til et eget kapittel om KI for å synkronisere rettssystemet.
Komiteen ble i hovedsak enige om å klassifisere risikoer i fire nivåer: lav, middels, høy og uakseptabel. Utkastet gir imidlertid ikke klare kvantitative eller kvalitative kriterier, mangler forskrifter om styringstiltak og vurderingsverktøy, noe som fører til forvirring for bedrifter når de skal selvklassifisere risikoer og bekymringer om juridisk ansvar.
Kommisjonen anbefaler å gjennomgå og redusere forhåndsgodkjenningsprosedyrer, som krav til teknisk dokumentasjon eller driftslogger før produktsirkulering. Hvis regelverket er for strengt, vil samsvarskostnadene øke, innovasjon vil bli bremset og evnen til å tiltrekke seg investeringer vil bli redusert. Kommisjonens syn er at det er behov for et sterkt skifte til en ettergodkjenningsmekanisme, i tråd med den raskt skiftende naturen til AI.
Når det gjelder forslaget om å opprette en nasjonal komité for kunstig intelligens, ba granskningskomiteen om en avklaring av etableringsmyndigheten, driftsmekanismen og organisasjonsstrukturen. Denne modellen må knyttes tett til initiativ nr. 26 – «Å danne et nervesenter for forskning, opplæring og testing av kunstig intelligens».
Data er grunnlaget for AI, men lovutkastet fastsetter ennå ikke prinsippene for datakvalitet fullt ut. Komiteen foreslo å legge til et sett med kriterier som «korrekt – tilstrekkelig – ren – levende», og kreve at data er sammenkoblet og ikke spredt for å unngå å skape flaskehalser for AI-forskning og -utrulling.
I tillegg må det være obligatoriske forskrifter om sikkerhet, cybersikkerhet og nasjonalt forsvar av AI-systemer for å forhindre datalekkasjer eller kapring.
Leder av komiteen for vitenskap, teknologi og miljø, Nguyen Thanh Hai, foreslo å legge til en egen seksjon om bruk av AI i opplæring, forskning og innovasjon – et felt som skaper store gjennombrudd som «proteindesign», oppdagelse av nye materialer eller vitenskapelig simulering. Komiteen foreslo å legge til en egen seksjon om dette innholdet, inkludert: opphavsrett, sikkerhet for forskningsdata, datadeling, sandkassemekanisme og ansvarsfritak når regelverket overholdes.
Kommisjonen foreslo også å utvide utvalget av forbudte praksiser, med sikte på å identifisere og forebygge risikoer fra forsknings- til implementeringsfasen.
Forbudte handlinger inkluderer: bruk av AI til å oppildne til politikk, forstyrre sikkerheten, manipulere avstemninger og valg; bruk av AI til å lage falskt innhold, bilder og videoer for å svindle, fornærme ære, splitte samfunnet eller tjene andre dårlige formål, osv.
Kilde: https://mst.gov.vn/luat-tri-tue-nhan-tao-khuyen-khich-phat-trien-ai-trong-nuoc-197251130205559985.htm






Kommentar (0)