Vietnam.vn - Nền tảng quảng bá Việt Nam

Kunngjøringen av loven om kunstig intelligens er en presserende sak.

(GLO) – Delegat Dong Ngoc Ba (medlem av nasjonalforsamlingens delegasjon i Gia Lai-provinsen) deltok i diskusjonsgruppen om prosjektet om lov om kunstig intelligens og sa at kunngjøringen av loven i den nåværende situasjonen er svært nødvendig og haster.

Báo Gia LaiBáo Gia Lai22/11/2025

Ifølge delegat Dong Ngoc Ba vil kunngjøringen av loven om kunstig intelligens (KI) bidra til å skape et enhetlig og synkront juridisk grunnlag, både for å fremme utvikling og for å sikre effektiv risikostyring i forskning, utvikling og bruk av KI, og for å oppfylle kravene til sosioøkonomisk utvikling i den digitale tidsalderen.

luat-tri-tue-nhan-tao-1.jpg
Deputert Dong Ngoc Ba sa at kunngjøringen av loven om kunstig intelligens i dagens situasjon er svært nødvendig og haster. Foto: Delegasjonen fra den provinsielle nasjonalforsamlingen

Delegaten sa at lovutkastet har vært svært aktivt og ansvarlig, og at lovutkastet har studert og mottatt mange meninger fra det behandlende byrået og relevante etater for å fullføre lovutkastet. Delegaten satte stor pris på mye av innholdet som er blitt tatt opp og revidert i det nye utkastet.

Samtidig anbefales det å fortsette gjennomgangen og justeringene, spesielt for å sikre konsistens og synkronisering med relaterte lover som sivilloven, lov om produkt- og varekvalitet, lov om åndsverk, lov om høyteknologi og lov om standarder og tekniske forskrifter; og sikre ny lovgivningstenkning og lovgivningsteknikker.

I tillegg kom stedfortreder Dong Ngoc Ba også med noen spesifikke anbefalinger.

Lovforslaget om kunstig intelligens (artikkel 7 til 11) fastsetter klassifiseringen av risikostyring av KI-systemer i fire nivåer: lav risiko, middels risiko, høy risiko og uakseptabel risiko.

Nestleder Ba sa at gitt AIs natur, dersom AI-systemet anses som en type produkt eller vare, er bestemmelsene i lovutkastet urimelige og inkonsekvente, og ikke forenlige med bestemmelsene i loven om produkt- og varekvalitet (som deler produkter og varer inn i tre grupper: lav risiko, middels risiko og høy risiko).

Det anbefales derfor at det utkastende organet nøye undersøker og klassifiserer AI-systemer på en måte som er i samsvar med loven om produkt- og varekvalitet (3 risikonivåer) for å legge til rette for implementeringen.

«Når det gjelder et KI-system med « uakseptabel risiko», bør dette behandles som en forbudt aktivitet, og bør spesifikt reguleres som et forbud i lovutkastet. Det er nødvendig å legge til andre forbudte handlinger innen forskning, utvikling og bruk av KI (for eksempel: bruk av KI til å krenke nasjonal sikkerhet, bruk av KI til å diskriminere basert på biometriske data, osv.) for å sikre fullstendighet og strenghet» – foreslo representant Ba.

Når det gjelder ansvaret for erstatning for skade forårsaket av KI-systemer, fastsetter artikkel 30 i punkt a, paragraf 3, i lovutkastet om kunstig intelligens: «For KI-systemer med høy risiko: Ved skade som følge av brudd på forvaltningen og bruken av KI-systemer, må den krenkende organisasjonen eller personen kompensere for skaden i henhold til sivilrettslige bestemmelser.»

I henhold til paragraf 1, artikkel 601 i den sivile loven, omfatter kilder til ekstrem fare motorvogner, kraftoverføringssystemer, industrianlegg i drift, våpen, eksplosiver, brannfarlige stoffer, giftige stoffer, radioaktive stoffer, ville dyr og andre kilder til ekstrem fare som foreskrevet i loven.

Ifølge assisterende representant Dong Ngoc Ba skiller sivilloven mellom erstatning for skade forårsaket av en kilde til høy fare og andre tilfeller, spesielt når det gjelder skyldfaktoren ved fastsettelse av erstatningsansvar. Med bestemmelsene i lovutkastet om kunstig intelligens i punkt a, paragraf 3, artikkel 30 ovenfor, er det uklart om et «høyrisiko-KI-system» er en «kilde til høy fare» eller ikke. Samtidig har et høyrisiko-KI-system, når det gjelder teknisk og teknologisk art, karakteren av en kilde til høy fare.

Delegaten foreslo derfor å studere og revidere bestemmelsene i punkt a, paragraf 3, artikkel 30 i lovutkastet om kunstig intelligens i retning av å definere høyrisiko-KI-systemer som kilder til ekstrem fare, for å ha et grunnlag for å anvende forskrifter om erstatningsansvar for skader forårsaket av KI-systemer i henhold til bestemmelsene i sivilloven.

Når det gjelder innovasjon i tenkning og lovgivningsteknikker, foreslo representant Ba en gjennomgang for å sikre at loven om kunstig intelligens ikke regulerer saker under regjeringens myndighet. Mer spesifikt, i kapittel VI (inspeksjon, undersøkelse og håndtering av brudd), vurder å ikke regulere spesialiserte inspeksjoner, men overlate dem til regjeringen å regulere i henhold til sin myndighet. Gjennomgå kapittel VII (statlig forvaltning av AI), fjern forskrifter under regjeringens myndighet, for eksempel departementenes statlige forvaltningsansvar... Foreslå å slå sammen kapittel VI med kapittel VII, fordi inspeksjon, undersøkelse og håndtering av brudd i hovedsak er spesifikt innhold i statlig forvaltning av AI.

8eb5a0745c86d0d88997.jpg
Nestlederen for nasjonalforsamlingens delegasjon i Gia Lai- provinsen, Siu Huong, foreslo å bygge en mekanisme for å kompensere eller dele fordeler for forfattere når verkene deres brukes i trening av AI-modeller. Foto: Nasjonalforsamlingens delegasjon i Gia Lai-provinsen

Nestlederen for nasjonalforsamlingsdelegasjonen i Gia Lai-provinsen, Siu Huong, uttrykte interesse for regelverket om etikk og ansvar i AI-aktiviteter i kapittel 5.

Ifølge delegat Huong trenes mange AI-modeller for tiden ved å samle inn data, kunstverk og kreativt innhold fra internett uten forfatterens samtykke, og det finnes ingen mekanisme for å kompensere forfatteren. Dette utgjør en potensiell risiko for brudd på innholdsskapernes immaterielle rettigheter.

Delegaten foreslo derfor at utkastorganet vurderer å legge til en forskrift i kapittel 5 om at utviklere av AI-systemer må ha en tydelig tillatelsesmekanisme, som tillater innholdseiere å velge å samtykke til eller nekte å bruke arbeidet deres til AI-opplæringsformål. Samtidig bør forskningen utvikle en kompensasjons- eller fordelsdelingsmekanisme for forfattere når arbeidet deres brukes i AI-modellopplæring.

luat-tri-tue-nhan-tao-2.jpg
Delegat Nguyen Van Canh foreslo å tydelig skille mellom AI og et innsatsprodukt, et verktøy, et halvfabrikat eller et ferdig produkt. Foto: Delegasjon fra provinsens nasjonalforsamling

I diskusjonen tok representant Nguyen Van Canh (medlem av nasjonalforsamlingens delegasjon i Gia Lai-provinsen) opp spørsmålet fra perspektivet til en forbruker som er bekymret for bruk av «KI»-produkter. Dersom det oppstår en hendelse utenfor kontroll som forårsaker skade, vil forbrukeren være ansvarlig for kompensasjon.

Ifølge representant Canh forklarer ikke lovutkastet om kunstig intelligens begrepet «produkter som bruker KI-teknologi». Bare forbrukerne kjenner produktet, men bare forskere og vitenskapsmenn vet hva KI-teknologi er.

Vicepresident Canh foreslo å tydelig skille mellom kunstig intelligens og et innsatsprodukt, et verktøy, et halvfabrikat eller et ferdig produkt. Derfra vil det bli spesifikke regler om leverandørens ansvar.

«For eksempel er KI bare integrert i produktet. Når det oppstår skade, må selgeren av produktet ta fullt ansvar og kan ikke skylde på KI, fordi selskapet som lager KI selger den til meg, jeg har ingen kontroll over det», analyserte assisterende Canh.

Kilde: https://baogialai.com.vn/viec-ban-hanh-luat-tri-tue-nhan-tao-la-van-de-cap-bach-post573129.html


Kommentar (0)

No data
No data

I samme emne

I samme kategori

«To-null»-livet til folk i det oversvømte området Khanh Hoa på den femte dagen av flomforebyggingen.
Fjerde gang jeg ser Ba Den-fjellet tydelig og sjelden fra Ho Chi Minh-byen
Nyt Vietnams vakre natur i Soobins MV Muc Ha Vo Nhan
Kaffebarer med tidlig julepynt får salget til å skyte i været, og tiltrekker seg mange unge mennesker.

Av samme forfatter

Arv

Figur

Forretninger

Forbløffet over det vakre landskapet som et akvarellmaleri ved Ben En

Aktuelle hendelser

Det politiske systemet

Lokalt

Produkt