Vietnam.vn - Nền tảng quảng bá Việt Nam

Kunstig intelligens må operere innenfor juridiske og etiske rammer.

I morges, 21. november, under en diskusjon i gruppe 6 (inkludert nasjonalforsamlingsdelegasjonen fra Lang Son, Dong Nai, Hue City) om lovprosjektet for kunstig intelligens, sa representantene fra nasjonalforsamlingen at for å fullføre lovprosjektet med mål om å styre og fremme forskning og utvikling av kunstig intelligens i Vietnam, er det nødvendig å avklare viktige spørsmål som: inndata, immaterielle rettigheter, anvendelsesområde, risikoklassifisering, brukeransvar og etikk knyttet til kunstig intelligens...

Báo Đại biểu Nhân dânBáo Đại biểu Nhân dân21/11/2025



Behov for å designe en moderne, synkron AI-styringsmekanisme

Representantene i nasjonalforsamlingen uttrykte sin godkjennelse av tilnærmingen til utarbeidelsen av denne loven som en rammelov for å forvalte og fremme forskning, utvikling, utplassering og bruk av kunstig intelligens i Vietnam, og satte stor pris på regjeringens forberedelser. Lovforslaget var omhyggelig utformet og sikret samsvar med regelverket. Samtidig er forslaget om å avskaffe en rekke relaterte artikler og klausuler i loven om digital teknologiindustri nødvendig for å unngå overlapping, og skape et enhetlig juridisk grunnlag for å forvalte og fremme AI-utvikling. For å fullføre dette lovprosjektet ba imidlertid representantene utkastkomiteen om å fortsette å gjennomgå og endre, supplere og avskaffe en rekke artikler og klausuler på passende måte.

Gruppe 6 (Hue, Lang Son, Dong Nai)

Scene fra gruppe 6-møtet om morgenen 21. november. Foto: Ho Long

Spesielt angående omfanget av reguleringen og gjeldende emner, sa nasjonalforsamlingsrepresentant Pham Trong Nghia (Lang Son) at det er nødvendig å fortsette å avklare dette spørsmålet. Fordi bestemmelsene knyttet til "forskningsaktiviteter" i utkastet for øyeblikket risikerer å overlappe med innholdet som allerede er regulert av loven om vitenskap , teknologi og innovasjon. Samtidig har ikke utkastet en spesifikk policy for å fremme forskning på kunstig intelligens-systemer, og har ikke klart definert emnene som utfører denne aktiviteten. Derfor foreslo delegaten å avklare hvilke aktiviteter som er innenfor lovens virkeområde, hvilke aktiviteter som er underlagt gjeldende lov for å sikre gjennomførbarhet, konsistens og unngå overlapping.

Nestleder for nasjonalforsamlingen Pham Trong Nghia (Lang Son)

Representant i nasjonalforsamlingen, Pham Trong Nghia ( Lang Son ), gir kommentarer til lovutkastet om kunstig intelligens. Foto: Ho Long

Når det gjelder forklaringen av begrepene, la nasjonalforsamlingsmedlem Pham Trong Nghia spesiell vekt på konseptet «finjustering» i den generelle kunstig intelligens-modellen. Representanten sa at dette er et spesialisert begrep som ennå ikke er populært, så innholdet må defineres tydelig for å legge til rette for senere anvendelse og håndheving av loven. Utkastet inneholder foreløpig bare én setning om den nasjonale komiteen for kunstig intelligens, som ikke tydelig viser: juridisk stilling; funksjoner, oppgaver, fullmakter; organisasjonsstruktur, driftsmekanisme; forhold til departementer og grener. Følgelig foreslo representanten å avklare nødvendigheten av å opprette denne institusjonen, og samtidig vurdere samsvar med politikken om å effektivisere apparatet i henhold til partiets regelverk. Dersom det skal opprettholdes, er det nødvendig å supplere regelverket eller gi regjeringen i oppgave å spesifisere ovennevnte problemstillinger i detalj.

Når det gjelder forbudte handlinger, sa delegatene at lovutkastet ennå ikke har fastsatt forbudte handlinger, men at dette er et viktig «juridisk skjold» for å beskytte menneskerettigheter, sikre rettferdig konkurranse og overholde internasjonale standarder. Samtidig fastsetter verdens avanserte lov om kunstig intelligens (KI) tydelig forbudte handlinger som misbruk av personopplysninger, systematisk diskriminering, bruk av KI til skadelige formål osv. Derfor foreslås det å legge til en egen artikkel om forbudte handlinger, basert på prinsippene: åpenhet, sikkerhet, ansvarlighet, menneskelig tilsyn, rettferdighet, ikke-diskriminering og støtte til kontrollert innovasjon.

Nasjonalforsamlingsrepresentant Nguyen Thi Suu (Hue)

Nasjonalforsamlingsdelegat Nguyen Thi Suu (Hue by) talte på gruppediskusjonen om morgenen 21. november. Foto: Ho Long

Kommentarer til lovutkastet, representanter fra nasjonalforsamlingen Nguyen Thi Suu (Hue by) fokuserte på å analysere regelverk knyttet til infrastruktur, menneskelige ressurser og etisk rammeverk for kunstig intelligens – sentrale søyler som avgjør effektiviteten av å implementere loven i praksis.

Mer spesifikt, i kapittel III (artikkel 17 og 18) som regulerer infrastruktur for kunstig intelligens, sa delegatene at veikartet for implementering av nasjonal KI-infrastruktur, rollene til departementer, avdelinger, lokaliteter samt bedrifter og forskningsinstitutter i bygge- og driftsprosessen ikke har blitt klart definert. Delegatene foreslo å supplere en spesifikk implementeringsplan med tidslinjer, ansvar for hvert byrå og overvåkingsmekanisme for å sikre gjennomførbarhet når loven kunngjøres.

Når det gjelder utvikling av menneskelige ressurser (artikkel 24), sa delegat Nguyen Thi Suu at lovutkastet bare angir målene, men ikke har en reell støttemekanisme for opplæringsinstitusjoner og elever, som finansiering, internasjonale opplæringsstandarder eller fellesprogrammer med bedrifter og forskningsinstitutter. Derfor er det nødvendig å supplere stipendpolitikken, støtte opplæring og fremme offentlig-private partnerskap.

Angående det nasjonale etiske rammeverket for KI (artikkel 27), sa delegatene at gjeldende regelverk kun er prinsipielle og mangler mekanismer for overvåking, evaluering og håndtering av brudd, noe som gjør det vanskelig å sikre bindende praksis. Samtidig er begrepet «KI-etikk» ikke klart definert og har ikke tildelt spesifikke ansvarsområder for organisasjoner og enkeltpersoner ved brudd. Derfor foreslo delegatene å endre uttrykket «gjennomgang» til «offentlig» i forskriften om oppdatering av det etiske rammeverket; samtidig legge til bestemmelser om etablering av en nasjonal etikkmyndighet for KI som er ansvarlig for overvåking, evaluering og håndtering av brudd; fastsette samsvarsforpliktelser for organisasjoner og enkeltpersoner som utvikler eller driver høyrisiko-KI-systemer; bekrefte den juridisk bindende verdien av det etiske rammeverket for KI, der brudd kan bli gjenstand for administrative eller strafferettslige sanksjoner; og oppmuntre til deltakelse fra sosiale organisasjoner, akademia og bedrifter i aktivitetene med å bygge og evaluere KI-etikk. «Bare når ovennevnte mekanismer er fullført, kan det etiske rammeverket for KI være effektivt og sikre at teknologien utvikler seg i riktig retning, trygt og for mennesker», understreket delegat Nguyen Thi Suu.

Hva er ansvaret når AI gjør feil?

I en diskusjon om lovutkastet om kunstig intelligens sa nasjonalforsamlingsrepresentant Pham Nhu Hiep (Hue by) at kunstig intelligens skaper dyptgripende endringer innen det medisinske feltet, fra kirurgi og diagnose til vitenskapelig forskning. Delegaten viste til at fjernkirurgi har dukket opp i mer enn 20 år, og til dags dato er mange robotsystemer i stand til å utføre endoskopisk kirurgi uten direkte menneskelig inngripen. Med den raske teknologiutviklingen kan AI, hvis det blir tillatt, fullstendig overta noen kirurgiske trinn, og til og med true med å endre kirurgenes tradisjonelle rolle. Innen bildediagnostikk har AI blitt mye brukt på sykehus, inkludert Hue sentralsykehus, og støtter lesing av røntgenbilder, CT-skanninger og hjernefilmer.

Nasjonalforsamlingsrepresentant Pham Nhu Hiep (Hue)

Nasjonalforsamlingsrepresentant Pham Nhu Hiep (Hue by) ga sin mening om lovutkastet om kunstig intelligens i gruppe 6. Foto: Ho Long

Delegatene understreket imidlertid behovet for ansvarlighet når AI gjør feil. For tiden må alle AI-resultater fortsatt kontrolleres og verifiseres av klinikere og radiologer. Når resultatene ikke samsvarer med den kliniske virkeligheten, vil legen redigere og oppdatere dem slik at AI-en kan fortsette å lære. Denne «passive læringsprosessen» brukes av mange sykehus, men et tydelig juridisk rammeverk er fortsatt nødvendig for å sikre pasientsikkerheten.

Delegat Pham Nhu Hiep uttrykte også bekymring for AIs innvirkning på vitenskapelig forskning, ettersom programvare for plagiatkontroll har blitt populært, og noen AI-verktøy kan nå skrive nesten en hel doktoravhandling på bare én dag basert på de leverte dataene. Dette utgjør en stor utfordring for forskningsetikk og vitenskapelig integritet, og bør vurderes for inkludering i spesialiserte juridiske forskrifter.

Når det gjelder det juridiske ansvaret til AI-leverandører (artikkel 13), foreslo delegatene å tydeliggjøre den ansvarlige enheten når AI-systemer forårsaker hendelser eller ulykker. Tilfellet med selvkjørende biler er et typisk eksempel: Hvis en kollisjon inntreffer, er det nødvendig å avgjøre systemets, produsentens eller driftsledelsens ansvar. Delegaten viste til Tesla-bilulykken i 2015 som tvang produsenten til å betale stor erstatning, og bekreftet at AI ikke kan være ansvarlig alene, men at ansvaret må ligge hos mennesker – organisasjonene og individene som designer, produserer og tar systemet i bruk.

Med henvisning til konseptet KI-etikk, som brukes av mange land for å bestemme hvilke KI-handlinger som er tillatt og ikke tillatt å utføre, erkjente delegaten Pham Nhu Hiep også at i sammenheng med KI-systemer som har evnen til å selvlære, selvtenke og til og med gå utover produsentens opprinnelige grenser, må utvikling og drift av KI plasseres innenfor det juridiske og etiske rammeverket. Dette er ikke bare for å sikre samfunnets sikkerhet, men også for å skape et grunnlag for en sunn utvikling av KI-industrien i Vietnam.

For å håndtere AI effektivt, må inndata og immaterielle rettigheter avklares.

Nasjonalforsamlingsrepresentant Trinh Xuan An (Dong Nai) var enig i de ovennevnte synspunktene og kom også med en rekke dyptgripende kommentarer knyttet til lovutkastet om kunstig intelligens, med fokus på hovedgrupper av problemstillinger: inndata, immaterielle rettigheter, anvendelsesområde, risikostyringstilnærming og implementeringsmodell.

Medlem av nasjonalforsamlingen Trinh Xuan An (Dong Nai)

Nasjonalforsamlingsdelegat Trinh Xuan An (Dong Nai) taler i Gruppe 6 om morgenen 21. november. Foto: Ho Long

Når det gjelder inndata for AI, sa delegatene at data er grunnlaget for kunstig intelligens, men lovutkastet har ikke avklart dette innholdet. Forskrifter om data ligger for tiden under dataloven og loven om beskyttelse av personopplysninger. Hvis det ikke er spesifikt nevnt i denne loven, må det i det minste være en fullstendig referanse. Delegatene var enige i kravet om at data må være «korrekte – tilstrekkelige – rene – levende», men understreket behovet for å legge til kriteriet om at data må systematiseres og kontinuerlig oppdateres, fordi dette er en forutsetning for at AI skal kunne operere effektivt og trygt.

Når det gjelder immaterielle rettigheter, kommenterte nasjonalforsamlingsmedlem Trinh Xuan An at utkastets innhold fortsatt er for komplekst, mens AI er et menneskelig produkt og er nært knyttet til spørsmål om opphavsrett, eierskap, juridisk ansvar og etikk. Hvis ikke immaterielle rettigheter er avklart i loven, vil håndtering av AI bli svært vanskelig. Derfor anbefalte delegaten å endre åndsverksloven og samtidig regulere eierskapsspørsmål i denne loven.

Når det gjelder anvendelsesområdet, påpekte delegaten det ulogiske i artikkel 1 når loven utelukker bruk av kunstig intelligens til nasjonalt forsvar, sikkerhet, kryptografi og etterretning, men de følgende klausulene åpner for muligheten for justering dersom disse systemene brukes til andre formål. I det digitale miljøet er det vanskelig å skille kunstig intelligens til sikkerhets- og forsvars- og sivile formål, fordi kunstig intelligens samtidig kan støtte innen medisin, forsvarsindustrien eller ubemannede systemer. Derfor er utelukkelse etter felt ikke mulig. Delegaten foreslo å bygge et felles regelverk, i stedet for å dele opp etter bruksformål.

Dong Nai 1 Gruppe

Representanter fra nasjonalforsamlingen i Dong Nai-provinsen under diskusjonsmøtet til gruppe 6 om morgenen 21. november. Foto: Ho Long

Angående tilnærmingen til risikostyring og klassifisering, sa delegaten at utkastet «anvender» den europeiske styringsmodellen, noe som skaper unødvendige byrder i lys av Vietnams behov for å oppmuntre til utvikling av kunstig intelligens. Risikoklassifiseringen på fire nivåer slik den er i utkastet, er både komplisert og uforenlig med loven om produktkvalitet. Delegaten foreslo å klassifisere kun to grupper: risikable og risikofrie kunstig intelligens-produkter, og kombinere risikostyring med styring basert på produksjonseffektivitet og økonomisk innvirkning. Han sa også at forskriften om at bedrifter skal selvvurdere risikoer og gi myndighetene i oppgave å sette kriterier er «halvveis lukket, halvveis åpen» og vanskelig å implementere i praksis.

Når det gjelder implementeringsmodellen, uttrykte nasjonalforsamlingsmedlem Trinh Xuan An bekymring over forslaget om å opprette et ekstrabudsjettfinansiert fond og en nasjonal komité for AI. Ifølge delegaten er det nødvendig å nøye vurdere nødvendigheten av disse institusjonene, og unngå situasjonen med å "opprette fond og komiteer for alt", men med lav effektivitet. Hvis det virkelig er nødvendig, bør AI-fondet integreres i eksisterende fond, med unntak av spesielle tilfeller som fond som tjener nasjonalt forsvar og sikkerhet. Delegaten bemerket også at AI må knyttes til økonomisk aktivitet og initiativ fra bedrifter, så forvaltningsmodellen må strømlinjeformes og orienteres mot reell effektivitet.

Representant for nasjonalforsamlingen Bui Xuan Thong (Dong Nai)

Nasjonalforsamlingsdelegat Bui Xuan Thong (Dong Nai)

Nasjonalforsamlingsrepresentantene Nguyen Thi Nhu Y og Bui Xuan Thong (Dong Nai) var enige i ovennevnte oppfatning og understreket også det etiske rammeverket for bruk av kunstig intelligens. Ifølge delegat Bui Xuan Thong er den endelige avgjørelsen fortsatt menneskelig hvis det er fastsatt at brukere må være ansvarlige for avgjørelser tatt av AI. AI er bare et verktøy for å gi referanseinformasjon. Personen som tar den endelige avgjørelsen er ansvarlig for den avgjørelsen. Derfor bør det etiske rammeverket fokusere på menneskelig ansvar i bruk av informasjon fra AI, ikke på å fastsette at AI må være ansvarlig.

Når det gjelder spørsmålet om håndtering av brudd, sa delegatene at utkastet generelt sier at det kan håndteres administrativt, sivilt eller strafferettslig, men ikke er tydelig på ansvarsgrensene. Derfor anbefales det å tydelig definere hvilken atferd som vil være underlagt strafferettslig ansvar, hvilken atferd som vil være underlagt administrativt ansvar, og det spesifikke ansvaret til leverandøren, utvikleren og brukeren. Samtidig er det også nødvendig å supplere forbudt atferd og redesigne dette rammeverket for å gjøre det tydelig, både for å skape forutsetninger for AI-utvikling og for å tydelig definere ansvaret til relevante parter.


Kilde: https://daibieunhandan.vn/artificial-intelligence-must-operate-in-the-law-and-moral-system-10396524.html


Kommentar (0)

No data
No data

I samme emne

I samme kategori

Fjerde gang jeg ser Ba Den-fjellet tydelig og sjelden fra Ho Chi Minh-byen
Nyt Vietnams vakre natur i Soobins MV Muc Ha Vo Nhan
Kaffebarer med tidlig julepynt får salget til å skyte i været, og tiltrekker seg mange unge mennesker.
Hva er spesielt med øya nær den maritime grensen til Kina?

Av samme forfatter

Arv

Figur

Forretninger

Beundrer nasjonaldraktene til 80 skjønnheter som konkurrerer i Miss International 2025 i Japan

Aktuelle hendelser

Det politiske systemet

Lokalt

Produkt