Ettermiddagen 10. desember vedtok nasjonalforsamlingen loven om kunstig intelligens, med 429 av 434 fremmøtte delegater som stemte for (tilsvarende 90,7 % av det totale antallet delegater i nasjonalforsamlingen).
Loven om kunstig intelligens består av 8 kapitler og 35 artikler som regulerer forskning, utvikling, levering, utplassering og bruk av kunstig intelligens-systemer; rettigheter og plikter for relevante organisasjoner og enkeltpersoner; og statlig forvaltning av kunstig intelligens-aktiviteter i Vietnam. Kunstig intelligens-aktiviteter utelukkende for nasjonale forsvars-, sikkerhets- og kryptografiformål er ikke dekket av denne loven.

4 grunnleggende prinsipper i kunstig intelligens-operasjoner
I følge loven som nylig ble vedtatt av nasjonalforsamlingen, må kunstig intelligens-aktiviteter sikre samsvar med fire grunnleggende prinsipper, inkludert:
Å sette mennesket i sentrum, sikre menneskerettigheter, personvernrettigheter, nasjonale interesser, offentlige interesser og nasjonal sikkerhet; overholde grunnloven og lover.
Kunstig intelligens tjener menneskeheten, og erstatter ikke menneskelig autoritet og ansvar. Den sikrer opprettholdelse av menneskelig kontroll og evnen til å gripe inn i alle beslutninger og atferd i kunstig intelligens-systemet; systemsikkerhet, datasikkerhet og informasjonskonfidensialitet; og evnen til å inspisere og overvåke systemets utvikling og drift.
Sikre rettferdighet, åpenhet, upartiskhet, ikke-diskriminering og ingen skade på enkeltpersoner eller samfunnet; overholde vietnamesiske etiske standarder og kulturelle verdier; og være ansvarlig for systemets beslutninger og konsekvenser.
Fremme utviklingen av grønn, inkluderende og bærekraftig kunstig intelligens; oppmuntre til utvikling og anvendelse av kunstig intelligens-teknologier som er energieffektive, ressursbesparende og reduserer negative miljøpåvirkninger.
Klassifisering og håndtering av AI-systemer basert på risiko.
Loven om kunstig intelligens fastsetter klassifisering og håndtering av kunstig intelligens-systemer i henhold til tre risikonivåer: høy, middels og lav.
Høyrisikosystemer for kunstig intelligens er de som kan forårsake betydelig skade på liv, helse, legitime rettigheter og interesser til organisasjoner og enkeltpersoner, nasjonale interesser, offentlige interesser og nasjonal sikkerhet;
Et kunstig intelligens-system med middels risiko er et system som har potensial til å forvirre, påvirke eller manipulere brukere fordi de ikke er i stand til å gjenkjenne at den samhandlende enheten er et kunstig intelligens-system eller innholdet det genererer;
De gjenværende systemene for kunstig intelligens er de med lav risiko.
Risikoklassifiseringen av kunstig intelligens-systemer bestemmes basert på kriterier som nivået av påvirkning på menneskerettigheter, sikkerhet og trygghet; systemets bruksområde, spesielt viktige områder eller de som er direkte relatert til offentlig interesse; omfanget av brukere; og omfanget av systemets innflytelse.

Forbudt atferd i kunstig intelligens-operasjoner
Loven om kunstig intelligens fastsetter også forbudte handlinger i forbindelse med kunstig intelligens-aktiviteter, nærmere bestemt:
Å utnytte eller kapre kunstig intelligens-systemer for å begå ulovlige handlinger og krenke organisasjoners og enkeltpersoners legitime rettigheter og interesser.
Utvikle, tilby, distribuere eller bruke kunstig intelligens-systemer med det formål å: utføre handlinger som er forbudt ved lov; bruke forfalskede eller simulerte virkelige personer eller hendelser for å lure eller manipulere menneskelig oppfatning og atferd med vilje og systematikk, noe som forårsaker alvorlig skade på menneskerettigheter og legitime interesser; utnytte svakhetene til sårbare grupper, inkludert barn, eldre, personer med funksjonsnedsettelser, etniske minoriteter eller personer med nedsatt eller begrenset sivil kapasitet, eller personer med kognitive vansker eller problemer med atferdskontroll, for å skade seg selv eller andre; lage eller spre forfalsket innhold som kan sette nasjonal sikkerhet, offentlig orden og sosial trygghet i alvorlig fare.
Innsamling, behandling eller bruk av data for å utvikle, trene, teste eller drifte kunstig intelligens-systemer i strid med lover om data, beskyttelse av personopplysninger, immaterielle rettigheter og cybersikkerhet.
Å hindre, deaktivere eller forvrenge de menneskelige mekanismene for overvåking, intervensjon og kontroll av kunstig intelligens-systemer som fastsatt i denne loven.
Å skjule informasjon som må opplyses, offentliggjøres eller forklares; å slette eller forfalske obligatorisk informasjon, etiketter eller advarsler i operasjoner med kunstig intelligens.
Å utnytte forsknings-, test-, evaluerings- eller verifiseringsaktiviteter knyttet til kunstig intelligens-systemer til å utføre handlinger som bryter loven.
Kilde: https://nhandan.vn/cam-su-dung-he-thong-ai-tao-noi-dung-gia-mao-gay-nguy-hai-an-ninh-quoc-gia-post929261.html






Kommentar (0)