Klassifisering av kunstig intelligens-systemer i fire risikonivåer
Om morgenen 21. november lyttet nasjonalforsamlingen til presentasjonen og rapporten om behandlingen av lovutkastet om kunstig intelligens.
Vitenskaps- og teknologiminister Nguyen Manh Hung presenterte rapporten og sa at lovutkastet er utformet for å skape en banebrytende juridisk korridor for kunstig intelligens, og skape et gunstig juridisk miljø for å fremme innovasjon, styrke nasjonal konkurranseevne og samtidig håndtere risikoer, beskytte nasjonale interesser, menneskerettigheter og digital suverenitet.

Vitenskaps- og teknologiminister Nguyen Manh Hung presenterte rapporten.
For å regulere systemer for kunstig intelligens har lovutkastet tatt i bruk en risikobasert styringstilnærming, som klassifiserer kunstig intelligens i fire nivåer og pålegger tilsvarende forpliktelser.
Kunstig intelligens-systemer er klassifisert i fire risikonivåer: Uakseptabel risiko: systemet har potensial til å forårsake alvorlig, uopprettelig skade.
Høy risiko er et system som kan forårsake skade på liv, helse, rettigheter og legitime interesser. Middels risiko er et system som har risiko for å forvirre, manipulere eller lure brukere. Lav risiko er de resterende tilfellene.
Leverandøren må selvklassifisere systemet før sirkulasjon og er ansvarlig for klassifiseringsresultatene.
For systemer med middels og høy risiko må leverandøren varsle Vitenskaps- og teknologidepartementet via One-Stop-portalen. Vedkommende myndighet har rett til å gjennomgå og revurdere klassifiseringen.
Loven fastsetter ansvar for åpenhet, merking og ansvarlighet. Mer spesifikt må den implementerende parten tydelig varsle og merke innhold som er laget eller redigert med falske elementer, simulerer ekte mennesker (deepfakes) som kan forårsake misforståelser, eller innhold laget av kunstig intelligens for kommunikasjons- og reklameformål.
Leverandører og implementører må forklare resultatene av håndtering av høyrisikosystemer når berørte parter ber om det.
Ved en hendelse er partene ansvarlige for å raskt korrigere, suspendere eller trekke tilbake systemet, og rapportere det via One-Stop-portalen. Av risikostyringsformål er det forbudt å utvikle, levere, distribuere eller bruke disse systemene i noen form, med uakseptabel risiko.
Den forbudte listen inkluderer systemer som brukes til handlinger som er forbudt ved lov, bruk av falske elementer for å lure, manipulere og forårsake alvorlig skade, utnyttelse av svakhetene til sårbare grupper (barn, eldre osv.), eller oppretting av falskt innhold som alvorlig skader nasjonal sikkerhet.
For høyrisikosystemer må høyrisikosystemet vurderes for egnethet før det sirkuleres eller tas i bruk.
Vurdering kan være i form av samsvarsbekreftelse (utført av et akkreditert organ) eller samsvarsovervåking (egenvurdering av leverandøren).
Statsministeren foreskriver listen over kunstig intelligens-systemer med høy risiko som tilsvarer hver form for vurdering.
Detaljerte forpliktelser er fastsatt for leverandøren (etablering av risikostyringstiltak, håndtering av opplæringsdata, utarbeidelse av teknisk dokumentasjon, sikring av menneskelig tilsyn) og implementøren (drift i henhold til tiltenkt formål, sikring av sikkerhet, oppfyllelse av åpenhetsforpliktelser).
Utenlandske leverandører med høyrisikosystemer må ha en autorisert representant i Vietnam, og må etablere en juridisk enhet i Vietnam dersom systemet er underlagt obligatorisk samsvarssertifisering.
For modeller med middels, lav risiko og flerbruksbruk må systemet med middels risiko sikre åpenhet og merking.
Utkastet fastsetter også ansvaret til utviklere og brukere av generelle kunstig intelligens-modeller for å sikre samsvar med vietnamesisk lov. Forsterkede forpliktelser gjelder for GPAI-modeller med systemisk risiko (potensial for vidtrekkende konsekvenser), inkludert konsekvensutredning, teknisk journalføring og varsling til Vitenskaps- og teknologidepartementet.
Imidlertid er åpen kildekode-modeller for generell bruk av AI unntatt fra disse utvidede forpliktelsene. Der en åpen kildekode-modell brukes til å utvikle et AI-system, må den brukerorganisasjonen utføre risikostyring for det systemet.
Vurder å bruke usynlig merking for å redusere kostnader
Fra et undersøkelsesperspektiv sa lederen av komiteen for vitenskap, teknologi og miljø, Nguyen Thanh Hai, at komiteen mener at merking av AI-produkter er et bindende etisk og juridisk ansvar for å bygge tillit i AI-æraen.

Leder av komiteen for vitenskap, teknologi og miljø, Nguyen Thanh Hai.
Komiteen er i utgangspunktet enig i merkebestemmelsene i lovutkastet, men anbefaler å henvise til internasjonal erfaring med AI-genererte produkter for å sikre egnethet med Vietnams praktiske forhold.
For produkter og maskinvareenheter med AI-applikasjoner (som kjøleskap, TV-er, vaskemaskiner osv.) anbefales det å undersøke og vurdere å bruke usynlige vannmerker for å redusere kostnader og prosedyrer, samtidig som håndtering og sporbarhet sikres.
Samtidig foreslås det å fastsette prinsippene for at regjeringen skal gi detaljerte instruksjoner om skjemaer, tekniske standarder og unntak i lovutkastet.
Det er et forslag om å endre merkeforskriften fra obligatorisk til anbefalt, med minimal teknisk veiledning.
Samtidig er det nødvendig å utprøve en frivillig merkemekanisme på en rekke felt; samtidig styrke kommunikasjonen for å unngå misforståelsen om at «ingen merkelapp betyr ikke et AI-produkt».
Når det gjelder risikoklassifisering, mener komiteen at klassifiseringen på fire nivåer, mens loven om produkt- og varekvalitet klassifiserer produkter og varer i tre typer, er inkonsekvent dersom KI anses som produkter og varer.
Forskrift om samsvarsertifisering for kunstig intelligens-systemer med høy risiko er ikke i samsvar med prinsippene for håndtering av høyrisikoprodukter og -varer som foreskrevet i loven om produkt- og varekvalitet.
Det anbefales derfor å fortsette å gjennomgå og nøye sammenligne bestemmelsene i lovutkastet med gjeldende lover.
Kilde: https://mst.gov.vn/de-xuat-dung-ai-de-truyen-thong-quang-cao-phai-dan-nhan-thong-bao-ro-197251125140252967.htm










Kommentar (0)