
Farfar Sønlig fromhet Jeg er enig i regjeringens tilnærming til å utarbeide denne loven. Dette lovutkastet definerer også tydelig Vietnams tilnærming til kunstig intelligens. Det er både vennlig innstilt til AI-utvikling og har forskrifter som sikrer at risikoen som AI kan medføre minimeres.
I talen sin fokuserte Hieu på å analysere bestemmelsene i artikkel 20 i lovutkastet om kontrollert testmekanisme ytterligere for å sikre gjennomførbarhet og skape de gunstigste forholdene for utvikling av AI-systemer, spesielt innenlandske AI-systemer.
Ifølge Hieu er den kontrollerte testmekanismen for utvikling av kunstig intelligens ekstremt viktig. Fordi kunstig intelligens er et helt nytt problem, knyttet til mange forskjellige felt, kan den ikke, om den bare er basert på det nåværende juridiske rammeverket, skape forutsetninger for AI-utvikling. Hovedformålet med den kontrollerte testmekanismen for AI er å fjerne juridiske barrierer som hindrer AI-modeller, slik at testing innenfor et begrenset omfang kan innhente data for å bevise effektivitet, og dermed fremme langsiktig regelverksreform. Denne metoden er også veldig i samsvar med vår nåværende lovgivningstenkning, det vil si at institusjonen må gå først for å bane vei for utvikling; det som er kjent, styres, det som er ukjent og uklart, styres ikke. Derfor må forskriftene om den kontrollerte testmekanismen være fokuset i det juridiske rammeverket for kunstig intelligens. Derfor må det utkastende organet studere og regulere mer spesifikt om dette spørsmålet i utkastet.
Angående spesifikke kommentarer foreslo Hieu å gjennomgå regelverket for organisasjoner og enkeltpersoner som deltar i kontrollerte studier, som får unntak eller redusert noen samsvarsforpliktelser, som foreskrevet i denne loven i paragraf 2 i artikkel 20. Slike forskrifter fører til at omfanget av unntaket begrenses til bestemmelsene i denne loven, mens kunstig intelligens-systemer ofte er nært knyttet til andre relevante lovbestemmelser.
«Testing av AI i selvkjørende kjøretøy vil være nært knyttet til forbudene i trafikksikkerhetsloven og personvernloven. For eksempel er en AI-testmekanisme i selvkjørende passasjerfly i Japan unntatt fra noen luftfartsforskrifter. Eller testing av selvkjørende biler i Kina og Japan er unntatt fra bestemmelsene i personvernloven, som er å bruke bildedata som ikke gjør ansiktene til trafikkdeltakere uskarpe for å trene og lære opp AI-synet», ga Hieu et eksempel og foreslo at det utkastende organet undersøker og reviderer bestemmelsene i paragraf 2, artikkel 20 i retning av å tydelig definere organisasjonene og individene som deltar i kontrollert testing som er unntatt . eller redusere visse samsvarsforpliktelser som er foreskrevet i denne loven og andre relevante lover.
Angående forskriften om å gi det statlige forvaltningsorganet for kunstig intelligens til å organisere mottak, vurdering og behandling av dossierer for å delta i kontrollerte testaktiviteter i henhold til vurderings- og hurtigresponsprosessen , herr Hieu enig i denne forskriften, spesielt bestemmelsen om rask vurdering og respons. Imidlertid AI-systemer er ikke bare et spørsmål om teknologi og algoritmer, men også et tverrfaglig og tverrfaglig anliggende. Derfor er bestemmelsene i paragraf 5 sannsynligvis bare egnet for generelle AI-systemer som generativ AI som ChatGPT og Gemini. Når det gjelder spesialiserte AI-systemer, er den tverrfaglige naturen svært høy.
Farfar Sønlig fromhet For eksempel er DrAid-systemet et AI-produkt som støtter medisinsk bildediagnostikk utviklet av VinBrain-selskapet . Dersom registreringen for testing gjennomføres, kan ikke Helsedepartementet unngå tilsyns- og styringsrollen. Derfor er vurdering og lisensiering av kontrollert testing av AI-systemer i noen land tildelt et tverrfaglig råd. Det anbefales derfor å revidere bestemmelsene i punkt 5 i retning av at «Statens forvaltningsorgan for kunstig intelligens skal lede og koordinere med relevante statlige forvaltningsorganer for å organisere mottak, vurdering og behandling av dossierer for deltakelse i kontrollerte testaktiviteter».
Farfar Hieu kommenterte også, Bestemmelsene i artikkel 20 mangler fortsatt bestemmelser om erstatning og forsikringsansvar. Følgelig gjelder de nåværende bestemmelsene i lovutkastet Det nevnes ikke hvem som er ansvarlig dersom testen forårsaker skade på en tredjepart. Som hovedregel må testorganisasjonen eller enkeltpersonen betale sivilrettslig erstatning dersom det oppstår skade. Derfor anbefales det å vurdere å legge til denne bestemmelsen i utkastet.
« I tillegg, for å legge til rette for og oppmuntre til innovasjonsånd, mener vi at det også er nødvendig å forske på og supplere støttemekanismer for organisasjoner og enkeltpersoner som deltar i testing for å forebygge risikoer .» For eksempel kan en mekanisme for å støtte ansvarsforsikring før testing utføres, eller staten kan støtte deler av budsjettet (gjennom ulike fond) for å oppmuntre til deltakelse i testing. Uten denne politiske mekanismen vil bedrifter som utvikler høyrisiko-KI-systemer (som selvkjørende biler) og er i oppstartsfasen være motvillige til å teste, fordi bare én ulykke er nok til å føre til konkurs , sa Hieu.
Kilde: https://daidoanket.vn/de-xuat-bo-sung-co-che-ho-tro-cho-cac-to-chuc-ca-nhan-tham-gia-thu-nghiem-ai.html






Kommentar (0)