
Farfar Sonlig fromhet Jag håller med om regeringens strategi för att utforma denna lag. Detta lagförslag definierar också tydligt Vietnams strategi för artificiell intelligens. Den är både vänlig mot AI-utveckling och har regler för att säkerställa att de risker som AI kan medföra minimeras.
I sitt tal fokuserade Hieu på att ytterligare analysera bestämmelserna i artikel 20 i lagutkastet om kontrollerad testmekanism för att säkerställa genomförbarhet och skapa de mest gynnsamma förutsättningarna för utveckling av AI-system, särskilt inhemska AI-system.
Enligt herr Hieu är den kontrollerade testmekanismen för utveckling av artificiell intelligens oerhört viktig. Eftersom artificiell intelligens är en mycket ny fråga, relaterad till många olika områden, kan den, om den bara baseras på den nuvarande rättsliga ramen, inte skapa förutsättningar för AI-utveckling. Huvudsyftet med den kontrollerade testmekanismen för AI är att undanröja rättsliga hinder som hindrar AI-modeller, vilket möjliggör testning inom ett begränsat omfång för att erhålla data för att bevisa effektivitet och därigenom främja långsiktig regelreform. Denna metod är också mycket förenlig med vårt nuvarande lagstiftningstänkande, det vill säga att institutionen måste gå först och bana väg för utveckling; det som är känt hanteras, det som är okänt och oklart hanteras inte. Därför måste reglerna om den kontrollerade testmekanismen vara i fokus för den rättsliga ramen för artificiell intelligens. Därför behöver den utarbetande myndigheten studera och reglera mer specifikt om denna fråga i utkastet.
Angående specifika kommentarer föreslog Hieu att man skulle se över bestämmelserna om hur organisationer och individer som deltar i kontrollerade prövningar undantas eller om vissa efterlevnadsskyldigheter minskas i enlighet med artikel 20, paragraf 2 i denna lag. Sådana bestämmelser leder till att undantagets omfattning begränsas till bestämmelserna i denna lag, medan system för artificiell intelligens ofta är nära besläktade med andra relevanta rättsliga bestämmelser.
”Testningen av AI i självkörande fordon kommer att vara nära kopplad till förbuden i trafiksäkerhetslagen och lagen om skydd av personuppgifter. Till exempel är en AI-testmekanism i självkörande passagerarflygplan i Japan undantagen från vissa luftfartsregler. Eller så är testningen av självkörande bilar i Kina och Japan undantagen från bestämmelserna i lagen om skydd av personuppgifter, vilket innebär att bilddata som inte suddigar trafikdeltagarnas ansikten ska användas för att träna och öva AI-synen”, gav Hieu ett exempel och föreslog att den utarbetande myndigheten undersöker och reviderar bestämmelserna i klausul 2, artikel 20 i riktning mot att tydligt definiera de organisationer och individer som deltar i kontrollerad testning som är undantagna . eller minska vissa efterlevnadsskyldigheter som föreskrivs i denna lag och andra relevanta lagar.
Angående förordningen om att ge den statliga förvaltningsmyndigheten för artificiell intelligens i uppdrag att organisera mottagande, bedömning och behandling av underlag för att delta i kontrollerade testaktiviteter i enlighet med bedömnings- och snabbresponsprocessen , herr Hieu håller med om denna förordning, särskilt bestämmelsen om snabb bedömning och snabba svar. AI-system är inte bara en fråga om teknik och algoritmer, utan också en tvärvetenskaplig och tvärvetenskaplig fråga. Därför är bestämmelserna i klausul 5 förmodligen endast lämpliga för generella AI-system som generativ AI som ChatGPT och Gemini. När det gäller specialiserade AI-system är den tvärvetenskapliga karaktären mycket hög.
Farfar Sonlig fromhet Till exempel är DrAid-systemet en AI-produkt som stöder medicinsk bilddiagnostik utvecklad av företaget VinBrain . Om registreringen för testning genomförs kan hälsoministeriet inte undvika tillsyns- och ledningsrollen. Därför tilldelas i vissa länder ett tvärvetenskapligt råd utvärdering och licensiering av kontrollerad testning av AI-system. Därför rekommenderas att bestämmelserna i klausul 5 revideras i riktning mot att "Den statliga förvaltningsmyndigheten för artificiell intelligens ska leda och samordna med relevanta statliga förvaltningsmyndigheter för att organisera mottagande, utvärdering och behandling av underlag för deltagande i kontrollerad testverksamhet".
Farfar Hieu kommenterade också, Bestämmelserna i artikel 20 saknar fortfarande bestämmelser om ersättning och försäkringsansvar. Följaktligen gäller de nuvarande bestämmelserna i lagförslaget Det nämns inte vem som är ansvarig om testet orsakar skada för tredje part. Som en allmän regel måste testorganisationen eller individen betala civilrättslig ersättning om skada uppstår. Därför rekommenderas det att överväga att lägga till denna bestämmelse i utkastet.
" För att underlätta och uppmuntra innovationsandan anser vi dessutom att det är nödvändigt att undersöka och komplettera stödmekanismer för organisationer och individer som deltar i testning för att förebygga risker ." Till exempel kan en mekanism för att stödja ansvarsförsäkring innan tester utförs, eller så kan staten stödja en del av budgeten (genom olika fonder) för att uppmuntra deltagande i tester. Utan denna policymekanism kommer företag som utvecklar AI-system med hög risk (som självkörande bilar) och befinner sig i uppstartsfasen att vara ovilliga att testa, eftersom bara en olycka räcker för att leda till konkurs , sa Hieu.
Källa: https://daidoanket.vn/de-xuat-bo-sung-co-che-ho-tro-cho-cac-to-chuc-ca-nhan-tham-gia-thu-nghiem-ai.html






Kommentar (0)