Som en fortsättning på det tionde sessionsprogrammet presenterade vetenskaps- och teknikminister Nguyen Manh Hung på morgonen den 21 november utkastet till lag om artificiell intelligens för nationalförsamlingen.

Vetenskaps- och teknikminister Nguyen Manh Hung.
Minister Nguyen Manh Hung sade att lagen innehåller systematiska och omfattande åtgärder för att balansera hantering och främjande av forskning, utveckling, spridning och tillämpning av artificiell intelligens (AI) i Vietnam.
” Lagen om artificiell intelligens sätter människan i centrum med den högsta principen att artificiell intelligens tjänar människorna, inte ersätter människorna, att människor övervakar artificiell intelligens i viktiga beslut. Artificiell intelligens måste vara transparent, ansvarsfull och säker ”, betonade Nguyen Manh Hung.
Befälhavaren för vetenskaps- och tekniksektorn uppgav att lagförslaget om hantering av artificiell intelligens-system enligt risknivåer uppmuntrar inhemsk utveckling av artificiell intelligens och autonomi inom artificiell intelligens, tar artificiell intelligens som en drivkraft för snabb och hållbar tillväxt och säkerställer nationell digital suveränitet .
Regeringen reglerar fyra risknivåer inom utveckling av artificiell intelligens, inklusive: oacceptabel (högsta nivå), hög risk, medelhög risk och låg risk.
För system med medelhög och hög risk måste leverantören anmäla detta till ministeriet för vetenskap och teknik. System med oacceptabla risker får inte utvecklas, levereras, driftsättas eller användas i någon form.
Regeringen föreslog också en lista över förbjudna aktiviteter som inkluderar system som används för handlingar som är förbjudna enligt lag, användning av falska element för att lura, manipulera och orsaka allvarlig skada, utnyttjande av svagheter hos utsatta grupper (barn, äldre etc.) eller skapande av falskt innehåll som allvarligt skadar den nationella säkerheten.
Enligt den plan som regeringen lagt fram kommer organisationer och individer som bryter mot detta område att bli föremål för disciplinära åtgärder, administrativa sanktioner eller straffrättsliga åtgärder. Om skada uppstår ska ersättning betalas enligt civilrättslig lag.
Vid flera deltagare (utveckling, leverans, implementering) måste de gemensamt ersätta. Ersättningsskyldigheten bestäms utifrån den faktiska nivån av kontroll, förutsägbarhet och riskhanteringsåtgärder som varje part har tillämpat.
Lagförslaget föreskriver en maximal administrativ böter på 2 miljarder VND för organisationer och 1 miljard VND för individer.
För allvarliga överträdelser kan det maximala bötesbeloppet vara upp till 2 % av organisationens omsättning föregående år. Vid upprepade överträdelser är det maximala bötesbeloppet upp till 2 % av organisationens globala omsättning föregående år.
Förutom att hantera överträdelser föreslog regeringen också många strategier för att stödja forskning, investeringar och utbildning av högkvalificerade mänskliga resurser, vilket skapar förutsättningar för företag, organisationer och individer att delta i utvecklingen och tillämpningen av artificiell intelligens.

Ordföranden för utskottet för vetenskap, teknik och miljö, Nguyen Thanh Hai, presenterade granskningsrapporten.
När ordföranden för utskottet för vetenskap, teknik och miljö, Nguyen Thanh Hai, presenterade granskningsrapporten sa han att utskottet i princip höll med om klassificeringen av risker i fyra nivåer (låga, medelhöga, höga och oacceptabla risker).
" Lagförslaget har dock inte tydligt definierade kvantitativa eller kvalitativa kriterier för att identifiera och klassificera risker, och innehåller inga bestämmelser om hanteringsåtgärder, verktyg och metoder för riskbedömning, så riskklassificering och självklassificering är svåra, vilket leder till oro kring det juridiska ansvaret vid genomförandet ", sa Nguyen Thanh Hai.
När det gäller föreskrifter före förbesiktning föreslog revisionsmyndigheten att man skulle se över och minska föreskrifterna för förbesiktning, såsom krav på tekniska dokument och driftsloggar innan produkter tas i omlopp, vilket kommer att öka efterlevnadskostnaderna, bromsa innovationsprocessen och AI-tillämpningen, minska konkurrenskraften och investeringsattraktionen, och man behöver studera en stark övergång till en mekanism för efterbesiktning.
När det gäller den nationella databasen över system för artificiell intelligens och databaser som tjänar artificiell intelligens föreslog utskottet för vetenskap, teknik och miljö att man skulle lägga till kärnprinciper för att säkerställa kvaliteten på data som tjänar AI, såsom att data måste vara "korrekta - tillräckliga - tydliga - levande" och delas på ett enhetligt sätt.
Dessutom, enligt inspektionsmyndigheten, behövs det en mekanism för sammankoppling och datadelning för att förhindra att data sprids, vilket skapar flaskhalsar i AI-forskning och -utveckling; och obligatoriska principer för att säkerställa nätverkssäkerhet, datasäkerhet och försvar för nationell AI-infrastruktur, vilket förhindrar risken för kapning och dataläckage.
När det gäller de inblandade parternas rättsliga ansvar kan handlingar och fel som begås av människor också utföras av AI. Samtidigt finns det många olika synpunkter på AI:s rättsliga ansvar, så det är svårt att fastställa ansvar i traditionell mening. När en incident inträffar kommer det att orsaka tvister om administrativt, civilrättsligt och straffrättsligt ansvar.
” Det är därför nödvändigt att komplettera principerna för att skilja på ansvar mellan subjekt och närstående parter, inklusive utländska leverantörer, vid tillhandahållande av gränsöverskridande AI-tjänster och skilja mellan avsiktliga och oavsiktliga fall eller fel på grund av tekniska begränsningar och oförutsebara situationer”, sa ordföranden för utskottet för vetenskap, teknik och miljö.
Beträffande förbjudna handlingar föreslog inspektionsmyndigheten att komplettera föreskrifterna om förbjudna handlingar för att bidra till tidig identifiering av överträdelser från forskningsstadiet till införandet av AI-användning.
Detta måste inkludera beteendet hos användare, organisationer och individer som utnyttjar AI för att utföra förbjudna handlingar i följande riktningar: Förbjuda användningen av AI för att orsaka oordning, uppvigla till politik, kränka nationell säkerhet, manipulera röster och val; Förbjuda användningen av AI för att skapa falskt innehåll, skapa bilder och videoklipp i syfte att tjäna bedrägeri, förolämpa heder och värdighet, orsaka splittring och andra onda syften.
Engelska






Kommentar (0)