Upprättande av specifika preferensgrupper för AI
Ledamoten Trinh Thi Tu Anh (Lam Dong) från nationalförsamlingen, som stödde utfärdandet av lagar om artificiell intelligens, betonade att detta är ett banbrytande steg för att göra Vietnam till ett av de första länderna i världen med en oberoende rättslig ram för den spetsteknologiska sektorn. Detta visar inte bara känsligheten för att hålla jämna steg med tidens trender, utan bidrar också till att positionera Vietnam på den globala digitala kartan och skapar en proaktiv inställning när man ger sig in på världens största teknologiska lekplats.

Många ledamöter i nationalförsamlingen höll också med om lagförslagets strategi för utveckling i kombination med ledning, med fokus på människor, respekt för integritet och hantering utifrån risknivåer. Enligt ledamoten i nationalförsamlingen Nguyen Thi Tuyet Nga ( Quang Tri ) måste lagförslaget säkerställa flexibilitet och harmoni med internationella standarder för att inte hindra innovation. Utfärdandet av en ramlag är optimalt, eftersom det hjälper till att fastställa grundläggande principer och detaljerade justeringar i dellagar så att när tekniken förändras snabbt säkerställs effektiv ledning utan att AI-utvecklingen bromsas.
Artikel 5 i lagförslaget anger många statliga policyer om AI, men det behövs mer fokus och tydlighet i policyerna. När delegaten Trinh Thi Tu Anh föreslog denna fråga påpekade hon att bestämmelserna i artikel 5 i lagförslaget endast anger principer och krav, inte specifika policyer, såsom bestämmelsen " Staten genomför policyn för att utveckla AI för att bli en drivkraft för tillväxt... " i klausul 1; eller " Staten som förvaltar AI-verksamhet måste säkerställa fullständig efterlevnad av principerna... " i klausul 2; " Statliga myndigheter prioriterar tillämpningen av AI... " i klausul 5, artikel 5 i lagförslaget.
Delegaten Trinh Thi Tu Anh uppgav att staten, mot bakgrund av den snabba utvecklingen och tillämpningen av AI och dess djupgående inverkan på alla områden i livet, behöver prioritera ett antal viktiga strategier för att skapa en "språngbräda" för AI-utveckling. Följaktligen kan utveckling av datainfrastruktur och datorinfrastruktur prioriteras; utveckling av mänskliga resurser för AI prioriteras; skydd av mänskliga rättigheter, integritet och datasäkerhet, särskilt för AI-system med hög risk; byggande av ett etiskt ramverk och AI-styrning, säkerställande av transparens, ansvarsskyldighet och skydd av barn och utsatta personer från AI:s effekter. I synnerhet bör prioriteras stöd till innovativa företag genom förmånliga skatte- och kreditpolicyer för företag som forskar om och tillämpar AI och utvecklar AI-forskningscentra.
Med oro över artikel 21 i lagförslaget om politik för utveckling av ekosystem och artificiell intelligens föreslog nationalförsamlingsledamoten Nguyen Hoang Bao Tran (Ho Chi Minh City) att det borde finnas en specifik incitamentsmekanism för AI-sektorn. För närvarande föreskriver det nya lagförslaget generellt att "njut av incitament enligt relevanta lagar", medan kostnaderna för datoranvändning, data och modellutbildning för AI-utveckling alla är mycket stora. Delegaten föreslog att tre specifika incitamentsgrupper skulle fastställas i lagförslaget, inklusive: stöd för inhemska datoranvändningskostnader, stöd för modellutbildningskostnader och skatteincitament baserade på nivån av teknikbehärskning.

Lagförslaget har nämnt innehållet i att utveckla teknikbörser, men har ännu inte fastställt minimistandarder. ”Om börsen inte har en uppsättning standarder som beskriver tekniken, inte har en mekanism för att verifiera algoritmer innan erbjudanden görs, kommer börsen bara att existera i form.” Delegaten Nguyen Hoang Bao Tran påpekade denna verklighet och föreslog att lagförslaget bör fastställa minimikrav och ge regeringen i uppdrag att vägleda det tekniska genomförandet.
Definiera tydligt omfattningen av de aktiviteter som ska testas
Den kontrollerade testmekanismen som anges i artikel 22 i lagförslaget är ett mycket viktigt rättsligt verktyg för innovation. Lagförslaget stannar dock för närvarande vid nivån av regleringsprinciper och beskriver inte tydligt verksamhetsmodellen.
Angående ovanstående fråga sa delegaten Nguyen Hoang Bao Tran att det är nödvändigt att tydligt definiera omfattningen av de aktiviteter som ska testas, eftersom inte alla AI-lösningar behöver testas. Enligt delegaten bör det endast tillämpas på högriskmodeller som har stor inverkan på människor och företag. Om omfattningen inte är tydlig kommer testmekanismen att överbelastas och förlora sitt fokus.

Delegaten Nguyen Hoang Bao Tran föreslog också att det är nödvändigt att tydligt definiera företagens ansvar när risker uppstår under testprocessen. Lagförslaget måste bekräfta att företagen är ansvariga för att tillhandahålla fullständig information, varna för risker, rapportera regelbundet och hantera konsekvenserna när incidenter inträffar.
Samtidigt bör det finnas en specifik testperiod för att undvika situationen där testningen förlängs och sedan automatiskt blir en officiell aktivitet utan att utvärderas. Dessutom bör lagförslaget tydligt ange mekanismen för att utvärdera testets slut, kriterierna för övergången från testning till officiellt test och vilken behörig myndighet som ska fatta beslut. ”Att förtydliga detta innehåll kommer att bidra till att testmekanismen blir en drivkraft för innovation istället för att skapa en rättslig lucka”, sa delegaten Nguyen Hoang Bao Tran.
Lagförslaget anger tydligt att det inte kommer att finnas någon undantag från ansvar om företaget "avsiktligt bryter mot lagen". Med beaktande av denna bestämmelse är det dock, enligt delegaten Trinh Thi Tu Anh, nödvändigt att förtydliga begreppet "avsiktligt" i det specifika sammanhanget med AI-teknik. Till skillnad från traditionell programvara som körs på fasta kommandon, fungerar AI baserat på självinlärning och sannolikhet. Det finns fall där AI fattar felaktiga beslut som inte ens utvecklaren kan förutse på grund av algoritmens "svarta låde"-karaktär. Detta är en teknisk risk, inte en subjektiv mänsklig vilja.
För att ge företag sinnesro när de testar innovationer föreslog därför delegaten Trinh Thi Tu Anh att man skulle lägga till en förordning: " Incidenter som uppstår på grund av oförutsedda tekniska fel eller på grund av algoritmers osäkerhet under testning, om företag har följt säkerhetsrutinerna, kommer inte att betraktas som avsiktliga överträdelser ."
Källa: https://daibieunhandan.vn/du-thao-luat-tri-tue-nhan-tao-tao-be-phong-de-ai-phat-trien-10397416.html






Kommentar (0)