
Voorzitter van de Commissie voor Wetenschap, Technologie en Milieu (KHCN-MT) van de Nationale Assemblee, Nguyen Thanh Hai, presenteerde het rapport over de herziening van het wetsontwerp en zei dat de commissie het eens was met de noodzaak om de wet inzake kunstmatige intelligentie (AI) af te kondigen in de context van de opmerkelijke ontwikkeling van AI. Naast de snelle ontwikkeling, de steeds bredere toepassing en de positieve effecten, brengt AI ook veel uitdagingen met zich mee op economisch , maatschappelijk, veiligheids- en beveiligingsgebied; en potentiële risico's die moeilijk te voorspellen zijn.
De Commissie voor Wetenschap, Technologie en Milieu adviseert het opstelbureau om de mate van institutionalisering van het beleid en de richtingen van de Partij zorgvuldiger te blijven beoordelen en evalueren, met name op het gebied van AI-ontwikkeling voor mensen en duurzame ontwikkeling; AI-toepassingen op basis van big data voor belangrijke industrieën en vakgebieden krachtig te ontwikkelen; toonaangevende wetenschappers , experts en "hoofdingenieurs" in binnen- en buitenland op het gebied van AI-technologieontwikkeling aan te trekken, in dienst te nemen en te behouden.

Wat betreft het staatsbeleid inzake kunstmatige intelligentie stelde de Commissie voor Wetenschap, Technologie en Milieu voor om enkele beleidsinhouden toe te voegen, met name het bevorderen van gecontroleerde tests van geavanceerde AI-technologieën, maar met potentiële risico's; inhoud: De staat zorgt voor toegang tot big data van hoge kwaliteit ten behoeve van de training van AI-modellen; De staat beschikt over een mechanisme om experts aan te trekken en te belonen, en de opleiding van personeelszaken af te stemmen op de behoeften van het bedrijfsleven; De staat hanteert een beleid van diepgaande training en popularisering van digitale basiskennis en -vaardigheden, AI-ethiek voor ambtenaren, burgers, met name kinderen, om AI veilig te kunnen gebruiken.

Wat betreft het mechanisme voor gecontroleerde tests voor AI, erkent de Commissie dat testen een onvermijdelijke stap is in de productontwikkeling, met name voor nieuwe en risicovolle AI-systemen. Het toestaan van gecontroleerde tests is noodzakelijk om innovatie te bevorderen. Daarom is het noodzakelijk om het mechanisme voor vrijstelling van aansprakelijkheid voor risico's die ontstaan tijdens het testproces, wanneer organisaties en personen aan de regelgeving hebben voldaan, te bestuderen en aan te vullen.
Het gecontroleerde testmechanisme is echter al geregeld in de Wet op Wetenschap, Technologie en Innovatie, het wetsontwerp inzake digitale transformatie en de richtsnoeren voor sandboxes. Om duplicatie te voorkomen, wordt daarom voorgesteld dat deze wet alleen de specifieke inhoud van testen voor AI-systemen reguleert; tegelijkertijd richt de wet zich op het mechanisme na inspectie, evalueert de testresultaten en zorgt voor vereenvoudiging van administratieve procedures.
Voor kwetsbare groepen zoals kinderen is het Comité van mening dat AI ook zorgwekkende nadelen heeft. Wanneer kinderen bijvoorbeeld te afhankelijk zijn van AI om antwoorden te vinden of opdrachten op te lossen, verliezen ze de kans om zelfstandig te denken, analyseren en creatief te zijn. Daarnaast zijn ze geneigd tot afwijkend gedrag. Daarnaast kunnen ze AI aanzien voor een echte vriend en advies van AI opvolgen dat ongepast of gevaarlijk kan zijn. Ook kunnen ze gemanipuleerd of opgelicht worden.
De inspectiedienst citeerde ervaringen uit andere landen, waaruit bleek dat de Italiaanse AI-wet voorschrijft dat personen jonger dan 14 jaar AI alleen mogen gebruiken met toestemming van hun ouders of verzorgers; volgens een recent voorstel moeten gebruikers in de EU ouder dan 16 jaar zijn om AI te gebruiken zonder toestemming van hun ouders; de AI Chatbot Control Law van de staat Californië (VS) bepaalt dat AI-platforms gebruikers jonger dan 18 jaar elke 3 uur duidelijk moeten laten weten dat ze chatten met een chatbot en niet met een mens.
Daarom beveelt het Comité aan dat de opstelinstantie specifieke regelgeving onderzoekt en aanvult om kinderen te beschermen tegen de negatieve aspecten van AI, kinderen te begeleiden bij het veilig en gezond gebruiken van AI, en waarin de rol en verantwoordelijkheid van ouders en scholen bij het monitoren en vergroten van het bewustzijn van kinderen over AI worden bevorderd.
Bron: https://www.sggp.org.vn/can-co-quy-dinh-rieng-nham-bao-ve-tre-em-truoc-mat-trai-cua-ai-post824617.html






Reactie (0)