Det er behov for etiske regler for KI-aktiviteter.
Om morgenen 21. november, idet komitéleder Nguyen Thanh Hai presenterte rapporten om gjennomgangen av lovprosjektet om kunstig intelligens (KI), uttalte følgende på vegne av komiteen for vitenskap , teknologi og miljø (KH,CN&MT): Artikkel 27 i lovutkastet har i utgangspunktet fastsatt grunnleggende prinsipper, i samsvar med internasjonal praksis, som respekt for mennesker, åpenhet, rettferdighet, ikke-skade og beskyttelse av personvernet.
Komiteen for vitenskap, teknologi og miljø fant imidlertid at prosessen med å utvikle retningslinjer for kunstig intelligens i mange land ofte starter med kunngjøring av etiske rammeverk og veiledende prinsipper, etterfulgt av en vurdering av praksis for å ferdigstille og gå videre mot lovgivning.
På dette grunnlaget foreslo Komiteen for vitenskap, teknologi og miljø at det utkastende organet skal studere og supplere generelle prinsipper for etikk som regjeringen kan spesifisere i detalj , der det er referanser til UNESCOs og OECDs verdier, inkludert prinsippene om respekt for mennesker, rettferdighet, sikkerhet, åpenhet, ansvarlighet og bærekraftig utvikling, og oppfordre bedrifter til å utvikle sin egen interne etiske kodeks for kunstig intelligens i samsvar med dette rammeverket, og offentliggjøre den for statlige forvaltningsorganer som foreskrevet.

Besøkende nyter den humanoide robotmodellen som er utstilt på utstilling A80. Illustrasjonsfoto
Samtidig bør man undersøke muligheten til å legge til prinsippet om «interessentenes ansvarlighet for de etiske og sosiale konsekvensene av AI-systemer gjennom hele prosessen fra forskning til systembruk»; avklare forholdet mellom etiske regler (anbefaling) og juridiske forpliktelser (obligatorisk).
I tillegg, ifølge komiteen for vitenskap, teknologi og miljø, fastsetter artikkel 28 i lovutkastet kun etisk ansvar for offentlig sektor, mens AI-applikasjoner i privat sektor (som helsevesen, finans, utdanning osv.) også kan forårsake lignende sosiale og etiske konsekvenser. Derfor anbefales det at lovforslaget undersøker og vurderer å legge til bestemmelser om etisk ansvar i privat sektor, for å sikre omfattende bestemmelser i loven.
Legg til spesifikke forskrifter for å beskytte barn
Leder av komiteen for vitenskap, teknologi og miljø, Nguyen Thanh Hai, uttalte tydelig i rapporten om gjennomgangen av lovprosjektet: For sårbare personer som barn, har AI også bekymringsfulle negative aspekter, som for eksempel: Når barn stoler for mye på AI for å finne svar eller løse oppgaver, risikerer de å miste muligheten til å øve på evnen til å tenke selvstendig, analysere og være kreative; de er utsatt for avvikende atferd; de kan forveksle AI med en sann venn og handle på råd fra AI som kan være upassende eller farlige; de kan bli manipulert eller svindlet...

Loven om kunstig intelligens må ha separate forskrifter for å beskytte barn mot de negative aspektene ved kunstig intelligens, og veilede barn til å bruke kunstig intelligens på en trygg og sunn måte. Illustrasjonsbilde
Leder av komiteen for vitenskap, teknologi og miljø, Nguyen Thanh Hai, siterte: Italias KI-lov fastsetter at personer under 14 år bare kan bruke KI med samtykke fra foreldre eller foresatte; ifølge et nylig forslag må brukere i EU være over 16 år for å bruke KI uten foreldrenes samtykke; loven om kontroll av KI-chatboter i delstaten California (USA) fastsetter at KI-plattformer er pålagt å tydelig varsle brukere under 18 år hver tredje time om at de chatter med en chatbot, ikke et menneske.
På dette grunnlaget anbefaler komiteen at det utkastende byrået studerer og utfyller spesifikke forskrifter for å beskytte barn mot de negative sidene ved AI, veileder barn til å bruke AI på en trygg og sunn måte, der foreldres og skolenes rolle og ansvar i å overvåke og øke barns bevissthet om AI fremmes.
Kilde: https://phunuvietnam.vn/can-co-che-de-bao-ve-tre-em-truoc-cac-mat-trai-cua-ai-20251121112842757.htm






Kommentar (0)