Det finns ett behov av etiska regler inom AI-verksamhet.
På morgonen den 21 november presenterade utskottets ordförande Nguyen Thanh Hai, på uppdrag av utskottet för vetenskap , teknik och miljö (KH,CN&MT), rapporten om granskningen av lagprojektet om artificiell intelligens (AI): Artikel 27 i lagutkastet har inledningsvis fastställt grundläggande principer, i enlighet med internationell praxis, såsom respekt för människor, transparens, rättvisa, icke-skadlighet och skydd av privatlivet.
Kommittén för vetenskap, teknik och miljö fann dock att processen för att utveckla policyer för artificiell intelligens i många länder ofta börjar med att etiska ramverk och vägledande principer offentliggörs, följt av en bedömning av praxis för att slutföra och gå vidare mot lagstiftning.
På grundval av detta föreslog utskottet för vetenskap, teknik och miljö att den lagstiftande myndigheten studerar och kompletterar allmänna etiska principer för regeringen att specificera i detalj . I dessa hänvisas det till UNESCO:s och OECD:s värderingar, inklusive principerna om respekt för människor, rättvisa, säkerhet, transparens, ansvarsskyldighet och hållbar utveckling, samt uppmuntrar företag att utveckla sin egen interna etiska kod för AI i enlighet med detta ramverk och offentliggör den för statliga förvaltningsmyndigheter enligt föreskrifter.

Besökare njuter av den humanoida robotmodellen som visas på utställning A80. Illustrativt foto
Samtidigt, undersök möjligheten att lägga till principen om "intressenters ansvarsskyldighet för de etiska och sociala effekterna av AI-system genom hela processen från forskning till systemanvändning"; förtydliga förhållandet mellan etiska regler (rekommendation) och rättsliga skyldigheter (obligatoriskt).
Enligt kommittén för vetenskap, teknik och miljö föreskriver artikel 28 i lagförslaget dessutom endast etiskt ansvar för den offentliga sektorn, medan AI-tillämpningar inom den privata sektorn (såsom hälso- och sjukvård, finans, utbildning etc.) också kan orsaka liknande sociala och etiska konsekvenser. Därför rekommenderas det att den lagförslagsansvariga myndigheten undersöker och överväger att lägga till bestämmelser om etiskt ansvar inom den privata sektorn, för att säkerställa att lagens bestämmelser är heltäckande .
Lägg till specifika regler för att skydda barn
Ordföranden för kommittén för vetenskap, teknik och miljö, Nguyen Thanh Hai, konstaterade tydligt i rapporten om granskningen av lagprojektet: För utsatta personer som barn har AI också oroande negativa aspekter, såsom: När barn förlitar sig för mycket på AI för att hitta svar eller lösa uppgifter riskerar de att förlora möjligheten att öva förmågan att tänka självständigt, analysera och vara kreativa; de är benägna att agera avvikande; de kan missta AI för en sann vän och agera på råd från AI som kan vara olämpliga eller farliga; de kan bli manipulerade eller lurade...

Lagen om artificiell intelligens behöver ha separata bestämmelser för att skydda barn från de negativa aspekterna av AI, och vägleda barn till att använda AI på ett säkert och hälsosamt sätt. Illustrativt foto
Ordföranden för utskottet för vetenskap, teknik och miljö, Nguyen Thanh Hai, citerade: Italiens AI-lag föreskriver att personer under 14 år endast får använda AI med sina föräldrars eller vårdnadshavares samtycke; enligt ett nyligen genomfört förslag måste användare i EU vara över 16 år för att använda AI utan föräldrars samtycke; Lagen om kontroll av AI-chatbotar i delstaten Kalifornien (USA) föreskriver att AI-plattformar är skyldiga att tydligt meddela användare under 18 år var tredje timme att de chattar med en chatbot, inte en människa.
På grundval av detta rekommenderar kommittén att den lagstiftande myndigheten studerar och kompletterar specifika bestämmelser för att skydda barn från de negativa aspekterna av AI, vägleder barn till att använda AI på ett säkert och hälsosamt sätt, där föräldrars och skolors roll och ansvar i att övervaka och öka barns medvetenhet om AI främjas.
Källa: https://phunuvietnam.vn/can-co-che-de-bao-ve-tre-em-truoc-cac-mat-trai-cua-ai-20251121112842757.htm






Kommentar (0)