Merking av AI-genererte produkter

Med vekt på risikokontrollmekanismen for AI i dagens liv, uttrykte representant Nguyen Tam Hung (HCMC) sin mening om at lovutkastet som krever at leverandører sørger for maskinlesbar merking for AI-innhold er svært nødvendig. Han foreslo imidlertid å vurdere å legge til et obligatorisk krav om å vise identifikasjonsinformasjon direkte på det interaktive grensesnittet når innholdet risikerer å forårsake forvirring, for å beskytte vanlige brukere, spesielt barn og eldre, mot risikoen for feilinformasjon og dype forfalskninger. Denne forskriften styrker teknologileverandørenes sosiale ansvar og bygger digital tillit for folk.
I tillegg sa assisterende Nguyen Tam Hung at han gjennom forskning har funnet ut at den nåværende flerbruksmodellen for kunstig intelligens ikke bare lager tekst eller bilder, men også kan generere kildekode, angrepsverktøy, utførelsesinstruksjoner, cyberangrepsprosesser, økonomiske svindelmetoder osv. Derfra foreslo assisterende representant å legge til en forpliktelse til å kontrollere modellens "selvgenererende evne" når generering av kildekode tillates, og at det er nødvendig å ha en mekanisme for å advare, blokkere og begrense utdata for å sikre nettverkssikkerhet og sosial orden og sikkerhet.

I forbindelse med risikoene som AI skaper, sa representant Pham Van Hoa ( Dong Thap ) at selv om AI-teknologi er et verktøy for å støtte mennesker, medfører det mange høye risikoer. Representanten ba utkastkomiteen om å ha en objektiv og nøyaktig vurdering av denne saken.
«Risikoene kan påvirke menneskeliv, eiendom, rettigheter og legitime interesser til organisasjoner og enkeltpersoner», sa assisterende representant Pham Van Hoa, og la til at det bør finnes merkinger for AI-skapte produkter. Ifølge ham er merking av AI å la folk vite hvilke produkter som er laget av AI og hvilke som ikke er det.

I mellomtiden sa representant Trinh Thi Tu Anh ( Lam Dong ) at artikkel 11 i lovutkastet ikke fullt ut gjenspeiler tankegangen om å vurdere risikoer basert på teknologiske konsekvenser. Ifølge henne kan AI i dagens kontekst skape skadelige metoder som aldri har blitt identifisert. Derfor foreslo representant Trinh Thi Tu Anh å legge til en bestemmelse: «Regjeringen skal spesifisere i detalj og regelmessig oppdatere og supplere listen over kunstig intelligens-systemer med uakseptable risikoer basert på risikovurdering, teknologitrender og praktiske styringskrav. Ifølge henne sikrer denne mekanismen at loven ikke blir utdatert og kan reagere raskt på nye risikoer.»
Unngå misbruk av kunstig intelligens
Valgrepresentant Tran Khanh Thu (Hung Yen) tok opp spørsmålet om kunstig intelligens (KI) i støtte til medisinsk undersøkelse og behandling, og sa at KI ikke bare bidrar til å optimalisere prosesser i den medisinske bransjen, noe som reduserer arbeidsmengden for leger og helsepersonell, men også spiller en viktig rolle i å tilpasse behandlingen, og dermed forbedre helseutfall og øke effektiviteten i ressursbruken. Imidlertid er det noen ganger kontraproduktivt å bruke KI til å oppdage helsetegn.

Den kvinnelige delegaten viste til et eksempel fra virkeligheten på en 55 år gammel pasient i Ho Chi Minh-byen som var i en sløv tilstand da han ble brakt til sykehuset. Før det brukte pasientens familie kunstig intelligens til å stille diagnosen, og dro deretter for å kjøpe medisiner til pasienten. Etter å ha brukt medisinen forverret pasientens tilstand seg, og da han ble brakt til sykehuset, fikk han diagnosen hjerneskade, hjerneslag og uunngåelige følgetilstander.
«Absolutt, folk bør ikke bruke søkeresultater til å diagnostisere eller foreskrive medisiner. Men bryter folk som selger medisiner i henhold til AI-resepter loven?», lurte representant Tran Khanh Thu, og håpet at dette lovutkastet om kunstig intelligens ville inneholde mer spesifikke juridiske rammebestemmelser for å håndtere kunstig intelligens-produkter i helsesektoren, spesielt med tanke på ansvaret til relevante parter.
Angående overgangen fra etterrevisjon til førrevisjon i lovutkastet, foreslo representant Tran Khanh Thu at det bør være en klar kvantitativ terskel, for eksempel når modellen endrer algoritmen sin, øker brukerstørrelsen eller treningsdataene overstiger en bestemt terskel.

I et videre perspektiv på «misbruk av AI» sa representant Pham Trong Nghia (Lang Son) at hvis vi er for avhengige av AI i livene våre, vil det redusere vår tenkeevne og kreativitet. Misbruk av AI har mange potensielle ustabiliteter, som for eksempel: brudd på nasjonal suverenitet, redusert effektivitet i offentlig forvaltning og negativ innvirkning på hvert enkelt individ og hver familie, spesielt den unge generasjonen.
«For offentlig sektor reduserer misbruk av kunstig intelligens gjennomførbarheten, menneskeligheten og effektiviteten til politikk og lover. Å gi sensitiv informasjon og data til kunstig intelligens, hvis det ikke kontrolleres strengt, kan føre til datalekkasjer, som skader nasjonal sikkerhet og sosial orden og trygghet med uforutsigbare konsekvenser», sa representant Pham Trong Nghia, som foreslo å legge til en bestemmelse i lovutkastet som fastsetter forbudte handlinger, inkludert forbud mot misbruk av kunstig intelligens i offentlig sektor.
Kilde: https://www.sggp.org.vn/can-co-che-danh-gia-rui-ro-lien-quan-toi-ai-post825783.html






Kommentar (0)