Classificatie van kunstmatige intelligentiesystemen in vier risiconiveaus
Op de ochtend van 21 november luisterde de Nationale Vergadering naar de presentatie en het rapport over het onderzoek naar het wetsontwerp inzake kunstmatige intelligentie.
Bij de presentatie van het rapport gaf minister van Wetenschap en Technologie Nguyen Manh Hung aan dat het wetsontwerp is opgesteld om een baanbrekende juridische corridor voor kunstmatige intelligentie te creëren, een gunstig juridisch klimaat te scheppen om innovatie te bevorderen, de nationale concurrentiekracht te versterken en tegelijkertijd risico's te beheersen en nationale belangen, mensenrechten en digitale soevereiniteit te beschermen.

Minister van Wetenschap en Technologie Nguyen Manh Hung presenteerde het rapport.
Om systemen voor kunstmatige intelligentie te reguleren, hanteert het wetsontwerp een op risico's gebaseerde beheerbenadering, waarbij kunstmatige intelligentie in vier niveaus wordt ingedeeld en bijbehorende verplichtingen worden opgelegd.
Kunstmatige-intelligentiesystemen worden ingedeeld in vier risiconiveaus: Onacceptabel risico: het systeem kan ernstige, onherstelbare schade veroorzaken.
Hoog risico is het systeem dat schade kan toebrengen aan leven, gezondheid, rechten en legitieme belangen; gemiddeld risico is het systeem dat het risico loopt gebruikers te verwarren, manipuleren of misleiden. Laag risico betreft de overige gevallen.
De leverancier moet het systeem zelf classificeren voordat het in omloop wordt gebracht en is verantwoordelijk voor de classificatieresultaten.
Voor systemen met een gemiddeld en hoog risico moet de leverancier het Ministerie van Wetenschap en Technologie via het One-Stop Portal op de hoogte stellen. De bevoegde autoriteit heeft het recht de classificatie te herzien en opnieuw te evalueren.
De wet legt de verantwoordelijkheid voor transparantie, etikettering en verantwoording vast. De uitvoerende partij moet met name content die is gemaakt of bewerkt met nep-elementen, die echte mensen nabootst (deepfake) en daardoor tot misverstanden kan leiden, of content die met kunstmatige intelligentie is gemaakt voor communicatie- en reclamedoeleinden, duidelijk melden en labelen.
Leveranciers en uitvoerders moeten de resultaten van de omgang met systemen met een hoog risico toelichten wanneer de betrokken partijen daarom vragen.
In geval van een incident zijn de partijen verantwoordelijk voor het tijdig corrigeren, opschorten of intrekken van het systeem en het melden hiervan via de One-Stop Portal. Om risicomanagementredenen is het bij onaanvaardbare risico's verboden om deze systemen in welke vorm dan ook te ontwikkelen, te leveren, te implementeren of te gebruiken.
De verboden lijst bevat systemen die worden gebruikt voor handelingen die bij wet verboden zijn, het gebruik van valse elementen om te misleiden, te manipuleren en ernstige schade te veroorzaken, het uitbuiten van de zwakheden van kwetsbare groepen (kinderen, ouderen, enz.) of het creëren van valse inhoud die de nationale veiligheid ernstig schaadt.
Bij systemen met een hoog risico moet de geschiktheid ervan worden beoordeeld voordat het systeem in omloop wordt gebracht of in gebruik wordt genomen.
Beoordeling kan plaatsvinden in de vorm van certificering van conformiteit (uitgevoerd door een geaccrediteerde instantie) of toezicht op conformiteit (zelfbeoordeling door de leverancier).
De premier stelt voor elke vorm van beoordeling een lijst op met systemen voor kunstmatige intelligentie met een hoog risico.
Er worden gedetailleerde verplichtingen vastgelegd voor de leverancier (het vaststellen van risicobeheersmaatregelen, het beheren van trainingsgegevens, het voorbereiden van technische documentatie, het waarborgen van menselijk toezicht) en de uitvoerder (het werken voor het beoogde doel, het waarborgen van de veiligheid, het nakomen van transparantieverplichtingen).
Buitenlandse leveranciers met systemen met een hoog risico moeten een geautoriseerde vertegenwoordiger in Vietnam hebben en een rechtspersoon in Vietnam oprichten als het systeem onderworpen is aan verplichte conformiteitscertificering.
Voor modellen met een gemiddeld, laag risico en voor multifunctionele modellen moet het systeem voor gemiddeld risico transparantie en etikettering garanderen.
Het ontwerp legt ook de verantwoordelijkheden vast van ontwikkelaars en gebruikers van algemene AI-modellen om naleving van de Vietnamese wetgeving te waarborgen. Er gelden strengere verplichtingen voor GPAI-modellen met een systemisch risico (potentieel voor verstrekkende gevolgen), waaronder effectbeoordeling, technische registratie en melding aan het Ministerie van Wetenschap en Technologie.
Open source AI-modellen voor algemeen gebruik zijn echter vrijgesteld van deze strengere verplichtingen. Wanneer een open source-model wordt gebruikt om een AI-systeem te ontwikkelen, moet de gebruikende organisatie het risicobeheer van dat systeem op zich nemen.
Overweeg het gebruik van onzichtbare etikettering om kosten te verlagen
Vanuit een onderzoeksperspectief zei Nguyen Thanh Hai, voorzitter van de commissie voor wetenschap, technologie en milieu, dat de commissie van mening is dat het labelen van AI-producten een bindende ethische en juridische verantwoordelijkheid is om vertrouwen in het AI-tijdperk op te bouwen.

Voorzitter van de commissie voor wetenschap, technologie en milieu Nguyen Thanh Hai.
De commissie is het in principe eens met de etiketteringsbepalingen in het wetsontwerp, maar adviseert om te verwijzen naar internationale ervaringen met door AI gegenereerde producten om te garanderen dat deze aansluiten bij de praktische omstandigheden in Vietnam.
Voor producten en hardwareapparaten met AI-toepassingen (zoals koelkasten, tv's, wasmachines, enz.) wordt aanbevolen om onderzoek te doen naar en te overwegen om onzichtbare watermerken toe te passen. Zo kunt u kosten en procedures verlagen en toch het beheer en de traceerbaarheid garanderen.
Tegelijkertijd wordt voorgesteld om in het wetsontwerp de beginselen vast te leggen voor de door de overheid te verstrekken gedetailleerde instructies over formulieren, technische normen en vrijstellingen.
Er is een voorstel om de etiketteringsregelgeving te wijzigen van verplicht naar aanbevolen, met minimale technische richtlijnen.
Tegelijkertijd is het noodzakelijk om op een aantal gebieden een vrijwillig etiketteringsmechanisme te testen en tegelijkertijd de communicatie te versterken om het misverstand te voorkomen dat "geen etiket betekent dat het geen AI-product is".
Wat betreft de risicoclassificatie is het Comité van mening dat de classificatie op vier niveaus, terwijl de Wet op de kwaliteit van producten en goederen producten en goederen in drie typen indeelt, inconsistent is als AI als producten en goederen wordt beschouwd.
De regelgeving inzake certificering van conformiteit voor kunstmatige-intelligentiesystemen met een hoog risico strookt niet met de beginselen voor het beheer van producten en goederen met een hoog risico, zoals voorgeschreven in de Wet op de kwaliteit van producten en goederen.
Daarom is het raadzaam om de bepalingen van het wetsontwerp te blijven beoordelen en zorgvuldig te vergelijken met de huidige wetgeving.
Bron: https://mst.gov.vn/de-xuat-dung-ai-de-truyen-thong-quang-cao-phai-dan-nhan-thong-bao-ro-197251125140252967.htm










Reactie (0)