In de voortzetting van het programma van de 10e sessie presenteerde minister van Wetenschap en Technologie Nguyen Manh Hung op de ochtend van 21 november het wetsontwerp over kunstmatige intelligentie aan de Nationale Assemblee.

Minister van Wetenschap en Technologie Nguyen Manh Hung.
Minister Nguyen Manh Hung zei dat de wet systematische en uitgebreide maatregelen biedt om het beheer en de bevordering van onderzoek, ontwikkeling, inzet en toepassing van kunstmatige intelligentie (AI) in Vietnam in evenwicht te brengen.
" De wet op kunstmatige intelligentie stelt de mens centraal, met als belangrijkste principe dat kunstmatige intelligentie de mens dient en niet vervangt. Mensen houden toezicht op kunstmatige intelligentie bij belangrijke beslissingen. Kunstmatige intelligentie moet transparant, verantwoordelijk en veilig zijn ", benadrukte de heer Nguyen Manh Hung.
De commandant van de sector Wetenschap en Technologie verklaarde dat het wetsontwerp inzake het beheer van kunstmatige-intelligentiesystemen op basis van risiconiveaus de binnenlandse ontwikkeling van kunstmatige intelligentie en autonomie op het gebied van kunstmatige intelligentie aanmoedigt, kunstmatige intelligentie beschouwt als drijvende kracht voor snelle en duurzame groei en de nationale digitale soevereiniteit waarborgt.
De overheid reguleert vier risiconiveaus bij de ontwikkeling van kunstmatige intelligentie, namelijk: onaanvaardbaar (hoogste niveau); hoog risico; gemiddeld risico en laag risico.
Voor systemen met een gemiddeld en hoog risico moet de leverancier het Ministerie van Wetenschap en Technologie op de hoogte stellen. Systemen met onaanvaardbare risico's mogen niet worden ontwikkeld, geleverd, ingezet of in welke vorm dan ook worden gebruikt.
De regering heeft ook een lijst met verboden activiteiten voorgesteld. Hieronder vallen systemen die worden gebruikt voor handelingen die bij wet verboden zijn, het gebruik van nep-elementen om te misleiden, te manipuleren en ernstige schade te veroorzaken, het uitbuiten van de zwakheden van kwetsbare groepen (kinderen, ouderen, enz.) of het creëren van nep-inhoud die de nationale veiligheid ernstig schaadt.
Volgens het door de overheid ingediende plan zullen organisaties en personen die deze regels overtreden, disciplinaire maatregelen, administratieve sancties of strafrechtelijke vervolging krijgen. Indien er schade wordt veroorzaakt, moet er een schadevergoeding worden betaald volgens het burgerlijk recht.
In het geval van meerdere partijen (ontwikkeling, levering, implementatie) moeten zij gezamenlijk compenseren. De compensatieplicht wordt bepaald op basis van het daadwerkelijke niveau van controle-, voorspelbaarheids- en risicobeheersmaatregelen dat elke partij heeft toegepast.
Het wetsontwerp voorziet in een maximale administratieve boete van VND 2 miljard voor organisaties en VND 1 miljard voor individuen.
Bij ernstige overtredingen kan de boete oplopen tot 2% van de omzet van de organisatie in het voorgaande jaar. Bij herhaalde overtredingen kan de boete oplopen tot 2% van de wereldwijde omzet van de organisatie in het voorgaande jaar.
Naast het aanpakken van overtredingen heeft de overheid ook veel beleidsmaatregelen voorgesteld ter ondersteuning van onderzoek, investeringen en training van hoogwaardige menselijke hulpbronnen. Hiermee worden omstandigheden gecreëerd waarin bedrijven, organisaties en individuen kunnen deelnemen aan de ontwikkeling en toepassing van kunstmatige intelligentie.

De voorzitter van de commissie voor Wetenschap, Technologie en Milieu, Nguyen Thanh Hai, presenteerde het evaluatierapport.
Bij de presentatie van het evaluatierapport zei Nguyen Thanh Hai, voorzitter van de Commissie voor Wetenschap, Technologie en Milieu, dat de commissie in grote lijnen instemde met de indeling van de risico's in vier niveaus (laag, gemiddeld, hoog en onaanvaardbaar risico).
" Het wetsontwerp bevat echter geen duidelijke kwantitatieve of kwalitatieve criteria voor het identificeren en classificeren van risico's en bevat geen regelgeving over beheersmaatregelen, hulpmiddelen en methoden voor risicobeoordeling. Risicoclassificatie en zelfclassificatie zijn daarom lastig, wat leidt tot zorgen over de juridische verantwoordelijkheid bij de implementatie ", aldus mevrouw Nguyen Thanh Hai.
Wat betreft de regelgeving voorafgaand aan de inspectie stelde het auditbureau voor om de regelgeving voorafgaand aan de inspectie te herzien en te beperken. Denk hierbij aan eisen voor technische documenten en operationele logboeken voordat producten in omloop worden gebracht. Dit zal leiden tot hogere nalevingskosten, een vertraging van het innovatieproces en de toepassing van AI, een afname van het concurrentievermogen en de aantrekkelijkheid van investeringen en de noodzaak om een sterke overstap naar een mechanisme na de inspectie te onderzoeken.
Wat betreft de nationale database van systemen voor kunstmatige intelligentie (AI) en databases ten behoeve van kunstmatige intelligentie, stelde de Commissie voor wetenschap, technologie en milieu voor om kernbeginselen toe te voegen om de kwaliteit van gegevens ten behoeve van AI te waarborgen, zoals: gegevens moeten "correct - voldoende - schoon - actueel" zijn en op uniforme wijze worden gedeeld.
Bovendien is er volgens de inspectiedienst een mechanisme nodig voor onderlinge verbinding en gegevensuitwisseling om te voorkomen dat gegevens worden verspreid, wat knelpunten in AI-onderzoek en -ontwikkeling zou creëren. Ook moet er sprake zijn van verplichte principes om de netwerkbeveiliging, gegevensbeveiliging en verdediging van de nationale AI-infrastructuur te waarborgen en het risico op datakaping en -lekken te voorkomen.
Wat betreft de juridische aansprakelijkheid van de betrokken partijen, kunnen de handelingen en fouten die door mensen worden gemaakt, ook door AI worden uitgevoerd. Er bestaan echter veel verschillende opvattingen over de juridische aansprakelijkheid van AI zelf, waardoor het lastig is om de aansprakelijkheid in de traditionele zin vast te stellen. Wanneer zich een incident voordoet, leidt dit tot geschillen over bestuursrechtelijke, civiele en strafrechtelijke aansprakelijkheid.
" Daarom is het noodzakelijk om beginselen aan te vullen om de verantwoordelijkheden tussen de betrokkenen en de betrokken partijen, met inbegrip van buitenlandse leveranciers, te onderscheiden bij het verlenen van grensoverschrijdende AI-diensten en om onderscheid te maken tussen opzettelijke en onopzettelijke gevallen of fouten als gevolg van technische beperkingen en onvoorziene situaties", aldus de voorzitter van de Commissie Wetenschap, Technologie en Milieu.
Wat betreft verboden handelingen stelde de inspectie voor om de regelgeving omtrent verboden handelingen aan te vullen. Deze moet bijdragen aan de vroegtijdige signalering van overtredingen, van de onderzoeksfase tot en met de inzet van AI.
Dit moet het gedrag omvatten van gebruikers, organisaties en individuen die misbruik maken van AI om verboden handelingen uit te voeren in de volgende richtingen: Het verbieden van het gebruik van AI om wanorde te veroorzaken, politieke spelletjes te spelen, de nationale veiligheid te schenden, stemmen en verkiezingen te manipuleren; Het verbieden van het gebruik van AI om nep-inhoud te creëren, afbeeldingen en videoclips te maken om fraude te plegen, de eer en waardigheid te schenden, verdeeldheid te zaaien en andere slechte doeleinden.
Engels






Reactie (0)