Wat betreft AI heeft de Nationale Assemblee de Wet op de Digitale Technologie- industrie uitgevaardigd, die een hoofdstuk bevat waarin AI wordt gereguleerd. Dit vormt de eerste wettelijke basis voor de ontwikkeling en toepassing van AI. Deze regelgeving heeft echter nog geen alomvattend wettelijk kader gecreëerd dat open genoeg is om onderzoek, ontwikkeling, implementatie en gebruik van AI en een compleet AI-ecosysteem te faciliteren.
Daarnaast ontbreekt het ons aan een mechanisme voor het classificeren en beheersen van risico's van AI-systemen; een mechanisme voor het inspecteren, licentiëren en monitoren van AI-systemen, met name AI-systemen met een hoog risico; en een gebrek aan mechanismen en beleid voor het ontwikkelen en aantrekken van hooggekwalificeerd AI-personeel. Hoewel Resolutie nr. 57-NQ/TW duidelijk stelt dat het noodzakelijk is om "data tot het belangrijkste productiemiddel te maken" en "de data- economie en de datamarkt te ontwikkelen", stuit het verzamelen, verwerken, delen en gebruiken van data voor het trainen van AI-modellen momenteel op veel moeilijkheden. De koppeling en het delen van data tussen nationale databases en industriële databases verloopt nog steeds traag en voldoet niet aan de eisen voor de ontwikkeling van grootschalige AI-systemen.
Het is belangrijk om te benadrukken dat er een juridische lacune bestaat in de aansprakelijkheidsverdeling wanneer AI schade veroorzaakt. Deze lacune is een van de grootste uitdagingen bij het omgaan met de gevolgen van AI. De vraag is: wanneer een AI-systeem schade veroorzaakt, zoals een zelfrijdende auto die een ongeluk veroorzaakt of medische diagnostische software die verkeerde resultaten geeft, wie is er dan verantwoordelijk? De ontwikkelaar, de fabrikant, de gebruiker of het AI-systeem zelf? Zonder specifieke regelgeving over aansprakelijkheid vormt dit een enorm risico voor consumenten en bedrijven die AI gebruiken.
En met de "superieure" ontwikkeling van AI zijn er ook zorgen over niet-traditionele veiligheidsrisico's. Deepfake-technologie wordt misbruikt om valse informatie te creëren, organisaties en individuen in diskrediet te brengen en vormen van fraude te creëren. Als deze situatie niet wordt beheerst door een voldoende strikt juridisch kader met voldoende sancties, zal dit leiden tot maatschappelijke instabiliteit.
Om het standpunt van de Partij en de Staat te verwezenlijken, namelijk dat AI een speerpunt en doorbraak vormt voor de verbetering van de nationale capaciteit in het digitale tijdperk, werkt de regering aan een wetsontwerp inzake kunstmatige intelligentie met een consistent uitgangspunt: de wet plaatst de mens centraal, met als overkoepelend principe dat AI is ontwikkeld om de mens te dienen, niet om hem te vervangen, en dat de mens toezicht houdt op AI bij belangrijke beslissingen; AI moet transparant, verantwoordelijk en veilig zijn. De wet inzake kunstmatige intelligentie beheert AI-systemen op basis van het risiconiveau, stimuleert de binnenlandse ontwikkeling van AI en AI-autonomie, en beschouwt AI als een drijvende kracht voor snelle en duurzame groei.
Om de efficiëntie van het beheer te verbeteren en de rechten van gebruikers te beschermen, bepaalt het wetsontwerp de verantwoordelijkheid voor het beheer en de afhandeling van AI-incidenten. Dienovereenkomstig zijn organisaties en individuen die deelnemen aan de ontwikkeling, levering, implementatie en het gebruik van AI-systemen verantwoordelijk voor het waarborgen van de veiligheid, beveiliging en betrouwbaarheid tijdens de werking van het systeem; en voor het proactief opsporen, voorkomen en snel oplossen van incidenten die schade kunnen toebrengen aan personen, eigendommen, gegevens of de openbare orde.
Wanneer zich een technisch incident, onjuiste resultaten of onverwacht gedrag van het AI-systeem voordoet, moeten de ontwikkelaar en leverancier onmiddellijk technische maatregelen nemen om het potentieel schadelijke systeem te herstellen, op te schorten of uit te schakelen; de bevoegde overheidsinstantie op de hoogte stellen en met haar samenwerken om het incident te onderzoeken en af te handelen. De implementeerder en gebruiker zijn verplicht het incident te registreren en de leverancier onmiddellijk op de hoogte te stellen, en met de relevante partijen samen te werken bij de oplossing ervan. Zij mogen niet zonder toestemming willekeurig ingrijpen in het systeem of het wijzigen. Daarnaast beschrijft het wetsontwerp ook de verplichtingen van de leverancier en implementeerder voor AI-systemen met een hoog risico...
De snelle afkondiging van de wet op kunstmatige intelligentie in Vietnam zal een doorbraak betekenen voor AI, een gunstig juridisch klimaat scheppen om innovatie te bevorderen, het nationale concurrentievermogen versterken en de positie van een land met de capaciteit om autonoom te zijn op technologisch gebied bevestigen.
Bron: https://daibieunhandan.vn/hoan-thien-khung-kho-phap-ly-cho-ai-10390839.html










Reactie (0)