Wat AI betreft, heeft de Nationale Assemblee de Wet op de Digitale Technologie -industrie uitgevaardigd, met daarin een hoofdstuk over AI. Dit vormt de eerste wettelijke basis voor de ontwikkeling en toepassing van AI. Deze regelgeving heeft echter nog geen alomvattende juridische corridor gevormd die open genoeg is om onderzoek, ontwikkeling, implementatie en gebruik van AI en een alomvattend AI-ecosysteem te faciliteren.
Bovendien ontbreekt het ons aan een mechanisme voor het classificeren en beheersen van de risico's van AI-systemen; een mechanisme voor het inspecteren, licentiëren en monitoren van AI-systemen, met name AI-systemen met een hoog risico; en een gebrek aan mechanismen en beleid voor de ontwikkeling en het aantrekken van hoogwaardig AI-personeel. Hoewel Resolutie nr. 57-NQ/TW duidelijk stelt dat het noodzakelijk is om "data tot het belangrijkste productiemiddel te maken" en "de data- economie en datamarkt te ontwikkelen", stuit het verzamelen, verwerken, delen en gebruiken van data voor het trainen van AI-modellen momenteel op veel moeilijkheden. De koppeling en uitwisseling van data tussen nationale databanken en industriële databanken verloopt nog steeds traag en voldoet niet aan de eisen voor de ontwikkeling van grootschalige AI-systemen.
Het is belangrijk om te vermelden dat er geen sprake is van een juridische aansprakelijkheidsgap wanneer AI schade veroorzaakt. Deze juridische gap is een van de grootste uitdagingen bij het omgaan met de gevolgen van AI. De vraag is: wanneer een AI-systeem schade veroorzaakt, zoals een zelfrijdende auto die een ongeluk veroorzaakt, of medische diagnosesoftware die onjuiste resultaten geeft... wie is dan aansprakelijk? De ontwikkelaar, de fabrikant, de gebruiker of het AI-systeem zelf? Zonder specifieke regelgeving over aansprakelijkheid vormt dit een enorm risico voor consumenten en bedrijven bij het gebruik van AI.
En met de "superieure" ontwikkeling van AI zijn er ook zorgen over niet-traditionele veiligheidsrisico's. Deepfake-technologie wordt misbruikt om valse informatie te creëren, organisaties en individuen in diskrediet te brengen en vormen van fraude te creëren. Als deze situatie niet wordt beheerst door een voldoende strikt juridisch kader met voldoende sancties, zal dit leiden tot maatschappelijke instabiliteit.
Om het standpunt van de Partij en de Staat te realiseren, namelijk dat AI een speerpunt en een doorbraak is om de nationale capaciteit in het digitale tijdperk te verbeteren, ontwikkelt de regering het wetsontwerp inzake kunstmatige intelligentie (AI) vanuit een consistent standpunt: de wet stelt de mens centraal, met als belangrijkste principe dat AI is gecreëerd om mensen te dienen, niet om mensen te vervangen, en dat mensen AI controleren bij belangrijke beslissingen; AI moet transparant, verantwoordelijk en veilig zijn. De wet inzake kunstmatige intelligentie (AI) beheert AI-systemen op basis van het risiconiveau, stimuleert de binnenlandse AI-ontwikkeling en AI-autonomie, en beschouwt AI als een drijvende kracht voor snelle en duurzame groei.
Om de efficiëntie van het beheer te verbeteren en de rechten van gebruikers te beschermen, bepaalt het wetsontwerp de verantwoordelijkheid voor het beheer en de afhandeling van AI-incidenten. Organisaties en personen die betrokken zijn bij de ontwikkeling, levering, implementatie en het gebruik van AI-systemen zijn verantwoordelijk voor het waarborgen van de veiligheid, beveiliging en betrouwbaarheid tijdens de werking van het systeem; het proactief detecteren, voorkomen en snel oplossen van incidenten die schade kunnen toebrengen aan mensen, eigendommen, gegevens of de maatschappelijke orde.
Wanneer zich een technisch incident, onjuiste resultaten of onverwacht gedrag van het AI-systeem voordoet, moeten de ontwikkelaar en leverancier onmiddellijk technische maatregelen nemen om het mogelijk schadelijke systeem te repareren, op te schorten of in te trekken; de bevoegde overheidsinstantie op de hoogte stellen en met hen overleggen over het onderzoek en de afhandeling van het incident. De ontwikkelaar en gebruiker zijn verplicht het incident te registreren en de leverancier hiervan onmiddellijk op de hoogte te stellen en met relevante partijen te overleggen over de oplossing ervan. Ze mogen niet willekeurig ingrijpen of het systeem wijzigen zonder toestemming. Daarnaast bepaalt het wetsontwerp ook de verplichtingen van de leverancier en ontwikkelaar voor AI-systemen met een hoog risico...
De snelle afkondiging van de wet op kunstmatige intelligentie in Vietnam zal een doorbraak betekenen voor AI, een gunstig juridisch klimaat scheppen om innovatie te bevorderen, het nationale concurrentievermogen versterken en de positie van een land met de capaciteit om autonoom te zijn op technologisch gebied bevestigen.
Bron: https://daibieunhandan.vn/hoan-thien-khung-kho-phap-ly-cho-ai-10390839.html






Reactie (0)