Vietnam.vn - Nền tảng quảng bá Việt Nam

Kunstmatige intelligentie moet binnen juridische en ethische grenzen opereren.

Vanmorgen, 21 november, sprak Groep 6 (waaronder de delegatie van de Nationale Assemblee van Lang Son, Dong Nai, stad Hue) over het project Wet op Kunstmatige Intelligentie. De afgevaardigden van de Nationale Assemblee zeiden dat om het project Wet op Kunstmatige Intelligentie te voltooien, met als doel het beheer en de bevordering van onderzoek en ontwikkeling van kunstmatige intelligentie in Vietnam, het noodzakelijk is om belangrijke kwesties te verduidelijken, zoals: invoergegevens, intellectueel eigendom, toepassingsgebied, risicoclassificatie, verantwoordelijkheid van de gebruiker en ethiek rond AI.

Báo Đại biểu Nhân dânBáo Đại biểu Nhân dân21/11/2025



Er is behoefte aan een modern, synchroon AI-bestuursmechanisme

De afgevaardigden van de Nationale Assemblee spraken hun goedkeuring uit over de aanpak voor het opstellen van deze wet als kaderwet voor het beheer en de bevordering van onderzoek, ontwikkeling, inzet en gebruik van kunstmatige intelligentie (AI) in Vietnam. Zij waardeerden de voorbereiding door de regering zeer. Het ontwerp van de wet was zorgvuldig samengesteld en zorgde voor naleving van de regelgeving. Tegelijkertijd is het voorstel om een ​​aantal samenhangende artikelen en clausules in de wet op de digitale technologiesector te schrappen noodzakelijk om overlapping te voorkomen en een uniforme rechtsgrondslag te creëren voor het beheer en de bevordering van AI-ontwikkeling. Om dit wetsontwerp echter af te ronden, verzochten de afgevaardigden de redactiecommissie om door te gaan met het herzien, wijzigen, aanvullen en afschaffen van een aantal artikelen en clausules.

Groep 6 (Hue, Lang Son, Dong Nai)

Scène van de bijeenkomst van Groep 6 op de ochtend van 21 november. Foto: Ho Long

Specifiek met betrekking tot de reikwijdte van de regelgeving en de toepasselijke onderwerpen, zei Pham Trong Nghia (Lang Son), afgevaardigde van de Nationale Assemblee, dat het noodzakelijk is om deze kwestie verder te verduidelijken. Momenteel bestaat namelijk het risico dat de bepalingen met betrekking tot "onderzoeksactiviteiten" in het ontwerp overlappen met de inhoud die al wordt gereguleerd door de Wet op Wetenschap , Technologie en Innovatie. Het ontwerp bevat geen specifiek beleid om onderzoek naar kunstmatige intelligentiesystemen te bevorderen en heeft de onderwerpen die deze activiteit uitvoeren niet duidelijk gedefinieerd. Daarom stelde de afgevaardigde voor om te verduidelijken welke activiteiten binnen de reikwijdte van de regelgeving van de wet vallen en welke activiteiten onder de huidige wet vallen, om haalbaarheid en consistentie te garanderen en overlapping te voorkomen.

Plaatsvervanger van de Nationale Vergadering Pham Trong Nghia (Lang Son)

Pham Trong Nghia ( Lang Son ), afgevaardigde van de Nationale Assemblee, geeft commentaar op het wetsontwerp over kunstmatige intelligentie. Foto: Ho Long

Wat betreft de uitleg van termen besteedde Pham Trong Nghia, lid van de Nationale Assemblee, speciale aandacht aan het concept "fine-tuning" in het algemene model voor kunstmatige intelligentie. De vertegenwoordiger gaf aan dat dit een gespecialiseerde term is, die nog niet populair is, en dat de inhoud daarom duidelijk gedefinieerd moet worden om de toepassing en handhaving van de wet later te vergemakkelijken. Het ontwerp bevat momenteel slechts één zin over het Nationaal Comité voor Kunstmatige Intelligentie, waaruit niet duidelijk blijkt: juridische positie; functies, taken, bevoegdheden; organisatiestructuur, werkingsmechanisme; relatie met ministeries en afdelingen. Daarom stelde de vertegenwoordiger voor om de noodzaak van de oprichting van deze instelling te verduidelijken en tegelijkertijd te beoordelen of deze in overeenstemming is met het beleid om het apparaat te stroomlijnen volgens de regelgeving van de partij. Indien de instelling behouden blijft, is het noodzakelijk om de regelgeving aan te vullen of de regering opdracht te geven om bovenstaande kwesties gedetailleerd te specificeren.

Wat betreft verboden handelingen, gaven de afgevaardigden aan dat het wetsontwerp nog geen bepalingen bevat over verboden handelingen, terwijl dit een belangrijk "juridisch schild" vormt om mensenrechten te beschermen, eerlijke concurrentie te garanderen en te voldoen aan internationale normen. Ondertussen stipuleert de geavanceerde wet inzake kunstmatige intelligentie (AI) wereldwijd duidelijk verboden handelingen zoals misbruik van persoonsgegevens, systematische discriminatie, gebruik van AI voor schadelijke doeleinden, enz. Daarom wordt voorgesteld een apart artikel over verboden handelingen toe te voegen, gebaseerd op de principes: transparantie, veiligheid, verantwoordingsplicht, menselijk toezicht, eerlijkheid, non-discriminatie en ondersteuning van gecontroleerde innovatie.

Afgevaardigde van de Nationale Assemblee Nguyen Thi Suu (Hue)

Afgevaardigde van de Nationale Assemblee Nguyen Thi Suu (stad Hue) sprak tijdens de ochtenddiscussiesessie van 21 november. Foto: Ho Long

Opmerkingen over het wetsontwerp, afgevaardigden van de Nationale Assemblee Nguyen Thi Suu (stad Hue) richtte zich op het analyseren van regelgeving met betrekking tot infrastructuur, personeelszaken en het ethische kader voor AI - belangrijke pijlers die bepalen hoe effectief de wet in de praktijk wordt geïmplementeerd.

Met name in hoofdstuk III (artikelen 17 en 18), dat de infrastructuur voor kunstmatige intelligentie reguleert, gaven afgevaardigden aan dat de routekaart voor de implementatie van nationale AI-infrastructuur, de rollen van ministeries, afdelingen, lokale overheden, bedrijven en onderzoeksinstellingen in het bouw- en exploitatieproces, niet duidelijk zijn gedefinieerd. De afgevaardigden stelden voor om een ​​specifiek implementatieplan aan te vullen met tijdschema's, verantwoordelijkheden van elk agentschap en een monitoringmechanisme om de haalbaarheid te garanderen wanneer de wet wordt afgekondigd.

Wat betreft de ontwikkeling van menselijk potentieel (artikel 24) zei afgevaardigde Nguyen Thi Suu dat het wetsontwerp alleen de doelstellingen beschrijft, maar geen echt ondersteuningsmechanisme biedt voor opleidingsinstellingen en studenten, zoals financiering, internationale opleidingsnormen of gezamenlijke programma's met bedrijven en onderzoeksinstellingen. Daarom is het noodzakelijk om het beurzenbeleid aan te vullen, opleidingen te ondersteunen en publiek-private samenwerking te bevorderen.

Met betrekking tot het Nationaal AI-ethisch kader (artikel 27) gaven afgevaardigden aan dat de huidige regelgeving slechts principieel is en mechanismen mist voor het monitoren, evalueren en afhandelen van schendingen, waardoor het moeilijk is om de bindende werking in de praktijk te garanderen; tegelijkertijd is de term "AI-ethiek" niet duidelijk gedefinieerd en worden er geen specifieke verantwoordelijkheden toegekend aan organisaties en personen bij overtreding. Daarom stelden afgevaardigden voor om de term "beoordeling" te wijzigen in "openbaar" in de regelgeving voor het actualiseren van het ethisch kader; tegelijkertijd bepalingen toe te voegen over de oprichting van een Nationale AI-ethische instantie die verantwoordelijk is voor het monitoren, evalueren en afhandelen van schendingen; nalevingsverplichtingen vast te stellen voor organisaties en personen die AI-systemen met een hoog risico ontwikkelen of beheren; de juridisch bindende waarde van het AI-ethisch kader te bevestigen, waarbij schendingen kunnen leiden tot administratieve of strafrechtelijke sancties; en de deelname van maatschappelijke organisaties, de academische wereld en bedrijven aan de ontwikkeling en evaluatie van AI-ethiek aan te moedigen. "Alleen als bovenstaande mechanismen zijn voltooid, kan het AI-ethisch kader effectief zijn en ervoor zorgen dat technologie zich in de juiste richting ontwikkelt, op een veilige manier en voor mensen", benadrukte afgevaardigde Nguyen Thi Suu.

Wie is verantwoordelijk als AI fouten maakt?

Tijdens de bespreking van het wetsontwerp inzake kunstmatige intelligentie (AI) zei Pham Nhu Hiep, afgevaardigde van de Nationale Assemblee (stad Hue), dat kunstmatige intelligentie (AI) ingrijpende veranderingen teweegbrengt in de medische sector, van chirurgie en diagnose tot wetenschappelijk onderzoek. De afgevaardigde wees erop dat chirurgie op afstand al meer dan twintig jaar bestaat en dat veel robotsystemen tot op heden endoscopische operaties kunnen uitvoeren zonder directe menselijke tussenkomst. Met de snelle ontwikkeling van technologie kan AI, indien toegestaan, sommige chirurgische stappen volledig overnemen en zelfs de traditionele rol van chirurgen dreigen te veranderen. AI wordt op grote schaal toegepast in ziekenhuizen, waaronder het Hue Central Hospital, voor beelddiagnostiek, ter ondersteuning van het interpreteren van röntgenfoto's, CT-scans en hersenfilmpjes.

Pham Nhu Hiep (Hue), afgevaardigde van de Nationale Assemblee

Afgevaardigde Pham Nhu Hiep van de Nationale Assemblee (stad Hue) gaf zijn mening over het wetsontwerp over kunstmatige intelligentie in Groep 6. Foto: Ho Long

De afgevaardigden benadrukten echter de noodzaak van verantwoording wanneer AI fouten maakt. Momenteel moeten alle AI-resultaten nog steeds worden gecontroleerd en geverifieerd door clinici en radiologen. Wanneer de resultaten niet overeenkomen met de klinische realiteit, zal de arts ze bewerken en bijwerken, zodat de AI kan blijven leren. Dit 'passieve leerproces' wordt door veel ziekenhuizen toegepast, maar een duidelijk wettelijk kader is nog steeds nodig om de veiligheid van de patiënt te waarborgen.

Afgevaardigde Pham Nhu Hiep uitte ook zijn zorgen over de impact van AI op wetenschappelijk onderzoek, aangezien plagiaatcontrolesoftware populair is geworden en sommige AI-tools nu bijna een volledig proefschrift in slechts één dag kunnen schrijven op basis van de verstrekte gegevens. Dit vormt een grote uitdaging voor de onderzoeksethiek en wetenschappelijke integriteit en zou moeten worden overwogen voor opname in gespecialiseerde wettelijke regelgeving.

Wat betreft de juridische verantwoordelijkheid van AI-aanbieders (artikel 13), stelden de afgevaardigden voor om de verantwoordelijke instantie te verduidelijken wanneer AI-systemen incidenten of ongevallen veroorzaken. Het geval van zelfrijdende auto's is een typisch voorbeeld: bij een botsing is het noodzakelijk om de verantwoordelijkheid van het systeem, de fabrikant of de operationele beheereenheid vast te stellen. De afgevaardigde verwees naar het Tesla-ongeluk in 2015, waarbij de fabrikant een hoge schadevergoeding moest betalen. Hij stelde dat AI niet alleen verantwoordelijk kan zijn, maar dat de verantwoordelijkheid bij mensen moet liggen – de organisaties en personen die het systeem ontwerpen, produceren en in gebruik nemen.

Verwijzend naar het concept van AI-ethiek, dat door veel landen wordt toegepast om te bepalen welke AI-acties wel en niet mogen worden uitgevoerd, erkende afgevaardigde Pham Nhu Hiep ook dat, in de context van AI-systemen die het vermogen hebben om zelf te leren, zelf te denken en zelfs de oorspronkelijke grenzen van de fabrikant te overschrijden, de ontwikkeling en werking van AI binnen het wettelijke en ethische kader moeten worden geplaatst. Dit is niet alleen om de veiligheid voor de samenleving te waarborgen, maar ook om een ​​basis te leggen voor een gezonde ontwikkeling van de AI-industrie in Vietnam.

Om AI effectief te kunnen beheren, moeten invoergegevens en intellectueel eigendom duidelijk zijn.

Trinh Xuan An (Dong Nai), afgevaardigde van de Nationale Assemblee, sloot zich aan bij de bovenstaande meningen en maakte ook een aantal diepgaande opmerkingen over het wetsontwerp over kunstmatige intelligentie. Hij richtte zich daarbij op de belangrijkste kwesties: invoergegevens, intellectueel eigendom, toepassingsgebied, risicomanagementbenadering en implementatieorganisatiemodel.

Lid van de Nationale Assemblee Trinh Xuan An (Dong Nai)

Afgevaardigde Trinh Xuan An (Dong Nai) van de Nationale Assemblee spreekt op de ochtend van 21 november bij Groep 6. Foto: Ho Long

Wat betreft invoergegevens voor AI, stelden de afgevaardigden dat data de basis vormen van kunstmatige intelligentie, maar het wetsontwerp heeft deze inhoud niet verduidelijkt. De regelgeving met betrekking tot data valt momenteel onder de Datawet en de Wet bescherming persoonsgegevens. Indien niet specifiek vermeld in deze wet, moet er in ieder geval een volledige referentie zijn. De afgevaardigden stemden in met de eis dat data "correct - voldoende - schoon - levend" moeten zijn, maar benadrukten de noodzaak om het criterium toe te voegen dat data gesystematiseerd en continu bijgewerkt moeten worden, omdat dit een voorwaarde is voor een effectieve en veilige werking van AI.

Wat betreft intellectueel eigendom merkte Trinh Xuan An, lid van de Nationale Assemblee, op dat de inhoud van het ontwerp nog te schetsmatig is, terwijl AI een menselijk product is en nauw verbonden is met kwesties als auteursrecht, eigendom, juridische verantwoordelijkheid en ethiek. Als de intellectuele-eigendomscomponent niet in de wet wordt verduidelijkt, zal AI-beheer zeer moeilijk worden. Daarom adviseerde de afgevaardigde om de wet inzake intellectueel eigendom te wijzigen en tegelijkertijd eigendomskwesties in deze wet te regelen.

Wat betreft het toepassingsgebied wees de afgevaardigde op de onlogische aard van artikel 1, waar de wet de toepassing van AI voor nationale defensie, veiligheid, cryptografie en inlichtingendiensten uitsluit, terwijl de volgende clausules de mogelijkheid tot aanpassing openen indien deze systemen voor andere doeleinden worden gebruikt. In de digitale omgeving is het moeilijk om AI voor veiligheid en defensie en civiele doeleinden te scheiden, omdat AI tegelijkertijd ondersteuning kan bieden in de geneeskunde, de defensie-industrie of onbemande systemen. Uitsluiting per vakgebied is daarom niet haalbaar. De afgevaardigde stelde voor om een ​​gemeenschappelijk regelgevingskader te ontwikkelen in plaats van te verdelen op basis van gebruiksdoel.

Dong Nai 1 Groep

Afgevaardigden van de Nationale Assemblee van de provincie Dong Nai tijdens de discussiesessie van Groep 6 op de ochtend van 21 november. Foto: Ho Long

Wat betreft de aanpak van risicomanagement en -classificatie, zei de afgevaardigde dat het ontwerp het Europese managementmodel "toepast", wat onnodige lasten creëert in de context van Vietnam, dat de ontwikkeling van AI moet stimuleren. De risicoclassificatie met vier niveaus zoals in het ontwerp is zowel ingewikkeld als onverenigbaar met de Wet op de Productkwaliteit. De afgevaardigde stelde voor om slechts twee groepen te classificeren: risicovolle en risicovrije AI-producten, en risicomanagement te combineren met management op basis van outputefficiëntie en economische impact. Hij zei ook dat de regelgeving voor bedrijven om zelf risico's te beoordelen en de overheid te belasten met het vaststellen van criteria "half gesloten, half open" is en in de praktijk moeilijk te implementeren.

Wat betreft het implementatiemodel van de organisatie, uitte Trinh Xuan An, lid van de Nationale Assemblee, zijn bezorgdheid over het voorstel om een ​​extrabudgettair financieel fonds en een Nationaal Comité voor AI op te richten. Volgens de afgevaardigde is het noodzakelijk om de noodzaak van deze instellingen zorgvuldig te overwegen en te voorkomen dat er "voor alles fondsen en commissies worden opgericht", maar dat de efficiëntie laag is. Indien echt nodig, zou het AI-fonds moeten worden geïntegreerd in bestaande fondsen, met uitzondering van speciale gevallen zoals fondsen ten behoeve van nationale defensie en veiligheid. De afgevaardigde merkte ook op dat AI gekoppeld moet worden aan economische activiteiten en het initiatief van ondernemingen, en dat het beheermodel daarom gestroomlijnd en gericht moet zijn op echte efficiëntie.

Vertegenwoordiger van de Nationale Assemblee Bui Xuan Thong (Dong Nai)

Afgevaardigde van de Nationale Assemblee Bui Xuan Thong (Dong Nai)

In overeenstemming met bovenstaande mening benadrukten de afgevaardigden van de Nationale Assemblee, Nguyen Thi Nhu Y en Bui Xuan Thong (Dong Nai), ook het ethische kader bij het gebruik van kunstmatige intelligentie. Volgens afgevaardigde Bui Xuan Thong is het zo dat als wordt bepaald dat gebruikers verantwoordelijk moeten zijn voor beslissingen die door AI worden genomen, de uiteindelijke beslissing in werkelijkheid nog steeds door mensen wordt genomen. AI is slechts een hulpmiddel om referentie-informatie te verstrekken. Degene die de uiteindelijke beslissing neemt, is verantwoordelijk voor die beslissing. Daarom zou het ethische kader zich moeten richten op de menselijke verantwoordelijkheid bij het gebruik van informatie van AI, en niet op de bepaling dat AI verantwoordelijk moet zijn.

Wat betreft de aanpak van overtredingen, gaven afgevaardigden aan dat het ontwerp in het algemeen stelt dat deze administratief, civiel of strafrechtelijk kunnen worden afgehandeld, maar dat er geen duidelijkheid bestaat over de grenzen van de verantwoordelijkheid. Daarom wordt aanbevolen om duidelijk te definiëren welke gedragingen strafrechtelijk aansprakelijk zijn, welke gedragingen administratief aansprakelijk zijn en wat de specifieke verantwoordelijkheden zijn van de aanbieder, ontwikkelaar en gebruiker. Tegelijkertijd is het ook noodzakelijk om verboden gedragingen aan te vullen en dit kader opnieuw vorm te geven, zodat het duidelijk is, zowel om voorwaarden te scheppen voor AI-ontwikkeling als om de verantwoordelijkheden van relevante partijen duidelijk te definiëren.


Bron: https://daibieunhandan.vn/artificial-intelligence-must-operate-in-the-law-and-moral-system-10396524.html


Reactie (0)

No data
No data

In hetzelfde onderwerp

In dezelfde categorie

4e keer dat ik de berg Ba Den duidelijk en zelden vanuit Ho Chi Minhstad zag
Geniet van het prachtige landschap van Vietnam in Soobin's MV Muc Ha Vo Nhan
Koffiehuizen met vroege kerstversieringen zorgen voor een stijgende verkoop, waardoor veel jongeren worden aangetrokken
Wat is er bijzonder aan het eiland vlak bij de maritieme grens met China?

Van dezelfde auteur

Erfenis

Figuur

Bedrijf

Bewonder de nationale kostuums van 80 schoonheden die meedoen aan Miss International 2025 in Japan

Actuele gebeurtenissen

Politiek systeem

Lokaal

Product