Vietnam.vn - Nền tảng quảng bá Việt Nam

Compléter le cadre juridique de l'IA

L'intelligence artificielle (IA) s'impose comme la technologie de pointe de la révolution industrielle 4.0, ouvrant de nombreuses perspectives de développement socio-économique. Cependant, elle pose également de nombreux défis, car nos réglementations actuelles ne suffisent pas à encadrer ce domaine.

Báo Đại biểu Nhân dânBáo Đại biểu Nhân dân17/10/2025

Concernant l'IA, l'Assemblée nationale a promulgué la loi sur l'industrie des technologies numériques , qui comprend un chapitre réglementant l'IA. Il s'agit de la première base juridique pour le développement et l'application de l'IA. Cependant, cette réglementation ne constitue pas encore un cadre juridique complet et suffisamment ouvert pour faciliter la recherche, le développement, le déploiement et l'utilisation de l'IA, ni un écosystème complet de l'IA.

De plus, nous manquons d'un mécanisme de classification et de contrôle des risques liés aux systèmes d'IA ; d'un mécanisme d'inspection, d'agrément et de surveillance des systèmes d'IA, en particulier ceux à haut risque ; et de mécanismes et de politiques pour développer et attirer des ressources humaines qualifiées en IA. Bien que la résolution n° 57-NQ/TW affirme clairement la nécessité de « faire des données le principal moyen de production » et de « développer l' économie et le marché des données », la collecte, le traitement, le partage et l'utilisation des données pour la formation des modèles d'IA se heurtent actuellement à de nombreuses difficultés. La connexion et le partage des données entre les bases de données nationales et les bases de données sectorielles restent lents et ne répondent pas aux exigences du développement de systèmes d'IA à grande échelle.

Il convient de souligner l'absence de vide juridique en matière de responsabilité lorsque l'IA cause des dommages. Ce vide juridique constitue l'un des principaux défis à relever pour gérer les conséquences de l'IA. La question est la suivante : lorsqu'un système d'IA cause des dommages, comme un accident de voiture autonome ou des résultats erronés d'un logiciel de diagnostic médical … qui sera responsable ? Le développeur, le fabricant, l'utilisateur ou le système d'IA lui-même ? L'absence de réglementation spécifique en matière de responsabilité représente un risque considérable pour les consommateurs et les entreprises qui utilisent l'IA.

Ce n'est pas tout : avec le développement « supérieur » de l'IA, des inquiétudes se font également jour quant aux risques de sécurité non traditionnels. La technologie deepfake est utilisée abusivement pour créer de fausses informations, diffamer des organisations et des individus, et créer des formes de fraude. Si cette situation n'est pas contrôlée par un cadre juridique suffisamment strict et assorti de sanctions suffisamment lourdes, elle engendrera une instabilité sociale.

Afin de concrétiser la vision du Parti et de l'État de considérer l'IA comme un fer de lance et une avancée majeure pour améliorer les capacités nationales à l'ère numérique, le projet de loi sur l'intelligence artificielle (IA) est élaboré par le gouvernement selon une approche cohérente : la loi place l'humain au cœur de ses préoccupations, avec pour principe suprême que l'IA est créée pour servir l'humain et non pour le remplacer, et que l'humain supervise l'IA dans les décisions importantes ; l'IA doit être transparente, responsable et sûre. La loi sur l'IA gère les systèmes d'IA en fonction du niveau de risque, encourage le développement et l'autonomie de l'IA au niveau national, et considère l'IA comme un moteur de croissance rapide et durable.

Afin d'améliorer l'efficacité de la gestion et de protéger les droits des utilisateurs, le projet de loi précise la responsabilité de la gestion et du traitement des incidents liés à l'IA. Ainsi, les organisations et les personnes participant au développement, à la fourniture, au déploiement et à l'utilisation des systèmes d'IA sont tenues d'assurer la sûreté, la sécurité et la fiabilité du fonctionnement du système ; de détecter, de prévenir et de résoudre rapidement de manière proactive les incidents susceptibles de porter atteinte aux personnes, aux biens, aux données ou à l'ordre social.

En cas d'incident technique, de résultats incorrects ou de comportement inattendu du système d'IA, le développeur et le fournisseur doivent appliquer rapidement des mesures techniques pour corriger, suspendre ou révoquer le système potentiellement dangereux ; informer et coordonner avec l'organisme de gestion public compétent pour enquêter et gérer l'incident. Le déployeur et l'utilisateur sont tenus d'enregistrer et de signaler rapidement l'incident au fournisseur, ainsi que de coordonner avec les parties concernées pour sa résolution. Ils ne doivent pas intervenir arbitrairement ni modifier le système sans autorisation. De plus, le projet de loi précise les obligations du fournisseur et du déployeur pour les systèmes d'IA à haut risque.

La promulgation rapide par le Vietnam de la loi sur l’intelligence artificielle constituera une avancée majeure pour l’IA, créera un environnement juridique favorable pour promouvoir l’innovation, renforcera la compétitivité nationale et affirmera la position d’un pays capable d’être autonome en matière de technologie.

Source : https://daibieunhandan.vn/hoan-thien-khung-kho-phap-ly-cho-ai-10390839.html


Comment (0)

No data
No data

Même sujet

Même catégorie

Des champs en terrasses d'une beauté époustouflante dans la vallée de Luc Hon
Les fleurs « Rich » coûtant 1 million de VND chacune sont toujours populaires le 20 octobre
Les films vietnamiens et le parcours vers les Oscars
Les jeunes se rendent dans le Nord-Ouest pour s'enregistrer pendant la plus belle saison du riz de l'année

Même auteur

Patrimoine

Chiffre

Entreprise

Les jeunes se rendent dans le Nord-Ouest pour s'enregistrer pendant la plus belle saison du riz de l'année

Événements actuels

Système politique

Locale

Produit