Vietnam.vn - Nền tảng quảng bá Việt Nam

Compléter le cadre juridique de l'IA

L’intelligence artificielle (IA) est devenue une technologie de pointe de la quatrième révolution industrielle, offrant d’immenses perspectives de développement socio-économique. Cependant, elle soulève également de nombreux défis, notre cadre juridique actuel étant insuffisant pour réglementer ce domaine.

Báo Đại biểu Nhân dânBáo Đại biểu Nhân dân17/10/2025

Concernant l'IA, l'Assemblée nationale a promulgué la loi sur l'industrie des technologies numériques , qui comprend un chapitre réglementant l'IA. Cette loi établit un cadre juridique initial et structuré pour le développement et l'application de l'IA. Toutefois, cette réglementation ne constitue pas encore un cadre juridique suffisamment complet et ouvert pour faciliter la recherche, le développement, le déploiement et l'utilisation de l'IA, ni pour permettre la mise en place d'un écosystème d'IA complet.

De plus, nous manquons de mécanismes pour classifier et contrôler les risques liés aux systèmes d'IA ; de mécanismes pour tester, autoriser et surveiller ces systèmes, en particulier ceux à haut risque ; et de mécanismes et politiques pour développer et attirer des ressources humaines hautement qualifiées en IA. Bien que la résolution n° 57-NQ/TW stipule clairement la nécessité de « faire des données le principal moyen de production » et de « développer l' économie et le marché des données », la collecte, le traitement, le partage et l'utilisation des données pour l'entraînement des modèles d'IA se heurtent actuellement à de nombreuses difficultés. La connexion et le partage des données entre les bases de données nationales et sectorielles sont lents et ne répondent pas aux exigences du développement de systèmes d'IA à grande échelle.

Il est important de noter que la responsabilité juridique fait défaut lorsque l'IA cause des dommages. Ce vide juridique constitue l'un des principaux obstacles à la gestion des conséquences néfastes de l'IA. La question est la suivante : lorsqu'un système d'IA cause des dommages, comme des accidents provoqués par des voitures autonomes ou des résultats erronés produits par des logiciels de diagnostic médical , qui sera tenu responsable ? Le développeur, le fabricant, l'utilisateur ou le système d'IA lui-même ? En l'absence de réglementation spécifique en matière de responsabilité, cela représente un risque important pour les consommateurs et les entreprises utilisant l'IA.

Par ailleurs, le développement rapide de l'IA soulève également des inquiétudes quant aux risques de sécurité non traditionnels. La technologie des deepfakes est détournée pour diffuser de la désinformation, diffamer des organisations et des individus, et perpétrer diverses formes de fraude. Si cette situation n'est pas maîtrisée par un cadre juridique suffisamment strict assorti de sanctions dissuasives, elle risque d'engendrer une instabilité sociale.

Afin de concrétiser la vision du Parti et de l'État selon laquelle l'IA représente une avancée majeure pour renforcer les capacités nationales à l'ère numérique, le projet de loi sur l'intelligence artificielle, actuellement élaboré par le gouvernement, repose sur le principe fondamental suivant : la loi place l'humain au cœur de ses préoccupations, avec pour principe suprême que l'IA est au service de l'humanité et non qu'elle la remplace, et que l'humain supervise l'IA dans les décisions cruciales ; l'IA doit être transparente, responsable et sécurisée. La loi sur l'intelligence artificielle encadre la gestion des systèmes d'IA en fonction des niveaux de risque, encourage le développement national de l'IA et l'autonomie dans ce domaine, et fait de l'IA un moteur de croissance rapide et durable.

Afin d'améliorer l'efficacité de la gestion et de protéger les droits des utilisateurs, le projet de loi définit les responsabilités en matière de gestion des incidents liés à l'IA. Ainsi, les organisations et les personnes impliquées dans le développement, la fourniture, le déploiement et l'utilisation des systèmes d'IA sont responsables de la sécurité et de la fiabilité de ces systèmes pendant leur fonctionnement ; elles doivent détecter, prévenir et résoudre rapidement les incidents susceptibles de porter atteinte aux personnes, aux biens, aux données ou à l'ordre public.

En cas de dysfonctionnement technique, d'écart de résultats ou de comportement inattendu des systèmes d'IA, les développeurs et les fournisseurs doivent mettre en œuvre sans délai des mesures techniques pour remédier à la situation, suspendre temporairement ou retirer le système potentiellement dangereux, et informer les autorités compétentes et se coordonner avec elles pour enquête et traitement. L'intégrateur et les utilisateurs sont tenus d'enregistrer et de signaler rapidement les incidents au fournisseur et de coopérer avec les parties concernées dans le processus de résolution. Ils ne sont pas autorisés à intervenir ou à modifier le système sans autorisation. Par ailleurs, le projet de loi stipule également les obligations des fournisseurs et des intégrateurs concernant les systèmes d'IA à haut risque…

L’adoption rapide par le Vietnam de la loi sur l’intelligence artificielle constituera une avancée majeure pour l’IA, en créant un environnement juridique favorable à l’innovation, en renforçant la compétitivité nationale et en affirmant la position du pays en tant que nation technologiquement autonome.

Source : https://daibieunhandan.vn/hoan-thien-khung-kho-phap-ly-cho-ai-10390839.html


Comment (0)

Laissez un commentaire pour partager vos ressentis !

Même sujet

Même catégorie

Même auteur

Patrimoine

Chiffre

Entreprises

Actualités

Système politique

Locale

Produit

Happy Vietnam
Grotte du Paradis

Grotte du Paradis

Nostalgie

Nostalgie

Le tour en pousse-pousse était tellement amusant !

Le tour en pousse-pousse était tellement amusant !