
L'après-midi du 27 novembre, sous la direction du vice -président de l'Assemblée nationale, Le Minh Hoan, l'Assemblée nationale a examiné en séance plénière le projet de loi sur l'intelligence artificielle.
Absence de réglementation en matière d'indemnisation et de responsabilité civile des assurances
Concernant l'article 20 du projet de loi relatif au mécanisme d'expérimentation contrôlée pour le développement de l'intelligence artificielle, le député Hoang Minh Hieu ( Nghe An ) a déclaré que l'objectif principal de ce mécanisme est de lever les obstacles juridiques qui entravent le développement des modèles d'IA, en autorisant des tests limités pour recueillir des données permettant de prouver leur efficacité et, par conséquent, de favoriser une réforme réglementaire à long terme. Cette approche est par ailleurs parfaitement conforme à notre pensée législative actuelle, selon laquelle les institutions doivent jouer un rôle moteur pour ouvrir la voie au développement.

Le délégué a souligné que la réglementation des mécanismes de test contrôlés devait être au cœur du cadre juridique relatif à l'IA ; l'organisme rédacteur doit donc étudier et réglementer plus spécifiquement cette question dans le projet de loi.
En conséquence, le délégué a proposé de réexaminer les dispositions relatives aux exemptions et aux réductions d'obligations de conformité accordées aux organismes et aux personnes participant à des essais contrôlés, conformément à l'article 20, paragraphe 2, du projet de loi. Ces dispositions limitent la portée des exemptions aux seules dispositions de la présente loi, alors que les systèmes d'IA sont souvent soumis à de nombreuses autres dispositions légales pertinentes.
Les délégués ont cité l'exemple du Japon, où le système d'essais de l'IA embarquée sur des avions de ligne autonomes est exempté de certaines règles de sécurité aérienne. Ils ont également mentionné l'exemption dont bénéficient les essais de voitures autonomes en Chine et au Japon, qui sont exemptés des dispositions de la loi sur la protection des données personnelles. Cette exemption permet l'utilisation de données d'images sans floutage des visages des usagers de la route pour l'entraînement et le perfectionnement de la vision artificielle.
S’appuyant sur l’expérience d’autres pays, les délégués ont proposé que l’agence chargée de rédiger l’étude stipule uniquement, dans la clause 2 de l’article 20, que les organisations et les personnes participant à des essais contrôlés sont exemptées ou allégées de certaines obligations de conformité prescrites par la présente loi et d’autres lois pertinentes.

L'article 20, paragraphe 5, charge l'agence de gestion de l'IA de l'organisation de la réception, de l'évaluation et du traitement des dossiers destinés à participer aux activités de test contrôlées selon le processus d'évaluation et de réponse rapide.
Le délégué Hoang Minh Hieu a souligné que les systèmes d'IA ne se limitent pas aux seules questions de technologie et d'algorithmes, mais relèvent également de problématiques multidisciplinaires et interdisciplinaires. Par conséquent, les dispositions de l'article 5 ne sont probablement adaptées qu'aux systèmes d'IA généralistes, tels que l'IA générative (ChatGPT, Gemini). Quant aux systèmes d'IA spécialisés, leur caractère interdisciplinaire est beaucoup plus marqué.
Citant le système DrAid, un produit d'IA d'aide au diagnostic d'images médicales développé par VinBrain, le délégué Hoang Minh Hieu a déclaré que si ce système est enregistré pour des essais cliniques, le ministère de la Santé sera nécessairement amené à en assurer le suivi et la gestion. C'est pourquoi, dans certains pays, l'évaluation et l'autorisation des essais contrôlés de systèmes d'IA sont confiées à un conseil interdisciplinaire.
Les délégués ont proposé de réviser les dispositions de l'article 20, paragraphe 5, du projet de loi, afin que « l'agence de gestion de l'intelligence artificielle préside et coordonne avec les agences de gestion compétentes l'organisation de la réception, de l'évaluation et du traitement des dossiers en vue de participer à des activités de test contrôlées ».
Le délégué a également indiqué que l'article 20 du projet de loi ne prévoit toujours pas de dispositions relatives à l'indemnisation et aux responsabilités en matière d'assurance. De plus, il ne précise pas qui est responsable si l'essai cause un préjudice à un tiers. Selon le principe général, l'organisme ou la personne ayant effectué l'essai est tenu(e) de verser une indemnisation civile en cas de préjudice. Par conséquent, le délégué Hoang Minh Hieu a suggéré d'envisager l'ajout de cette disposition au projet de loi.
Tous les logiciels d'IA utilisés au Vietnam doivent être équipés d'une « base de données de base standard de type humain ».
Le député Tran Van Lam (Bac Ninh) a salué le projet de loi, qui définit le principe de la centralité de l'humain, classe et maîtrise les risques, inspecte les systèmes d'IA à haut risque et développe l'infrastructure nationale de calcul et de données. Il s'agit d'un cadre juridique progressiste, conforme aux tendances internationales.

Toutefois, pour que la loi soit véritablement complète et s'inscrive dans une perspective à long terme, le délégué a proposé un ajout essentiel : considérer l'IA comme un « être humain nouveau-né », une « entité intelligente mais innocente » : ignorant la loi, ne comprenant ni l'éthique ni les usages, dépourvue de valeurs culturelles et incapable de distinguer le bien du mal sans éducation.
« Si l’on considère l’IA comme une entité émergente, notre responsabilité n’est pas seulement de la contrôler, mais aussi de l’éduquer dès le départ, comme on inculque à un enfant les valeurs humaines fondamentales. Cela devrait être une disposition obligatoire de cette loi, et non une simple recommandation », a déclaré le délégué Tran Van Lam.
Les délégués ont proposé que l'Assemblée nationale ajoute un principe juridique à la loi : « Tous les logiciels d'IA fonctionnant au Vietnam, qu'ils soient développés par des organisations nationales ou étrangères, doivent être dotés d'une base de données humaine standard . »
Selon le délégué, la « base de données fondamentale humaine » doit contenir suffisamment d'informations pour permettre à l'IA de comprendre le droit vietnamien, les normes éthiques, la culture et les traditions du pays, ainsi que la capacité de distinguer le bien du mal, le normal du non-normal, les limites comportementales à ne pas dépasser et les règles d'identification des risques pour les humains. Surtout, cette base de données fondamentale doit toujours être prioritaire pour la régulation du comportement de l'IA et ne doit en aucun cas être écrasée, remplacée ou désactivée par un autre algorithme ou des données d'entraînement. C'est le gage juridique et technique indispensable pour éviter que l'IA ne dévie de sa trajectoire.

Pour mettre en œuvre efficacement cette orientation, les délégués ont suggéré que le ministère des Sciences et des Technologies prenne l'initiative de créer une plateforme de base de données « Être vietnamien » unifiée, normalisée et mise à jour en continu, et de la fournir obligatoirement aux développeurs d'IA. Le gouvernement devrait développer une infrastructure informatique nationale robuste afin de garantir que l'IA vietnamienne soit formée selon les valeurs vietnamiennes et non dépendante de modèles étrangers.
Parallèlement, il convient de créer un Centre national d'évaluation de l'IA afin d'identifier rapidement les comportements anormaux, de contrôler les modèles à haut risque et d'intervenir sans délai en cas de dépassement des limites. Il est également essentiel de promouvoir l'éducation à l'IA auprès de l'ensemble de la société, en veillant à ce que les particuliers, les entreprises et, surtout, le secteur public soient en mesure d'identifier, d'utiliser et de surveiller correctement l'IA.
Le député Tran Van Lam a souligné : « La loi sur l’intelligence artificielle d’aujourd’hui n’est pas seulement une loi technologique, mais une loi d’avenir ; un engagement de l’Assemblée nationale envers le peuple : développer la technologie sans en perdre le contrôle ; promouvoir l’innovation sans laisser les risques nous échapper ; et cultiver l’IA selon les valeurs vietnamiennes au service du peuple vietnamien. »
Source : https://daibieunhandan.vn/phat-trien-cong-nghe-thuc-day-doi-moi-nhung-khong-de-rui-ro-vuot-tam-10397378.html






Comment (0)