Poursuivant le programme de la 10e session, le matin du 21 novembre, le ministre des Sciences et de la Technologie, Nguyen Manh Hung, a présenté le projet de loi sur l'intelligence artificielle à l'Assemblée nationale.

Ministre des Sciences et de la Technologie Nguyen Manh Hung.
Le ministre Nguyen Manh Hung a déclaré que la loi prévoit des mesures systématiques et complètes pour équilibrer la gestion et la promotion de la recherche, du développement, du déploiement et de l'application de l'intelligence artificielle (IA) au Vietnam.
« La loi sur l'intelligence artificielle place l'humain au centre, avec le principe suprême que l'intelligence artificielle est au service de l'humain et ne le remplace pas ; l'humain supervise l'intelligence artificielle dans les décisions importantes ; l'intelligence artificielle doit être transparente, responsable et sûre », a souligné M. Nguyen Manh Hung.
Le commandant du secteur des sciences et technologies a déclaré que le projet de loi sur la gestion des systèmes d'intelligence artificielle en fonction des niveaux de risque encourage le développement national de l'intelligence artificielle et l'autonomie en matière d'intelligence artificielle, considère l'intelligence artificielle comme un moteur de croissance rapide et durable et garantit la souveraineté numérique nationale.
Le gouvernement réglemente quatre niveaux de risque dans le développement de l'intelligence artificielle, à savoir : inacceptable (niveau le plus élevé) ; risque élevé ; risque moyen et risque faible.
Pour les systèmes présentant un risque moyen ou élevé, le fournisseur doit en informer le ministère des Sciences et de la Technologie. Le développement, la fourniture, le déploiement et l'utilisation, sous quelque forme que ce soit, de systèmes présentant des risques inacceptables sont interdits.
Le gouvernement a également proposé une liste d'activités interdites qui comprend les systèmes utilisés pour des actes prohibés par la loi, l'utilisation d'éléments falsifiés pour tromper, manipuler et causer un préjudice grave, l'exploitation des faiblesses des groupes vulnérables (enfants, personnes âgées, etc.) ou la création de faux contenus qui portent gravement atteinte à la sécurité nationale.
Conformément au plan présenté par le gouvernement, les organisations et les personnes physiques qui enfreignent cette réglementation s'exposeront à des mesures disciplinaires, des sanctions administratives ou des poursuites pénales. En cas de préjudice, des dommages et intérêts devront être versés conformément au droit civil.
En cas de participation de plusieurs acteurs (développement, fourniture, mise en œuvre), l'indemnisation est solidaire. La répartition des responsabilités en matière d'indemnisation dépend du niveau de contrôle, de prévisibilité et des mesures de gestion des risques effectivement mises en œuvre par chaque partie.
Le projet de loi prévoit une amende administrative maximale de 2 milliards de VND pour les organisations et de 1 milliard de VND pour les particuliers.
Pour les infractions graves, l'amende maximale peut atteindre 2 % du chiffre d'affaires de l'organisation au cours de l'exercice précédent. En cas de récidive, l'amende maximale peut atteindre 2 % du chiffre d'affaires mondial de l'organisation au cours de l'exercice précédent.
Outre le traitement des infractions, le gouvernement a également proposé de nombreuses politiques visant à soutenir la recherche, l'investissement et la formation de ressources humaines de haute qualité, créant ainsi les conditions permettant aux entreprises, aux organisations et aux particuliers de participer au développement et à l'application de l'intelligence artificielle.

Le président de la commission des sciences, des technologies et de l'environnement, Nguyen Thanh Hai, a présenté le rapport d'examen.
Présentant le rapport d'examen, le président du Comité des sciences, des technologies et de l'environnement, Nguyen Thanh Hai, a déclaré que le Comité était globalement d'accord avec la classification des risques en 4 niveaux (risques faibles, moyens, élevés et inacceptables).
« Toutefois, le projet de loi ne définit pas clairement les critères quantitatifs ou qualitatifs permettant d'identifier et de classer les risques, et ne prévoit aucune réglementation sur les mesures de gestion, les outils et les méthodes d'évaluation des risques ; la classification et l'auto-classification des risques sont donc difficiles, ce qui soulève des inquiétudes quant à la responsabilité juridique lors de sa mise en œuvre », a déclaré Mme Nguyen Thanh Hai.
Concernant la réglementation relative aux inspections préalables, l'organisme d'audit a proposé de revoir et de réduire certaines exigences, telles que les exigences en matière de documents techniques et de registres d'exploitation, avant la mise en circulation des produits. Ces exigences augmenteraient les coûts de mise en conformité, ralentiraient le processus d'innovation et d'application de l'IA, réduiraient la compétitivité et l'attractivité des investissements, et nécessitent l'étude d'une transition significative vers un mécanisme d'inspection postérieure.
Concernant la base de données nationale des systèmes d'intelligence artificielle et des bases de données au service de l'intelligence artificielle, le Comité des sciences, des technologies et de l'environnement a proposé d'ajouter des principes fondamentaux pour garantir la qualité des données au service de l'IA, tels que : les données doivent être « correctes, suffisantes, propres et vivantes » et partagées de manière unifiée.
En outre, selon l'organisme d'inspection, il est nécessaire de mettre en place un mécanisme d'interconnexion et de partage des données afin d'éviter leur dispersion, ce qui créerait des goulots d'étranglement dans la recherche et le développement en IA ; ainsi que des principes obligatoires visant à garantir la sécurité du réseau, la sécurité des données et la défense de l'infrastructure nationale d'IA, afin de prévenir les risques de détournement et de fuite de données.
Concernant la responsabilité juridique des parties impliquées, les actions et erreurs commises par les humains peuvent également être reproduites par l'IA. Par ailleurs, les avis divergent quant à la responsabilité juridique de l'IA elle-même, ce qui rend difficile sa détermination au sens traditionnel du terme. En cas d'incident, des litiges relatifs à la responsabilité administrative, civile et pénale peuvent survenir.
« Il est donc nécessaire de compléter les principes afin de distinguer les responsabilités entre les sujets et les parties liées, y compris les fournisseurs étrangers, lors de la fourniture de services d'IA transfrontaliers, et de faire la distinction entre les cas intentionnels et non intentionnels ou les erreurs dues à des limitations techniques et à des situations imprévisibles », a déclaré le président de la commission des sciences, des technologies et de l'environnement.
Concernant les actes interdits, l'organisme d'inspection a proposé de compléter la réglementation relative à ces actes afin de contribuer à l'identification précoce des infractions, depuis la phase de recherche jusqu'au déploiement de l'utilisation de l'IA.
Cela doit inclure le comportement des utilisateurs, des organisations et des individus qui tirent parti de l'IA pour commettre des actes interdits dans les directions suivantes : interdire l'utilisation de l'IA pour semer le désordre, inciter à la politique, porter atteinte à la sécurité nationale, manipuler les votes et les élections ; interdire l'utilisation de l'IA pour créer du faux contenu, créer des images, des clips vidéo à des fins de fraude, d'insulte à l'honneur, à la dignité, de division et autres fins malveillantes.
Anglais






Comment (0)