S’appuyant sur l’expérience de nombreux pays et sur les principes de l’UNESCO, le Vietnam élabore des réglementations pour développer l’intelligence artificielle (IA) de manière éthique et responsable.
Lors de l'atelier « Développement et application de l'intelligence artificielle responsable : théorie et pratique », qui s'est tenu le matin du 28 février à l'Université de droit de VNU, le vice-ministre des Sciences et de la Technologie Bui The Duy, a déclaré que l'éthique de l'IA est une question complexe et mondiale qui attire de nombreux pays et organisations du monde entier pour participer à la recherche de solutions, y compris l'UNESCO.
« L'UNESCO est une organisation axée sur la culture et l'éducation . Cependant, pour la première fois, elle a intégré l'intelligence artificielle – un sujet lié aux technologies – à ses débats. Cette initiative a même incité certains pays qui l'avaient quittée à la rejoindre », a-t-il déclaré.
Selon le vice-ministre, l'éthique de l'IA influence de nombreux aspects de la vie, tels que la société, le droit, la concurrence politique et commerciale. Pour que l'intelligence artificielle se développe de manière responsable, la gestion doit être prise au sérieux, depuis la définition des modèles d'IA et la collecte des données jusqu'à la finalisation du système et sa mise en œuvre. Dans la réalité vietnamienne, ce processus requiert la coordination d'ingénieurs, de scientifiques et d'organismes de gestion tels que le ministère des Sciences et des Technologies, le ministère de l'Information et des Communications et le ministère de la Sécurité publique .
Lors de l'atelier, M. Duy a également déclaré que les principes de l'UNESCO constituent la base sur laquelle les pays peuvent s'appuyer pour élaborer des réglementations sur l'éthique de l'IA. Premièrement, les modèles d'intelligence artificielle doivent respecter la conception et les tâches établies dès le départ, afin de garantir l'absence d'actions destructrices portant préjudice aux êtres humains.
« L'IA est totalement différente des technologies développées par les humains. Alors que les produits technologiques traditionnels se contentent de poursuivre des objectifs existants, l'IA peut créer de nouvelles directions par elle-même, échappant au contrôle du développeur », a-t-il déclaré. Le vice-ministre a également cité l'exemple d'un cas où des scientifiques ont laissé deux systèmes informatiques communiquer en anglais. Cependant, après un certain temps, ils ont soudainement adopté une langue étrangère, empêchant l'équipe de recherche de saisir le contenu de la conversation.
La question de l'égalité et de l'équité est également une préoccupation lors de la construction d'un modèle d'IA. Selon M. Duy, dès la collecte d'informations pour entraîner l'intelligence artificielle, des inégalités peuvent survenir et nuire à l'ensemble du système.
Avec le modèle de reconnaissance vocale par IA, a-t-il expliqué, si les données sont collectées uniquement auprès des habitants de Hanoï, le système sera biaisé lors des interactions avec des personnes d'autres régions. « Plus généralement, les sources de données par IA peuvent engendrer des injustices entre les sexes et les groupes sociaux, comme les personnes handicapées », a-t-il ajouté. Par conséquent, pour un développement équitable de l'IA, la participation d'experts juridiques et celle de psychologues et de sociologues sont également nécessaires.
En outre, le représentant du ministère a également souligné certains principes importants de l'éthique de l'IA tels que la garantie de la sécurité des données personnelles, le respect du droit d'auteur, des droits de propriété intellectuelle, l'amélioration de la productivité du travail mais la nécessité de protéger l'environnement et la sécurité sociale.
Le vice-ministre Bui The Duy s'exprime lors de l'atelier. Photo : Hoang Giang
Lors de l'atelier, les experts ont déclaré que le Vietnam surveillait la mise en œuvre des réglementations sur le développement responsable de l'IA dans de nombreux pays et régions du monde, afin de rechercher et de construire un cadre juridique adapté à la pratique nationale.
Concrètement, fin 2023, l’Union européenne a adopté les principes de la loi sur l’IA, dont la publication est prévue au plus tard au deuxième trimestre 2024. Il s’agit actuellement de la première loi et de la plus complète, avec de nombreuses initiatives pour faire face aux risques liés à l’IA.
« La loi de 2024 sur l'IA s'appuiera sur les risques liés aux modèles d'IA pour adapter la législation en conséquence, en intégrant un environnement de test et une approche souple en matière d'éthique, de fiabilité et de responsabilité », a déclaré le Dr Do Giang Nam, de la Faculté de droit de la VNU, lors de l'atelier. Selon lui, l'expérience tirée de la loi sur l'IA que le Vietnam peut appliquer ne consiste pas à « élaborer une loi une fois pour toutes, mais à la mettre à jour et à l'adapter en permanence au développement des technologies de l'IA ».
Contrairement à l'Europe, les États-Unis s'appuient sur le secteur privé pour développer une gouvernance de l'IA. Les États-Unis sont également le pays où les entreprises d'IA sont le plus poursuivies en justice, principalement pour atteinte à la vie privée et discrimination entre groupes de travailleurs. Selon les experts, au lieu d'un ensemble de lois fixes, les États-Unis ont tendance à édicter de nombreux principes afin de permettre aux organisations et aux individus de faire preuve de flexibilité dans le développement et l'application des modèles d'IA.
La Chine et le Japon sont également deux pays qui ont réalisé d'importants progrès dans le développement d'une IA responsable. Depuis 2019, ce pays d'un milliard d'habitants a publié quatre principes, axés sur les modélisateurs, les utilisateurs, la gouvernance de l'IA et les orientations futures du développement de l'IA. Ainsi, la Chine a choisi de développer l'IA de manière autonome et de promouvoir une gouvernance nationale, tandis que le Japon vise un code de conduite de l'IA centré sur l'humain, tout en garantissant sa participation aux forums internationaux.
« La gestion de l'intelligence artificielle dans des pays de la même région, comme la Chine et le Japon, peut être une expérience pour le développement d'une IA responsable au Vietnam. Outre la légalité, la responsabilité est ici aussi une responsabilité envers la société et les citoyens », a déclaré la professeure agrégée Nguyen Thi Que Anh, directrice de la Faculté de droit de la VNU. Par ailleurs, le Vietnam élabore actuellement une loi sur l'industrie des technologies numériques, qui inclut des dispositions sur l'éthique des produits numériques, y compris l'intelligence artificielle.
Hoang Giang
Lien source
Comment (0)