SGGP
Dans le but de renforcer la réglementation de l'IA, les principaux législateurs de l'Union européenne (UE) ont convenu de plusieurs amendements aux projets de réglementation sur l'intelligence artificielle (IA) pour freiner l'IA générative, comme ChatGPT.
Panasonic Connect Corporation a aidé ses employés japonais à utiliser des systèmes d'IA pour améliorer leur productivité. Photo : Nikkei Asia |
En attendant la première loi complète
Le vote décisif du projet de loi sur la régulation de l'IA, le 11 mai, a marqué une nouvelle étape dans le processus d'adoption d'une loi qui encadrera officiellement les outils d'IA comme ChatGPT. Les commissions de la protection des consommateurs et des libertés civiles du Parlement européen (PE) ont approuvé le projet de texte, affirmant la nécessité de réglementer l'utilisation de l'IA dans l'UE, tout en favorisant l'innovation dans ce domaine et en respectant les droits fondamentaux, selon lesquels l'IA doit servir les personnes, la société et l'environnement.
Après deux ans de discussions, la loi sur l'IA attendue dans l'UE deviendra la première loi complète à réglementer cette technologie, car elle a ajouté des dispositions interdisant l'utilisation de la technologie de reconnaissance faciale dans les lieux publics (ce qui devrait provoquer des conflits entre les pays de l'UE) et des outils utilisant des algorithmes pour prédire les comportements criminels, des applications d'IA génératives telles que ChatGPT d'OpenAI, des contrôles biométriques... En conséquence, ces applications doivent envoyer des notifications pour rappeler aux utilisateurs que les produits de ces outils sont créés par des machines et non par des humains.
Le document comprend également une section demandant des critères supplémentaires pour identifier les zones à haut risque pour les applications d'IA, limitant ainsi la portée de la conception des outils. Les outils d'IA seront classés selon leur niveau de risque. Les gouvernements et les entreprises qui les utilisent seront soumis à des obligations différentes selon le niveau de risque.
Le projet de texte sera présenté au Parlement européen le mois prochain avant d'être transmis aux États membres pour examen et finalisation. Si la liste proposée par la Commission européenne (CE) inclut déjà des cas d'utilisation de l'IA dans la gestion des infrastructures critiques, l'éducation , les ressources humaines, l'ordre public et l'immigration, les députés souhaitent également ajouter des seuils pour délimiter les menaces pour la sécurité, la santé et les droits fondamentaux.
Le Japon prendra les devants
De nombreux pays cherchent également des solutions au problème consistant à empêcher les industries nationales de prendre du retard et à répondre aux préoccupations des citoyens en matière de protection de la vie privée.
En Asie, le tout premier Conseil stratégique sur l'intelligence artificielle du gouvernement japonais s'est réuni afin d'établir un cadre pour guider le développement de l'IA. S'adressant au Conseil, le Premier ministre Fumio Kishida a déclaré : « L'IA a le potentiel de transformer positivement notre société économique , mais elle comporte aussi des risques. Il est important d'aborder ces deux questions de manière appropriée. »
L'utilisation de l'IA contribuera à renforcer la compétitivité industrielle et à résoudre les problèmes de la société dans son ensemble. Cependant, l'IA doit être utilisée de manière raisonnée et minimiser les risques pour les utilisateurs. Cependant, jusqu'à présent, les discussions ont principalement porté sur les aspects techniques. Les experts japonais préconisent qu'à l'avenir, les discussions soient menées dans une perspective plus large, en impliquant des secteurs tels que les affaires et le droit. Nikkei Asia a déclaré que l'un des défis du Japon consiste à améliorer le niveau de développement de l'IA au niveau national, tout en se concentrant sur la réglementation de l'utilisation de l'IA en général, où la sécurité, la confidentialité et le droit d'auteur sont des enjeux importants.
L'IA commence à bouleverser le quotidien, les fausses images et vidéos, ainsi que les textes générés par des robots, suscitant des inquiétudes allant de la sécurité nationale à la désinformation. Les ministres du numérique et des technologies du Groupe des Sept (G7) ont convenu d'élaborer des lignes directrices sur le développement et l'utilisation de l'IA en général d'ici la fin de l'année. Alors que le Japon assumera la présidence du G7 en 2023, le Premier ministre Kishida a déclaré que son pays jouerait un rôle moteur dans l'élaboration de règles internationales visant à exploiter pleinement les promesses de l'IA artificielle et à gérer ses risques.
À l'instar du Japon, la Maison Blanche a annoncé la semaine dernière un investissement de 140 millions de dollars pour la création de sept centres de recherche sur l'IA et la publication de lignes directrices sur l'utilisation de cette technologie de pointe. L'objectif est de créer des règles qui minimisent les risques sans entraver le développement d'innovations basées sur l'IA. S'exprimant devant le Conseil consultatif sur la science et la technologie, le président américain Joe Biden a souligné que l'IA peut contribuer à relever des défis majeurs tels que les maladies et le changement climatique, mais que nous devons également tenir compte des risques potentiels pour la société, l'économie et la sécurité nationale. Les entreprises technologiques ont la responsabilité de garantir la sécurité de leurs produits avant leur mise sur le marché.
Source
Comment (0)