Les législateurs continueront de discuter des réglementations détaillées dans les semaines à venir afin que le processus final puisse être achevé au début de l'année prochaine, et devrait s'appliquer à partir de 2026.

D’ici là, les entreprises sont encouragées à adhérer au Pacte volontaire sur l’IA afin de mettre en œuvre les obligations clés de la réglementation.

Vous trouverez ci-dessous les principaux éléments de l'accord conclu par l'UE.

Système à haut risque

Les systèmes d'IA dits à haut risque – ceux considérés comme susceptibles de causer un préjudice important à la santé, à la sécurité, aux droits fondamentaux, à l'environnement, à la démocratie, aux élections et à l'état de droit – devront se conformer à une série d'exigences, telles que la réalisation de tests évaluant leur impact sur les droits fondamentaux et les obligations d'accès au marché de l'UE.

eltqxowexvjbnmywubkxiyj3ha.jpg
Huenit, une caméra dotée d'intelligence artificielle montée sur un bras robotisé, présentée lors d'un salon des technologies grand public à Berlin le 1er septembre 2023. Photo : Reuters

Les systèmes à faible risque, quant à eux, seraient soumis à des obligations de transparence allégées, comme l'étiquetage du contenu généré par l'IA afin que les utilisateurs puissent envisager de l'utiliser.

L'IA dans les forces de l'ordre

Les forces de l'ordre ne sont autorisées à utiliser des systèmes d'identification biométrique à distance en temps réel dans les espaces publics que pour identifier les victimes d'enlèvement, de traite des êtres humains, d'exploitation sexuelle et pour prévenir les menaces terroristes spécifiques et imminentes.

Les autorités seront également autorisées à utiliser l'intelligence artificielle pour traquer les suspects de terrorisme, de trafic d'êtres humains, d'exploitation sexuelle, de meurtre, d'enlèvement, de viol, de vol à main armée, de participation à une organisation criminelle et de crimes environnementaux.

Systèmes d'IA générale et de plateforme (GPAI)

GPAI et les modèles sous-jacents seront soumis à des exigences de transparence telles que la production de documentation technique, le respect du droit d'auteur de l'UE et la publication de résumés détaillés du contenu utilisé pour entraîner les algorithmes.

Les modèles de plateformes qui entrent dans la catégorie des plateformes susceptibles de créer un risque systémique et des GPAI à fort impact devront faire l'objet d'une évaluation générale du modèle, examiner et atténuer les risques, procéder à une ingénierie inverse, notifier la Commission européenne des incidents graves, assurer la cybersécurité et rendre compte de leur consommation d'énergie.

owaad7543vnahei6k3ozfuuo5u.jpg
Le robot « Rmeca » au Good Global Summit à Genève, en Suisse. Photo : Reuters

En attendant la publication de normes harmonisées de l'UE, les GPAI courent le risque systémique de devoir s'appuyer sur des codes de bonnes pratiques pour se conformer à la réglementation.

Les systèmes d'IA sont interdits

Les comportements et contenus interdits comprennent : les systèmes de classification biométrique qui utilisent des caractéristiques sensibles telles que les convictions politiques , religieuses ou philosophiques, l’orientation sexuelle et l’origine ethnique ;

Analyse non ciblée d'images faciales provenant d'Internet ou de séquences de vidéosurveillance pour créer une base de données de reconnaissance faciale ;

La reconnaissance des émotions en milieu de travail et en milieu éducatif ;

Le score social est basé sur le comportement social ou les traits de personnalité ;

Les systèmes d'IA manipulent le comportement humain pour subvertir son libre arbitre ;

L'IA est utilisée pour exploiter les faiblesses humaines liées à l'âge, au handicap, à la situation économique ou sociale.

Sanctions

Selon la violation et la taille de l'entreprise concernée, les amendes commenceront à partir de 7,5 millions d'euros (8 millions de dollars) ou 1,5 % du chiffre d'affaires mondial annuel, et pourront atteindre 35 millions d'euros ou 7 % du chiffre d'affaires mondial.

(Selon Reuters)

L'UE conclut un accord historique pour réglementer l'intelligence artificielle

L'UE conclut un accord historique pour réglementer l'intelligence artificielle

Un accord entre le Parlement européen et les États membres réglementera l'intelligence artificielle (IA), les médias sociaux et les moteurs de recherche.
L'UE parvient à un accord sur la loi de protection des appareils intelligents

L'UE parvient à un accord sur la loi de protection des appareils intelligents

Le 30 novembre, les législateurs de l'UE sont parvenus à un accord préliminaire sur une proposition visant à protéger les objets connectés, exigeant une assurance en matière de cybersécurité pour les produits comportant des éléments numériques avant leur mise en circulation sur ce marché.
L'UE durcit le ton envers les géants de la tech et menace de démanteler les entreprises contrevenantes.

L'UE durcit le ton envers les géants de la tech et menace de démanteler les entreprises contrevenantes.

L'Union européenne (UE) continue de renforcer le contrôle des grandes entreprises technologiques par des sanctions strictes, pouvant entraîner des amendes de 10 à 20 % du chiffre d'affaires mondial, voire forcer le démantèlement des entreprises qui ne respectent pas la réglementation.