Les législateurs continueront de discuter des réglementations détaillées dans les semaines à venir afin que le processus final puisse être achevé au début de l'année prochaine, et devrait s'appliquer à partir de 2026.
D’ici là, les entreprises sont encouragées à adhérer au Pacte volontaire sur l’IA afin de mettre en œuvre les obligations clés de la réglementation.
Vous trouverez ci-dessous les principaux éléments de l'accord conclu par l'UE.
Système à haut risque
Les systèmes d'IA dits à haut risque – ceux considérés comme susceptibles de causer un préjudice important à la santé, à la sécurité, aux droits fondamentaux, à l'environnement, à la démocratie, aux élections et à l'état de droit – devront se conformer à une série d'exigences, telles que la réalisation de tests évaluant leur impact sur les droits fondamentaux et les obligations d'accès au marché de l'UE.
Les systèmes à faible risque, quant à eux, seraient soumis à des obligations de transparence allégées, comme l'étiquetage du contenu généré par l'IA afin que les utilisateurs puissent envisager de l'utiliser.
L'IA dans les forces de l'ordre
Les forces de l'ordre ne sont autorisées à utiliser des systèmes d'identification biométrique à distance en temps réel dans les espaces publics que pour identifier les victimes d'enlèvement, de traite des êtres humains, d'exploitation sexuelle et pour prévenir les menaces terroristes spécifiques et imminentes.
Les autorités seront également autorisées à utiliser l'intelligence artificielle pour traquer les suspects de terrorisme, de trafic d'êtres humains, d'exploitation sexuelle, de meurtre, d'enlèvement, de viol, de vol à main armée, de participation à une organisation criminelle et de crimes environnementaux.
Systèmes d'IA générale et de plateforme (GPAI)
GPAI et les modèles sous-jacents seront soumis à des exigences de transparence telles que la production de documentation technique, le respect du droit d'auteur de l'UE et la publication de résumés détaillés du contenu utilisé pour entraîner les algorithmes.
Les modèles de plateformes qui entrent dans la catégorie des plateformes susceptibles de créer un risque systémique et des GPAI à fort impact devront faire l'objet d'une évaluation générale du modèle, examiner et atténuer les risques, procéder à une ingénierie inverse, notifier la Commission européenne des incidents graves, assurer la cybersécurité et rendre compte de leur consommation d'énergie.
En attendant la publication de normes harmonisées de l'UE, les GPAI courent le risque systémique de devoir s'appuyer sur des codes de bonnes pratiques pour se conformer à la réglementation.
Les systèmes d'IA sont interdits
Les comportements et contenus interdits comprennent : les systèmes de classification biométrique qui utilisent des caractéristiques sensibles telles que les convictions politiques , religieuses ou philosophiques, l’orientation sexuelle et l’origine ethnique ;
Analyse non ciblée d'images faciales provenant d'Internet ou de séquences de vidéosurveillance pour créer une base de données de reconnaissance faciale ;
La reconnaissance des émotions en milieu de travail et en milieu éducatif ;
Le score social est basé sur le comportement social ou les traits de personnalité ;
Les systèmes d'IA manipulent le comportement humain pour subvertir son libre arbitre ;
L'IA est utilisée pour exploiter les faiblesses humaines liées à l'âge, au handicap, à la situation économique ou sociale.
Sanctions
Selon la violation et la taille de l'entreprise concernée, les amendes commenceront à partir de 7,5 millions d'euros (8 millions de dollars) ou 1,5 % du chiffre d'affaires mondial annuel, et pourront atteindre 35 millions d'euros ou 7 % du chiffre d'affaires mondial.
(Selon Reuters)
L'UE conclut un accord historique pour réglementer l'intelligence artificielle
L'UE parvient à un accord sur la loi de protection des appareils intelligents
L'UE durcit le ton envers les géants de la tech et menace de démanteler les entreprises contrevenantes.
Source






Comment (0)