Les membres de l’UE ont déjà convenu de n’utiliser la technologie de numérisation faciale en public que dans certaines situations d’application de la loi, une « ligne rouge » pour les pays en négociations avec le Parlement européen et la Commission.
Certains membres de centre-droit ont proposé des exceptions qui pourraient utiliser la technologie de suivi biométrique pour aider à retrouver des enfants disparus ou à prévenir des attaques terroristes, mais celles-ci n'ont pas non plus été approuvées lors du vote en plénière.
Les législateurs ont convenu d'imposer des mesures supplémentaires aux plateformes d'IA génératives comme GPT-4, obligeant des entreprises comme OpenAI et Google à effectuer des évaluations des risques et à divulguer quel matériel protégé par le droit d'auteur a été utilisé pour former les modèles d'IA.
L'approche réglementaire de l'UE repose sur une évaluation des risques. Elle privilégie l'utilisation de l'IA plutôt que la technologie elle-même, en interdisant purement et simplement certaines applications comme le scoring social et en fixant des normes pour l'utilisation de cette technologie dans les situations à haut risque.
Le texte intégral du projet de loi sur l’IA a été adopté le 14 juin, ouvrant la voie à une discussion « tripartite » entre le Parlement européen, les États membres et la Commission européenne.
La Commission espère parvenir à un accord d'ici la fin de cette année pour mettre en œuvre la loi sur l'IA pour les entreprises dès 2026. Parallèlement, certains responsables font pression pour un « code de conduite » volontaire pour les entreprises qui s'appliquerait aux pays du G-7, ainsi qu'à l'Inde et à l'Indonésie.
Le durcissement de la réglementation de l'UE sur l'IA artificielle pourrait avoir un impact majeur sur un secteur estimé à plus de 1,3 billion de dollars au cours des 10 prochaines années, car les violations des règles du bloc pourraient entraîner des amendes pouvant aller jusqu'à 6 % du chiffre d'affaires annuel.
(Selon Bloomberg)
Source
Comment (0)