Los legisladores continuarán debatiendo las regulaciones detalladas en las próximas semanas para que el proceso final pueda completarse a principios del próximo año, y se espera que entre en vigor a partir de 2026.
Hasta entonces, se anima a las empresas a que se adhieran al Pacto de IA voluntario para implementar las obligaciones clave de las normas.
A continuación se presentan los principales contenidos del acuerdo alcanzado por la UE.
Sistema de alto riesgo
Los denominados sistemas de IA de alto riesgo —aquellos que se consideran susceptibles de causar daños significativos a la salud, la seguridad, los derechos fundamentales, el medio ambiente, la democracia, las elecciones y el estado de derecho— deberán cumplir una serie de requisitos, como someterse a pruebas que evalúen el impacto en los derechos fundamentales y las obligaciones de acceso al mercado de la UE.
Mientras tanto, los sistemas de bajo riesgo estarían sujetos a obligaciones de transparencia más laxas, como el etiquetado del contenido generado por IA para que los usuarios puedan considerar su uso.
La inteligencia artificial en la aplicación de la ley
Los organismos encargados de hacer cumplir la ley solo pueden utilizar sistemas de identificación biométrica remota en tiempo real en espacios públicos para identificar a víctimas de secuestro, trata de personas, explotación sexual y para prevenir amenazas terroristas específicas e inminentes.
Las autoridades también podrán utilizar la tecnología de IA para rastrear a sospechosos de terrorismo, trata de personas, explotación sexual, asesinato, secuestro, violación, robo a mano armada, participación en organizaciones criminales y delitos ambientales.
Sistemas de IA general y de plataforma (GPAI)
GPAI y los modelos subyacentes estarán sujetos a requisitos de transparencia como la elaboración de documentación técnica, el cumplimiento de la legislación de derechos de autor de la UE y la publicación de resúmenes detallados del contenido utilizado para entrenar los algoritmos.
Los modelos de plataforma que entren en la categoría de riesgo sistémico potencial y GPAI de alto impacto deberán realizar una evaluación general del modelo, revisar y mitigar los riesgos, realizar ingeniería inversa, notificar a la Comisión Europea los incidentes graves, garantizar la ciberseguridad e informar sobre el consumo de energía.
Hasta que se publiquen las normas armonizadas de la UE, las GPAI corren el riesgo sistémico de depender de códigos de buenas prácticas para cumplir con las regulaciones.
Sistemas de IA prohibidos
Las conductas y contenidos prohibidos incluyen: sistemas de clasificación biométrica que utilizan características sensibles como creencias políticas , religiosas o filosóficas, orientación sexual y raza;
Escaneo no dirigido de imágenes faciales de Internet o grabaciones de CCTV para crear una base de datos de reconocimiento facial;
Reconocimiento de las emociones en el ámbito laboral y educativo ;
La puntuación social se basa en el comportamiento social o en los rasgos personales;
Los sistemas de IA manipulan el comportamiento humano para subvertir su libre albedrío;
La IA se utiliza para explotar las debilidades humanas derivadas de su edad, discapacidad o circunstancias económicas o sociales.
Sanciones
Dependiendo de la infracción y del tamaño de la empresa implicada, las multas partirán de 7,5 millones de euros (8 millones de dólares) o el 1,5% de la facturación global anual, y ascenderán hasta 35 millones de euros o el 7% de la facturación global.
(Según Reuters)
La UE alcanza un acuerdo histórico para regular la inteligencia artificial.
La UE alcanza un acuerdo sobre la Ley de Protección de Dispositivos Inteligentes
La UE se muestra dura con los gigantes tecnológicos y amenaza con desmantelar las empresas que infrinjan la ley.
Fuente






Kommentar (0)