Los legisladores continuarán discutiendo regulaciones detalladas en las próximas semanas para que el proceso final pueda completarse a principios del próximo año y se espera que se aplique a partir de 2026.
Hasta entonces, se anima a las empresas a adherirse al Pacto de IA voluntario para implementar las obligaciones clave de las reglas.
A continuación se presentan los principales contenidos del acuerdo alcanzado por la UE.
Sistema de alto riesgo
Los llamados sistemas de IA de alto riesgo (aquellos que se considera que pueden causar daños significativos a la salud, la seguridad, los derechos fundamentales, el medio ambiente, la democracia, las elecciones y el Estado de derecho) tendrán que cumplir una serie de requisitos, como someterse a pruebas que evalúen el impacto en los derechos fundamentales y las obligaciones de acceso al mercado de la UE.
Mientras tanto, los sistemas de bajo riesgo estarían sujetos a obligaciones de transparencia más leves, como etiquetar el contenido generado por IA para que los usuarios puedan considerar su uso.
La IA en la aplicación de la ley
Los organismos encargados de hacer cumplir la ley sólo pueden utilizar sistemas de identificación biométrica remota en tiempo real en espacios públicos, para identificar a víctimas de secuestro, trata de personas, explotación sexual y para prevenir amenazas terroristas específicas e inminentes.
Las autoridades también podrán utilizar tecnología de inteligencia artificial para rastrear a sospechosos de terrorismo, trata de personas, explotación sexual, asesinato, secuestro, violación, robo a mano armada, participación en una organización criminal y delitos ambientales.
Sistemas de IA general y de plataforma (GPAI)
GPAI y los modelos subyacentes estarán sujetos a requisitos de transparencia, como la producción de documentación técnica, el cumplimiento de la legislación de derechos de autor de la UE y la publicación de resúmenes detallados del contenido utilizado para entrenar los algoritmos.
Los modelos de plataforma que entran en la categoría de potencial creación de riesgo sistémico y GPAI de alto impacto deberán realizar una evaluación general del modelo, revisar y mitigar los riesgos, realizar ingeniería inversa, notificar a la Comisión Europea sobre incidentes graves, garantizar la ciberseguridad e informar sobre el consumo de energía.
Hasta que se publiquen las normas armonizadas de la UE, las GPAI corren el riesgo sistemático de depender de códigos de práctica para cumplir con las regulaciones.
Sistemas de IA prohibidos
Las conductas y contenidos prohibidos incluyen: Sistemas de clasificación biométrica que utilizan características sensibles como creencias políticas , religiosas, filosóficas, orientación sexual y raza;
Escaneo no dirigido de imágenes faciales de Internet o de grabaciones de CCTV para crear una base de datos de reconocimiento facial;
Reconocimiento de emociones en el lugar de trabajo y en entornos educativos ;
La puntuación social se basa en el comportamiento social o rasgos personales;
Los sistemas de IA manipulan el comportamiento humano para subvertir su libre albedrío;
La IA se utiliza para explotar las debilidades humanas debido a su edad, discapacidad o circunstancias económicas o sociales.
Sanciones
Dependiendo de la infracción y del tamaño de la empresa implicada, las multas comenzarán desde 7,5 millones de euros (8 millones de dólares) o el 1,5% de la facturación global anual, hasta 35 millones de euros o el 7% de la facturación global.
(Según Reuters)
La UE alcanza un acuerdo histórico para regular la inteligencia artificial
La UE llega a un acuerdo sobre la Ley de Protección de Dispositivos Inteligentes
La UE se muestra dura con los gigantes tecnológicos y amenaza con desmantelar las empresas que incumplan las normas
[anuncio_2]
Fuente
Kommentar (0)