Anteriormente, los miembros de la UE acordaron utilizar la tecnología de escaneo facial en lugares públicos únicamente en ciertas situaciones de aplicación de la ley. Esto se considera una “línea roja” para los países a la hora de negociar con el Parlamento Europeo y la Comisión.
Algunos miembros de centroderecha propusieron excepciones que podrían utilizar tecnología de rastreo biométrico para ayudar a encontrar niños desaparecidos o prevenir ataques terroristas, pero esto tampoco fue aprobado en la votación plenaria.
Los legisladores acordaron tomar medidas adicionales contra las plataformas de IA generativa como GPT-4. En consecuencia, empresas como OpenAI y Google tendrán que realizar evaluaciones de riesgos y revelar qué materiales protegidos por derechos de autor se han utilizado para entrenar modelos de IA.
El enfoque de la UE sobre la regulación se basa en la evaluación de riesgos. Se centran en regular el uso de la IA en lugar de la tecnología en sí, prohibiendo por completo algunas aplicaciones como la puntuación social y estableciendo estándares para el uso de la tecnología en situaciones de “alto riesgo”.
El texto completo del proyecto de Ley de IA fue adoptado el 14 de junio, allanando el camino para un debate “tripartito” posterior entre el Parlamento Europeo, los Estados miembros y la Comisión Europea.
La Comisión espera llegar a un acuerdo a finales de año para que la Ley de IA entre en vigor para las empresas a partir de 2026. Mientras tanto, algunos funcionarios están presionando para que se establezca un "código de conducta" voluntario para las empresas que se aplicaría a las naciones del G-7, junto con India e Indonesia.
El endurecimiento de la regulación de la IA artificial por parte de la UE podría tener un impacto importante en un sector cuyo valor se estima en más de 1,3 billones de dólares en los próximos 10 años, ya que el incumplimiento de las normas del bloque podría resultar en multas de hasta el 6% de la facturación anual.
(Según Bloomberg)
[anuncio_2]
Fuente
Kommentar (0)