SGGP
En un intento por reforzar la regulación de la IA, legisladores clave de la Unión Europea (UE) han acordado varias enmiendas para redactar reglamentos sobre inteligencia artificial (IA) con el fin de frenar la IA generativa, como ChatGPT.
| Panasonic Connect Corporation ha ayudado a sus empleados en Japón a utilizar sistemas de IA para mejorar la productividad. Foto: Nikkei Asia |
A la espera de la primera ley completa
La votación decisiva del 11 de mayo sobre el proyecto de ley de regulación de la IA marcó un nuevo hito en el proceso de aprobación de una ley que regulará oficialmente herramientas de IA como ChatGPT. Las comisiones de protección del consumidor y libertades civiles del Parlamento Europeo aprobaron el borrador, reafirmando la necesidad de regular el uso de la IA en la UE, fomentando la innovación en este campo y respetando los derechos fundamentales, según los cuales la IA debe estar al servicio de las personas, la sociedad y el medio ambiente.
Tras dos años de debate, la Ley de IA que se espera en la UE se convertirá en la primera ley completa que regule esta tecnología, ya que ha añadido disposiciones que prohíben el uso de la tecnología de reconocimiento facial en lugares públicos (lo que se prevé que cause conflictos entre los países de la UE) y las herramientas que utilizan algoritmos para predecir el comportamiento delictivo, las aplicaciones de IA generativa como ChatGPT de OpenAI, las comprobaciones biométricas... En consecuencia, estas aplicaciones deben enviar notificaciones para recordar a los usuarios que los productos de estas herramientas son creados por máquinas, no por humanos.
El documento también incluye una sección que solicita criterios adicionales para identificar áreas de alto riesgo para las aplicaciones de IA, limitando así el alcance del diseño de las herramientas. Las herramientas de IA se clasificarán según el nivel de riesgo que cada una pueda representar. Los gobiernos y las empresas que utilicen estas herramientas estarán sujetos a diferentes obligaciones según dicho nivel de riesgo.
El borrador del texto se presentará al pleno del Parlamento Europeo el próximo mes antes de ser enviado a los Estados miembros de la UE para su revisión y aprobación final. Si bien la lista propuesta por la Comisión Europea ya incluye casos de uso de la IA en la gestión de infraestructuras críticas, la educación , los recursos humanos, el orden público y la inmigración, los eurodiputados también quieren añadir umbrales para delimitar las amenazas a la seguridad, la salud y los derechos fundamentales.
Japón tomará la delantera.
Muchos países también buscan soluciones al problema de evitar que las industrias nacionales se queden rezagadas y de abordar las preocupaciones de los ciudadanos sobre la privacidad.
En Asia, el gobierno japonés convocó su primer Consejo Estratégico de Inteligencia Artificial para establecer un marco que guíe el desarrollo de la IA. En su intervención ante el consejo, el primer ministro Fumio Kishida afirmó: «La IA tiene el potencial de transformar positivamente nuestra sociedad económica , pero también conlleva riesgos. Es fundamental abordar ambas cuestiones adecuadamente».
El uso de la tecnología de IA contribuirá a mejorar la competitividad industrial y a resolver problemas de toda la sociedad, pero su uso debe ser razonable y minimizar los riesgos para los usuarios. Sin embargo, hasta ahora, los debates se han centrado principalmente en aspectos técnicos. Expertos japoneses instan a que, en el futuro, los debates se aborden desde una perspectiva más amplia, con la participación de sectores como el empresarial y el jurídico. Nikkei Asia señaló que uno de los retos para Japón es cómo mejorar el nivel de desarrollo de la IA a nivel nacional, al tiempo que se regula su uso general, donde la seguridad, la privacidad y los derechos de autor son cuestiones fundamentales.
La IA está empezando a transformar la vida cotidiana, ya que las imágenes y vídeos falsos, así como los textos generados por robots, suscitan inquietudes que abarcan desde la seguridad nacional hasta la desinformación. Los ministros de tecnología digital del Grupo de los Siete (G7) acordaron elaborar directrices sobre el desarrollo y el uso de la IA general antes de que finalice el año. Con la presidencia japonesa del G7 prevista para 2023, el primer ministro Kishida afirmó que Japón liderará la formulación de normas internacionales para aprovechar al máximo el potencial de la IA y gestionar sus riesgos.
Al igual que Japón, la Casa Blanca anunció la semana pasada una inversión de 140 millones de dólares para establecer siete centros de investigación en inteligencia artificial (IA) y publicar directrices sobre el uso de esta tecnología avanzada. El objetivo es crear normas que minimicen los riesgos sin obstaculizar el desarrollo de innovaciones basadas en IA. En su intervención ante el Consejo de Asesores en Ciencia y Tecnología, el presidente estadounidense Joe Biden destacó que la IA puede ayudar a afrontar desafíos muy complejos, como las enfermedades y el cambio climático, pero también debemos abordar los riesgos potenciales para la sociedad, la economía y la seguridad nacional. Las empresas tecnológicas tienen la responsabilidad de garantizar la seguridad de sus productos antes de su comercialización.
Fuente






Kommentar (0)