El rápido e inesperado desarrollo de ChatGPT, un chatbot de inteligencia artificial (IA) con funciones avanzadas, ha transformado la vida humana en cierta medida, especialmente la forma de trabajar. Sin embargo, los riesgos asociados a esta tecnología han suscitado gran preocupación en las autoridades de muchos países, especialmente en lo que respecta a los datos de los usuarios.
En el contexto de que el mundo aún carece de un nuevo marco legal sólido para gestionar eficazmente la IA y garantizar una alta confiabilidad para los usuarios, muchos países han comenzado a tomar medidas para regular el uso de ChatGPT y la IA en general para minimizar los riesgos que esta tecnología trae consigo.
Muchos países “toman medidas” con la IA
Italia está a la vanguardia en la emisión de una decisión para prohibir ChatGPT.
El 31 de marzo, las autoridades italianas emitieron una prohibición temporal de la aplicación ChatGPT debido a preocupaciones sobre la privacidad y a que la aplicación no verificaba a los usuarios mayores de 13 años, como exige Italia. Al mismo tiempo, Italia también anunció que iniciaría una investigación sobre cómo OpenAI utiliza los datos de los usuarios.
Tras la prohibición de ChatGPT en Italia, muchos países han tomado medidas contra la aplicación. (Foto: Reuters)
La autoridad de protección de datos de Italia ha dado a OpenAI (la empresa que creó ChatGPT) un plazo hasta finales de abril para cumplir con los requisitos de protección de datos y privacidad antes de reanudar sus operaciones normales en el país.
Inmediatamente después de la decisión de Italia, muchos países comenzaron a "seguir" a este país al bloquear ChatGPT debido a preocupaciones relacionadas con la seguridad y la privacidad de los datos.
Los reguladores de privacidad y seguridad franceses e irlandeses se han puesto en contacto con sus homólogos italianos para conocer el fundamento de la prohibición. La CNIL, organismo de control de la privacidad francés, declaró el 11 de abril que estaba investigando varias quejas sobre ChatGPT.
El comisionado de protección de datos de Alemania dijo que es probable que Berlín "siga los pasos de Italia" y bloquee ChatGPT.
Cabe destacar que la Autoridad Europea de Protección de Datos (CEPD) creó un grupo de trabajo sobre ChatGPT el 13 de abril, declarando: «Los Estados miembros del CEPD analizaron la reciente medida coercitiva adoptada por la autoridad italiana de protección de datos contra OpenAI en relación con el servicio ChatGPT. El CEPD decidió crear un grupo de trabajo para promover la cooperación e intercambiar información sobre posibles medidas coercitivas».
Además, los legisladores de la Unión Europea (UE) también están debatiendo la Ley de IA de la UE, que regularía a cualquier persona que ofrezca productos o servicios mediante IA, incluidos los sistemas que generan contenido, predicciones, recomendaciones o decisiones que afectan al medio ambiente. La UE también propuso clasificar las diferentes herramientas de IA según su nivel de riesgo, de bajo a inaceptable.
La agencia de protección de datos de España, AEPD, anunció que está llevando a cabo una investigación preliminar sobre las violaciones de datos de ChatGPT.
En Australia, el Ministerio de Ciencia y Tecnología anunció el 12 de abril que el gobierno había pedido asesoramiento a su organismo asesor científico sobre cómo responder a la IA y estaba considerando los próximos pasos.
Esta medida plantea interrogantes sobre la seguridad de la IA y las medidas que pueden tomar los gobiernos para mitigar sus riesgos. Un informe de marzo de la consultora KPMG y la Asociación Australiana de la Industria de la Información reveló que dos tercios de los australianos afirmaron que no existían leyes ni regulaciones suficientes para prevenir el uso indebido de la IA, mientras que menos de la mitad creía que se utilizaba de forma segura en el lugar de trabajo.
Muchos países han comenzado a tomar medidas para regular la tecnología de IA. (Foto: Reuters)
En el Reino Unido, el gobierno ha dicho que pretende dividir la responsabilidad de regular la IA entre los organismos de derechos humanos, salud y seguridad y competencia, en lugar de crear un nuevo regulador.
Recientemente, el líder de la mayoría demócrata en el Senado estadounidense, Chuck Schumer, redactó y emitió un nuevo marco regulatorio sobre IA que podría prevenir daños catastróficos al país. La propuesta del Sr. Schumer exige que las empresas permitan que expertos independientes revisen y prueben la tecnología de IA antes de lanzarla o actualizarla.
El 11 de abril, el Departamento de Comercio de Estados Unidos dijo que estaba buscando comentarios públicos sobre las medidas de responsabilidad de la IA.
Mientras tanto, el Centro de Inteligencia Artificial y Política Digital de EE. UU. ha pedido a la Comisión de Comercio que impida que OpenAI lance nuevas versiones comerciales de GPT-4, argumentando que la tecnología es “sesgada, engañosa y plantea riesgos para la privacidad y la seguridad pública”.
Mientras tanto, en Japón, el ministro de Transformación Digital, Taro Kono, dijo que quiere que la próxima reunión de ministros digitales del G7, programada para fines de abril, discuta las tecnologías de inteligencia artificial, incluido ChatGPT, y entregue un mensaje unificado del G7.
China anunció recientemente medidas planificadas para regular los servicios de IA, diciendo que las empresas que envían tecnología de IA deben presentar evaluaciones de seguridad a las autoridades antes de lanzar los servicios al mercado.
Los expertos advierten sobre los peligros de la IA
Algunos expertos dicen que la IA podría conducir a un “desastre de nivel nuclear”. (Foto: Reuters)
Una encuesta publicada por el Instituto de Inteligencia Artificial de la Universidad de Stanford a principios de abril encontró que el 36% de los investigadores cree que la IA podría conducir a una “catástrofe de nivel nuclear”, lo que subraya aún más las preocupaciones existentes sobre el rápido desarrollo de la tecnología.
Mientras tanto, el 73% de la IA conducirá a un “cambio social revolucionario”.
El informe señala que si bien estas tecnologías ofrecen capacidades inimaginables hace una década, también son propensas a la ilusión, el sesgo y el abuso con fines nefastos, lo que crea desafíos éticos para los usuarios de estos servicios.
El informe también señaló que el número de “incidentes y controversias” relacionados con la IA se ha multiplicado por 26 en la última década.
El mes pasado, el multimillonario Elon Musk y el cofundador de Apple, Steve Wozniak, estuvieron entre los miles de expertos en tecnología que firmaron una carta pidiendo una pausa en el entrenamiento de sistemas de IA más potentes que el chatbot GPT-4 de Open AI, diciendo que "los sistemas de IA potentes solo deben desarrollarse una vez que estemos seguros de que su impacto será positivo y sus riesgos serán manejables".
Yongkang (Reuters, AL Jazeera, ABC)
[anuncio_2]
Fuente
Kommentar (0)