El desarrollo inesperadamente rápido de ChatGPT, un chatbot de inteligencia artificial (IA) con funciones superiores, ha cambiado la vida humana en cierta medida, especialmente en la forma de trabajar. Sin embargo, los riesgos asociados a esta tecnología han suscitado preocupación entre las autoridades de muchos países, especialmente en lo que respecta a los datos de los usuarios.
En el contexto de que el mundo aún carece de un nuevo marco legal sólido para gestionar eficazmente la IA y garantizar una alta confiabilidad para los usuarios, muchos países han comenzado a tomar medidas para regular el uso de ChatGPT y la IA en general para minimizar los riesgos que trae esta tecnología.
Muchos países “toman medidas” con la IA
Italia está a la vanguardia en la emisión de una decisión para prohibir ChatGPT.
El 31 de marzo, las autoridades italianas emitieron una prohibición temporal de la aplicación ChatGPT debido a preocupaciones sobre la privacidad y al fracaso de la aplicación para verificar a los usuarios mayores de 13 años como lo exige Italia. Al mismo tiempo, Italia también dijo que abriría una investigación sobre cómo OpenAI utiliza los datos de los usuarios.
Tras la prohibición de ChatGPT en Italia, varios países han tomado medidas contra la aplicación. (Foto: Reuters).
La autoridad de protección de datos de Italia ha dado a OpenAI (la empresa que creó ChatGPT) un plazo hasta finales de abril para cumplir con los requisitos de protección de datos y privacidad antes de reanudar sus operaciones normales en el país.
Inmediatamente después de la decisión de Italia, muchos países comenzaron a "seguir" a este país al bloquear ChatGPT debido a preocupaciones relacionadas con la seguridad y la privacidad de los datos.
Los reguladores de privacidad y seguridad franceses e irlandeses se han puesto en contacto con sus homólogos en Italia para conocer la base de la prohibición. El organismo de control de la privacidad de Francia, la CNIL, dijo el 11 de abril que estaba investigando varias quejas sobre ChatGPT.
El comisionado de protección de datos de Alemania afirma que es probable que Berlín "siga los pasos de Italia" y bloquee ChatGPT.
Cabe destacar que la Autoridad Europea de Protección de Datos (CEPD) creó un grupo de trabajo sobre ChatGPT el 13 de abril, declarando: «Los Estados miembros del CEPD analizaron las recientes medidas de ejecución adoptadas por la autoridad italiana de protección de datos contra OpenAI en relación con el servicio ChatGPT. El CEPD decidió crear un grupo de trabajo para promover la cooperación e intercambiar información sobre posibles medidas de ejecución».
Además, los legisladores de la Unión Europea (UE) también están discutiendo la Ley de IA de la UE, que regularía a cualquiera que proporcione productos o servicios utilizando IA, incluidos los sistemas que generan contenido, predicciones, recomendaciones o decisiones que afecten al medio ambiente. La UE también propone clasificar diferentes herramientas de IA según su nivel de riesgo, desde bajo a inaceptable.
La agencia de protección de datos de España, AEPD, anunció que está llevando a cabo una investigación preliminar sobre las violaciones de datos de ChatGPT.
En Australia, el Ministerio de Ciencia y Tecnología anunció el 12 de abril que el gobierno había pedido asesoramiento a su organismo asesor científico sobre cómo responder a la IA y estaba considerando los próximos pasos.
La medida plantea preguntas sobre cuán segura es la IA y qué pueden hacer los gobiernos para mitigar los riesgos involucrados. Un informe de marzo de la consultora KPMG y la Asociación Australiana de la Industria de la Información concluyó que dos tercios de los australianos dijeron que no existían suficientes leyes o regulaciones para evitar el mal uso de la IA, mientras que menos de la mitad de los encuestados creían que la IA se estaba utilizando de forma segura en el lugar de trabajo.
Muchos países han comenzado a tomar medidas para regular la tecnología de IA. (Foto: Reuters).
En el Reino Unido, el gobierno ha dicho que pretende dividir la responsabilidad de regular la IA entre los organismos de derechos humanos, salud y seguridad y competencia, en lugar de crear un nuevo regulador.
Recientemente, el líder de la mayoría demócrata en el Senado de Estados Unidos, Chuck Schumer, redactó y publicó un nuevo marco regulatorio sobre IA que puede prevenir daños potencialmente catastróficos al país. La propuesta de Schumer requeriría que las empresas permitan que expertos independientes revisen y prueben la tecnología de IA antes de lanzarla o actualizarla.
El 11 de abril, el Departamento de Comercio de Estados Unidos dijo que estaba buscando comentarios públicos sobre las medidas de responsabilidad en materia de IA.
Mientras tanto, el Centro de Inteligencia Artificial y Política Digital de EE. UU. ha pedido a la Comisión de Comercio que impida que OpenAI lance nuevas versiones comerciales de GPT-4, argumentando que la tecnología es “sesgada, engañosa y plantea riesgos para la privacidad y la seguridad pública”.
Mientras tanto, en Japón, el ministro de Transformación Digital, Taro Kono, dijo que quiere que la próxima reunión de ministros digitales del G7, programada para fines de abril, discuta las tecnologías de IA, incluido ChatGPT, y entregue un mensaje unificado del G7.
China anunció recientemente medidas planificadas para regular los servicios de IA, diciendo que las empresas que envían tecnología de IA deben presentar evaluaciones de seguridad a las autoridades antes de lanzar el servicio al mercado.
Los expertos advierten sobre los peligros de la IA
Algunos expertos dicen que la IA podría conducir a un “desastre de nivel nuclear”. (Foto: Reuters).
Una encuesta publicada por el Instituto de Inteligencia Artificial de la Universidad de Stanford a principios de abril encontró que el 36% de los investigadores cree que la IA podría conducir a una “catástrofe de nivel nuclear”, lo que subraya aún más las preocupaciones existentes sobre el rápido desarrollo de la tecnología.
Mientras tanto, el 73% de la IA conducirá a un “cambio social revolucionario”.
El informe señala que, si bien las capacidades de estas tecnologías eran inimaginables hace una década, son ilusorias, sesgadas y vulnerables a la explotación con fines nefastos. Esto crea desafíos éticos cuando los usuarios utilizan dichos servicios.
El informe también señala que el número de “incidentes y controversias” relacionados con la IA se ha multiplicado por 26 en la última década.
El mes pasado, el multimillonario Elon Musk y el cofundador de Apple, Steve Wozniak, estuvieron entre los miles de expertos en tecnología que firmaron una carta pidiendo una pausa en el entrenamiento de sistemas de IA más potentes que el chatbot GPT-4 de Open AI, diciendo que "los sistemas de IA potentes solo deben desarrollarse una vez que estemos seguros de que su impacto será positivo y sus riesgos serán manejables".
Yongkang (Reuters, AL Jazeera, ABC)
[anuncio_2]
Fuente
Kommentar (0)