Según el Sr. Matsuno, Tokio podría considerar la aplicación de la IA para reducir la carga de trabajo de los funcionarios. Sin embargo, también mencionó los riesgos de esta nueva tecnología y afirmó que el gobierno seguirá considerando cómo abordar desafíos como las filtraciones de datos y la información confidencial.
La declaración se realizó justo antes de una reunión entre el primer ministro Kishida Fumio y el director ejecutivo de OpenAI, Sam Altman, en Tokio. En declaraciones a los medios tras la reunión, Altman afirmó haber conversado con el primer ministro Kishida sobre las ventajas y las maneras de mitigar las desventajas de la IA. También afirmó que OpenAI está considerando abrir una oficina y expandir sus operaciones en Japón próximamente.
Altman llegó a Japón en un momento en que varias universidades estaban estableciendo estándares para el uso de ChatGPT y otras tecnologías de IA. Según NHK, muchos advertían sobre los posibles impactos ambiguos de esta tecnología en la educación .
Sam Altman, director ejecutivo de OpenAI, habla con los medios tras reunirse con el primer ministro japonés, Kishida Fumio, en Tokio el 10 de abril. (Foto: Kyodo)
Anteriormente, ChatGPT apareció por primera vez en discusiones en el parlamento japonés el 29 de marzo. En ese momento, el diputado Kazuma Nakatani del Partido Democrático Constitucional declaró que había utilizado ChatGPT para redactar preguntas para el primer ministro Kishida durante una sesión relacionada con el ajuste de las políticas de COVID-19.
Fuera de Japón, muchos expresan su preocupación por la rápida adopción de la IA. Recientemente, más de 1100 profesionales del sector firmaron una petición exigiendo que se detenga el desarrollo de sistemas de IA potentes hasta que se implementen protocolos comunes y seguros.
Expertos en ciberseguridad advierten sobre el riesgo de que se utilicen chatbots con IA para enviar correos electrónicos de phishing o propagar malware. También sugieren que esta tecnología podría facilitar ataques de ransomware.
A finales del mes pasado, la Agencia Italiana de Protección de Datos anunció la prohibición temporal del uso de ChatGPT en el país. El motivo fue que OpenAI no informaba con precisión a los usuarios sobre los datos recopilados ni garantizaba que los usuarios de ChatGPT tuvieran cierta edad.
Según la agencia, OpenAI ha recopilado claramente una gran cantidad de datos para entrenar su IA sin una base legal, lo que puede violar las leyes de protección de datos personales de Italia.
[anuncio_2]
Fuente






Kommentar (0)