Segundo o Sr. Matsuno, Tóquio poderia considerar a aplicação de IA para reduzir a carga de trabalho dos funcionários públicos. No entanto, o Sr. Matsuno também mencionou os riscos dessa nova tecnologia, afirmando que o governo continuará a analisar como lidar com desafios como violações de dados e vazamentos de informações confidenciais.
A declaração foi feita pouco antes de uma reunião entre o primeiro-ministro Kishida Fumio e o CEO da OpenAI, Sam Altman, em Tóquio. Falando à imprensa após a reunião, Altman disse ter discutido com o primeiro-ministro Kishida as vantagens e as formas de mitigar as desvantagens da IA. Ele também afirmou que a OpenAI está considerando abrir um escritório e expandir suas operações no Japão em um futuro próximo.
Altman chegou ao Japão numa época em que várias universidades estavam estabelecendo padrões para o uso do ChatGPT e outras tecnologias de IA. Segundo a NHK, muitos alertavam sobre os impactos potencialmente incertos dessa tecnologia na educação .
Sam Altman, CEO da OpenAI, fala com a imprensa após reunião com o primeiro-ministro japonês Kishida Fumio em Tóquio, em 10 de abril. (Foto: Kyodo)
Anteriormente, o ChatGPT surgiu pela primeira vez em discussões no parlamento japonês em 29 de março. Naquela ocasião, o deputado Kazuma Nakatani, do Partido Democrático Constitucional, afirmou ter usado o ChatGPT para elaborar perguntas para o primeiro-ministro Kishida durante uma sessão relacionada ao ajuste das políticas de combate à COVID-19.
Fora do Japão, muitos expressam preocupação com a rápida adoção da IA. Recentemente, mais de 1.100 profissionais do setor assinaram uma petição pedindo a suspensão do desenvolvimento de sistemas de IA poderosos até que protocolos comuns e seguros estejam em vigor.
Especialistas em cibersegurança alertam para o risco de chatbots com inteligência artificial serem usados para escrever e-mails de phishing ou disseminar malware. Eles também sugerem que essa tecnologia pode facilitar ataques de ransomware.
No final do mês passado, a Agência Italiana de Proteção de Dados anunciou a proibição temporária do uso do ChatGPT no país. O motivo alegado foi que a OpenAI não informou corretamente os usuários sobre os dados coletados nem garantiu que os usuários do ChatGPT tivessem uma determinada idade.
Segundo a agência, a OpenAI coletou claramente uma grande quantidade de dados para treinar sua IA sem uma base legal, o que pode violar as leis italianas de proteção de dados pessoais.
Fonte






Comentário (0)