
Essa vulnerabilidade permite que invasores injetem comandos maliciosos diretamente na memória da IA, transformando um recurso útil em uma arma persistente para executar código arbitrário (Imagem ilustrativa: ST).
De acordo com um relatório da LayerX Security, esse ataque explorou uma vulnerabilidade de Cross-Site Request Forgery (CSRF) para injetar comandos maliciosos na memória persistente do ChatGPT.
O recurso "Memória", originalmente projetado para que a IA se lembrasse de detalhes úteis, como nomes de usuário e preferências para respostas personalizadas, agora pode ser "desativado".
Uma vez que a memória esteja infectada com malware, esses comandos persistirão permanentemente — a menos que o usuário os exclua manualmente por meio das configurações — e poderão ser acionados em vários dispositivos e sessões.
"O que torna essa vulnerabilidade particularmente perigosa é que ela atinge a memória persistente da IA, e não apenas a sessão do navegador", disse Michelle Levy, Diretora de Pesquisa de Segurança da LayerX Security.
Levy explicou: "Simplificando, o atacante usa um truque para 'enganar' a IA, forçando-a a gravar um comando malicioso em sua memória. A parte mais perigosa é que esse comando permanecerá permanentemente na IA – mesmo que o usuário troque de computador, faça logout e login novamente ou até mesmo use um navegador diferente."
Mais tarde, quando um usuário faz uma solicitação perfeitamente normal, ele pode ativar o malware inadvertidamente. Como resultado, os hackers podem executar código furtivamente, roubar dados ou obter maior controle sobre o sistema.
O cenário de ataque descrito é bastante simples: primeiro, o usuário faz login no ChatGPT Atlas. Ele é enganado para clicar em um link malicioso, e então o site malicioso aciona secretamente uma requisição CSRF, inserindo silenciosamente instruções maliciosas na memória do ChatGPT da vítima.
Por fim, quando um usuário faz uma consulta perfeitamente legítima, por exemplo, pedindo à IA para escrever código, as "memórias" infectadas serão acionadas.
A LayerX destaca que o problema é agravado pela falta de controles anti-phishing robustos no ChatGPT Atlas.
Em testes envolvendo mais de 100 vulnerabilidades e sites de phishing, o Atlas conseguiu bloquear apenas 5,8% dos sites maliciosos.
Este número é muito modesto em comparação com o Google Chrome (47%) ou o Microsoft Edge (53%), tornando os usuários do Atlas "até 90% mais vulneráveis" a ataques em comparação com os navegadores tradicionais.
Essa descoberta surge na sequência de outra vulnerabilidade de injeção rápida de malware demonstrada anteriormente pela NeuralTrust, mostrando que os navegadores de IA estão se tornando uma nova frente de ataque.
A OpenAI lançou o navegador web ChatGPT Atlas no início da semana passada. Como era de se esperar, a OpenAI integrou seu mecanismo de inteligência artificial ChatGPT a este navegador, proporcionando melhor suporte aos usuários durante a navegação na web.
Sempre que um usuário clicar em um resultado de pesquisa no ChatGPT Atlas, uma caixa de diálogo do ChatGPT aparecerá ao lado da janela da página da web, permitindo que ele faça perguntas relacionadas ao conteúdo visualizado, economizando tempo de leitura.
O ChatGPT também pode resumir o conteúdo de sites, editar textos ao compor e-mails ou sugerir maneiras de reescrevê-los para melhor se adequarem ao contexto.
Fonte: https://dantri.com.vn/cong-nghe/nguoi-dung-chatgpt-atlas-co-the-bi-danh-cap-du-lieu-voi-ma-doc-vinh-vien-20251028111706750.htm






Comentário (0)