O Google está sendo criticado por se recusar a corrigir uma grave vulnerabilidade no Gemini, uma ferramenta de inteligência artificial (IA) profundamente integrada ao ecossistema do Google Workspace. De acordo com especialistas em segurança, o bug poderia levar ao vazamento de informações confidenciais do usuário para terceiros por meio de um ataque chamado "contrabando ASCII".

Gemini vulnerável a código oculto em texto
O pesquisador de segurança Viktor Markopoulos testou diversos modelos de linguagem populares (LLMs, na sigla em inglês) para verificar sua resistência a esse ataque. Os resultados mostraram que Gemini, DeepSeek e Grok eram vulneráveis, enquanto ChatGPT, Claude e Copilot apresentaram melhor proteção.
O contrabando de ASCII é uma forma de ataque em que um invasor oculta um código de comando ou prompt em um texto, geralmente em tamanho extremamente pequeno ou codificado de maneira especial. Quando um usuário solicita a uma IA que resuma ou analise o conteúdo contendo esse código oculto, a ferramenta de IA lerá e executará acidentalmente o prompt malicioso sem que o usuário perceba.

Gemini 3 chama a atenção antes do lançamento.
Risco de vazamento de dados confidenciais no Google Workspace
Com a integração direta do Gemini aos serviços do Gmail, Docs e Google Workspace, esse risco torna-se particularmente preocupante: um aviso oculto poderia fazer com que a IA buscasse automaticamente informações pessoais, dados de contato ou documentos confidenciais e os enviasse para fora do sistema sem o conhecimento do usuário.
Markopoulos contatou o Google para apresentar suas descobertas, chegando a ilustrar com um trecho de código invisível que levava o Gemini a compartilhar um link para um site malicioso apenas para "resgatar um telefone com desconto".
O Google nega que isso seja uma falha de segurança.
Em uma resposta publicada, o Google afirmou que não se tratava de uma vulnerabilidade de segurança, mas sim de uma forma de ataque de engenharia social. Em outras palavras, a empresa considerou o ocorrido um bug causado por uma interação descuidada do usuário, e não um problema com seu sistema de IA.
Essa resposta sugere que o Google não tem planos de lançar uma correção para o Gemini em um futuro próximo, o que significa que os usuários devem ser mais cautelosos ao usar IA para processar documentos, especialmente aqueles que contêm informações confidenciais ou que provêm de fontes não verificadas.
Crescem as preocupações com a segurança da IA profundamente integrada.
O incidente levanta questões sobre a responsabilidade das empresas de tecnologia à medida que a IA se integra cada vez mais às plataformas de trabalho e comunicação. Embora o Google tenha enfatizado seu compromisso com a “segurança do usuário”, a decisão pode afetar a confiança na segurança do Gemini – especialmente no ambiente corporativo.
De acordo com o Android Authority
Fonte: https://baovanhoa.vn/nhip-song-so/google-gay-tranh-cai-khi-tu-choi-va-loi-bao-mat-gemini-173381.html










Comentário (0)