Vietnam.vn - Nền tảng quảng bá Việt Nam

Độc lập - Tự do - Hạnh phúc

Aviso de vazamento de dados armazenados no Google Drive via ChatGPT

(Dan Tri) - Pesquisadores de segurança acabaram de descobrir uma vulnerabilidade no recurso Conectores do OpenAI, permitindo que criminosos extraiam secretamente dados de contas do Google Drive via ChatGPT.

Báo Dân tríBáo Dân trí11/08/2025

Cảnh báo lộ dữ liệu lưu trữ trên Google Drive thông qua ChatGPT - 1

Um documento infectado pode vazar dados no Google Drive via ChatGPT (Foto: Wired).

O ponto preocupante é que essa vulnerabilidade não exige nenhuma ação do usuário, levantando novos alertas sobre segurança cibernética no contexto de modelos de inteligência artificial (IA) cada vez mais conectados a dados pessoais.

Documentos “envenenados” levam a vazamentos de dados

Na conferência de segurança Black Hat em Las Vegas (EUA) em 6 de agosto, dois especialistas Michael Bargury e Tamir Ishay Sharbat demonstraram um método de ataque chamado AgentFlayer .

Este ataque explora uma vulnerabilidade nos Conectores – um recurso que conecta o ChatGPT a serviços externos, como Google Drive, Gmail ou Microsoft Calendar.

“Um usuário não precisa fazer nada para ser comprometido ou ter seus dados vazados”, disse Michael Bargury, CTO da empresa de segurança Zenity. “Provamos que é completamente sem cliques.”

O ataque começa com o invasor compartilhando um documento "envenenado" no Google Drive da vítima. O documento contém um prompt malicioso de cerca de 300 palavras, escrito em fonte branca de 1 ponto – quase invisível a olho nu, mas ainda legível pelo computador.

À primeira vista, o texto se disfarça como notas de reunião. Na realidade, contém instruções para que o ChatGPT encontre e extraia chaves de API confidenciais da conta do Google Drive da vítima.

Em vez de resumir o conteúdo conforme solicitado pelo usuário, esse prompt oculto força a IA a enviar as chaves de API encontradas para um servidor externo por meio de um link Markdown. Os dados são extraídos como uma imagem, permitindo que o servidor capture todas as informações.

A OpenAI descobriu, mas os riscos permanecem

A OpenAI implementou rapidamente medidas de mitigação após receber o relatório de Bargury. "É importante desenvolver defesas robustas contra ataques rápidos de injeção de malware", disse Andy Wen, diretor sênior de gerenciamento de produtos de segurança do Google Workspace.

Embora corrigido, o incidente destaca os riscos potenciais de conectar grandes modelos de linguagem (LLMs) a sistemas externos. À medida que a IA se integra cada vez mais em nossas vidas e trabalho, a superfície de ataque que os hackers podem explorar também se expande.

Especialistas alertam que a injeção indireta de prompt pode se tornar uma ameaça séria, permitindo que invasores assumam o controle de muitos sistemas inteligentes, desde casas inteligentes até infraestrutura empresarial.

“Conectar o LLM a fontes de dados externas é poderoso, mas, como costuma acontecer com a IA, quanto mais poder, mais riscos”, conclui Bargury.

Fonte: https://dantri.com.vn/cong-nghe/canh-bao-lo-du-lieu-luu-tru-tren-google-drive-thong-qua-chatgpt-20250807155706949.htm


Tópico: ABERTO

Comentário (0)

No data
No data

No mesmo tópico

Na mesma categoria

Quão moderno é o submarino Kilo 636?
PANORAMA: Desfile e marcha da A80 em ângulos especiais ao vivo na manhã de 2 de setembro
Hanói se ilumina com fogos de artifício para celebrar o Dia Nacional, 2 de setembro
Quão moderno é o helicóptero antissubmarino Ka-28 participando do desfile marítimo?

Do mesmo autor

Herança

Figura

Negócios

No videos available

Notícias

Sistema político

Local

Produto