
Un documento infectado puede filtrar datos en Google Drive a través de ChatGPT (Foto: Wired).
Lo preocupante es que esta vulnerabilidad no requiere ninguna acción por parte del usuario, lo que genera nuevas alertas sobre la ciberseguridad en el contexto de modelos de inteligencia artificial (IA) cada vez más conectados con datos personales.
Documentos “envenenados” provocan filtraciones de datos
En la conferencia de seguridad Black Hat celebrada en Las Vegas (EE.UU.) el 6 de agosto, dos expertos Michael Bargury y Tamir Ishay Sharbat demostraron un método de ataque llamado AgentFlayer .
Este ataque explota una vulnerabilidad en Connectors, una característica que conecta ChatGPT con servicios externos como Google Drive, Gmail o Microsoft Calendar.
"El usuario no necesita hacer nada para ser hackeado o que sus datos se filtren. Hemos demostrado que es completamente seguro", afirmó Michael Bargury, director de tecnología de la empresa de seguridad Zenity.
El ataque comienza cuando el atacante comparte un documento "envenenado" en la cuenta de Google Drive de la víctima. El documento contiene un mensaje malicioso de unas 300 palabras, escrito en letra blanca tamaño 1, casi invisible a simple vista, pero legible para el ordenador.
A primera vista, el texto se disfraza de notas de reunión. En realidad, contiene instrucciones para que ChatGPT encuentre y extraiga claves API confidenciales de la cuenta de Google Drive de la víctima.
En lugar de resumir el contenido según lo solicitado por el usuario, este mensaje oculto obliga a la IA a enviar las claves API que encuentra a un servidor externo mediante un enlace Markdown. Los datos se extraen como una imagen, lo que permite al servidor capturar toda la información.
OpenAI lo ha abordado, pero persisten riesgos
Tras recibir el informe de Bargury, OpenAI implementó rápidamente medidas de mitigación. «Es importante desarrollar defensas sólidas contra ataques rápidos de inyección de malware», afirmó Andy Wen, director sénior de gestión de productos de seguridad en Google Workspace.
Aunque ya se ha corregido, el incidente pone de relieve los riesgos potenciales de conectar grandes modelos de lenguaje (LLM) a sistemas externos. A medida que la IA se integra más profundamente en nuestras vidas y nuestro trabajo, también se amplía la superficie de ataque que los hackers pueden explotar.
Los expertos advierten que la inyección indirecta de mensajes puede convertirse en una amenaza grave, permitiendo a los atacantes tomar el control de muchos sistemas inteligentes, desde hogares inteligentes hasta infraestructura empresarial.
“Conectar LLM con fuentes de datos externas es poderoso, pero como suele suceder con la IA, a mayor poder mayor riesgo”, concluye Bargury.
Fuente: https://dantri.com.vn/cong-nghe/canh-bao-lo-du-lieu-luu-tru-tren-google-drive-thong-qua-chatgpt-20250807155706949.htm
Kommentar (0)