Vietnam.vn - Nền tảng quảng bá Việt Nam

Advertencia de fuga de datos almacenados en Google Drive a través de ChatGPT

(Dan Tri) - Investigadores de seguridad acaban de descubrir una vulnerabilidad en la función Conectores de OpenAI, que permite a los malhechores extraer datos en secreto de las cuentas de Google Drive a través de ChatGPT.

Báo Dân tríBáo Dân trí11/08/2025

Cảnh báo lộ dữ liệu lưu trữ trên Google Drive thông qua ChatGPT - 1

Un documento infectado puede filtrar datos en Google Drive a través de ChatGPT (Foto: Wired).

Lo preocupante es que esta vulnerabilidad no requiere ninguna acción por parte del usuario, lo que genera nuevas alertas sobre la ciberseguridad en el contexto de modelos de inteligencia artificial (IA) cada vez más conectados con datos personales.

Documentos “envenenados” provocan filtraciones de datos

En la conferencia de seguridad Black Hat celebrada en Las Vegas (EE.UU.) el 6 de agosto, dos expertos Michael Bargury y Tamir Ishay Sharbat demostraron un método de ataque llamado AgentFlayer .

Este ataque explota una vulnerabilidad en Connectors, una característica que conecta ChatGPT con servicios externos como Google Drive, Gmail o Microsoft Calendar.

"El usuario no necesita hacer nada para ser hackeado o que sus datos se filtren. Hemos demostrado que es completamente seguro", afirmó Michael Bargury, director de tecnología de la empresa de seguridad Zenity.

El ataque comienza cuando el atacante comparte un documento "envenenado" en la cuenta de Google Drive de la víctima. El documento contiene un mensaje malicioso de unas 300 palabras, escrito en letra blanca tamaño 1, casi invisible a simple vista, pero legible para el ordenador.

A primera vista, el texto se disfraza de notas de reunión. En realidad, contiene instrucciones para que ChatGPT encuentre y extraiga claves API confidenciales de la cuenta de Google Drive de la víctima.

En lugar de resumir el contenido según lo solicitado por el usuario, este mensaje oculto obliga a la IA a enviar las claves API que encuentra a un servidor externo mediante un enlace Markdown. Los datos se extraen como una imagen, lo que permite al servidor capturar toda la información.

OpenAI lo ha abordado, pero persisten riesgos

Tras recibir el informe de Bargury, OpenAI implementó rápidamente medidas de mitigación. «Es importante desarrollar defensas sólidas contra ataques rápidos de inyección de malware», afirmó Andy Wen, director sénior de gestión de productos de seguridad en Google Workspace.

Aunque ya se ha corregido, el incidente pone de relieve los riesgos potenciales de conectar grandes modelos de lenguaje (LLM) a sistemas externos. A medida que la IA se integra más profundamente en nuestras vidas y nuestro trabajo, también se amplía la superficie de ataque que los hackers pueden explotar.

Los expertos advierten que la inyección indirecta de mensajes puede convertirse en una amenaza grave, permitiendo a los atacantes tomar el control de muchos sistemas inteligentes, desde hogares inteligentes hasta infraestructura empresarial.

“Conectar LLM con fuentes de datos externas es poderoso, pero como suele suceder con la IA, a mayor poder mayor riesgo”, concluye Bargury.

Fuente: https://dantri.com.vn/cong-nghe/canh-bao-lo-du-lieu-luu-tru-tren-google-drive-thong-qua-chatgpt-20250807155706949.htm


Etikett: OPENAI

Kommentar (0)

No data
No data

Mismo tema

Misma categoría

Invierta millones en aprender arreglos florales y encuentre experiencias que fortalezcan su relación durante el Festival del Medio Otoño.
Hay una colina de flores moradas de Sim en el cielo de Son La
Perdido en la caza de nubes en Ta Xua
La belleza de la bahía de Ha Long ha sido reconocida por la UNESCO como patrimonio de la humanidad tres veces.

Mismo autor

Herencia

;

Cifra

;

Negocio

;

No videos available

Actualidad

;

Sistema político

;

Local

;

Producto

;