Vietnam.vn - Nền tảng quảng bá Việt Nam

Avertissement de fuite de données stockées sur Google Drive via ChatGPT

(Dan Tri) - Des chercheurs en sécurité viennent de découvrir une vulnérabilité dans la fonctionnalité Connecteurs d'OpenAI, permettant aux malveillants d'extraire secrètement des données des comptes Google Drive via ChatGPT.

Báo Dân tríBáo Dân trí11/08/2025

Cảnh báo lộ dữ liệu lưu trữ trên Google Drive thông qua ChatGPT - 1

Un document infecté peut divulguer des données sur Google Drive via ChatGPT (Photo : Wired).

Le point inquiétant est que cette vulnérabilité ne nécessite aucune action de la part de l’utilisateur, ce qui soulève de nouveaux avertissements en matière de cybersécurité dans le contexte des modèles d’intelligence artificielle (IA) de plus en plus connectés aux données personnelles.

Des documents « empoisonnés » entraînent des fuites de données

Lors de la conférence sur la sécurité Black Hat à Las Vegas (USA) le 6 août, deux experts Michael Bargury et Tamir Ishay Sharbat ont démontré une méthode d'attaque appelée AgentFlayer .

Cette attaque exploite une vulnérabilité dans Connectors, une fonctionnalité qui connecte ChatGPT à des services externes tels que Google Drive, Gmail ou Microsoft Calendar.

« L'utilisateur n'a aucune action à entreprendre pour être piraté ou voir ses données divulguées. Nous avons prouvé que la procédure est entièrement sans clic », a déclaré Michael Bargury, directeur technique de l'entreprise de sécurité Zenity.

L'attaque commence par le partage d'un document « empoisonné » sur le Google Drive de la victime. Ce document contient une invite malveillante d'environ 300 mots, écrite en blanc, taille 1 – quasiment invisible à l'œil nu, mais néanmoins lisible par l'ordinateur.

À première vue, le texte se présente comme des notes de réunion. En réalité, il contient des instructions permettant à ChatGPT de trouver et d'extraire les clés API sensibles du compte Google Drive de la victime.

Au lieu de résumer le contenu demandé par l'utilisateur, cette invite masquée force l'IA à envoyer les clés API trouvées à un serveur externe via un lien Markdown. Les données sont extraites sous forme d'image, permettant au serveur de capturer l'intégralité des informations.

OpenAI a abordé le problème, mais des risques subsistent

Après avoir reçu le rapport de Bargury, OpenAI a rapidement mis en œuvre des mesures d'atténuation. « Il est important de développer des défenses robustes contre les attaques par injection de logiciels malveillants à grande vitesse », a déclaré Andy Wen, directeur principal de la gestion des produits de sécurité chez Google Workspace.

Bien que corrigé, l'incident met en évidence les risques potentiels liés à la connexion de grands modèles de langage (LLM) à des systèmes externes. À mesure que l'IA s'intègre de plus en plus à nos vies et à notre travail, la surface d'attaque exploitable par les pirates informatiques s'élargit également.

Les experts avertissent que l’injection rapide indirecte peut devenir une menace sérieuse, permettant aux attaquants de prendre le contrôle de nombreux systèmes intelligents, des maisons intelligentes aux infrastructures d’entreprise.

« Connecter LLM à des sources de données externes est puissant, mais comme c'est souvent le cas avec l'IA, plus de puissance implique plus de risques », conclut Bargury.

Source: https://dantri.com.vn/cong-nghe/canh-bao-lo-du-lieu-luu-tru-tren-google-drive-thong-qua-chatgpt-20250807155706949.htm


Tag: OUVERT

Comment (0)

No data
No data

Même sujet

Même catégorie

Perdu dans la chasse aux nuages ​​à Ta Xua
Il y a une colline de fleurs violettes de Sim dans le ciel de Son La
Lanterne - Un cadeau commémoratif pour la fête de la mi-automne
Tò he – d’un cadeau d’enfance à une œuvre d’art d’un million de dollars

Même auteur

Patrimoine

;

Chiffre

;

Entreprise

;

No videos available

Événements actuels

;

Système politique

;

Locale

;

Produit

;