
Un document infecté peut divulguer des données sur Google Drive via ChatGPT (Photo : Wired).
Le point inquiétant est que cette vulnérabilité ne nécessite aucune action de la part de l’utilisateur, ce qui soulève de nouveaux avertissements en matière de cybersécurité dans le contexte des modèles d’intelligence artificielle (IA) de plus en plus connectés aux données personnelles.
Des documents « empoisonnés » entraînent des fuites de données
Lors de la conférence sur la sécurité Black Hat à Las Vegas (USA) le 6 août, deux experts Michael Bargury et Tamir Ishay Sharbat ont démontré une méthode d'attaque appelée AgentFlayer .
Cette attaque exploite une vulnérabilité dans Connectors, une fonctionnalité qui connecte ChatGPT à des services externes tels que Google Drive, Gmail ou Microsoft Calendar.
« L'utilisateur n'a aucune action à entreprendre pour être piraté ou voir ses données divulguées. Nous avons prouvé que la procédure est entièrement sans clic », a déclaré Michael Bargury, directeur technique de l'entreprise de sécurité Zenity.
L'attaque commence par le partage d'un document « empoisonné » sur le Google Drive de la victime. Ce document contient une invite malveillante d'environ 300 mots, écrite en blanc, taille 1 – quasiment invisible à l'œil nu, mais néanmoins lisible par l'ordinateur.
À première vue, le texte se présente comme des notes de réunion. En réalité, il contient des instructions permettant à ChatGPT de trouver et d'extraire les clés API sensibles du compte Google Drive de la victime.
Au lieu de résumer le contenu demandé par l'utilisateur, cette invite masquée force l'IA à envoyer les clés API trouvées à un serveur externe via un lien Markdown. Les données sont extraites sous forme d'image, permettant au serveur de capturer l'intégralité des informations.
OpenAI a abordé le problème, mais des risques subsistent
Après avoir reçu le rapport de Bargury, OpenAI a rapidement mis en œuvre des mesures d'atténuation. « Il est important de développer des défenses robustes contre les attaques par injection de logiciels malveillants à grande vitesse », a déclaré Andy Wen, directeur principal de la gestion des produits de sécurité chez Google Workspace.
Bien que corrigé, l'incident met en évidence les risques potentiels liés à la connexion de grands modèles de langage (LLM) à des systèmes externes. À mesure que l'IA s'intègre de plus en plus à nos vies et à notre travail, la surface d'attaque exploitable par les pirates informatiques s'élargit également.
Les experts avertissent que l’injection rapide indirecte peut devenir une menace sérieuse, permettant aux attaquants de prendre le contrôle de nombreux systèmes intelligents, des maisons intelligentes aux infrastructures d’entreprise.
« Connecter LLM à des sources de données externes est puissant, mais comme c'est souvent le cas avec l'IA, plus de puissance implique plus de risques », conclut Bargury.
Source: https://dantri.com.vn/cong-nghe/canh-bao-lo-du-lieu-luu-tru-tren-google-drive-thong-qua-chatgpt-20250807155706949.htm
Comment (0)