Google est critiqué pour son refus de corriger une grave vulnérabilité dans Gemini, un outil d'intelligence artificielle (IA) profondément intégré à l'écosystème Google Workspace. Selon les experts en sécurité, ce bug pourrait entraîner la fuite d'informations sensibles des utilisateurs à des inconnus via une attaque appelée « smuggling ASCII ».

Gemini vulnérable au code caché dans le texte
Le chercheur en sécurité Viktor Markopoulos a testé la résistance de plusieurs grands modèles de langage (LLM) populaires à cette attaque. Les résultats ont montré que Gemini, DeepSeek et Grok étaient tous vulnérables, tandis que ChatGPT, Claude et Copilot étaient mieux protégés.
La contrebande ASCII est une forme d'attaque où un attaquant dissimule une invite ou un code de commande dans un texte, souvent de très petite taille ou spécialement codé. Lorsqu'un utilisateur demande à une IA de résumer ou d'analyser le contenu contenant ce code caché, l'outil d'IA lit et exécute accidentellement l'invite malveillante à l'insu de l'utilisateur.

Gemini 3 attire l'attention avant sa sortie
Risque de fuite de données sensibles dans Google Workspace
Gemini étant directement intégré aux services Gmail, Docs et Google Workspace, ce risque devient particulièrement inquiétant : une invite cachée pourrait amener l'IA à rechercher automatiquement des informations personnelles, des données de contact ou des documents confidentiels, puis à les envoyer hors du système à l'insu de l'utilisateur.
Markopoulos a contacté Google pour présenter ses conclusions, en illustrant même ses conclusions avec un morceau de code invisible qui a incité Gemini à partager un lien vers un site Web malveillant juste pour « obtenir un téléphone à prix réduit ».
Google nie qu'il s'agisse d'une faille de sécurité
Dans une réponse publiée, Google a déclaré qu'il ne s'agissait pas d'une faille de sécurité, mais d'une forme d'attaque d'ingénierie sociale. Autrement dit, l'entreprise considérait qu'il s'agissait d'un bug causé par une interaction négligente de l'utilisateur, et non d'un problème lié à son système d'IA.
Cette réponse suggère que Google n'a pas l'intention de publier un correctif pour Gemini dans un avenir proche, ce qui signifie que les utilisateurs doivent être plus prudents lorsqu'ils utilisent l'IA pour traiter des documents, en particulier ceux contenant des informations sensibles ou provenant de sources non vérifiées.
Inquiétudes croissantes concernant la sécurité de l'IA profondément intégrée
Cet incident soulève des questions sur la responsabilité des entreprises technologiques, alors que l'IA s'intègre de plus en plus aux plateformes de travail et de communication. Bien que Google ait souligné son engagement envers la sécurité des utilisateurs, cette décision pourrait affecter la confiance dans la sécurité de Gemini, notamment dans le monde de l'entreprise.
Selon Android Authority
Source : https://baovanhoa.vn/nhip-song-so/google-gay-tranh-cai-khi-tu-choi-va-loi-bao-mat-gemini-173381.html
Comment (0)