
Cette vulnérabilité permet aux attaquants d'injecter des commandes malveillantes directement dans la mémoire de l'IA, transformant une fonctionnalité utile en une arme persistante pour exécuter du code arbitraire (Image illustrative : ST).
Selon un rapport de LayerX Security, cette attaque a exploité une vulnérabilité de type Cross-Site Request Forgery (CSRF) pour injecter des commandes malveillantes dans la mémoire persistante de ChatGPT.
La fonction « Mémoire », initialement conçue pour permettre à l’IA de mémoriser des détails utiles comme les noms d’utilisateur et les préférences pour des réponses personnalisées, peut désormais être « défectueuse ».
Une fois la mémoire infectée par un logiciel malveillant, ces commandes persisteront de manière permanente, à moins que l'utilisateur ne les supprime manuellement via les paramètres, et pourront être déclenchées sur plusieurs appareils et sessions.
« Ce qui rend cette vulnérabilité particulièrement dangereuse, c'est qu'elle cible la mémoire persistante de l'IA, et pas seulement la session du navigateur », a déclaré Michelle Levy, directrice de la recherche en sécurité chez LayerX Security.
Levy explique : « En clair, l’attaquant utilise une ruse pour tromper l’IA et la forcer à enregistrer une commande malveillante dans sa mémoire. Le plus dangereux, c’est que cette commande restera en permanence dans l’IA, même si l’utilisateur change d’ordinateur, se déconnecte et se reconnecte, ou même utilise un autre navigateur. »
Plus tard, lorsqu'un utilisateur effectue une requête tout à fait normale, il peut activer involontairement le logiciel malveillant. De ce fait, les pirates peuvent exécuter du code furtivement, voler des données ou obtenir un contrôle accru sur le système.
Le scénario d'attaque décrit est assez simple : l'utilisateur se connecte à ChatGPT Atlas. Il est ensuite incité à cliquer sur un lien malveillant, puis le site web malveillant déclenche secrètement une requête CSRF, insérant silencieusement des instructions malveillantes dans la mémoire ChatGPT de la victime.
Enfin, lorsqu'un utilisateur effectue une requête parfaitement légitime, par exemple en demandant à l'IA d'écrire du code, les « souvenirs » infectés seront déclenchés.
LayerX souligne que le problème est exacerbé par le manque de contrôles anti-phishing robustes dans ChatGPT Atlas.
Lors de tests portant sur plus de 100 vulnérabilités et sites d'hameçonnage, Atlas n'a réussi à bloquer que 5,8 % des sites web malveillants.
Ce chiffre est bien trop modeste comparé à Google Chrome (47 %) ou à Microsoft Edge (53 %), ce qui rend les utilisateurs d'Atlas « jusqu'à 90 % plus vulnérables » aux attaques par rapport aux navigateurs traditionnels.
Cette découverte fait suite à une autre vulnérabilité d'injection de logiciels malveillants rapide précédemment démontrée par NeuralTrust, montrant que les navigateurs IA deviennent un nouveau front d'attaque.
OpenAI a lancé le navigateur web ChatGPT Atlas en début de semaine dernière. Sans surprise, OpenAI a intégré son moteur d'intelligence artificielle ChatGPT à ce navigateur, offrant ainsi une meilleure assistance aux utilisateurs lors de la navigation sur le web.
Lorsqu'un utilisateur clique sur un résultat de recherche dans ChatGPT Atlas, une boîte de dialogue ChatGPT apparaît juste à côté de la fenêtre de la page Web, lui permettant de poser des questions relatives au contenu consulté, ce qui lui fait gagner du temps de lecture.
ChatGPT peut également résumer le contenu d'un site web, modifier le texte lors de la rédaction d'e-mails ou suggérer des façons de le réécrire pour mieux l'adapter au contexte.
Source : https://dantri.com.vn/cong-nghe/nguoi-dung-chatgpt-atlas-co-the-bi-danh-cap-du-lieu-voi-ma-doc-vinh-vien-20251028111706750.htm






Comment (0)