L'intelligence artificielle (IA), à l'instar de ChatGPT, a connu un succès mondial depuis début 2023, mais son utilisation n'est pas toujours à des fins positives. Récemment, un expert en sécurité a découvert une faille permettant de demander à ChatGPT de générer du code malveillant lors de tests.
Aaron Mulgrew, expert en sécurité chez Forcepoint, a révélé les risques liés à la création de logiciels malveillants via le chatbot linguistique d'OpenAI. Bien que ChatGPT ait été conçu pour empêcher les utilisateurs de demander à l'IA de concevoir des logiciels malveillants, Aaron a néanmoins découvert une faille en créant des invites permettant à l'IA d'écrire du code ligne par ligne. En combinant ces éléments, Aaron s'est rendu compte qu'il disposait d'un outil d'exécution et de vol de données indétectable, d'une sophistication comparable aux logiciels malveillants les plus sophistiqués actuels.
Chaque ligne de commande individuelle générée par ChatGPT, une fois combinée, peut devenir un logiciel malveillant sophistiqué.
La découverte de Mulgrew est un signal d'alarme quant au potentiel de l'IA à être utilisée pour créer des logiciels malveillants dangereux sans qu'un groupe de pirates informatiques, ni même le créateur de l'outil n'ait besoin d'écrire une seule ligne de code.
Le logiciel de Mulgrew se présente comme une application de veille d'écran, mais il est capable de s'activer automatiquement sur les appareils Windows. Une fois installé dans le système d'exploitation, le logiciel malveillant s'infiltre dans tous les fichiers, y compris les documents Word, les images et les PDF, à la recherche de données à voler.
Une fois les données nécessaires obtenues, le programme les extrait et les associe à des fichiers image présents sur la machine. Pour éviter d'être détecté, ces images sont téléchargées dans un dossier Google Drive. La puissance de ce logiciel malveillant réside dans la capacité de Mulgrew à modifier et à perfectionner ses fonctionnalités afin de contourner la détection grâce à de simples commandes saisies dans ChatGPT.
Bien qu'il s'agisse d'un test privé mené par des experts en sécurité et qu'aucune attaque n'ait été perpétrée en dehors de ce cadre, la communauté de la cybersécurité reconnaît le danger que représentent les activités utilisant ChatGPT. Mulgrew affirme ne pas avoir une grande expérience en programmation, mais l'intelligence artificielle d'OpenAI n'est pas encore suffisamment performante pour contrer son test.
Lien source










Comment (0)