L'intelligence artificielle (IA) comme ChatGPT fait sensation dans le monde entier depuis début 2023, mais elle n'est pas toujours utilisée à bon escient. Récemment, un expert en sécurité a trouvé un moyen de demander à ChatGPT de créer du code malveillant lors de tests.
Aaron Mulgrew, expert en sécurité chez Forcepoint, a exposé les risques liés à l'écriture de logiciels malveillants à l'aide du chatbot de langage d'OpenAI. Bien que ChatGPT ait été conçu pour empêcher les utilisateurs de demander à l'IA de concevoir des logiciels malveillants, Aaron a néanmoins trouvé une faille en créant des invites pour que l'IA écrive du code ligne par ligne. En combinant ces éléments, Aaron a réalisé qu'il tenait entre les mains un outil d'exécution de vol de données indétectable, si sophistiqué qu'il était comparable aux logiciels malveillants les plus sophistiqués d'aujourd'hui.
Chaque ligne de commande individuelle générée par ChatGPT, lorsqu'elle est combinée, peut devenir un malware sophistiqué.
La découverte de Mulgrew est un signal d’alarme quant au potentiel de l’IA à être utilisée pour créer des logiciels malveillants dangereux sans qu’un groupe de pirates informatiques, ou même le créateur de l’outil, n’écrive une seule ligne de code.
Le logiciel de Mulgrew se présente sous la forme d'un économiseur d'écran, mais il est capable de s'activer automatiquement sur les appareils Windows. Une fois installé dans le système d'exploitation, le logiciel malveillant « infiltre » tous les fichiers, y compris les éditeurs de texte Word, les fichiers image et les PDF, à la recherche de données à dérober.
Une fois les informations nécessaires obtenues, le programme les décompose et les joint à des fichiers images sur l'ordinateur. Pour éviter toute détection, les images sont téléchargées dans un dossier sur Google Drive. La puissance du malware réside dans la capacité de Mulgrew à modifier et améliorer ses fonctionnalités pour échapper à la détection grâce à de simples commandes saisies dans ChatGPT.
Bien qu'il s'agisse d'un test privé mené par des experts en sécurité et qu'aucune attaque n'ait été menée en dehors du périmètre de test, la communauté de la cybersécurité reconnaît le danger des activités utilisant ChatGPT. Mulgrew affirme manquer d'expérience en programmation, mais l'intelligence artificielle d'OpenAI n'est pas encore assez puissante et performante pour empêcher son test.
Lien source
Comment (0)