L'intelligence artificielle (IA) comme ChatGPT fait sensation dans le monde entier depuis début 2023, mais elle n'est pas toujours utilisée à bon escient. Récemment, un expert en sécurité a trouvé un moyen de demander à ChatGPT de créer du code malveillant lors de tests.
Aaron Mulgrew, expert en sécurité chez Forcepoint, a exposé les risques liés à l'écriture de logiciels malveillants à l'aide d'un chatbot de langage développé par OpenAI. Bien que ChatGPT ait été conçu pour empêcher les utilisateurs de demander à l'IA de concevoir des logiciels malveillants, Aaron a néanmoins découvert une vulnérabilité en créant des lignes de commande (invites) permettant à l'IA d'écrire du code de programmation sur chaque ligne. En combinant ces éléments, Aaron a réalisé qu'il tenait entre les mains un outil d'exécution de vol de données indétectable, si sophistiqué qu'il est comparable aux principaux logiciels malveillants actuels.
Chaque ligne de commande individuelle générée par ChatGPT, lorsqu'elle est combinée, peut devenir un malware sophistiqué.
La découverte de Mulgrew est un avertissement sur le potentiel de l'IA à être utilisée pour créer des logiciels malveillants dangereux sans qu'un groupe de pirates informatiques ou même le créateur de l'outil n'ait besoin d'écrire une seule ligne de code.
Le logiciel de Mulgrew se présente sous la forme d'un économiseur d'écran, mais il est capable de s'activer automatiquement sur les appareils Windows. Une fois installé dans le système d'exploitation, le logiciel malveillant s'infiltre dans tous les fichiers, y compris les éditeurs de documents Word, les fichiers image et les PDF, à la recherche de données à dérober.
Une fois les informations recherchées, le programme les décompose et les joint à des fichiers images sur la machine. Pour éviter toute détection, les images sont téléchargées dans un dossier sur le cloud Google Drive. La puissance du malware réside dans la capacité de Mulgrew à ajuster et améliorer ses fonctionnalités pour échapper à la détection grâce à de simples commandes saisies dans ChatGPT.
Bien qu'il s'agisse d'un test privé mené par des experts en sécurité et qu'aucune attaque n'ait été menée en dehors de la zone de test, la communauté de la cybersécurité reconnaît les dangers liés aux activités utilisant ChatGPT. Mulgrew affirme ne pas avoir beaucoup d'expérience en programmation, mais l'intelligence artificielle d'OpenAI n'est pas encore assez puissante et intelligente pour empêcher son test.
Lien source
Comment (0)