Vietnam.vn - Nền tảng quảng bá Việt Nam

Un expert en sécurité « piège » ChatGPT pour qu'il écrive un logiciel malveillant.

Báo Thanh niênBáo Thanh niên15/04/2023


L'intelligence artificielle (IA), à l'instar de ChatGPT, a connu un succès mondial depuis début 2023, mais son utilisation n'est pas toujours à des fins positives. Récemment, un expert en sécurité a découvert une faille permettant de programmer ChatGPT pour générer du code malveillant lors de tests.

Aaron Mulgrew, expert en sécurité chez Forcepoint, a révélé les risques liés à l'écriture de code malveillant via le chatbot bilingue d'OpenAI. Bien que ChatGPT soit conçu pour empêcher les utilisateurs de demander à l'IA de concevoir des logiciels malveillants, Aaron a découvert une faille en créant des commandes (invites) permettant à l'intelligence artificielle d'écrire du code ligne par ligne. En combinant ces éléments, Aaron s'est rendu compte qu'il disposait d'un outil d'exécution indétectable de vol de données, si sophistiqué qu'il rivalise avec les logiciels malveillants les plus avancés actuellement disponibles.

Từng dòng lệnh riêng lẻ do ChatGPT tạo ra khi kết hợp lại có thể trở thành mã độc tinh vi

Chaque ligne de code générée par ChatGPT, une fois combinée, peut devenir un logiciel malveillant sophistiqué.

La découverte de Mulgrew sonne l'alarme quant au potentiel d'exploitation de l'IA pour créer des logiciels malveillants dangereux sans l'intervention de groupes de pirates informatiques, et sans que les créateurs n'écrivent même une seule ligne de code.

Le logiciel malveillant de Mulgrew se présente sous la forme d'une application de bureau, mais il peut s'activer automatiquement sur les appareils Windows. Une fois infiltré dans le système d'exploitation, il analyse tous les fichiers, y compris les documents Word, les images et les PDF, afin d'y dérober des données.

Une fois les informations nécessaires obtenues, le programme les extrait et les intègre dans des fichiers image sur l'ordinateur. Pour éviter d'être détecté, ces images sont téléchargées dans un dossier sur Google Drive. Le logiciel malveillant devient extrêmement puissant car Mulgrew peut affiner et améliorer ses fonctionnalités pour échapper à la détection grâce à de simples commandes saisies dans ChatGPT.

Bien que ce résultat provienne d'un test privé mené par un expert en sécurité et qu'aucune attaque n'ait été exécutée en dehors de la zone de test, les experts en cybersécurité ont néanmoins reconnu le danger que représentent les activités utilisant ChatGPT. Mulgrew a déclaré qu'il n'avait lui-même que peu d'expérience en programmation, mais que l'intelligence artificielle d'OpenAI n'était pas encore suffisamment puissante ni intelligente pour mettre fin à son test.



Lien source

Comment (0)

Laissez un commentaire pour partager vos ressentis !

Même sujet

Même catégorie

Même auteur

Patrimoine

Chiffre

Entreprises

Actualités

Système politique

Locale

Produit

Happy Vietnam
« L'artisan sous le ciel bleu »

« L'artisan sous le ciel bleu »

Les magnifiques paysages du Vietnam

Les magnifiques paysages du Vietnam

Typhon Yagi

Typhon Yagi