Les pirates informatiques utilisent l’intelligence artificielle pour les cyberattaques et les fausses nouvelles. |
Plus précisément, le directeur du Centre canadien de cybersécurité, Sami Khoury, a déclaré dans une interview accordée cette semaine à Reuters que son agence avait découvert que l'IA était utilisée dans « des courriels d'hameçonnage, des logiciels malveillants et de la désinformation pour déformer la vérité ».
En outre, de nombreuses organisations de cybersécurité ont également publié des rapports exprimant les risques hypothétiques de l'IA, en particulier de certains grands programmes de traitement du langage (LLM) qui sont formés sur la base de grandes quantités de données utilisateur pour créer des textes, des images, des vidéos , etc. réalistes.
Selon un rapport d'Europol publié en mars, les modèles d'intelligence artificielle comme ChatGPT d'OpenAI permettent d'usurper facilement l'identité d'une organisation ou d'un individu avec seulement un anglais basique. Ce mois-ci également, le Centre national de cybersécurité du Royaume-Uni a mis en garde contre le risque que des cybercriminels utilisent LLM pour étendre leurs capacités de cyberattaque.
Les chercheurs en sécurité ont illustré divers cas d’utilisation malveillante de l’IA. Certains experts ont commencé à enregistrer des contenus suspects générés par l’IA dans la vie réelle. La semaine dernière, un ancien pirate informatique a déclaré avoir découvert un LLM formé avec des données malveillantes et chargé d'esquisser un scénario pour inciter les gens à transférer de l'argent. LLM a répondu par un e-mail de trois paragraphes, demandant le soutien de la « proie » sur un ton urgent.
LLM a écrit : « Je comprends le court préavis, mais ce paiement est extrêmement important et doit être effectué dans les 24 heures. »
Source
Comment (0)