L'IA sombre opère en dehors de tout cadre de sécurité, permettant souvent des comportements tels que la fraude, la manipulation, les cyberattaques ou l'exploitation de données sans surveillance étroite.
« Les acteurs malveillants exploitent également l’IA pour renforcer leurs capacités d’attaque. L’utilisation abusive la plus courante de l’IA aujourd’hui est l’émergence de modèles GPT malveillants. Il s’agit de modèles d’IA spécifiquement développés ou modifiés à des fins illicites telles que la création de logiciels malveillants, la rédaction de courriels d’hameçonnage, la génération de voix et de vidéos truquées (deepfakes)… », a déclaré Sergey Lozhkin, responsable de l’équipe mondiale de recherche et d’analyse (GReAT) pour le Moyen-Orient, la Turquie, l’Afrique et l’Asie -Pacifique chez Kaspersky.
Les GPT malveillants peuvent exister sous forme de modèles d'IA entièrement privés ou semi-privés. Parmi les exemples notables, citons WormGPT, DarkBard, FraudGPT et Xanthorox, tous conçus pour servir la cybercriminalité, la fraude et les activités d'automatisation malveillantes.
Lozhkin a révélé que les experts de Kaspersky observent désormais une tendance encore plus inquiétante : les groupes de cyberattaques soutenus par des États ou des gouvernements commencent à exploiter de grands modèles de langage (LLM) dans leurs campagnes d'attaque.
« OpenAI a récemment annoncé avoir déjoué plus de 20 campagnes d'influence secrètes et cyberattaques exploitant ses outils d'IA. Nous devrons faire face à des attaquants de plus en plus sophistiqués qui instrumentalisent l'IA, ce qui représente une menace pour les écosystèmes publics et privés. Il s'agit d'une tendance inquiétante à laquelle toutes les organisations doivent se préparer », a déclaré Lozhkin.
D'après un rapport d'OpenAI, des acteurs malveillants exploitent désormais les capacités des modèles d'apprentissage automatique à grande échelle (LLM) pour tromper leurs victimes et contourner les systèmes de sécurité classiques. Ils peuvent créer de faux messages convaincants, envoyer des messages en masse et produire du contenu en plusieurs langues.
Pour renforcer les défenses contre les menaces liées à l'IA sombre, les experts de Kaspersky recommandent : d'utiliser des solutions de sécurité de nouvelle génération comme Kaspersky Next pour détecter les logiciels malveillants générés par l'IA et contrôler les risques liés à la chaîne d'approvisionnement ; d'appliquer des outils de veille sur les menaces en temps réel pour surveiller l'exploitation des vulnérabilités pilotées par l'IA ; de renforcer le contrôle d'accès et la formation du personnel pour limiter les risques liés à l'IA fantôme et aux fuites de données ; et de mettre en place un centre d'opérations de sécurité (SOC) pour surveiller les menaces et réagir rapidement aux incidents.
Source : https://www.sggp.org.vn/kaspersky-canh-bao-toi-pham-mang-dung-dark-ai-tan-cong-post808493.html






Comment (0)