L'IA sombre opère en dehors des normes de sécurité, permettant souvent des comportements tels que la fraude, la manipulation, les cyberattaques ou l'exploration de données sans surveillance étroite.
« Les acteurs malveillants utilisent également l'IA pour améliorer leurs capacités d'attaque. La forme la plus courante d'abus de l'IA aujourd'hui est l'émergence de modèles GPT Black Hat. Il s'agit de modèles d'IA spécialement développés ou adaptés à des fins illégales, comme la création de logiciels malveillants, la rédaction d'e-mails de phishing, la génération de voix et de vidéos deepfakes… », a déclaré Sergey Lozhkin, responsable de l'équipe mondiale de recherche et d'analyse (GReAT) pour le Moyen-Orient, la Turquie, l'Afrique et l'Asie- Pacifique chez Kaspersky.
Les GPT Black Hat peuvent exister sous forme de modèles d'IA entièrement privés ou semi-privés. Parmi les exemples notables, citons WormGPT, DarkBard, FraudGPT et Xanthorox, tous conçus pour lutter contre la cybercriminalité, la fraude et l'automatisation malveillante.
Lozhkin a révélé que les experts de Kaspersky enregistrent désormais une tendance encore plus inquiétante, avec des groupes de cyberattaque soutenus par des États-nations ou des gouvernements qui commencent à exploiter les grands modèles linguistiques (LLM) dans leurs campagnes d'attaque.
« OpenAI a récemment annoncé avoir déjoué plus de 20 campagnes d'influence et cyberattaques secrètes exploitant ses outils d'IA. Nous continuerons de voir des attaquants de plus en plus sophistiqués instrumentaliser l'IA, menaçant ainsi les écosystèmes publics et privés. Il s'agit d'une tendance inquiétante à laquelle toutes les organisations doivent se préparer », a déclaré Lozhkin.
Selon le rapport d'OpenAI, des acteurs malveillants ont commencé à exploiter les capacités des grands modèles d'apprentissage automatique (LLM) pour tromper leurs victimes et contourner les couches de sécurité conventionnelles. Ils peuvent créer de faux messages convaincants, envoyer des messages en masse aux victimes et produire du contenu en plusieurs langues.
Pour renforcer les défenses contre les menaces de l'IA fantôme, les experts de Kaspersky recommandent : l'utilisation de solutions de sécurité de nouvelle génération, telles que Kaspersky Next, pour détecter les logiciels malveillants générés par l'IA et contrôler les risques dans la chaîne d'approvisionnement ; l'utilisation d'outils de veille sur les menaces en temps réel pour surveiller les exploits générés par l'IA ; le renforcement des contrôles d'accès et de la formation des employés afin de limiter l'IA fantôme et le risque de fuite de données ; la mise en place d'un centre d'opérations de sécurité (SOC) pour surveiller les menaces et réagir rapidement aux incidents.
Source : https://www.sggp.org.vn/kaspersky-canh-bao-toi-pham-mang-dung-dark-ai-tan-cong-post808493.html
Comment (0)