L’IA devient un puissant allié des cybercriminels. Photo : Cato Networks . |
Non seulement les utilisateurs ordinaires, mais aussi les cybercriminels utilisent de plus en plus l'IA pour concevoir des attaques toujours plus sophistiquées. En moins de deux ans, les outils d'IA destinés aux pirates informatiques ont connu un développement fulgurant, tant en termes de fonctionnalités que d'efficacité.
Adrian Hia, directeur de Kaspersky Asie et Japon (APJ), a déclaré que l'intelligence artificielle noire joue un rôle majeur dans la prolifération rapide des logiciels malveillants. Les données de Kaspersky montrent que près d'un demi-million de logiciels malveillants sont créés chaque jour.
« L’IA sombre, c’est comme le dark web – la face cachée du web que nous utilisons tous les jours », a déclaré M. Hia.
Sergey Lozhkin, responsable de l'équipe mondiale de recherche et d'analyse (GReAT) de Kaspersky pour l'Asie- Pacifique (APAC) et le Moyen-Orient, l'Afrique et la Turquie (META), a déclaré que l'IA sombre est complètement différente des chatbots d'IA conventionnels, tels que ChatGPT ou Gemini.
L'IA que les utilisateurs connaissent est créée pour les assister et effectuer des tâches légitimes ; même si on lui ordonne de créer des logiciels malveillants ou de se livrer à des activités illégales, les utilisateurs auront du mal à atteindre leurs objectifs.
Par ailleurs, « l’IA noire désigne en réalité des LLM ou des chatbots créés exclusivement pour mener des activités malveillantes dans le cyberespace », a déclaré M. Lozhkin. Ces IA sont entraînées à créer des logiciels malveillants, des contenus d’hameçonnage, voire une plateforme complète permettant aux cybercriminels de commettre des fraudes.
Système d'IA caché réservé aux hackers réputés
Ces systèmes, que M. Lozhkin appelle Black Hat GPT ou « GPT à chapeau noir », existent depuis 2023. Les représentants de Kaspersky ont déclaré qu'à cette époque, l'IA était très rudimentaire, produisait un code très mauvais et pouvait être détectée immédiatement.
Cependant, les systèmes GPT utilisés par les pirates informatiques sont récemment devenus plus performants et capables de réaliser de nombreuses actions, de la création de logiciels malveillants et de contenus frauduleux à l'usurpation d'identité vocale et vidéo . Parmi ces systèmes, on trouve notamment WormGPT, DarkBard et FraudGPT.
![]() |
Sergey Lozhkin, chercheur chez Kaspersky, avertit que la qualité de Dark AI s'améliore constamment. Photo : Minh Khoi. |
L'une des découvertes les plus inquiétantes de Kaspersky a été l'existence de systèmes d'IA noire privés, accessibles uniquement aux cybercriminels réputés. Pour accéder à ces systèmes, les pirates informatiques doivent se forger une réputation sur des forums clandestins.
« On ne peut accéder à ce type de systèmes que si l’on est digne de confiance. Il faut se forger une réputation sur les forums clandestins pour obtenir ces assistants », a déclaré un expert de Kaspersky.
Lozhkin a déclaré que Kaspersky dispose d'une unité de « veille numérique » qui passe des années à infiltrer les forums clandestins et à surveiller et suivre leur activité. Une fois l'accès à de nouveaux systèmes obtenu, l'entreprise consacre beaucoup de temps à comprendre comment l'IA clandestine est utilisée, ses fonctions et son efficacité.
L'IA sombre se renforce.
L'intelligence artificielle sombre (Dark AI) devient un outil efficace pour les pirates informatiques expérimentés. Pour ceux qui possèdent uniquement des connaissances de base en programmation, l'utilisation d'un générateur de rançongiciels risque de ne produire que des logiciels facilement détectables par les antivirus. En revanche, pour les pirates informatiques expérimentés, la Dark AI peut accroître la productivité du codage et permettre la création de nouveaux logiciels malveillants.
« Cette qualité dépend beaucoup de chaque plateforme ou IA malveillante. Certaines génèrent du code de très faible qualité, mais il existe aussi des outils qui peuvent atteindre 7 à 8 points sur 10 », a déclaré M. Lozhkin à Tri Thuc - Znews .
Un exemple en est la capacité à créer du code polymorphe. Auparavant, lorsqu'un code malveillant était détecté par un antivirus, les pirates devaient consacrer beaucoup de temps à le modifier. Désormais, Dark AI peut le faire quasi instantanément afin de créer une version plus difficile à détecter.
De plus, les techniques de manipulation de l'anglais (LLM) avancées permettent de contourner la barrière de la langue dans les attaques de phishing. Selon les experts de Kaspersky, la nouvelle génération d'e-mails de phishing est plus difficile à repérer en raison de leur anglais quasi parfait, qui peut même « imiter à la perfection la voix du PDG ».
![]() |
Certains systèmes d'IA sombre « tout-en-un » peuvent générer du code, intégrer l'usurpation d'identité vocale et envoyer des courriels d'hameçonnage. Photo : Kaspersky. |
La capacité du système d'IA spécialisée Dark AI à créer de fausses voix et de fausses images est également de plus en plus perfectionnée. M. Lozhkin a même déclaré qu'il « ne croit plus aux appels vidéo » grâce à son expérience dans le domaine de la sécurité.
Cependant, les experts de Kaspersky ont également indiqué que les utilisateurs peuvent toujours reconnaître un appel frauduleux grâce à leur comportement personnel, leurs habitudes de langage et certaines caractéristiques uniques.
« Ces caractéristiques sont difficiles à falsifier, alors essayez de contacter directement la personne que vous pensez être victime d’une usurpation d’identité », a déclaré le chercheur en sécurité à Tri Thuc – Znews .
« Course aux armements de l'IA »
Le développement de l'IA noire a déclenché une véritable course technologique entre cybercriminels et experts en cybersécurité. « Personnellement, j'utilise l'IA pour tout maintenant : recherche, programmation, rétro-ingénierie. Ma productivité cette année est 10 à 20 fois supérieure à ce qu'elle était », admet Lozhkin.
« Si vous n'utilisez pas l'IA pour créer un mécanisme de défense alors que les méchants utilisent l'IA pour attaquer, vous perdrez. C'est le début d'une course entre les gentils et les méchants qui utilisent l'IA », a-t-il averti.
![]() |
Adrian Hia, directeur de Kaspersky APJ, a déclaré que Dark AI contribue à accélérer la création de logiciels malveillants. Photo : Minh Khoi. |
Google a signalé avoir bloqué plus de 20 activités malveillantes de groupes étatiques qui tentaient d'utiliser ChatGPT pour créer des logiciels malveillants et planifier des attaques. En 2024, l'entreprise avait identifié 40 groupes APT soutenus par des gouvernements et utilisant des modèles d'IA.
Les plateformes complètes comme Xanthorox sont particulièrement inquiétantes : ce service « tout compris » est proposé à 200 $ par mois et intègre la génération vocale, les courriels d’hameçonnage et d’autres outils d’attaque dans une interface facile à utiliser.
Les experts de Kaspersky avertissent que Dark AI n'en est qu'à ses balbutiements. Adrian Hia prévoit que son coût d'utilisation diminuera considérablement dans les prochaines années, et son développement reste encore incertain.
« Mais ce dont je suis absolument sûr, c’est que nous serons prêts, car nous faisons la même chose, mais du côté opposé », a commenté M. Lozhkin.
Source : https://znews.vn/moi-nguy-khi-toi-pham-so-huu-ai-den-post1574400.html









Comment (0)