À mesure que l'IA devient plus accessible et que de plus en plus de particuliers et d'entreprises l'utilisent via des outils courants, les pirates informatiques peuvent simultanément automatiser les attaques, accélérer les processus opérationnels et déployer des campagnes plus sophistiquées pour atteindre leurs objectifs illicites.
Voici quelques-unes des méthodes d'attaque observées par Kaspersky : ChatGPT peut être utilisé pour développer des logiciels malveillants et déployer automatiquement des attaques contre de multiples victimes ; des programmes d'IA infiltrent les données des utilisateurs sur les smartphones et, grâce à l'analyse de données sensibles, les attaquants peuvent « voler » intégralement les messages, les mots de passe et les codes bancaires des victimes ; des algorithmes d'intelligence collective aident les réseaux informatiques à récupérer automatiquement les réseaux malveillants qui ont été éliminés par des solutions de sécurité.
Les recherches de Kaspersky sur l'utilisation de l'IA pour le craquage de mots de passe indiquent que la plupart des mots de passe sont chiffrés à l'aide d'algorithmes de hachage tels que MD5 et SHA. Par conséquent, une simple opération permet de transformer un mot de passe en une ligne de texte chiffré, mais déchiffrer l'ensemble du processus représente un défi de taille.
Grâce à l'IA, des acteurs malveillants peuvent exploiter des contenus frauduleux, tels que textes, images, fichiers audio et vidéo , pour lancer des attaques non techniques. Des modèles de langage complexes comme ChatGPT-4o sont utilisés pour créer des scénarios et des messages d'hameçonnage extrêmement sophistiqués. S'affranchissant des barrières linguistiques, l'IA peut rédiger un courriel d'apparence authentique à partir d'informations issues des réseaux sociaux. Elle peut même imiter le style d'écriture de la victime, rendant l'escroquerie encore plus difficile à détecter.
Parallèlement, la technologie Deepfake est devenue un problème en cybersécurité, bien qu'elle ait été auparavant considérée comme un produit de la recherche scientifique . L'usurpation d'identité de célébrités à des fins lucratives est la méthode la plus courante ; de plus, les escrocs utilisent Deepfake pour voler des comptes et passer des appels frauduleux aux proches des victimes afin de leur extorquer de l'argent.
Outre l'exploitation de l'intelligence artificielle à des fins illégales, les acteurs malveillants peuvent également attaquer les algorithmes d'IA. Cela inclut les attaques par « injection de commandes », où des commandes malveillantes sont injectées dans de grands modèles de langage, même en violation de règles préalablement définies ; et les attaques adverses, où des champs d'information cachés sont ajoutés à des images ou à des fichiers audio afin d'affecter les capacités de classification d'images des systèmes d'apprentissage automatique.
L'intelligence artificielle est de plus en plus intégrée à tous les aspects de la vie humaine, d'Apple Intelligence et Google Gemini à Microsoft Copilot. Par conséquent, la correction des vulnérabilités de l'IA doit être une priorité absolue. Kaspersky utilise l'IA depuis de nombreuses années pour protéger ses clients et partenaires, en recherchant constamment des failles dans les systèmes d'IA afin d'accroître leur résilience et en étudiant activement les techniques de cyberattaque pour offrir une protection fiable contre les attaques basées sur l'IA.
KIM THANH
Source : https://www.sggp.org.vn/nhieu-thach-thuc-cua-ai-trong-thoi-dai-moi-post754401.html






Comment (0)