Les deepfakes constituent désormais une préoccupation majeure, car le nombre d'escroqueries utilisant cette technologie ne cesse d'augmenter.
Après avoir étudié les forums du Darknet, où les cybercriminels opèrent fréquemment, des experts en sécurité ont constaté que de nombreux criminels utilisent le logiciel Deepfake pour commettre des fraudes, à tel point que la demande dépasse largement l'offre de logiciels Deepfake actuellement disponibles sur le marché.
Face à une demande supérieure à l'offre, les experts de Kaspersky prévoient une recrudescence des arnaques Deepfake, avec des méthodes de plus en plus diversifiées et sophistiquées : de la fourniture de vidéos d'usurpation d'identité de haute qualité à l'utilisation d'images de célébrités dans de faux directs sur les réseaux sociaux, promettant de doubler la somme envoyée par les victimes.
Selon le système de référence d'information Regula, 37 % des entreprises dans le monde ont été victimes d'escroqueries Deepfake vocales et 29 % d'escroqueries Deepfake vidéo.
Cette technologie est devenue une menace pour la cybersécurité au Vietnam, où les cybercriminels utilisent souvent de faux appels vidéo pour usurper l'identité d'individus afin d'emprunter de l'argent à leurs proches.
Un appel vidéo truqué (deepfake) peut durer à peine une minute, ce qui rend très difficile pour les victimes de faire la distinction entre un appel réel et un appel truqué.
Les deepfakes deviennent peu à peu un véritable « cauchemar » dans les arnaques en ligne sophistiquées.
« Les deepfakes sont devenus un cauchemar pour les femmes et la société. Les cybercriminels exploitent l'intelligence artificielle (IA) pour superposer les visages des victimes sur des images et des vidéos pornographiques, ainsi que dans des campagnes de propagande. »
« Ces formes de manipulation visent à contrôler l'opinion publique en diffusant de la désinformation, voire en portant atteinte à la réputation d'organisations ou d'individus », a déclaré Mme Vo Duong Tu Diem, directrice régionale de Kaspersky Vietnam.
Bien que l'IA soit utilisée à mauvais escient par des criminels à des fins malveillantes, les particuliers et les entreprises peuvent néanmoins utiliser l'intelligence artificielle pour identifier les deepfakes, réduisant ainsi la probabilité de réussite des escroqueries.
En conséquence, les utilisateurs disposeront de plusieurs solutions utiles pour se protéger contre les arnaques, comme l'utilisation de logiciels de détection de contenu générés par l'IA (qui utilisent des algorithmes avancés pour analyser et déterminer dans quelle mesure les images/vidéos/audio ont été modifiés).
Pour les vidéos truquées, il existe désormais des outils permettant d'identifier les décalages entre les mouvements de la bouche et la parole. Certains programmes sont même suffisamment performants pour détecter des anomalies de la circulation sanguine sous-cutanée en analysant la résolution vidéo, car lorsque le cœur pompe le sang, les veines du corps changent de couleur.
De plus, les filigranes servent de marques d'identification dans les images, les vidéos, etc., aidant ainsi les auteurs à protéger les droits d'auteur de leurs produits d'IA. Cette fonctionnalité peut devenir une arme contre les deepfakes, car elle permet de remonter à l'origine de la plateforme ayant créé l'intelligence artificielle. Les utilisateurs avertis peuvent trouver des moyens de retracer la source du contenu afin de comparer comment les données originales ont été modifiées par l'IA.
Actuellement, certaines technologies émergentes utilisent des algorithmes de chiffrement pour insérer des valeurs de hachage à intervalles réguliers dans la vidéo. Si la vidéo a été modifiée, la valeur de hachage change, permettant ainsi aux utilisateurs de vérifier si le contenu a été altéré.
Auparavant, il existait des directives pour détecter les anomalies dans les vidéos, telles que les distorsions de couleur, les mouvements musculaires anormaux, les mouvements oculaires, etc. Cependant, à mesure que l'IA devient de plus en plus intelligente, ces valeurs ne donnent pas toujours des résultats précis.
Le processus de vérification de la crédibilité des vidéos ne repose plus sur une inspection visuelle, mais nécessite des outils technologiques conçus pour prévenir et détecter les contenus falsifiés.
Khanh Linh
Source






Comment (0)