Le deepfake est désormais une préoccupation majeure alors que le nombre d’escroqueries basées sur la technologie continue d’augmenter.
Après avoir effectué des recherches sur les forums Darknet, où opèrent souvent les cybercriminels, les experts en sécurité ont découvert qu'il y avait tellement de criminels utilisant Deepfake pour frauder que la demande dépassait de loin l'offre de logiciels Deepfake actuellement sur le marché.
Alors que la demande dépasse l'offre, les experts de Kaspersky prédisent que le nombre d'escroqueries Deepfake va augmenter, avec des formes plus diverses et plus sophistiquées : de la fourniture d'une vidéo d'usurpation d'identité de haute qualité à l'utilisation d'images de célébrités dans de faux flux en direct sur les réseaux sociaux, en promettant de payer le double du montant que la victime lui a envoyé.
Selon le système de référence d'information Regula, 37 % des entreprises dans le monde ont été confrontées à une fraude vocale Deepfake et 29 % ont été victimes de vidéos Deepfake.
Cette technologie est devenue une menace pour la cybersécurité au Vietnam, où les cybercriminels utilisent souvent de faux appels vidéo pour se faire passer pour des individus afin d’emprunter de l’argent à leurs proches et amis.
Un appel vidéo Deepfake peut durer seulement une minute, ce qui rend difficile pour les victimes de faire la distinction entre le vrai et le faux.
Le deepfake devient progressivement un « cauchemar » dans les escroqueries sophistiquées en ligne.
Les deepfakes deviennent un cauchemar pour les femmes et la société. Les cybercriminels exploitent l'intelligence artificielle (IA) pour superposer les visages des victimes sur des photos et vidéos pornographiques, ainsi que dans des campagnes de propagande.
« Ces formes visent à manipuler l’opinion publique en diffusant de fausses informations, voire en portant atteinte à la réputation d’organisations ou d’individus », a déclaré Mme Vo Duong Tu Diem, directrice régionale de Kaspersky au Vietnam.
Alors que l’IA est utilisée abusivement par des criminels à des fins malveillantes, les particuliers et les entreprises peuvent toujours utiliser l’intelligence artificielle elle-même pour identifier les Deepfakes, réduisant ainsi la probabilité de succès des escroqueries.
En conséquence, les utilisateurs disposeront de solutions utiles pour se protéger des escroqueries, comme l’utilisation de logiciels de détection de contenu générés par l’IA (utilisant des algorithmes avancés pour analyser et déterminer le niveau d’édition des images/vidéos/audio).
Pour les vidéos deepfake, il existe des outils capables de détecter les mouvements de la bouche et les paroles incohérentes. Certains programmes sont même assez puissants pour détecter un flux sanguin anormal sous la peau en analysant la résolution vidéo, car lorsque le cœur pompe le sang, les veines humaines changent de couleur.
De plus, un filigrane permet d'identifier les images, les vidéos, etc., afin d'aider les auteurs à protéger les droits d'auteur des produits d'IA. Cette fonctionnalité peut devenir une arme contre le deepfake, car elle permet de retracer l'origine de la plateforme qui crée l'intelligence artificielle. Les utilisateurs dotés de connaissances technologiques peuvent trouver un moyen de retracer l'origine du contenu et de comparer la manière dont les données originales ont été modifiées par l'IA.
Actuellement, certaines technologies émergentes utilisent des algorithmes cryptographiques pour insérer des valeurs de hachage à intervalles réguliers dans la vidéo. Si la vidéo a été modifiée, la valeur de hachage est modifiée, permettant ainsi aux utilisateurs de vérifier si le contenu a été falsifié.
Il existe déjà des tutoriels sur la recherche d'anomalies dans les vidéos, telles que les écarts de couleur, les mouvements musculaires anormaux, les mouvements oculaires, etc. Cependant, l'IA devient de plus en plus intelligente, de sorte que ces valeurs ne donnent pas toujours des résultats corrects.
Le processus de vérification de la fiabilité des vidéos ne se base plus sur l’œil nu mais nécessite des outils technologiques nés dans le but de prévenir et de détecter les faux contenus.
Khanh Linh
Source
Comment (0)