Le deepfake est désormais une préoccupation majeure alors que le nombre d’escroqueries basées sur la technologie continue d’augmenter.
Après avoir effectué des recherches sur les forums Darknet, où opèrent souvent les cybercriminels, les experts en sécurité ont découvert qu'il y avait tellement de criminels utilisant Deepfake pour frauder que la demande dépassait de loin l'offre de logiciels Deepfake actuellement sur le marché.
Alors que la demande dépasse l'offre, les experts de Kaspersky prédisent que le nombre d'escroqueries Deepfake va augmenter, avec des formes plus diverses et plus sophistiquées : de la fourniture d'une vidéo d'usurpation d'identité de haute qualité à l'utilisation d'images de célébrités dans de faux flux en direct sur les réseaux sociaux, en promettant de payer le double du montant que la victime lui a envoyé.
Selon le système de référence d'information Regula, 37 % des entreprises dans le monde ont été confrontées à une fraude vocale Deepfake et 29 % ont été victimes de vidéos Deepfake.
Cette technologie est devenue une menace pour la cybersécurité au Vietnam, où les cybercriminels utilisent souvent de faux appels vidéo pour se faire passer pour des individus afin d’emprunter de l’argent à leurs proches et amis.
Un appel vidéo Deepfake peut durer seulement une minute, ce qui rend difficile pour les victimes de faire la distinction entre le vrai et le faux.
Le deepfake devient progressivement un « cauchemar » dans les escroqueries sophistiquées en ligne.
Les deepfakes deviennent un cauchemar pour les femmes et la société. Les cybercriminels exploitent l'intelligence artificielle (IA) pour superposer les visages des victimes sur des photos et vidéos pornographiques, ainsi que dans des campagnes de propagande.
« Ces formes visent à manipuler l’opinion publique en diffusant de fausses informations, voire en portant atteinte à la réputation d’organisations ou d’individus », a déclaré Mme Vo Duong Tu Diem, directrice régionale de Kaspersky au Vietnam.
Alors que l’IA est utilisée abusivement par des criminels à des fins malveillantes, les particuliers et les entreprises peuvent toujours utiliser l’intelligence artificielle elle-même pour identifier les Deepfakes, réduisant ainsi la probabilité de succès des escroqueries.
En conséquence, les utilisateurs disposeront de solutions utiles pour se protéger des escroqueries, comme l’utilisation de logiciels de détection de contenu générés par l’IA (utilisant des algorithmes avancés pour analyser et déterminer le niveau d’édition des images/vidéos/audio).
Pour les vidéos Deepfake, il existe désormais des outils qui peuvent aider à détecter les mouvements de bouche et les discours incompatibles. Certains programmes sont si puissants qu’ils peuvent détecter un flux sanguin anormal sous la peau en analysant la résolution vidéo, car lorsque le cœur pompe le sang, les veines humaines changent de couleur.
De plus, il existe également un filigrane qui agit comme une marque d'identification dans les images, les vidéos, etc. pour aider les auteurs à protéger les droits d'auteur des produits d'IA. Cette fonctionnalité pourrait devenir une arme contre les Deepfakes car elle permet de retracer l’origine de la plateforme qui a créé l’intelligence artificielle. Les utilisateurs férus de technologie peuvent consulter le contenu source pour voir comment les données originales ont été modifiées par l’IA.
Actuellement, certaines technologies émergentes utilisent des algorithmes cryptographiques pour insérer des valeurs de hachage à des intervalles de temps définis dans la vidéo. Si la vidéo a été modifiée, la valeur de hachage changera et à partir de là, l'utilisateur pourra vérifier si le contenu a été falsifié ou non.
Il y a eu dans le passé quelques tutoriels sur la recherche d'anomalies dans les vidéos, telles que les écarts de couleur, les mouvements musculaires non naturels, les mouvements oculaires, etc. Cependant, l'IA devient plus intelligente, de sorte que ces valeurs ne donnent pas toujours des résultats corrects.
Le processus de vérification de la fiabilité des vidéos ne se base plus sur l’œil nu mais nécessite des outils technologiques nés dans le but de prévenir et de détecter les faux contenus.
Khanh Linh
Source
Comment (0)