Vietnam.vn - Nền tảng quảng bá Việt Nam

Utiliser l'IA pour combiner des images sensibles à des fins de chantage

À partir d'une photo virtuelle publiée sur les réseaux sociaux, des malfaiteurs peuvent utiliser des outils d'intelligence artificielle (IA) pour créer des photos sexy, voire nues, ou insérer des visages réalistes dans des vidéos sensibles pour diffamer et faire chanter la victime.

Báo Tuổi TrẻBáo Tuổi Trẻ17/03/2025

Dùng AI ghép hình ảnh nhạy cảm để tống tiền - Ảnh 1.

Les malfaiteurs peuvent utiliser l'IA pour combiner des photos et des vidéos sensibles afin de diffamer et de faire chanter les autres - Photo : dessin d'IA

Autrefois, lorsqu'on parlait de la technique consistant à couper et coller le visage d'une personne sur le corps d'une autre personne, on utilisait souvent Photoshop ou un logiciel de retouche photo spécialisé, ce qui était laborieux et facilement reconnaissable à l'œil nu.

Aujourd’hui, grâce aux outils d’IA, les gens peuvent le faire très facilement après « quelques notes », mais ce n’est pas facile à détecter à l’œil nu.

Vidéo de sexe avec échange de visages pour chantage

En raison de ses relations professionnelles, M. H. (directeur d'une entreprise à Ho Chi Minh Ville) interagit souvent sur les réseaux sociaux.

Un jour, une jeune fille s'est liée d'amitié avec lui et lui a posé des questions sur son travail. Après avoir échangé quelques mots, discuté et partagé leurs expériences professionnelles et personnelles, ils sont devenus très proches.

Il y avait également de nombreux messages texte entre les deux avec des mots très émouvants, ainsi que des photos échangées et des appels vidéo pour se voir.

Un jour, M. H. a soudainement reçu un appel d'un homme se faisant passer pour le mari de la jeune fille. Après une attaque préventive contre M. H., le « mari » lui a demandé de verser une indemnité s'il refusait que des photos de conversations et des vidéos de sexe entre les deux hommes soient envoyées à leurs proches et à leurs partenaires.

Ensuite, M. H. a vu une vidéo de sexe de lui et de l'autre fille par son « mari », ainsi qu'une vidéo de l'appel entre les deux, et des messages texte intimes capturés...

« Je n'ai jamais rencontré cette fille, donc je suis sûr que la vidéo de sexe est une version retouchée », a affirmé M. H. Cependant, l'image du visage de la fille dans la vidéo et celle de la fille dans son appel vidéo sont identiques, ainsi qu'une photo du SMS affectueux, ce qui a contraint M. H. à transférer de l'argent à son « mari » à plusieurs reprises pour préserver sa réputation.

Grâce à l'enquête de Tuoi Tre , M. H. a été victime d'une arnaque organisée selon un scénario parfait. Dans cette arnaque, M. H. a été trompé à deux reprises par deepfake : la première fois par un appel vidéo, la seconde par une vidéo à caractère sexuel.

Notamment, dans la vidéo de sexe, le visage de M. H. était si habilement greffé que les spectateurs avaient du mal à croire qu'il s'agissait d'une greffe faciale. Un expert en IA a confirmé à Tuoi Tre que les malfaiteurs avaient utilisé un nouvel outil d'IA capable de greffer des visages sur des vidéos à la perfection… comme de vrais visages.

Les outils d'IA permettant d'échanger des visages abondent

Il existe actuellement de nombreux outils d'application d'IA dotés de fonctionnalités telles que la création de n'importe quelle personne avec le visage souhaité et la fusion du visage souhaité avec le corps d'une autre personne.

Parmi eux, il existe des outils avec des fonctionnalités qui servent à de mauvaises fins, comme transformer des photos normales en photos nues en « déshabillant » la personne sur la photo, ou remplacer le visage d'une personne dans les vidéos par un visage souhaité...

La plupart de ces outils d'IA sont disponibles en version d'essai, mais payer pour eux vous donnera toutes les fonctionnalités avec un temps de transformation très rapide.

Par exemple, avec la fonctionnalité de fusion des visages sur les corps d'autres personnes, les utilisateurs doivent simplement télécharger deux photos correspondantes et attendre quelques secondes pour obtenir les résultats.

Ou avec la fonctionnalité de création de photos nues à partir de photos normales, l'outil d'IA peut le faire très rapidement, en seulement quelques dizaines de secondes, ce qui surprend les téléspectateurs.

Même la fonctionnalité de remplacement des visages dans les vidéos de sexe, l'outil d'IA le fait très rapidement, prenant moins d'une minute pour les vidéos de quelques secondes.

S'adressant à Tuoi Tre , M. Nguyen Kim Tho, chef de l'équipe de recherche et développement de la société de cybersécurité VNetwork, a analysé le terme deepfake utilisé pour désigner les fausses vidéos et images créées par l'IA pour faire croire aux spectateurs qu'elles sont réelles.

La technologie Deepfake utilise des modèles d'apprentissage profond tels que les réseaux neuronaux pour analyser les données faciales et vocales d'une personne et créer un faux contenu qui ressemble exactement à cette personne.

« Grâce à de puissants algorithmes, les méchants peuvent insérer le visage de la victime dans des vidéos sensibles (par exemple des vidéos de « lit », du porno) ou éditer des images pour créer de fausses photos de nu.

Les logiciels et applications Deepfake sont désormais très populaires sur Internet, même avec des applications mobiles, du code source ouvert ou des services en ligne gratuits - ce qui permet à chacun d'accéder facilement à des outils pour créer de fausses vidéos et photos, les gens doivent donc être vigilants", a déclaré M. Tho.

Évitez les « discussions sexuelles »

De nombreuses arnaques commencent par se faire des amis en ligne, puis incitent la victime à discuter avec elle ou à lui envoyer des photos sensibles. Par conséquent, il est déconseillé d'envoyer des photos ou des vidéos privées à des personnes rencontrées en ligne, quelles que soient leurs promesses ou leurs menaces.

N'oubliez jamais que tout contenu partagé (même via des messages privés) peut être enregistré (capture d'écran, vidéo) puis modifié et utilisé contre vous.

Si vous passez un appel vidéo, méfiez-vous des inconnus qui vous demandent du contenu sensible : il peut s'agir d'un faux écran ou d'un enregistrement.

Les experts en cybersécurité conseillent aux utilisateurs de ne jamais faire confiance à quelqu'un simplement par le biais d'un contact en ligne et de vérifier l'identité et les intentions de l'autre personne avant de partager quoi que ce soit de sensible.

De plus, si vous recevez un message ou un appel menaçant de divulguer des photos « chaudes » à des fins de chantage, les utilisateurs n'ont pas besoin d'avoir peur et de se précipiter pour transférer de l'argent.

Payer ne garantit pas que les malfaiteurs supprimeront la vidéo ; ils peuvent continuer à en exiger davantage ou à publier le contenu en ligne de toute façon, affirment les experts.

Au lieu de suivre les demandes des criminels, les utilisateurs devraient collecter des preuves (messages, numéros de téléphone, comptes de contact, contenu menaçant...) et signaler immédiatement l'incident à l'agence de police la plus proche ou signaler l'incident via l'application VNeID du ministère de la Sécurité publique pour une assistance rapide.

Comment identifier ?

Selon M. Nguyen Kim Tho, il devient de plus en plus difficile de distinguer les images et vidéos réelles des deepfakes, mais il existe encore des signes d'identification et des outils d'aide.

Les utilisateurs peuvent observer manuellement, car le contenu deepfake présente parfois des anomalies visuelles et audio.

Par exemple, les images composites peuvent présenter des différences de bruit et de couleur entre le visage et le corps. Les fausses vidéos peuvent présenter des décalages audio-vidéo (mouvements des lèvres incompatibles avec la parole) ou des expressions faciales figées et artificielles.

Auparavant, certaines vidéos deepfake empêchaient les personnages de cligner des yeux, ou l'éclairage et les ombres sur le visage ne correspondaient pas au contexte - ce qui était le signe que la vidéo avait été éditée.

Bien que la technologie s’améliore (les nouveaux deepfakes, par exemple, ont ajouté des mouvements de clignement des yeux réalistes), les spectateurs observateurs peuvent toujours repérer certains détails illogiques dans les vidéos et les photos.

Les chercheurs développent actuellement de nombreux algorithmes pour détecter automatiquement les traces deepfake.

Le contenu généré par l’IA laisse souvent une « empreinte numérique » distinctive dans chaque pixel que les machines peuvent reconnaître.

Par exemple, Intel a introduit le premier détecteur de deepfakes en temps réel, capable d’analyser des vidéos et de déterminer si les personnages qu’elles contiennent sont de vraies personnes ou générés par l’IA.

De plus, certains sites web permettent aux utilisateurs de télécharger des vidéos et des photos pour vérifier l'authenticité des images (par exemple, Deepware, Sensity AI, etc.). Ces systèmes sont constamment mis à jour pour s'adapter aux nouvelles techniques de deepfake.

En particulier, les utilisateurs peuvent vérifier la source de la publication et le contexte lorsqu'ils rencontrent une vidéo ou une image sensible, car de nombreuses vidéos deepfake sont diffusées via de faux comptes ou des robots sur les réseaux sociaux.

Si du contenu sensible concernant une personne provient d'une source non officielle ou d'un compte anonyme, soyez sceptique quant à son authenticité. Vous pouvez essayer de contacter directement la personne mentionnée dans le contenu pour vérifier qu'elle est bien l'auteur du message.

De plus, des projets comme celui-ci encouragent l'intégration d'informations d'authentification (signatures numériques) dans les photos et les vidéos dès leur création, permettant ainsi de distinguer le contenu original du contenu modifié. À l'avenir, les utilisateurs pourront utiliser ces signes d'authentification pour identifier les contenus fiables », a déclaré M. Tho.

5 conseils pour vous protéger

1. Limitez le partage de photos et de vidéos sensibles et privées (en particulier les photos de nu, les photos de famille, les enfants).

2. Définissez les comptes de réseaux sociaux comme privés (partagez-les uniquement avec des personnes de confiance).

3. Ne fournissez pas trop d'informations personnelles (nom complet, numéro de téléphone, adresse...) sur les réseaux sociaux publics.

4. Définissez des mots de passe forts et activez la vérification en deux étapes pour vos comptes afin d'éviter d'être piraté.

5. Recherchez régulièrement votre nom et votre image sur Google (ou utilisez des outils de recherche d'images inversée comme Google Image, TinEye) pour voir si l'une de vos photos a été publiée sans autorisation et demandez rapidement leur suppression.

En savoir plus Retour aux sujets
VERTU

Source : https://tuoitre.vn/dung-ai-ghep-hinh-anh-nhay-cam-de-tong-tien-20250317075948373.htm


Comment (0)

No data
No data

Même catégorie

Découvrez le processus de fabrication du thé de lotus le plus cher de Hanoi
Admirez la pagode unique fabriquée à partir de plus de 30 tonnes de pièces en céramique à Ho Chi Minh-Ville
Village au sommet de la montagne à Yen Bai : des nuages ​​flottants, beaux comme un pays des fées
Un village caché dans la vallée de Thanh Hoa attire les touristes pour découvrir

Même auteur

Patrimoine

Chiffre

Entreprise

No videos available

Nouvelles

Système politique

Locale

Produit