Vietnam.vn - Nền tảng quảng bá Việt Nam

Utiliser l'IA pour combiner des images sensibles à des fins de chantage

À partir d'une photo virtuelle publiée sur les réseaux sociaux, des malfaiteurs peuvent utiliser des outils d'intelligence artificielle (IA) pour créer des photos sexy, voire nues, ou insérer des visages réalistes dans des vidéos sensibles pour diffamer et faire chanter la victime.

Báo Tuổi TrẻBáo Tuổi Trẻ17/03/2025

Dùng AI ghép hình ảnh nhạy cảm để tống tiền - Ảnh 1.

Les malfaiteurs peuvent utiliser l'IA pour combiner des photos et des vidéos sensibles afin de diffamer et de faire chanter les autres - Photo : Dessin d'IA

Autrefois, lorsqu'on parlait de la technique consistant à couper et coller le visage d'une personne sur le corps d'une autre personne, on utilisait souvent Photoshop ou un logiciel de retouche photo spécialisé, ce qui est laborieux et facilement reconnaissable à l'œil nu.

Aujourd’hui, grâce aux outils d’IA, les gens peuvent le faire très facilement en « quelques notes », mais ce n’est pas facile à détecter à l’œil nu.

Vidéo de sexe avec échange de visages pour chantage

En raison de ses relations professionnelles, M. H. (directeur d'une entreprise à Ho Chi Minh Ville) interagit souvent sur les réseaux sociaux.

Un jour, une jeune fille s'est liée d'amitié avec lui et lui a posé des questions sur son travail. Après un moment passé à se renseigner, à discuter, à partager travail et vie personnelle, ils ont fini par se sentir très proches.

Il y avait aussi de nombreux messages texte entre les deux avec des mots très affectueux, ainsi que des photos échangées et des appels vidéo pour se voir.

Un jour, M. H. a soudainement reçu un appel d'un homme se faisant passer pour le mari de la jeune fille. Après avoir agi « préventivement » contre M. H., le « mari » lui a demandé de verser une indemnité, sous peine d'envoyer des photos de leurs conversations et des vidéos de sexe à ses proches et partenaires commerciaux.

Ensuite, M. H. a vu une vidéo de sexe de lui et de l'autre fille par son « mari », ainsi qu'un appel vidéo entre les deux et des messages texte intimes capturés...

« Je n'ai jamais rencontré cette fille, donc je suis sûr que la vidéo de sexe est une image retouchée », a affirmé M. H. Cependant, l'image du visage de la fille dans la vidéo et celle de la fille dans son appel vidéo sont identiques, ainsi que la photo du SMS affectueux, ce qui a contraint M. H. à transférer de l'argent à son « mari » à plusieurs reprises pour préserver sa réputation.

Grâce à l'enquête de Tuoi Tre , M. H. a été victime d'une arnaque organisée selon un scénario parfait. Dans cette arnaque, M. H. a été dupé à deux reprises par deepfake : la première fois par un appel vidéo, la seconde par une vidéo à caractère sexuel.

Notamment, dans la vidéo de sexe, le visage de M. H. était si habilement greffé que les spectateurs avaient du mal à croire qu'il s'agissait d'une greffe de visage. Un expert en IA a confirmé à Tuoi Tre que les méchants utilisaient un nouvel outil d'IA capable de greffer des visages sur des vidéos à la perfection… comme de vrais visages.

Les outils d'IA permettant d'échanger des visages abondent

Il existe actuellement de nombreux outils d'application d'IA dotés de fonctionnalités telles que la création de n'importe quelle personne avec le visage souhaité et la fusion du visage souhaité avec le corps d'une autre personne.

Parmi eux, il existe des outils avec des fonctionnalités qui servent à de mauvaises fins, comme transformer des photos normales en photos nues en « déshabillant » la personne sur la photo, ou remplacer le visage d'une personne dans les vidéos par un visage souhaité...

La plupart de ces outils d'IA sont disponibles en essai, mais payer pour eux vous donnera toutes les fonctionnalités avec un temps de transformation très rapide.

Par exemple, avec la fonctionnalité face à corps, les utilisateurs doivent simplement télécharger deux photos correspondantes et attendre quelques secondes pour obtenir les résultats.

Ou avec la fonctionnalité de création de photos nues à partir de photos normales, l'outil d'IA peut le faire très rapidement, en seulement quelques dizaines de secondes, ce qui surprend les spectateurs.

Même la fonctionnalité de remplacement des visages dans les vidéos de sexe, l'outil d'IA le fait très rapidement, prenant moins d'une minute pour les vidéos de quelques secondes.

En parlant avec Tuoi Tre , M. Nguyen Kim Tho, chef de l'équipe de recherche et développement de la société de cybersécurité VNetwork, a analysé le terme deepfake, qui fait référence à de fausses vidéos et images créées à l'aide de l'IA pour faire croire aux spectateurs qu'elles sont réelles.

La technologie Deepfake utilise des modèles d'apprentissage profond tels que les réseaux neuronaux pour analyser les données faciales et vocales d'une personne et créer un faux contenu qui ressemble exactement à cette personne.

« Grâce à de puissants algorithmes, les méchants peuvent insérer le visage de la victime dans des vidéos sensibles (par exemple, des vidéos de « lit », du porno) ou éditer des images pour créer de fausses photos de nu.

« Les logiciels et applications Deepfake sont désormais très populaires sur Internet, même avec des applications mobiles, du code source ouvert ou des services en ligne gratuits - ce qui permet à chacun d'accéder facilement à des outils pour créer de fausses vidéos et photos, les gens doivent donc être vigilants », a déclaré M. Tho.

Évitez les « discussions sexuelles »

De nombreuses arnaques commencent par se faire des amis en ligne, puis incitent la victime à discuter avec elle ou à lui envoyer des photos sensibles. Par conséquent, il est déconseillé d'envoyer des photos ou des vidéos privées à des personnes rencontrées en ligne, quelles que soient les promesses ou les menaces.

N'oubliez jamais que tout contenu partagé (même via des messages privés) peut être enregistré (capture d'écran, vidéo) puis modifié et utilisé contre vous.

Si vous passez un appel vidéo, méfiez-vous des inconnus qui vous demandent du contenu sensible : il peut s'agir d'un faux écran ou d'un enregistrement.

Les experts en cybersécurité conseillent aux utilisateurs de ne jamais faire confiance à quelqu'un simplement par le biais d'un contact en ligne et de vérifier l'identité et les intentions de l'autre personne avant de partager quoi que ce soit de sensible.

De plus, si vous recevez un SMS ou un appel menaçant de divulguer des photos « chaudes » à des fins de chantage, les utilisateurs n'ont pas besoin d'avoir peur ou de se précipiter pour transférer de l'argent.

Payer ne garantit pas que les méchants supprimeront la vidéo ; ils peuvent continuer à en demander davantage ou à publier le contenu en ligne de toute façon, disent les experts.

Au lieu de suivre les demandes des criminels, les utilisateurs devraient collecter des preuves (messages, numéros de téléphone, comptes de contact, contenu menaçant...) et signaler immédiatement l'incident à l'agence de police la plus proche ou signaler l'incident via l'application VNeID du ministère de la Sécurité publique pour une assistance rapide.

Comment identifier ?

Selon M. Nguyen Kim Tho, il devient de plus en plus difficile de distinguer les images et vidéos réelles des deepfakes, mais il existe encore des signes d'identification et des outils d'aide.

Les utilisateurs peuvent observer manuellement, car le contenu deepfake présente parfois des anomalies dans l'image et le son.

Par exemple, une image composite peut présenter du bruit ou des différences de couleur entre le visage et le corps. Une fausse vidéo peut présenter des décalages audio et vidéo (mouvements des lèvres non conformes à la parole) ou des expressions faciales figées et artificielles.

Auparavant, certaines vidéos deepfake empêchaient les personnages de cligner des yeux, ou l'éclairage et les ombres sur le visage ne correspondaient pas au contexte - ce qui était le signe que la vidéo avait été éditée.

Bien que la technologie s’améliore (par exemple, de nouveaux deepfakes ont ajouté des mouvements de clignement des yeux réalistes), les spectateurs observateurs peuvent toujours repérer certains détails illogiques dans les vidéos et les photos.

Les chercheurs développent actuellement de nombreux algorithmes pour détecter automatiquement les traces deepfake.

Le contenu généré par l’IA laisse souvent une « empreinte numérique » distinctive dans chaque pixel que les machines peuvent reconnaître.

Par exemple, Intel a présenté le premier détecteur de deepfakes en temps réel, capable d’analyser des vidéos et de déterminer si les personnages qu’elles contiennent sont de vraies personnes ou générés par l’IA.

De plus, certains sites web permettent aux utilisateurs de télécharger des vidéos et des photos pour vérifier l'authenticité des images (par exemple, Deepware, les outils d'IA Sensity...). Ces systèmes sont constamment mis à jour pour s'adapter aux nouvelles techniques de deepfake.

En particulier, les utilisateurs peuvent vérifier la source de la publication et le contexte lorsqu'ils rencontrent une vidéo ou une image sensible, car de nombreuses vidéos deepfake sont diffusées via de faux comptes ou des robots sur les réseaux sociaux.

Si du contenu sensible concernant une personne provient d'une source non officielle ou d'un compte anonyme, soyez sceptique quant à son authenticité. Vous pouvez essayer de contacter directement la personne mentionnée dans le contenu pour vérifier qu'elle est bien l'auteur du message.

De plus, des projets comme celui-ci encouragent l'intégration d'informations d'authentification (signatures numériques) dans les photos et les vidéos dès leur création, permettant ainsi de distinguer le contenu original du contenu modifié. À l'avenir, les utilisateurs pourront utiliser ces signes d'authentification pour identifier les contenus dignes de confiance », a déclaré M. Tho.

5 notes pour vous protéger

1. Limitez le partage de photos et de vidéos sensibles et privées (en particulier les photos de nu, les photos de famille, les enfants).

2. Définissez vos comptes de réseaux sociaux comme privés (partagez-les uniquement avec des personnes de confiance).

3. Ne fournissez pas trop d'informations personnelles (nom complet, numéro de téléphone, adresse...) sur les réseaux sociaux publics.

4. Définissez des mots de passe forts et activez la vérification en deux étapes pour vos comptes afin d'éviter d'être piraté.

5. Recherchez régulièrement votre nom et votre image sur Google (ou utilisez des outils de recherche d'images inversée comme Google Image, TinEye) pour voir si l'une de vos photos a été publiée sans autorisation et demandez rapidement leur suppression.

En savoir plus Retour aux sujets
VERTU

Source: https://tuoitre.vn/dung-ai-ghep-hinh-anh-nhay-cam-de-tong-tien-20250317075948373.htm


Comment (0)

No data
No data

Même catégorie

Garder l'esprit de la fête de la mi-automne à travers les couleurs des figurines
Découvrez le seul village du Vietnam dans le top 50 des plus beaux villages du monde
Pourquoi les lanternes à drapeau rouge avec des étoiles jaunes sont-elles populaires cette année ?
Le Vietnam remporte le concours musical Intervision 2025

Même auteur

Patrimoine

Chiffre

Entreprise

No videos available

Événements actuels

Système politique

Locale

Produit