Vietnam.vn - Nền tảng quảng bá Việt Nam

Des experts donnent des « conseils » pour identifier les appels Deepfake frauduleux

Báo Đại Đoàn KếtBáo Đại Đoàn Kết04/03/2025


Le Département de la sécurité de l'information a récemment émis un avertissement concernant la récurrence des fraudes aux vidéos et aux images de haute technologie.

En conséquence, la situation des cybercriminels profitant des images et vidéos publiques de personnes pour les éditer, les couper et menacer de faire chanter avec de fausses vidéos a été largement mise en garde par les autorités auprès d'un grand nombre de personnes.

deepfake-1-.jpg
Illustration : Hoang Chien.

En utilisant la technologie Deepfake qui permet de reproduire le son et l'image d'une personne avec une grande précision, les criminels peuvent se faire passer pour des dirigeants lors de réunions en ligne, ou créer des vidéos et des appels pour commettre des fraudes financières.

De plus, ces escroqueries exploitent souvent des facteurs psychologiques tels que l’urgence, la peur ou le pouvoir, poussant les victimes à agir avec précipitation sans vérifier soigneusement l’authenticité.

Les deepfakes ne se limitent pas aux escroqueries aux investissements financiers. Les escroqueries sentimentales en sont un autre exemple : elles permettent de créer des personnages fictifs qui interagissent avec leurs victimes par appels vidéo. Après avoir gagné la confiance de la victime, l'escroc demande des virements d'argent pour régler des urgences, des frais de voyage ou des prêts.

À la lumière de la situation ci-dessus, le Département de la sécurité de l'information recommande aux gens de se méfier des conseils d'investissement des célébrités sur les réseaux sociaux ; de se méfier des messages, e-mails ou appels inconnus ; et d'observer attentivement les expressions faciales non naturelles dans les vidéos.

Les gens doivent également limiter la publication de contenu lié aux informations personnelles sur les réseaux sociaux pour éviter que des informations telles que des images, des vidéos ou des voix ne soient volées par des méchants ; dans le même temps, définissez les comptes en mode privé pour protéger les informations personnelles.

S'adressant aux journalistes du journal Dai Doan Ket, Ngo Minh Hieu, expert en cybersécurité et cofondateur du Projet vietnamien de prévention de la cyberfraude (Chongluadao.vn), a déclaré que l'utilisation de la technologie Deepfake par l'IA pour simuler des appels vidéo à des fins frauduleuses restait complexe. Les individus exploitent cette technologie pour accroître la crédibilité de leurs « proies ».

Plus précisément, les sujets passeront de manière proactive des appels vidéo aux victimes à partir d'images et de vidéos précédemment « volées » et manipuleront la technique, déformeront le son ou simuleront des problèmes d'image pour gagner la confiance de la victime.

Habituellement, ces appels sont très courts, ne durent que quelques secondes, puis ils utilisent l'excuse d'un réseau instable, du fait d'être dans la rue, etc. pour demander à la victime de répondre aux demandes de l'escroc.

Les experts préviennent que l'utilisation de l'IA à des fins de cyberfraude devrait augmenter considérablement dans un avenir proche. Il est donc essentiel de redoubler de vigilance, notamment face à la réception de messages, d'appels vidéo et de liens suspects.

Selon l'analyse de cet expert, l'algorithme actuel d'intelligence artificielle (IA) Deepfake lors des appels en temps réel ne sera pas en mesure de gérer si l'appelant tourne à gauche, tourne à droite ou se lève...

Un point faible particulier auquel il faut prêter attention lors de la réception de ces appels concerne les dents. Par conséquent, les algorithmes d'IA actuels ne peuvent pas reproduire les dents de la personne usurpée.

En cas d'utilisation de deepfake, l'image de la personne ouvrant la bouche peut être édentée, tandis que certaines personnes peuvent avoir trois, voire quatre mâchoires. Par conséquent, les caractéristiques des dents sont l'élément le plus reconnaissable d'un faux appel utilisant deepfake.

Ralentir et ne pas répondre immédiatement à la demande est une condition préalable pour éviter de tomber dans le piège de l'arnaque. Lorsqu'on reçoit un message ou un appel via les réseaux sociaux, il est conseillé d'appeler directement ses proches pour vérifier précisément qui les contacte, dans un délai minimum de 30 secondes, ou de les rencontrer en personne.

En cas de suspicion d'usurpation de l'identité de proches sur les réseaux sociaux pour frauder ou s'approprier des biens, il est nécessaire de signaler immédiatement à l'agence de police la plus proche pour une prise en charge et un traitement rapides.



Source : https://daidoanket.vn/chuyen-gia-chi-meo-nhan-biet-cuoc-goi-deepfake-lua-dao-10300910.html

Comment (0)

No data
No data

Même sujet

Même catégorie

Les jeunes se rendent dans le Nord-Ouest pour s'enregistrer pendant la plus belle saison du riz de l'année
À la saison de la « chasse » au roseau à Binh Lieu
Au milieu de la forêt de mangrove de Can Gio
Les pêcheurs de Quang Ngai empochent des millions de dongs chaque jour après avoir décroché le jackpot avec des crevettes

Même auteur

Patrimoine

Chiffre

Entreprise

Com lang Vong - le goût de l'automne à Hanoi

Événements actuels

Système politique

Locale

Produit