Hoang Oanh (le nom du personnage a été modifié) est un employé de bureau à Hanoï . Lors d'une conversation avec un ami via Facebook Messenger, celui-ci lui a dit au revoir et a mis fin à la conversation, mais est soudainement revenu à l'envoi de SMS, demandant à emprunter de l'argent et suggérant de virer de l'argent sur un compte bancaire.
Bien que le nom du compte corresponde à celui de son amie, Hoang Oanh était encore un peu méfiante et a demandé un appel vidéo pour vérification. Son amie a immédiatement accepté, mais l'appel n'a duré que quelques secondes en raison d'un « décalage Internet », selon ses explications. Ayant vu le visage de son amie lors de l'appel vidéo et sa voix identique, Hoang Oanh n'a plus douté et a transféré l'argent. Cependant, ce n'est qu'une fois le transfert réussi que l'utilisatrice a compris qu'elle était tombée dans le piège du pirate.
Le cas de l'utilisateur Hoang Oanh n'est qu'une des nombreuses victimes tombées dans le piège de groupes frauduleux qui utilisent la technologie de l'intelligence artificielle pour créer des images et des voix des amis et des proches des victimes afin de les inciter à s'approprier leurs biens.
Les experts de Bkav ont déclaré qu'au cours du second semestre 2023 et en particulier à l'époque du Nouvel An lunaire 2024, cette société de sécurité informatique a continuellement reçu des rapports et des demandes d'aide de victimes concernant des cas de fraude similaires à ceux mentionnés ci-dessus.
Selon l'analyse des experts de l'entreprise, dans le cas de l'utilisateur Hoang Oanh, les méchants ont pris le contrôle du compte Facebook mais n'ont pas immédiatement pris le contrôle complet, mais ont secrètement suivi, attendant une opportunité de se faire passer pour une victime pour demander à emprunter de l'argent à leurs amis et à leurs proches.
Les escrocs ont utilisé l'IA pour créer une fausse vidéo du visage et de la voix du propriétaire du compte Facebook (Deepfake). Invités à passer un appel vidéo pour vérification, ils ont accepté, mais ont rapidement déconnecté pour éviter d'être détectés.
M. Nguyen Tien Dat, directeur général du Centre de recherche sur les logiciels malveillants de Bkav, a souligné que même lorsqu'un utilisateur passe un appel vidéo et voit le visage d'un proche ou d'un ami et entend sa voix, il ne s'agit pas forcément de lui parler. Récemment, de nombreuses personnes ont été victimes d'escroqueries financières utilisant le deepfake et l'intelligence artificielle.
« La capacité de collecter et d'analyser les données des utilisateurs grâce à l'IA permet de créer des stratégies de fraude sophistiquées. Cela signifie également que la complexité des scénarios de fraude combinés à Deepfake et GPT augmentera, rendant la détection des fraudes beaucoup plus difficile », a déclaré M. Nguyen Tien Dat.
Les experts de Bkav recommandent aux utilisateurs d'être particulièrement vigilants et de ne pas divulguer d'informations personnelles (carte d'identité, compte bancaire, code OTP, etc.). Ne transférez pas d'argent à des inconnus par téléphone, sur les réseaux sociaux ou sur des sites web présentant des signes de fraude. En cas de demande d'emprunt/de transfert d'argent sur un compte via les réseaux sociaux, les utilisateurs doivent utiliser d'autres méthodes d'authentification, comme l'appel ou d'autres canaux de communication, pour confirmer leur demande.
En prévoyant les tendances en matière de cyberattaques en 2024, les experts s’accordent à dire que le développement rapide de l’IA apporte non seulement des avantages évidents, mais crée également des risques importants pour la cybersécurité.
Le principal défi pour les entreprises et les organisations face à l'IA réside aujourd'hui dans la fraude et les menaces persistantes avancées (APT), avec la complexité croissante des scénarios de fraude, notamment lorsqu'elles combinent deepfake et GPT. La capacité de collecte et d'analyse des données utilisateur grâce à l'IA permet de créer des stratégies de fraude sophistiquées, rendant ainsi l'identification des fraudes plus difficile pour les utilisateurs.
Le renforcement de la sécurité de l'IA est une tendance indéniable à venir. La communauté internationale devra coopérer étroitement pour développer de nouvelles mesures de sécurité, tout en sensibilisant les utilisateurs aux risques potentiels de l'IA.
Méfiez-vous des escroqueries diffusant de faux messages de marque
Avertissement concernant 5 escroqueries en ligne pendant le Nouvel An lunaire 2024
L'usurpation d'identité des autorités représente 9 % du total des attaques de phishing au Vietnam
Source
Comment (0)