GReAT (Global Research & Analysis Team) a indiqué que ces services de deepfake (technologie permettant de simuler des images faciales humaines) proposent des prix de départ d'environ 50 USD (soit 1,3 million de VND) pour les fausses vidéos et de 30 USD (environ 800 000 VND) pour les faux messages vocaux, des tarifs bien inférieurs aux 300 à 20 000 USD/minute précédemment relevés par Kaspersky. Cet écart important démontre que la technologie deepfake est devenue plus accessible que jamais, ouvrant la voie à de nombreux risques d'exploitation à des fins de fraude, d'usurpation d'identité ou de cyberattaques.

Les annonces du Darknet décrivent en détail diverses fonctionnalités inquiétantes, notamment l'échange de visages en temps réel lors d'appels vidéo, l'utilisation de faux visages pour contourner l'authentification et la falsification des flux vidéo sur les plateformes en ligne.
Certains sites proposent également des outils de clonage vocal permettant de modifier la hauteur, le ton, l'émotion et même de synchroniser les mouvements des lèvres avec les dialogues dans de nombreuses langues. Cependant, les experts mettent en garde contre les nombreuses arnaques dont sont victimes les internautes.
Les cybercriminels expérimentent activement l'intelligence artificielle et l'intègrent à leurs opérations, a déclaré Dmitry Galov, responsable de l'équipe GReAT de Kaspersky en Russie et dans la CEI. Certaines plateformes développent même leurs propres modèles de langage malveillants (LLM) capables de s'exécuter directement sur l'appareil, permettant ainsi aux criminels d'accroître leurs capacités d'attaque sans dépendre de modèles publics.
Bien que ces technologies n'aient pas créé de cybermenace entièrement nouvelle, elles ont rendu les pirates informatiques plus dangereux et imprévisibles. Dans ce contexte, Kaspersky recommande aux experts en cybersécurité de tirer parti de l'IA elle-même pour accroître leur productivité et renforcer leurs défenses contre la nouvelle vague d'attaques perpétrées par les deepfakes et les technologies d'IA malveillantes.
Pour se protéger des menaces liées aux deepfakes, Kaspersky recommande :
- Les entreprises déploient pleinement des mesures de cybersécurité : elles ne se contentent pas d’installer des solutions de protection, mais ont également besoin d’une équipe d’experts informatiques hautement qualifiés.
- S'assurer que les employés comprennent le concept de deepfake et les dangers de cette technologie, et organiser régulièrement des formations pour les aider à savoir comment les identifier.
- Former le personnel aux compétences nécessaires pour reconnaître les signes typiques des deepfakes : mouvements saccadés et irréguliers, éclairage incohérent entre les images, teintes de peau non naturelles, clignements d’yeux inhabituels ou peu fréquents, images déformées, vidéos délibérément tournées en basse qualité ou avec un mauvais éclairage.
Source : https://nld.com.vn/dich-vu-deepfake-duoc-rao-ban-re-hon-400-lan-lam-gi-de-tu-bao-ve-196251009170834853.htm






Comment (0)