Il est temps pour chaque utilisateur de devenir un « bouclier numérique », d'être vigilant et responsable de chaque clic et partage.
Avantages et limites de l'IA
L'intelligence artificielle n'a jamais été aussi proche de la réalité. En quelques clics, une simple commande suffit pour créer des voix, des images, voire des vidéos d'un réalisme saisissant. L'IA permet de gagner du temps, de réduire les coûts de production de contenu et d'ouvrir l'ère des médias numériques flexibles.
Cependant, la capacité de « simuler de manière réaliste » est devenue une arme à double tranchant. Récemment, les réseaux sociaux ont vu fleurir des vidéos créées grâce à la technologie deepfake, où les visages de responsables policiers, des images des forces de l'ordre en intervention dans des affaires sensibles… sont découpés et collés, doublés de voix déformées afin de semer la confusion et la division.
Des images mises en scène comme celle-ci apparaissent de plus en plus sur les réseaux sociaux.
Dans une vidéo diffusée sur TikTok, l'image d'un agent de la circulation en service était associée à des propos injurieux et au hashtag « fausse amende pour le plaisir », suggérant que cet agent abusait de son pouvoir à des fins personnelles. De nombreux utilisateurs, notamment des jeunes, ont facilement cru à cette vidéo, car l'image était si réaliste et la voix si bien synchronisée avec les mouvements des lèvres qu'il devenait extrêmement difficile de distinguer le vrai du faux.
Un jeune youtubeur de Dien Bien a été sanctionné pour avoir voulu « faire étalage » de ses compétences en intelligence artificielle. Il a écopé d'une amende administrative et a été contraint de présenter des excuses publiques. Le 24 janvier après-midi, la police provinciale de Dien Bien a annoncé que le département de la cybersécurité et de la prévention de la cybercriminalité avait infligé une amende administrative de 7,5 millions de dongs à Tong Van T. (né en 2001, résidant dans le district de Muong Ang) pour avoir utilisé l'intelligence artificielle afin de créer une fausse vidéo au contenu déformé et insultant envers la police de la route.
Le 7 janvier, T. a publié sur sa chaîne YouTube « Tuyền Vlog » une vidéo de plus de trois minutes au titre provocateur : « En balade, j’ai été poursuivi par la police routière ». Dans cette vidéo, des images et des situations ont été mises en scène grâce à l’intelligence artificielle, simulant une course-poursuite avec la police routière. Des effets et des commentaires injurieux et diffamatoires à l’égard des autorités y ont été ajoutés.
En collaboration avec la police, T. a reconnu que le contenu de la vidéo était entièrement truqué, à but de « divertissement » et de démonstration de ses capacités en intelligence artificielle. Outre l'amende, les autorités ont exigé de T. le retrait de la vidéo et la présentation d'excuses publiques à la police routière sur sa chaîne YouTube personnelle.
À l'ère de l'explosion des technologies numériques , et notamment du développement rapide de l'intelligence artificielle, des forces hostiles et réactionnaires n'ont pas hésité à instrumentaliser cet outil pour créer de fausses images et de faux récits, dans le but de ternir l'image des Forces de sécurité publique du peuple vietnamien. La photo qui circule actuellement sur les réseaux sociaux, montrant une femme enceinte en uniforme de police menacée par deux hommes à l'allure de gangsters, illustre parfaitement cette manœuvre.
La photo générée par l'IA est devenue virale sur les réseaux sociaux récemment.
Au premier abord, on pourrait facilement confondre cette scène avec une scène réelle, accompagnée d'un titre sensationnaliste du genre : « Un jeune garçon sauve une policière enceinte des griffes de gangsters, déclenchant une affaire qui choque tout le pays… ». Or, il s'agit en réalité d'une mise en scène, probablement tirée d'un film ou d'une production de divertissement, voire pire, d'une image créée par une intelligence artificielle pour manipuler les émotions des lecteurs, les incitant à la pitié et à douter de l'authenticité des actions des forces de l'ordre.
Plus inquiétant encore, la diffusion de tels contenus nuit non seulement à la réputation et à l'image des Forces de sécurité publique, qui veillent jour et nuit à la sécurité et à l'ordre public, mais constitue également une forme sophistiquée de guerre psychologique. Lorsque la confiance du peuple envers les autorités est érodée par de fausses informations, l'objectif profond des forces hostiles, à savoir diviser le bloc de l'unité nationale, se réalise progressivement.
Par conséquent, chaque citoyen doit accroître sa vigilance, faire preuve d'esprit critique et posséder les compétences nécessaires pour identifier les fausses informations, et dénoncer et réfuter résolument les contenus mensongers, contribuant ainsi à protéger les fondements idéologiques et à maintenir la stabilité sociale face à la vague actuelle d'informations toxiques sur le cyberespace.
À Hô-Chi-Minh-Ville, une vidéo d'une minute environ est devenue virale sur les réseaux sociaux. On y voit une personne en uniforme de police « extorquer des aveux » à un prévenu dans un bureau. Sur les images, l'individu, vraisemblablement un policier, adopte une attitude agressive : il crie et réprimande sans cesse, allant jusqu'à utiliser des propos injurieux, ce qui a provoqué l'indignation générale.
Cependant, dès que la vidéo est devenue virale, la police d'Hô-Chi-Minh-Ville a rapidement mené une enquête et confirmé qu'il s'agissait d'un deepfake sophistiqué. Selon les conclusions de l'enquête, le visage apparaissant dans la vidéo avait été extrait de l'enregistrement d'une réunion interne des forces de police, puis intégré à une scène mise en scène grâce à une technologie d'intelligence artificielle, trompant ainsi les spectateurs qui pensaient qu'il s'agissait d'une action réelle.
En particulier, la bande son qui accompagne la vidéo comprend une voix menaçante et insultante qui ne correspond pas aux véritables paroles d'un officiel, mais à une voix synthétisée par une IA, programmée et modifiée pour tromper les émotions du spectateur.
Cet incident illustre parfaitement l'utilisation de la technologie deepfake pour déformer et diffamer les Forces de sécurité publique du peuple, une technique de plus en plus employée par les forces réactionnaires et antigouvernementales dans le cyberespace. Il est important de souligner que, s'ils ne sont pas rapidement démasqués, de tels contenus falsifiés peuvent avoir de graves conséquences : ébranler la confiance du public envers les forces de l'ordre, inciter à la résistance au sein de la communauté et créer un terrain propice à la propagation de fausses informations. Ceci souligne l'urgence de renforcer les capacités des médias à réfuter, détecter et combattre les fausses informations, et appelle chaque citoyen à la vigilance et à ne pas se précipiter pour partager ou commenter des contenus non vérifiés provenant de sources officielles.
Dans une autre affaire récente, liée à la gestion des infractions dans un centre de contrôle technique automobile du Sud, des individus malveillants ont diffusé une fausse vidéo d'un responsable de la police provinciale prenant la défense d'agents fautifs. Ce clip, partagé sur Telegram et les réseaux sociaux avec le titre « soutenu par de puissantes forces », était en réalité un produit de l'intelligence artificielle et n'apparaissait dans aucune conférence de presse ni aucun document officiel.
Une tendance dangereuse se répand discrètement dans le cyberespace : des individus mal intentionnés utilisent l'intelligence artificielle pour créer de fausses vidéos à des fins d'escroquerie et de chantage. Récemment, de nombreuses personnes ont été victimes de ces arnaques, notamment celles de personnalités telles que des avocats, des médecins et des hommes d'affaires. Leurs images ont été utilisées à mauvais escient dans des vidéos publicitaires proposant de « récupérer l'argent perdu lors d'escroqueries en ligne ».
Dans ces vidéos, l'intelligence artificielle est utilisée pour imiter la voix et le visage de l'avocat, gagnant ainsi la confiance des spectateurs et les incitant à divulguer facilement des informations personnelles ou à transférer de l'argent à l'escroc. Plus grave encore, certains individus utilisent la technologie deepfake pour intégrer le visage de la victime dans des vidéos à caractère sexuel, puis les envoient à son conjoint ou à ses collègues afin de les menacer et de les contraindre à verser de l'argent pour « garder le silence ».
Un incident choquant s'est produit en mars 2025 à Hanoï, lorsqu'une victime a été contrainte de transférer des dizaines de millions de dongs après avoir reçu une fausse vidéo à caractère sexuel utilisant sa propre image. Parallèlement, à Hô Chi Minh-Ville, une autre personne a été victime de chantage, avec un montant pouvant atteindre 2 milliards de dongs, sous peine de voir une vidéo compromettante diffusée. Le ministère de la Sécurité publique est intervenu et a identifié plusieurs groupes criminels transnationaux, principalement originaires de Chine et d'Asie du Sud-Est, à l'origine de ces agissements. Ces groupes utilisent des cartes SIM frauduleuses, des portefeuilles électroniques et des plateformes de réseaux sociaux pour dissimuler leur identité.
Il ne s'agit plus d'une simple escroquerie, mais d'une véritable guerre psychologique de pointe, qui exploite la peur de l'honneur et les liens sociaux pour exercer une pression sur la victime. Si vous ne redoublez pas de vigilance et n'aiguisez pas votre sens de l'observation, vous risquez de devenir la proie de criminels utilisant les hautes technologies. Face à cette vague sophistiquée de falsification, chaque citoyen se doit d'être vigilant, de ne jamais divulguer d'informations personnelles à la légère et d'être prêt à dénoncer les actes illégaux, contribuant ainsi à la sécurité de tous.
Un « bouclier numérique » de la communauté est nécessaire pour lutter contre la menace des deepfakes.
Selon le Département de la radio, de la télévision et de l'information électronique (ministère de la Culture, des Sports et du Tourisme), en 2024, les plateformes numériques vietnamiennes ont dû supprimer plus de 4 000 vidéos contenant des informations fausses et déformées, la plupart étant des productions issues de technologies d'intelligence artificielle telles que les deepfakes et les clones vocaux. TikTok, à lui seul – une plateforme populaire auprès des jeunes – a été sommé de supprimer plus de 1 300 clips deepfake, principalement liés aux forces de police, au gouvernement et aux politiques sociales.
À l'ère de l'explosion technologique, l'intelligence artificielle offre un potentiel révolutionnaire, mais recèle aussi des dangers sans précédent, notamment les deepfakes, ces contenus déformés qui portent atteinte à la réputation des institutions publiques. Une enquête de l'Institut de recherche sur les médias MICRI révèle que 62 % des utilisateurs des réseaux sociaux vietnamiens sont incapables de distinguer le vrai du faux sans avertissement des médias traditionnels ou des autorités. Ce « fossé cognitif » est exploité sans scrupules par des forces mal intentionnées pour diffuser de fausses informations et provoquer des troubles psychologiques au sein de la société.
Tong Van T. au poste de police.
Selon le général de division et professeur agrégé, docteur en criminologie, l'utilisation de l'IA pour créer de fausses vidéos de dirigeants, modifier des déclarations mensongères ou déformer les actions professionnelles des forces de l'ordre est une pratique nouvelle mais particulièrement dangereuse. « Les deepfakes ne sont pas un simple produit de divertissement, mais une forme moderne de guerre de l'information, capable de détruire la confiance, de provoquer une instabilité sociale et très difficile à contrôler », a commenté le général de division Do Canh Thin.
En réalité, les vidéos manipulées par l'IA ne sont pas inoffensives ; elles abordent souvent des sujets sensibles comme le traitement des infractions, les enquêtes criminelles, la lutte contre la corruption, etc., ce qui sème la confusion et la méfiance envers les forces de l'ordre. Plus inquiétant encore, nombre de ces vidéos sont partagées sur des plateformes majeures telles que YouTube et TikTok, où elles cumulent des centaines de milliers de vues avant d'être supprimées, créant ainsi un effet viral néfaste.
L’expert en médias numériques Hoang Minh met en garde : « Un simple partage ou un seul « j’aime » sans précaution peut suffire à propager de fausses informations. Chaque internaute doit comprendre que ses comportements en ligne ont des conséquences bien réelles. »
Dans ce contexte, il est plus que jamais nécessaire de construire un « bouclier numérique » à partir de la communauté elle-même : vigilance, immunité informationnelle et responsabilité vis-à-vis de l’environnement numérique. La technologie peut être neutre, mais l’usage qu’en font les individus déterminera si l’IA deviendra un moteur de développement ou une force destructrice de la confiance sociale. Préserver l’image du soldat de la Sécurité publique, c’est protéger les fondements de la sécurité nationale ; une tâche qui incombe non seulement au secteur opérationnel, mais aussi à chaque citoyen à l’ère numérique.
Source : https://baolangson.vn/tinh-hai-mat-cua-ai-5050403.html










Comment (0)