Les deepfakes générés par l'IA, les séquences de jeux vidéo déguisées en scènes de combat réelles et la désinformation générée par les chatbots – toutes ces formes de désinformation permises par la technologie déforment gravement le conflit israélo-iranien, alimentant une guerre narrative sur les plateformes de médias sociaux qui occulte les faits.
La guerre de l’information, qui se déroule en parallèle des escarmouches sur le terrain – déclenchées par les frappes israéliennes contre les installations nucléaires et les dirigeants militaires iraniens – a mis en lumière une profonde crise numérique à l’ère des outils d’IA en évolution rapide qui brouillent la frontière entre vérité et mensonge.
Les experts affirment que l'explosion de la désinformation dans les conflits a mis en évidence le besoin urgent d'outils de détection et de vérification plus performants. De manière inquiétante, les principales plateformes numériques assouplissent ces mesures de protection en réduisant la modération des contenus et en diminuant leur recours aux vérificateurs de faits.

S'adressant aux journalistes, Ken Jon Miyachi, fondateur de BitMindAI, une entreprise basée à Austin, a déclaré que le monde assiste à une recrudescence de la désinformation générée par l'IA, notamment en lien avec le conflit irano-israélien. Ces outils sont utilisés pour manipuler l'opinion publique, amplifiant souvent des récits clivants ou mensongers avec une ampleur et une sophistication sans précédent.
GetReal Security, une société américaine spécialisée dans la détection de contenus médiatiques manipulés, a également identifié une vague de fausses vidéos liées au conflit israélo-iranien.
L'entreprise associe ces vidéos très visuelles — montrant des scènes horribles d'avions et de bâtiments israéliens endommagés par le conflit, ainsi que des missiles iraniens montés sur des remorques — au générateur d'IA Veo 3 de Google, connu pour sa capacité à créer des images hyperréalistes.
Hany Farid, cofondateur de GetReal Security et professeur à l'Université de Californie à Berkeley (États-Unis), a partagé une petite astuce pour identifier les fausses images créées par l'IA : les vidéos Veo 3 durent généralement 8 secondes ou sont une combinaison de clips de longueur similaire.
« Cette limite de huit secondes ne prouve évidemment pas qu’une vidéo est fausse, mais cela devrait vous inciter à vérifier les informations avant de la partager », a-t-il souligné.
Selon M. Miyachi, expert chez BitMindAI, la situation actuelle de diffusion de contenus faux et falsifiés sur Internet reflète une crise plus profonde : l'érosion de la confiance dans l'information numérique.
Face à cette situation, il a souligné la nécessité de développer des outils plus efficaces pour détecter les faux contenus, améliorer l'éducation aux médias dans la société et promouvoir le rôle responsable des plateformes technologiques dans le maintien de la transparence et de la qualité des débats publics.
Source : https://www.vietnamplus.vn/ai-lam-nhieu-loan-thong-tin-ve-cuoc-xung-dot-israel-iran-nhu-the-nao-post1045593.vnp






Comment (0)