Visionnées des millions de fois en ligne, ces images sont des deepfakes créés grâce à l'intelligence artificielle. En les observant attentivement, on peut déceler des signes révélateurs : des doigts aux courbes étranges ou des yeux qui scintillent d'une lumière surnaturelle.
L’indignation suscitée par ces images deepfake est cependant réelle.
Les photos de la guerre entre Israël et le Hamas illustrent de manière vivante et douloureuse les dangers de l’IA en tant qu’outil de propagande, utilisé pour créer des images réalistes.
Depuis le début des combats le mois dernier, des photos manipulées numériquement circulant sur les réseaux sociaux ont été utilisées pour faire de fausses déclarations sur la responsabilité des victimes ou pour tromper les gens sur des atrocités qui n’ont jamais eu lieu.
Un Palestinien ramasse ses affaires dans les décombres à Gaza. Photo AP.
Les avancées technologiques se multiplient et sont peu surveillées. Cela rend évident le risque que l'IA devienne une arme de plus et offre un premier aperçu de ce à quoi nous pouvons nous attendre lors des futurs conflits, élections et autres événements majeurs.
« Les choses vont empirer avant de s’améliorer », a déclaré Jean-Claude Goldenstein, PDG de CREOpoint, une société technologique basée à San Francisco et à Paris qui utilise l’IA pour évaluer la validité des plaintes en ligne.
Son entreprise a compilé une base de données des images deepfake les plus virales provenant de Gaza. « Images, vidéos et audio : avec l’IA générative, c’est une avancée inédite », a-t-il déclaré.
Imran Ahmed, PDG du Center for Countering Digital Hate, une organisation à but non lucratif qui traque la désinformation liée à la guerre, a déclaré que les propagandistes qui créent de telles images sont habiles à cibler les pulsions et les angoisses les plus profondes des gens.
Plus l'image est effrayante, plus les utilisateurs sont susceptibles de s'en souvenir et de la partager, propageant ainsi par inadvertance davantage de désinformation. Ce type de désinformation générée par l'IA a commencé à se propager de manière virale depuis le conflit russo-ukrainien.
Chaque nouveau conflit ou saison électorale présente de nouvelles opportunités pour les acteurs de la désinformation, ce qui conduit de nombreux experts en IA et politologues à mettre en garde contre les risques pour l’année à venir, lorsque plusieurs pays organiseront des élections majeures, notamment les États-Unis, l’Inde, le Pakistan, l’Ukraine, l’Indonésie et le Mexique.
Le risque que l'IA et les réseaux sociaux soient utilisés pour propager des mensonges auprès des électeurs américains a mis en garde les législateurs des deux partis à Washington. Lors d'une récente audition sur les dangers de la technologie deepfake, le représentant américain Gerry Connolly, démocrate de Virginie, a déclaré que les États-Unis devaient investir dans le développement d'outils d'IA conçus pour contrer d'autres IA.
Pour répondre efficacement aux défis politiques et sociaux posés par la désinformation générée par l’IA, il faudra à la fois une meilleure technologie et une meilleure réglementation, a déclaré David Doermann, professeur à l’Université de Buffalo.
Mai Anh (selon AP)
Source
Comment (0)