Comment fonctionnent les fausses images d’IA ?
L'IA est omniprésente aujourd'hui, même en temps de guerre. Les applications d'intelligence artificielle ont tellement progressé cette année que presque tout le monde peut utiliser des générateurs d'IA pour créer des images réalistes, du moins à première vue.
Une fausse photo générée par l'IA de la guerre à Gaza.
Pour ce faire, il suffit aux utilisateurs de fournir à des outils comme Midjourney ou Dall-E quelques instructions, incluant des spécifications et des informations. Les outils d'IA convertissent ensuite le texte, voire la voix, en images.
Ce processus de génération d'images repose sur l'apprentissage automatique. Par exemple, si un créateur souhaite représenter un homme de 70 ans faisant du vélo, il effectuera une recherche dans sa base de données pour associer des termes aux images.
À partir des informations disponibles, l'algorithme d'IA générera une image du cycliste âgé. Grâce à des apports et des mises à jour techniques toujours plus nombreux, ces outils se sont considérablement améliorés et sont en constante évolution.
Tout cela s'applique aux images liées au conflit au Moyen-Orient. Dans un conflit où « les émotions sont si fortes », la désinformation, notamment diffusée par le biais d'images générées par l'IA, a un impact considérable, explique Hany Farid, expert en IA.
Farid, professeur d'analyse numérique à l'Université de Californie à Berkeley, a déclaré que les batailles féroces sont le terrain idéal pour créer et diffuser de faux contenus, ainsi que pour alimenter les émotions.
Types d'images IA de la guerre entre Israël et le Hamas
Les images et vidéos créées à l’aide de l’intelligence artificielle ont alimenté la désinformation liée à la guerre en Ukraine, et cela continue de se produire dans la guerre Israël-Hamas.
Selon les experts, les images d'IA circulant sur les réseaux sociaux à propos de la guerre se divisent souvent en deux catégories. Les unes se concentrent sur la souffrance des gens et suscitent la compassion. Les autres sont des IA factices qui exagèrent les événements, incitant ainsi au conflit et à l'escalade de la violence.
Photo truquée générée par l'IA d'un père et de son enfant dans les décombres à Gaza.
Par exemple, la première catégorie comprend la photo ci-dessus, montrant un père et ses cinq enfants devant un tas de décombres. Elle a été partagée à plusieurs reprises sur X (anciennement Twitter) et Instagram, et vue des centaines de milliers de fois.
Cette image a été signalée par la communauté, du moins sur X, comme étant fausse. Elle est reconnaissable à diverses erreurs et incohérences courantes dans les images d'IA (voir image ci-dessus).
Des anomalies similaires peuvent également être observées dans la fausse image d'IA devenue virale sur X ci-dessous, qui prétend montrer une famille palestinienne mangeant ensemble sur les ruines.
Photo fausse générée par l'IA d'un parti palestinien.
Pendant ce temps, une autre image montrant des soldats agitant des drapeaux israéliens alors qu'ils traversent une colonie remplie de maisons bombardées tombe dans la deuxième catégorie, conçue pour attiser la haine et la violence.
D’où viennent ces images d’IA ?
La plupart des images de conflit générées par l’IA sont publiées sur les plateformes de médias sociaux, mais elles sont également disponibles sur un certain nombre d’autres plateformes et organisations, et même sur certains sites d’information.
La société de logiciels Adobe a fait la une des journaux en ajoutant des images générées par l'IA à sa gamme de photos d'archives d'ici la fin de 2022. Elles seront étiquetées en conséquence dans la base de données.
Adobe propose désormais également à la vente des images IA de la guerre au Moyen-Orient — comme des explosions, des manifestants ou des panaches de fumée derrière la mosquée Al-Aqsa.
Adobe propose des images générées par l'IA des combats à Gaza.
Les critiques ont trouvé cela inquiétant, car certains sites ont continué à utiliser ces images sans les identifier comme générées par l'IA. L'image en question, par exemple, est apparue sur la page « Actualités » sans aucune indication qu'elle était générée par l'IA.
Même le Service de recherche du Parlement européen, la branche scientifique du Parlement européen, a illustré un texte en ligne sur le conflit au Moyen-Orient avec une image IA provenant de la base de données Adobe — sans l’étiqueter comme générée par l’IA.
L'Observatoire européen des médias numériques exhorte les journalistes et les professionnels des médias à être extrêmement prudents lorsqu'ils utilisent des images d'IA, déconseillant leur utilisation, en particulier lorsqu'ils couvrent des événements réels tels que la guerre à Gaza.
À quel point les images IA sont-elles dangereuses ?
Le contenu et les images virales générés par l'IA ne manqueront pas de susciter un malaise chez les utilisateurs face à tout ce qu'ils voient en ligne. « Si nous entrons dans un monde où les images, le son et la vidéo peuvent être manipulés , tout devient suspect », explique Farid, chercheur à l'UC Berkeley. « On perd alors confiance en tout, y compris en la vérité. »
C'est exactement ce qui s'est passé dans le cas suivant : une image de ce que l'on croit être le cadavre carbonisé d'un bébé israélien a été partagée sur les réseaux sociaux par le Premier ministre israélien Benjamin Netanyahu et plusieurs autres hommes politiques.
Jackson Hinkle, un influenceur anti-israélien, a plus tard affirmé que l'image avait été créée grâce à l'intelligence artificielle. Sa déclaration a été vue plus de 20 millions de fois sur les réseaux sociaux et a suscité un vif débat sur la plateforme.
Finalement, de nombreuses organisations et outils de vérification ont déclaré que l'image était authentique et que l'affirmation de Hinkle était fausse. Cependant, il est clair qu'aucun outil ne peut aider les utilisateurs à regagner facilement leur confiance perdue !
Hoang Hai (selon DW)
Source
Comment (0)