Vietnam.vn - Nền tảng quảng bá Việt Nam

Guerre Israël-Hamas : le danger des fausses images créées par l'IA

Công LuậnCông Luận11/11/2023


Comment fonctionnent les fausses images d’IA ?

L'IA est omniprésente aujourd'hui, même en temps de guerre. Les applications d'intelligence artificielle ont tellement progressé cette année que presque tout le monde peut utiliser des générateurs d'IA pour créer des images réalistes, du moins à première vue.

Les combattants israéliens du Hamas sont menacés par de fausses images. Image 1

Une fausse photo générée par l'IA de la guerre à Gaza.

Pour ce faire, les utilisateurs fournissent simplement à des outils comme Midjourney ou Dall-E quelques instructions, incluant des spécifications et des informations. Les outils d'IA convertissent ensuite le texte, voire la voix, en images.

Ce processus de génération d'images repose sur ce que l'on appelle l'apprentissage automatique. Par exemple, si un créateur souhaite représenter un homme de 70 ans faisant du vélo, il effectuera une recherche dans sa base de données pour associer des termes aux images.

À partir des informations disponibles, l'algorithme d'IA générera des images du cycliste âgé. Grâce à des apports et des mises à jour techniques croissants, ces outils se sont considérablement améliorés et sont en constante évolution.

Tout cela s'applique aux images liées au conflit au Moyen-Orient. Dans un conflit où « les émotions sont si fortes », la désinformation, notamment diffusée par le biais d'images générées par l'IA, a un impact considérable, explique Hany Farid, expert en IA.

Farid, professeur d'analyse numérique à l'Université de Californie à Berkeley, a déclaré que les batailles féroces sont le terrain idéal pour créer et diffuser de faux contenus, ainsi que pour attiser les émotions.

Images de l'IA de la guerre entre Israël et le Hamas

Les images et vidéos créées à l’aide de l’intelligence artificielle ont alimenté la désinformation liée à la guerre en Ukraine, et cela continue de se produire dans la guerre entre Israël et le Hamas.

Selon les experts, les images d'IA circulant sur les réseaux sociaux à propos de la guerre se divisent souvent en deux catégories. L'une met l'accent sur la souffrance humaine et suscite l'empathie. L'autre est une fausse IA qui exagère les événements, incitant ainsi au conflit et à l'escalade de la violence.

Les combattants israéliens du Hamas sont menacés par de fausses images créées par quelqu'un. Image 2

Photo truquée générée par l'IA d'un père et de son enfant dans les décombres à Gaza.

Par exemple, la première catégorie comprend la photo ci-dessus, montrant un père et ses cinq enfants devant un tas de décombres. Elle a été partagée à plusieurs reprises sur X (anciennement Twitter) et Instagram, et vue des centaines de milliers de fois.

Cette image a été signalée par la communauté, du moins sur X, comme étant fausse. Elle est reconnaissable à diverses erreurs et incohérences courantes dans les images d'IA (voir image ci-dessus).

Des anomalies similaires peuvent également être observées dans la fausse image d'IA devenue virale sur X ci-dessous, qui prétend montrer une famille palestinienne mangeant ensemble sur les ruines.

Les combattants israéliens du Hamas sont menacés par ces fausses images. Image 3

Photo falsifiée générée par l'IA d'un parti palestinien.

Pendant ce temps, une autre image montrant des soldats agitant des drapeaux israéliens alors qu'ils défilent dans une colonie remplie de maisons bombardées tombe dans la deuxième catégorie, conçue pour attiser la haine et la violence.

D’où viennent ces images d’IA ?

La plupart des images de conflit générées par l’IA sont publiées sur les plateformes de médias sociaux, mais elles sont également disponibles sur un certain nombre d’autres plateformes et organisations, et même sur certains sites d’information.

La société de logiciels Adobe a fait sensation en ajoutant des images générées par l'IA à sa gamme de photos d'archives d'ici la fin de 2022. Elles sont étiquetées en conséquence dans la base de données.

Adobe propose désormais également à la vente des images IA de la guerre au Moyen-Orient, comme des explosions, des manifestants ou des panaches de fumée derrière la mosquée Al-Aqsa.

Les combattants du Hamas israélien sont menacés par de fausses images créées par quelqu'un. Image 4

Adobe propose des images générées par l'IA des combats à Gaza.

Les critiques ont trouvé cela inquiétant, car certains sites ont continué à utiliser ces images sans les identifier comme générées par l'IA. Par exemple, l'image apparaissait sur la page « Actualités » sans aucune indication qu'elle avait été générée par l'IA.

Même le Service de recherche du Parlement européen, la branche scientifique du Parlement européen, a illustré un document en ligne sur le conflit au Moyen-Orient avec une image IA provenant de la base de données Adobe — sans l’étiqueter comme générée par l’IA.

L'Observatoire européen des médias numériques exhorte les journalistes et les professionnels des médias à être extrêmement prudents lorsqu'ils utilisent des images d'IA, déconseillant leur utilisation, en particulier lorsqu'ils couvrent des événements réels tels que la guerre à Gaza.

À quel point les images IA sont-elles dangereuses ?

Le contenu et les images virales de l'IA ne manqueront pas de susciter un malaise chez les utilisateurs face à tout ce qu'ils voient en ligne. « Si nous entrons dans un monde où les images, le son et la vidéo peuvent être manipulés , tout devient suspect », explique Farid, chercheur à l'UC Berkeley. « On perd alors confiance en tout, y compris en la vérité. »

C'est exactement ce qui s'est passé dans le cas suivant : une image de ce qui serait le cadavre carbonisé d'un bébé israélien a été partagée sur les réseaux sociaux par le Premier ministre israélien Benjamin Netanyahu et plusieurs autres hommes politiques.

Jackson Hinkle, un influenceur anti-israélien, a plus tard affirmé que l'image avait été créée grâce à l'intelligence artificielle. Ses propos ont été vus plus de 20 millions de fois sur les réseaux sociaux et ont suscité un vif débat sur la plateforme.

En fin de compte, de nombreuses organisations et outils de vérification ont déclaré que l'image était authentique et que les affirmations de Hinkle étaient fausses. Cependant, il est clair qu'aucun outil ne peut aider les utilisateurs à regagner facilement leur confiance perdue !

Hoang Hai (selon DW)



Source

Comment (0)

No data
No data

Même sujet

Même catégorie

L'arc majestueux de la grotte de Tu Lan
Le plateau à 300 km de Hanoi possède une mer de nuages, des cascades et des visiteurs animés.
Pieds de porc braisés à la fausse viande de chien – Un plat typique des peuples du Nord
Matins paisibles sur la bande de terre en forme de S

Même auteur

Patrimoine

Chiffre

Entreprise

No videos available

Nouvelles

Système politique

Locale

Produit