Vietnam.vn - Nền tảng quảng bá Việt Nam

Comment détecter les images générées par l'IA ?

Công LuậnCông Luận10/04/2023


Les fausses photos de célébrités sont monnaie courante

Il n’a jamais été aussi simple de créer des images qui semblent incroyablement réalistes mais qui sont en réalité fausses. Parce que toute personne disposant d’une connexion Internet et d’un accès à des outils basés sur l’IA peut créer des photos photoréalistes en quelques secondes, puis les diffuser sur les réseaux sociaux à une vitesse vertigineuse.

comment détecter qui a créé l'image image 1

Une fausse photo générée par l'IA prétend montrer Elon Musk « sortant avec » la PDG de GM, Mary Barra.

Ces derniers temps, nombre de ces images sont devenues virales : comme celle de l’ancien président Donald Trump et du président Vladimir Poutine faussement arrêtés ou celle du milliardaire Elon Musk « traînant » avec la PDG de General Motors (GM), Mary Barra.

Le problème est que les images de l’IA représentent toutes des événements qui ne se sont jamais produits. Et même si certaines de ces images peuvent être drôles et paraître irréelles, elles peuvent néanmoins présenter de réels dangers en termes de désinformation, voire de risque de diffusion de fausses nouvelles, selon les experts.

Les images d'arrestations de politiciens comme l'ancien président américain Donald Trump peuvent être vérifiées assez rapidement par les utilisateurs s'ils consultent des sources médiatiques fiables. Cependant, l'expert en IA Henry Ajder a déclaré dans une conversation avec DW que d'autres images sont plus difficiles à reconnaître, comme celles où la personne sur la photo n'est pas très célèbre.

Le danger des fausses photos d'événements

Selon Ajder, ce ne sont pas seulement les images de personnes générées par l’IA qui peuvent diffuser de la désinformation. Il a déclaré qu'il y avait eu des exemples d'utilisateurs créant des événements qui ne se sont jamais produits, comme un violent tremblement de terre qui aurait secoué les États-Unis et le Canada en 2001.

Mais ce tremblement de terre n’a jamais eu lieu et les images partagées sur Reddit ont toutes été générées par l’IA. Et selon Ajder, c’est là le problème. « Si l’IA génère une scène de paysage, il sera peut-être plus difficile pour vous de la détecter », explique-t-il.

Cependant, les outils d’IA commettent encore des erreurs, même s’ils se développent rapidement. Actuellement, en avril 2023, des programmes comme Midjourney, Dall-E et DeepAI présentent tous des problèmes, notamment avec les images montrant des humains.

Voici quelques conseils pour vérifier les images générées par l'IA, mais les experts ont rapidement averti qu'elles ne reflètent que la situation actuelle, car les outils d'intelligence artificielle évoluent chaque jour, voire chaque heure :

Zoomez et trouvez la source de l'image

De nombreuses images générées par l’IA semblent réalistes à première vue. C'est pourquoi la première suggestion des experts est d'examiner attentivement la photo. Pour ce faire, recherchez l’image à la plus haute résolution possible, puis zoomez sur les détails.

Un zoom sur l’image révélera des incohérences et des erreurs qui peuvent passer inaperçues au premier coup d’œil.

Si vous n'êtes pas sûr qu'une image soit réelle ou générée par l'IA, essayez de trouver sa source. Vous pouvez voir certaines informations sur l'endroit où l'image a été publiée pour la première fois en lisant les commentaires publiés par d'autres utilisateurs sous l'image.

Ou vous pouvez faire une recherche d'image inversée. Pour ce faire, téléchargez l'image sur des outils tels que Google Image Reverse Search, TinEye ou Yandex et vous pourrez trouver la source originale de l'image.

Les résultats de ces recherches peuvent également afficher des liens vers des vérifications de faits effectuées par des médias réputés qui fournissent un contexte supplémentaire.

Faites attention aux proportions du corps et aux erreurs d'affichage

Il n’est pas rare que les images générées par l’IA présentent des différences d’échelle. La main est peut-être trop petite ou les doigts trop longs. Ou la tête et les jambes ne correspondent pas au reste du corps.

Les mains sont actuellement la principale cause d’erreurs dans les programmes de vision d’IA comme Midjourney ou DALL-E. Les gens ont souvent des doigts supplémentaires ou manquants, comme sur ces fausses photos du pape François.

comment détecter qui a créé l'image image 2

Fausse photo du pape François générée par l'IA.

D’autres erreurs courantes dans les images générées par l’IA incluent des personnes avec trop de dents, des montures de lunettes étrangement déformées ou des oreilles de forme irréaliste. Les surfaces réfléchissantes, telles que les visières de casque, posent également des problèmes aux programmes d’IA.

Cependant, l'expert en IA Henry Ajder prévient que les nouvelles versions de programmes comme Midjourney s'améliorent dans la génération de mains, ce qui signifie que les utilisateurs ne pourront pas compter longtemps sur eux pour détecter ces types d'erreurs.

L'image semble-t-elle fausse et lisse ?

En particulier, l'application Midjourney produit de nombreuses images magnifiques et incroyablement parfaites, ce qui incite les spectateurs à poser des questions. « Les visages sont trop purs, les tissus sont trop harmonieux », explique Andreas Dengel du Centre allemand de recherche sur l’IA.

La peau des gens dans de nombreuses images d'IA est souvent lisse et sans défaut, même leurs cheveux et leurs dents sont parfaits. Ce n’est pas possible dans la vraie vie.

De nombreuses photos sont artistiques, brillantes et étincelantes, ce que même les photographes professionnels ont du mal à obtenir lorsqu'ils prennent des photos en studio.

Les outils d’IA semblent souvent concevoir des images idéales censées être parfaites et plaire au plus grand nombre de personnes possible.

Vérifiez le contexte et la conclusion

L’arrière-plan d’une image peut souvent révéler si elle est fausse ou non. Les objets peuvent être déformés, par exemple les lampadaires. Dans certains cas, les programmes d’IA clonent des personnes et des objets et les utilisent encore et encore. Et il n’est pas rare que l’arrière-plan d’une photo IA soit flou.

Mais même ce flou peut contenir des erreurs. Comme dans un cas où il était censé montrer un Will Smith en colère aux Oscars. L'arrière-plan est non seulement flou, mais également artificiellement flou.

De nombreuses images générées par l’IA peuvent désormais être détectées avec un peu de réflexion. Des outils de détection d’IA comme Hugging Face peuvent également vous aider à repérer les faux. Cela dit, la technologie s’améliore et les erreurs dans les images d’IA sont susceptibles d’être moins nombreuses, ce qui les rend plus difficiles à détecter.

Hoang Hai (selon DW)



Source

Comment (0)

No data
No data

Même catégorie

De nombreuses plages de Phan Thiet sont couvertes de cerfs-volants, impressionnant les touristes.
Défilé militaire russe : des angles « absolument cinématographiques » qui ont laissé les spectateurs stupéfaits
Regardez les avions de chasse russes effectuer des performances spectaculaires à l'occasion du 80e anniversaire du Jour de la Victoire
Cuc Phuong pendant la saison des papillons – quand la vieille forêt se transforme en un pays des fées

Même auteur

Patrimoine

Chiffre

Entreprise

No videos available

Nouvelles

Système politique

Locale

Produit