Des internautes utilisent l'IA pour créer des images du suspect du meurtre de Charlie Kirk. Photo : CBC . |
Le FBI a publié deux photos du suspect impliqué dans la fusillade qui a coûté la vie au militant Charlie Kirk. La qualité des photos étant assez floue, la communauté en ligne a rapidement proposé des versions « améliorées » grâce à l'intelligence artificielle (IA).
Ces images paraissent plus nettes et plus claires que les originales, mais elles ne sont en réalité que le fruit de spéculations. L'IA est incapable de « découvrir » les détails cachés dans une photo floue. Elle se contente de prédire et de combler les lacunes à partir de données apprises, ce qui peut aboutir à la création de détails inexistants dans la réalité.
![]() |
Photos du suspect dans l'affaire Charlie Kirk retouchées par intelligence artificielle, mais aucun visage n'est identique. Photo : Grok. |
Plusieurs versions améliorées des images ont été publiées sous la publication du FBI. Certaines pourraient avoir été créées à l'aide de l'outil Grok sur X, tandis que d'autres proviendraient de plateformes comme ChatGPT et Gemini. Cependant, la précision de ces rendus est très variable. Certaines images présentent même des inexactitudes flagrantes, comme une modification de la couleur du t-shirt ou une déformation du visage du personnage, avec un menton exagéré.
Il semblerait que ces images aient été partagées dans le but d’« aider » la communauté à identifier le suspect. Mais en réalité, elles sont aussi devenues un outil pour attirer l’attention et générer davantage de « j’aime » et de partages sur les réseaux sociaux.
Les experts préviennent qu'il est peu probable que ces images générées par l'IA soient plus utiles que les originales du FBI. De fait, dans certaines affaires antérieures, les images améliorées par l'IA ont donné des résultats controversés.
Par exemple, une photo basse résolution de l'ancien président Barack Obama a été « améliorée » par une intelligence artificielle pour y faire apparaître un homme blanc. Dans un autre cas, une photo du président Donald Trump s'est vue ajouter une tumeur inexistante sur la tête par une IA.
Ces divergences suggèrent que l'IA se contente d'extrapoler à partir de données existantes, plutôt que de recréer fidèlement ce qui est perdu dans les images floues. Bien que cette technologie puisse s'avérer utile dans certains contextes, les images générées par l'IA ne doivent pas être considérées comme des preuves irréfutables dans les enquêtes criminelles.
Dans son communiqué, le FBI s'est contenté de diffuser la photo originale et a appelé le public à fournir des informations s'il pouvait identifier la personne. Cependant, la vague de « photos retouchées » sur les réseaux sociaux a rapidement suscité l'attention, soulevant des questions quant à la responsabilité de l'utilisation d'outils d'intelligence artificielle dans des affaires sensibles touchant à la sécurité et à la vie humaine.
Avec la généralisation de l'intelligence artificielle, cet incident met en lumière un problème : l'IA peut créer des images si réalistes qu'elles en sont trompeuses, mais cela ne signifie pas pour autant qu'elles sont fiables. Dans le cadre d'enquêtes criminelles, des données inexactes peuvent avoir de graves conséquences.
Source : https://znews.vn/hinh-anh-nghi-pham-am-sat-charlie-kirk-bi-lam-gia-post1584664.html











Comment (0)