Jeffrey McGregor, PDG de Truepic, a déclaré que cet incident n'était que la partie émergée de l'iceberg. « Il y aura davantage de contenu généré par l'IA sur les réseaux sociaux, et nous n'y sommes pas prêts », a-t-il ajouté.
Selon CNN, Truepic souhaite résoudre ce problème en proposant une technologie permettant d'authentifier les médias dès leur création grâce à Truepic Lens. L'application de collecte de données indiquera aux utilisateurs la date, l'heure, le lieu et l'appareil utilisé pour créer l'image, et appliquera une signature numérique pour vérifier si l'image est naturelle ou générée par l'IA.
Une fausse photo de l'explosion du Pentagone devient virale sur Twitter
Truepic, une société soutenue par Microsoft fondée en 2015, a déclaré que la société constatait un intérêt de la part des ONG , des sociétés de médias et même des assureurs cherchant à confirmer la légitimité des réclamations.
McGregor a déclaré que lorsque tout peut être falsifié, lorsque l’intelligence artificielle a atteint son apogée en termes de qualité et d’accessibilité, nous ne savons plus ce qu’est la réalité en ligne.
Les entreprises technologiques comme Truepic luttent depuis des années contre la désinformation en ligne. Mais l'essor d'une nouvelle génération d'outils d'IA capables de générer des images et du texte à partir de commandes utilisateur a accru l'urgence de la situation. Plus tôt cette année, de fausses images du pape François portant une doudoune Balenciaga et de l'ancien président américain Donald Trump en cours d'arrestation ont été largement partagées. Ces deux incidents ont alarmé des millions de personnes quant aux dangers potentiels de l'IA.
Certains législateurs appellent désormais les entreprises technologiques à s'attaquer au problème en étiquetant le contenu généré par l'IA. La vice-présidente de la Commission européenne, Vera Jourova, a déclaré que des entreprises comme Google, Meta, Microsoft et TikTok ont adhéré au code de bonnes pratiques volontaire de l'Union européenne pour lutter contre la désinformation.
Un nombre croissant de startups et de géants de la technologie, y compris certains qui implémentent l’IA générative dans leurs produits, tentent de mettre en œuvre des normes et des solutions pour aider les gens à déterminer si une image ou une vidéo a été créée avec l’IA.
Mais comme l'IA progresse plus vite que les humains ne peuvent suivre, il est difficile de savoir si ces solutions pourront résoudre entièrement le problème. Même OpenAI, l'entreprise à l'origine de Dall-E et de ChatGPT, a admis que ses propres efforts pour détecter les écritures générées par l'IA étaient imparfaits.
Les entreprises qui développent des solutions adoptent deux approches pour résoudre ce problème. La première consiste à développer des programmes permettant d'identifier les images générées par l'IA après leur création et leur partage en ligne. La seconde consiste à marquer une image comme réelle ou générée par l'IA à l'aide d'une signature numérique.
Reality Defender et Hive Moderation travaillent sur la première. Grâce à leur plateforme, les utilisateurs peuvent télécharger des images à scanner, puis recevoir une analyse indiquant, en pourcentage, si la photo est réelle ou générée par l'IA.
Reality Defender affirme utiliser une technologie propriétaire de deepfake et d'empreinte générative de contenu pour détecter les vidéos, les fichiers audio et les images générés par l'IA. Dans un exemple fourni par l'entreprise, Reality Defender a montré une image deepfake de Tom Cruise qui était « suspecte » à 53 %, car la personne sur l'image avait un visage déformé, fréquent sur les photos retouchées.
Images étiquetées générées par l'IA
Ces services proposent des versions gratuites et payantes. Hive Moderation facture 1,50 $ pour 1 000 images. Realty Defender précise que ses tarifs peuvent varier en fonction de divers facteurs, lorsque les clients ont besoin de son expertise et de son assistance. Ben Colman, PDG de Realty Defender, affirme que le risque double chaque mois, car n'importe qui peut créer de fausses photos à l'aide d'outils d'IA.
Plusieurs autres entreprises travaillent à l'ajout d'une sorte de label aux images afin de certifier leur authenticité ou leur création par l'IA. Jusqu'à présent, ce projet a été largement porté par la Content Authenticity and Origination Alliance (C2PA).
La C2PA a été fondée en 2021 pour créer une norme technique de certification de l'origine et de l'historique des médias numériques. Elle combine l'Initiative d'authentification de contenu (CAI) d'Adobe et le Projet Origin, mené par Microsoft et la BBC, afin de lutter contre la désinformation dans l'actualité numérique. Truepic, Intel et Sony sont également impliqués dans la C2PA.
S'appuyant sur les principes du C2PA, CAI proposera des outils open source permettant aux entreprises de créer des identifiants de contenu ou des métadonnées contenant des informations sur les images. Selon le site web de CAI, cela permettra aux créateurs de partager en toute transparence les détails de la création d'une image. Ainsi, les utilisateurs finaux pourront accéder au contexte concernant l'auteur, le contenu et la manière dont une image a été modifiée, et ainsi juger par eux-mêmes de son authenticité.
De nombreuses entreprises ont déjà intégré la norme C2PA et les outils CAI à leurs applications. Firefly d'Adobe, nouvel outil d'imagerie IA intégré à Photoshop, est conforme à la norme C2PA grâce à sa fonctionnalité Content Credentials. Microsoft a également annoncé que les images et vidéos créées avec Bing Image Creator et Microsoft Designer seront dotées de signatures cryptographiques dans les prochains mois.
En mai, Google a annoncé une fonctionnalité « À propos de cette image » permettant aux utilisateurs de savoir quand une image est apparue pour la première fois sur Google et où elle est visible. Le géant de la recherche a également annoncé que chaque image générée par l'IA de Google comportera un balisage dans le fichier d'origine pour « ajouter du contexte » si l'image est trouvée sur un autre site web ou une autre plateforme.
Alors que les entreprises technologiques tentent de répondre aux préoccupations concernant les images générées par l'IA et l'intégrité des médias numériques, les experts du secteur soulignent que les entreprises devront collaborer et collaborer avec les gouvernements pour résoudre ce problème. Pourtant, malgré les risques, les entreprises technologiques se précipitent pour développer l'IA.
Lien source
Comment (0)