Nick Clegg, président des affaires mondiales de Meta, a déclaré que l'entreprise utiliserait un ensemble de marqueurs intégrés aux fichiers. L'entreprise apposera des étiquettes à tout contenu publié sur ses services Facebook, Instagram et Threads, signalant ainsi aux utilisateurs que les images (qui peuvent sembler être de vraies photos) sont en réalité des créations numériques générées par l'intelligence artificielle. Selon Reuters, l'entreprise a également étiqueté le contenu créé avec ses propres outils d'IA.
Une fois le nouveau système opérationnel, Meta appliquera la même procédure aux images générées par les services d'OpenAI, Microsoft, Adobe, Midjourney, Shutterstock et Alphabet. Cette annonce est la première d'une nouvelle norme développée par les entreprises technologiques pour atténuer les effets néfastes de l'IA générative, capable de créer du faux contenu à partir de contenus simples.
L'étiquetage des images générées par l'IA contribuera à lutter contre la désinformation et les escroqueries
Cette approche s’appuie sur un modèle établi au cours de la dernière décennie par les entreprises pour coordonner la suppression des contenus interdits sur les plateformes, comme les représentations de violence de masse et d’exploitation des enfants.
Clegg estime que les entreprises peuvent désormais étiqueter de manière fiable les images générées par l'IA, tout en notant que des outils d'étiquetage de contenu audio et vidéo plus sophistiqués sont encore en cours de développement.
Meta commencera à exiger des utilisateurs qu'ils étiquettent le contenu audio et vidéo modifié et imposera des sanctions s'ils ne le font pas, mais Clegg a déclaré qu'il n'existe actuellement aucun mécanisme viable pour étiqueter le texte généré par des outils d'IA comme ChatGPT.
Le conseil de surveillance indépendant de Meta a critiqué la politique de l'entreprise sur les vidéos éditées de manière trompeuse, affirmant que le contenu devrait être étiqueté plutôt que supprimé. Clegg a donc déclaré que la nouvelle démarche de Meta pourrait aider à mieux classer ce type de contenu.
Lien source
Comment (0)