Nick Clegg, président des affaires internationales de Meta, a déclaré que l'entreprise utilisera un système de marqueurs intégrés aux fichiers. Elle apposera des étiquettes sur tout contenu publié sur ses plateformes Facebook, Instagram et Threads, signalant ainsi aux utilisateurs que les images (qui peuvent sembler être de vraies photos) sont en réalité des créations numériques générées par intelligence artificielle. Selon Reuters, l'entreprise a également étiqueté le contenu créé avec ses propres outils d'IA.
Une fois le nouveau système opérationnel, Meta appliquera la même méthode aux images générées par les services d'OpenAI, Microsoft, Adobe, Midjourney, Shutterstock et Alphabet. Cette annonce marque l'émergence d'une nouvelle norme développée par les entreprises technologiques pour limiter les risques liés à l'IA générative, capable de créer du contenu falsifié à partir de données simples.
L'étiquetage d'images généré par l'IA contribuera à freiner la désinformation et les escroqueries.
Cette approche s'appuie sur un modèle établi au cours de la dernière décennie par les entreprises pour coordonner le retrait des contenus interdits sur les plateformes, tels que les représentations de violence de masse et d'exploitation d'enfants.
Clegg estime que les entreprises peuvent désormais étiqueter de manière fiable les images générées par l'IA, tout en soulignant que des outils d'étiquetage de contenu audio et vidéo plus sophistiqués sont encore en développement.
Meta exigera désormais des utilisateurs qu'ils étiquettent les contenus audio et vidéo modifiés et imposera des sanctions en cas de non-respect de cette obligation, mais Clegg a déclaré qu'il n'existe actuellement aucun mécanisme viable pour étiqueter les textes générés par des outils d'IA comme ChatGPT.
Le conseil de surveillance indépendant de Meta a critiqué la politique de l'entreprise concernant les vidéos trompeusement modifiées, affirmant que le contenu devrait être étiqueté plutôt que supprimé. Clegg a donc déclaré que la nouvelle initiative de Meta pourrait contribuer à mieux classer ce type de contenu.
Lien source






Comment (0)