Vietnam.vn - Nền tảng quảng bá Việt Nam

Deepfake Porn, le problème de la course à l'IA

Công LuậnCông Luận17/04/2023


Les deepfakes sont des vidéos et des images créées ou modifiées numériquement à l’aide de l’intelligence artificielle (IA) ou de l’apprentissage automatique (ML). La pornographie générée par la technologie a commencé à circuler sur Internet il y a quelques années lorsqu'un utilisateur de Reddit a partagé de faux clips pornographiques avec les visages de célébrités.

harcèlement deepfake dans l'image 1 de Human Race

Photo : GI

N’importe qui peut être victime.

Depuis lors, les créateurs de deepfake ont continué à publier des vidéos et des images similaires ciblant les influenceurs en ligne, les journalistes et d'autres personnes ayant des profils publics. Des milliers de ces vidéos existent sur de nombreux sites Web.

Les technologies d’IA devenant de plus en plus accessibles, les utilisateurs peuvent transformer qui ils veulent en « star du porno » sans leur consentement ou, plus dangereux encore, utiliser la technologie pour diffamer ou faire chanter les autres.

Les experts affirment que le problème pourrait s’aggraver avec le développement d’outils d’IA génératifs qui s’entraînent sur des milliards d’images provenant d’Internet et génèrent du nouveau contenu à partir de données existantes.

« La réalité est que la technologie va continuer à proliférer, à évoluer et à devenir plus accessible et plus facile à utiliser », a déclaré Adam Dodge, fondateur d'EndTAB, un groupe qui propose des formations sur l'abus de la technologie. « Et tant que cela se produira, les gens continueront inévitablement… à abuser de cette technologie pour nuire aux autres, principalement par le biais de violences sexuelles en ligne, de pornographie deepfake et de faux nus. »

Noelle Martin, de Perth, en Australie, a vécu cette réalité. La jeune femme de 28 ans a découvert son propre deepfake pornographique il y a 10 ans lorsque, par curiosité, elle a cherché sa propre image sur Google un jour. À ce jour, Martin affirme qu’elle n’a aucune idée de qui a créé ces fausses images ou vidéos pornographiques. Elle soupçonne que quelqu’un a utilisé ses images sur les réseaux sociaux pour créer des vidéos pornographiques.

Bien que Martin ait essayé de contacter les sites pour supprimer ces vidéos, les efforts ont été vains. Certains n’ont pas répondu. D'autres ont été supprimés mais rapidement republiés. « Vous ne pouvez pas gagner », a déclaré Mme Martin. « Cela restera sur Internet pour toujours et pourrait ruiner votre vie. »

Les efforts des entreprises technologiques pour y remédier

Certains modèles d’IA affirment avoir un accès restreint aux images pornographiques.

OpenAI a déclaré avoir supprimé le contenu pornographique des données utilisées pour former son générateur d'images DALL-E, ce qui devrait limiter le risque d'utilisation abusive de ces données. L'entreprise filtre également les demandes et affirme qu'elle empêche les utilisateurs de créer des images IA de célébrités et de politiciens de haut niveau. Midjourney, un autre modèle, bloque également l'utilisation de certains mots-clés et encourage les utilisateurs à signaler les images problématiques aux modérateurs.

Parallèlement, Stability AI a également déployé une mise à jour qui empêche les utilisateurs de créer des images sensibles. Ces changements font suite à des rapports selon lesquels certains utilisateurs créaient des photos de nu inspirées de célébrités en utilisant cette technologie.

Motez Bishara, porte-parole de Stability AI, a déclaré que le filtre utilise une combinaison de mots-clés et d'autres techniques comme la reconnaissance d'image pour détecter la nudité. Mais les utilisateurs peuvent manipuler le logiciel et créer ce qu'ils veulent puisque la société a publié le code source ouvert de l'application.

Certaines sociétés de médias sociaux ont également renforcé leurs règles pour mieux protéger leurs plateformes contre les contenus préjudiciables.

Le mois dernier, TikTok a déclaré que tout contenu deepfake ou manipulé devait être étiqueté pour indiquer qu'il est faux ou modifié d'une manière ou d'une autre.

La plateforme de jeu Twitch a également récemment mis à jour ses politiques sur les deepfakes après qu'un streamer populaire nommé Atrioc a été surpris en train d'ouvrir un site porno deepfake dans son navigateur lors d'un livestream fin janvier.

Apple et Google ont déclaré avoir récemment supprimé une application de leurs boutiques d'applications pour avoir diffusé des vidéos deepfake à caractère sexuel pour commercialiser leurs produits.

De chanteuse occidentale à idole de la K-pop.

Les recherches sur le deepfake porn sont rares, mais un rapport publié en 2019 par la société d'IA DeepTrace Labs a révélé qu'il était presque entièrement utilisé comme arme contre les femmes. Les sujets les plus ciblés étaient les actrices occidentales, suivies des chanteuses de K-pop.

Le porte-parole de Meta, Dani Lever, a déclaré dans un communiqué que les politiques de l'entreprise restreignaient à la fois le contenu pour adultes généré par l'IA et non généré par l'IA, et qu'elles interdisaient également aux pages d'applications générant des deepfakes de faire de la publicité sur sa plateforme.

En février, Meta, ainsi que des sites pour adultes comme Only**** et Porn***, ont commencé à participer à un outil en ligne appelé Take It Down, qui permet aux adolescents de signaler des images et des vidéos sexuellement explicites d'eux-mêmes sur Internet. Ce site prend en charge à la fois les vidéos filmées en secret et les vidéos générées par l'IA.

Hoang Ton (selon AP)



Source

Comment (0)

No data
No data

Même catégorie

La scène du lever de soleil rouge ardent à Ngu Chi Son
10 000 antiquités vous ramènent dans le vieux Saigon
L'endroit où l'oncle Ho a lu la Déclaration d'indépendance
Où le président Ho Chi Minh a lu la déclaration d'indépendance

Même auteur

Patrimoine

Chiffre

Entreprise

No videos available

Nouvelles

Système politique

Locale

Produit