Theo 9to5Mac, Apple a récemment supprimé plusieurs applications de génération d'images AI de l'App Store. Il s’agit d’applications spécialement conçues pour créer des images de nu controversées, qui inquiètent de nombreuses personnes, notamment les adolescents.
L'action d'Apple intervient après que 404 Media a mené une enquête mettant en évidence la nature problématique de ces applications d'imagerie IA. Les premières enquêtes de 404 Media ont révélé une tendance inquiétante à la publicité d'applications d'IA sur Instagram avec des affirmations telles que « déshabillage gratuit pour toutes les filles ». Ces publicités dirigent souvent les utilisateurs vers l’App Store, où elles sont décrites comme des « outils de création artistique ». L’enquête a non seulement révélé l’existence de ces applications, mais a également mis en évidence leur accessibilité via les plateformes publicitaires grand public.
Bien qu'Apple n'ait pas immédiatement répondu aux demandes initiales de 404 Media, la société a rapidement pris des mesures après avoir reçu des détails, notamment des liens directs vers ses applications et ses publicités. Cette approche proactive aide l'entreprise à supprimer immédiatement les applications non conformes de l'App Store afin d'empêcher toute utilisation abusive de la technologie pour créer du contenu préjudiciable.
En fait, les applications d’imagerie IA susmentionnées ont reçu beaucoup d’attention ces derniers mois après avoir été utilisées pour créer de fausses images nues d’adolescents dans des écoles aux États-Unis et en Europe. Pour limiter ces applications nuisibles en ligne, des plateformes telles que Meta ont pris des mesures pour supprimer ces publicités, même si des défis subsistent pour contrôler efficacement ce contenu de manière cohérente.
Si les actions d'Apple constituent un pas dans la bonne direction, elles mettent également en lumière les défis persistants en matière de modération du contenu numérique. Des entreprises comme Google ont également fait l’objet d’un examen minutieux pour avoir dirigé les utilisateurs vers des sites comme « MrDeepFakes », connu pour son contenu deepfake sexuellement explicite impliquant des célébrités et des personnalités publiques.
Apple sait que ce n'est pas un combat facile et que les applications supprimées peuvent toujours être remplacées par de nouvelles applications générant des photos nues. En effet, c’est une tendance qui doit être stoppée pour protéger la sécurité et la confidentialité des utilisateurs des réseaux sociaux.