Ces derniers mois, des experts et des chercheurs en matière de protection de l'enfance ont averti que l'IA créative pourrait aggraver les abus en ligne.
Le PDG de Meta, Mark Zuckerberg, prend la parole lors d'une audition devant la commission judiciaire du Sénat américain le 31 janvier 2024, devant une foule de participants brandissant des images générées par intelligence artificielle. Photo : Reuters
Le NCMEC n'a pas encore publié le nombre total de signalements de contenus pédopornographiques provenant de toutes les sources qu'il a reçus en 2023. Mais en 2022, il a reçu des signalements concernant environ 88,3 millions de fichiers relatifs à ce problème.
« Nous recevons des rapports des entreprises innovantes en IA elles-mêmes, des plateformes (en ligne) et des membres du public », a déclaré John Shehan, vice-président du NCMEC.
Les PDG de Meta, X, TikTok, Snap et Discord ont témoigné mercredi 31 janvier devant le Sénat américain lors d'une audition sur la sécurité des enfants sur les plateformes en ligne. Les parlementaires américains ont interrogé les entreprises de réseaux sociaux sur leurs efforts pour protéger les enfants des prédateurs en ligne.
L'intelligence artificielle générative pourrait être utilisée par des personnes mal intentionnées pour nuire à de vrais enfants de manière répétée en créant de fausses images d'eux, ont déclaré des chercheurs de l'Observatoire Internet de Stanford dans un rapport publié en juin dernier.
Fallon McNulty, directrice de la CyberTipline du NCMEC, qui reçoit les signalements d'exploitation d'enfants en ligne, a déclaré que le contenu généré par l'IA devient « de plus en plus photoréaliste », ce qui rend difficile de déterminer si les victimes sont de vraies personnes.
McNulty a déclaré qu'OpenAI, la société qui a créé ChatGPT, a mis en place un processus pour soumettre des rapports au NCMEC, et que l'organisation est en pourparlers avec d'autres sociétés d'IA.
Hoang Hai (selon Reuters et le Financial Times)
Source






Comment (0)