Ces derniers mois, les experts et chercheurs en sécurité des enfants ont averti que l’IA créative pourrait exacerber les abus en ligne.
Mark Zuckerberg, PDG de Meta, s'exprime lors d'une audition devant la commission judiciaire du Sénat américain, le 31 janvier 2024, devant une foule de participants brandissant des images générées par l'IA. Photo : Reuters
Le NCMEC n'a pas encore publié le nombre total de signalements de contenus d'abus d'enfants provenant de toutes les sources qu'il a reçues en 2023. Mais en 2022, il a reçu des signalements d'environ 88,3 millions de fichiers concernant le problème.
« Nous recevons des rapports des entreprises d’IA innovantes elles-mêmes, des plateformes (en ligne) et des membres du public », a déclaré John Shehan, vice-président du NCMEC.
Les PDG de Meta, X, TikTok, Snap et Discord ont témoigné mercredi 31 janvier lors d'une audition au Sénat américain sur la sécurité des enfants sur les plateformes en ligne. Les législateurs américains ont interrogé les entreprises de réseaux sociaux sur leurs efforts pour protéger les enfants des « prédateurs en ligne ».
L'IA générative pourrait être utilisée par des acteurs malveillants pour nuire à plusieurs reprises à des enfants réels en créant de fausses images d'eux, ont déclaré des chercheurs de l'Observatoire Internet de Stanford dans un rapport en juin dernier.
Fallon McNulty, directrice de CyberTipline du NCMEC, qui recueille les signalements d’exploitation d’enfants en ligne, a déclaré que le contenu généré par l’IA devient « de plus en plus photoréaliste », ce qui rend difficile de déterminer si les victimes sont de vraies personnes.
McNulty a déclaré qu'OpenAI, la société qui a créé ChatGPT, a mis en place un processus pour soumettre des rapports au NCMEC, et l'organisation est en pourparlers avec d'autres sociétés d'IA.
Hoang Hai (selon Reuters, FT)
Source
Comment (0)