Des scientifiques australiens ont développé une nouvelle technique qui pourrait empêcher les systèmes d’intelligence artificielle (IA) d’apprendre illégalement à partir d’images, d’œuvres d’art et d’autres contenus en ligne.
La technique, développée par l'agence scientifique nationale australienne (CSIRO), modifie subtilement le contenu des images pour les rendre illisibles pour les modèles d'IA tout en restant inchangées pour l'œil humain, selon un projet développé par le CSIRO en collaboration avec le Cybersecurity Cooperative Research Centre (CSCRC) d'Australie et l'Université de Chicago.
Les auteurs affirment que cette avancée pourrait aider les artistes, les organisations et les utilisateurs des réseaux sociaux à protéger leurs œuvres et leurs données personnelles contre toute utilisation pour entraîner les systèmes d'IA ou créer des deepfakes – des vidéos , images ou sons truqués et très réalistes créés par l'IA. Par exemple, les utilisateurs pourraient appliquer automatiquement une couche protectrice aux images avant publication, empêchant ainsi l'IA d'apprendre les traits du visage pour créer des deepfakes.
De même, les organisations de défense peuvent protéger les images satellite sensibles ou les données relatives aux cybermenaces.
Selon le Dr Derui Wang, scientifique au CSIRO, cette méthode utilise une base mathématique solide pour garantir que les modèles d'IA ne peuvent pas apprendre de ce contenu, ou en d'autres termes, cette technique rend les données « impossibles à apprendre » pour l'IA à un degré qui protège la vie privée et le droit d'auteur, tout en conservant son utilité pour les humains.
Cette protection reste en vigueur même si l'IA tente de s'adapter ou est recyclée, a-t-il ajouté.
Le Dr Wang a déclaré que cette technique pourrait être appliquée automatiquement à grande échelle. Il a ajouté qu'une plateforme de médias sociaux ou un site web pourrait intégrer cette couche de protection à toutes les images téléchargées. Cela pourrait limiter la prolifération des deepfakes, réduire le vol de propriété intellectuelle et aider les utilisateurs à garder le contrôle de leur contenu.
Bien que la méthode ne soit actuellement applicable qu'aux images, les chercheurs prévoient de l'étendre au texte, à la musique et à la vidéo. La technologie en est encore au stade théorique et son efficacité n'a été démontrée qu'en laboratoire.
Le travail scientifique ci-dessus, intitulé « Exemples de données prouvablement non apprenables », a reçu le prix de la recherche exceptionnelle lors du Symposium sur la sécurité des réseaux et des systèmes distribués (NDSS) 2025./.
Source: https://www.vietnamplus.vn/ky-thuat-moi-giup-ngan-chan-ai-hoc-hoi-tu-du-lieu-khong-duoc-phep-post1055216.vnp
Comment (0)