Des scientifiques australiens ont mis au point une nouvelle technique qui pourrait empêcher les systèmes d'intelligence artificielle (IA) d'apprendre illégalement à partir d'images, d'œuvres d'art et d'autres contenus en ligne.
Cette technique, mise au point par l'agence scientifique nationale australienne (CSIRO), modifie subtilement le contenu des images pour les rendre illisibles par les modèles d'IA tout en restant imperceptibles à l'œil nu, selon un projet développé par le CSIRO en collaboration avec le Centre de recherche coopérative en cybersécurité d'Australie (CSCRC) et l'Université de Chicago.
D'après les auteurs, cette avancée pourrait aider les artistes, les organisations et les utilisateurs des réseaux sociaux à protéger leurs œuvres et leurs données personnelles contre leur utilisation pour entraîner des systèmes d'IA ou créer des deepfakes – des vidéos , images ou enregistrements audio falsifiés d'un réalisme saisissant, créés par l'IA. Par exemple, les utilisateurs pourraient appliquer automatiquement une couche de protection aux images avant leur publication, empêchant ainsi l'IA d'apprendre les traits du visage pour créer des deepfakes.
De même, les organismes de défense pourraient protéger les images satellites sensibles ou les données relatives aux cybermenaces.
Selon le Dr Derui Wang, scientifique au CSIRO, cette méthode utilise une base mathématique solide pour garantir que les modèles d'IA ne peuvent pas apprendre de ce contenu, ou en d'autres termes, cette technique rend les données « impossibles à apprendre » pour l'IA à un degré qui protège la vie privée et les droits d'auteur, tout en conservant leur utilité pour les humains.
Cette protection reste effective même si l'IA tente de s'adapter ou d'être réentraînée, a-t-il ajouté.
Le Dr Wang a indiqué que cette technique pourrait être appliquée automatiquement à grande échelle. Il a précisé qu'une plateforme de médias sociaux ou un site web pourrait intégrer cette couche de protection à toutes les images téléchargées. Cela permettrait de limiter la prolifération des deepfakes, de réduire le vol de propriété intellectuelle et d'aider les utilisateurs à garder le contrôle de leur contenu.
Bien que la méthode ne soit actuellement applicable qu'aux images, les chercheurs prévoient de l'étendre aux textes, à la musique et à la vidéo. Cette technologie demeure au stade théorique et n'a démontré son efficacité qu'en laboratoire.
L'ouvrage scientifique susmentionné, intitulé « Exemples de données manifestement impossibles à apprendre », a reçu le prix de la recherche exceptionnelle lors du Symposium sur la sécurité des réseaux et des systèmes distribués (NDSS) de 2025.
Source : https://www.vietnamplus.vn/ky-thuat-moi-giup-ngan-chan-ai-hoc-hoi-tu-du-lieu-khong-duoc-phep-post1055216.vnp






Comment (0)