Científicos australianos han desarrollado una nueva técnica que podría impedir que los sistemas de Inteligencia Artificial (IA) aprendan ilegalmente de imágenes, obras de arte y otros contenidos en línea.
La técnica, desarrollada por la agencia científica nacional de Australia (CSIRO), altera sutilmente el contenido de las imágenes para hacerlas ilegibles para los modelos de IA, sin que resulten alteradas para el ojo humano, según un proyecto desarrollado por CSIRO en colaboración con el Centro Cooperativo de Investigación en Ciberseguridad de Australia (CSCRC) y la Universidad de Chicago.
Los autores afirman que este avance podría ayudar a artistas, organizaciones y usuarios de redes sociales a proteger su trabajo y datos personales para evitar que se utilicen para entrenar sistemas de IA o crear deepfakes: vídeos , imágenes o audios falsos de gran realismo creados por IA. Por ejemplo, los usuarios podrían aplicar automáticamente una capa protectora a las imágenes antes de publicarlas, impidiendo que la IA aprenda rasgos faciales para crear deepfakes.
Del mismo modo, las organizaciones de defensa podrían proteger imágenes satelitales sensibles o datos sobre ciberamenazas.
Según el Dr. Derui Wang, científico de CSIRO, este método utiliza una sólida base matemática para garantizar que los modelos de IA no puedan aprender de ese contenido, o dicho de otro modo, esta técnica hace que los datos sean "inaccesibles" para la IA hasta un punto que protege la privacidad y los derechos de autor, al tiempo que conserva su utilidad para los humanos.
Esta protección se mantiene vigente incluso si la IA intenta adaptarse o es reentrenada, añadió.
El Dr. Wang afirmó que la técnica podría aplicarse automáticamente a gran escala. Explicó que una plataforma de redes sociales o un sitio web podrían integrar esta capa de protección en todas las imágenes subidas. Esto podría limitar la proliferación de deepfakes, reducir el robo de propiedad intelectual y ayudar a los usuarios a mantener el control de su contenido.
Aunque actualmente el método solo se puede aplicar a imágenes, los investigadores planean extenderlo a texto, música y vídeo. La tecnología aún se encuentra en fase teórica y solo se ha demostrado su eficacia en un entorno de laboratorio.
El trabajo científico mencionado anteriormente, titulado “Ejemplos de datos demostrablemente imposibles de aprender”, recibió el Premio a la Investigación Sobresaliente en el Simposio de Seguridad de Sistemas de Red y Distribuidos (NDSS) de 2025.
Fuente: https://www.vietnamplus.vn/ky-thuat-moi-giup-ngan-chan-ai-hoc-hoi-tu-du-lieu-khong-duoc-phep-post1055216.vnp






Kommentar (0)