Científicos australianos han desarrollado una nueva técnica que podría evitar que los sistemas de Inteligencia Artificial (IA) aprendan ilegalmente de imágenes, obras de arte y otros contenidos en línea.
La técnica, desarrollada por la agencia científica nacional de Australia (CSIRO), altera sutilmente el contenido de las imágenes para hacerlas ilegibles para los modelos de IA mientras permanecen inalteradas para el ojo humano, según un proyecto desarrollado por CSIRO en colaboración con el Centro de Investigación Cooperativa de Ciberseguridad de Australia (CSCRC) y la Universidad de Chicago.
Los autores afirman que este avance podría ayudar a artistas, organizaciones y usuarios de redes sociales a proteger su trabajo y datos personales para que no se utilicen para entrenar sistemas de IA ni para crear deepfakes ( videos , imágenes o audios falsos de gran realismo creados por IA). Por ejemplo, los usuarios podrían aplicar automáticamente una capa protectora a las imágenes antes de publicarlas, impidiendo que la IA aprenda rasgos faciales para crear deepfakes.
De manera similar, las organizaciones de defensa podrían proteger imágenes satelitales sensibles o datos sobre amenazas cibernéticas.
Según el Dr. Derui Wang, científico de CSIRO, este método utiliza una sólida base matemática para garantizar que los modelos de IA no puedan aprender de ese contenido, o en otras palabras, esta técnica hace que los datos sean "imposibles de aprender" para la IA hasta un grado que protege la privacidad y los derechos de autor, al tiempo que conserva su utilidad para los humanos.
Esta protección permanece vigente incluso si la IA intenta adaptarse o se vuelve a entrenar, añadió.
El Dr. Wang afirmó que la técnica podría aplicarse automáticamente a gran escala. Explicó que una plataforma de redes sociales o un sitio web podrían integrar esta capa protectora en todas las imágenes subidas. Esto podría limitar la proliferación de deepfakes, reducir el robo de propiedad intelectual y ayudar a los usuarios a mantener el control de su contenido.
Aunque el método actualmente solo es aplicable a imágenes, los investigadores planean ampliarlo a texto, música y vídeo. La tecnología aún se encuentra en fase teórica y solo se ha demostrado su eficacia en el laboratorio.
El trabajo científico mencionado anteriormente, titulado “Ejemplos de datos demostrablemente imposibles de aprender”, recibió el Premio a la Investigación Destacada en el Simposio de Seguridad de Redes y Sistemas Distribuidos (NDSS) de 2025.
Fuente: https://www.vietnamplus.vn/ky-thuat-moi-giup-ngan-chan-ai-hoc-hoi-tu-du-lieu-khong-duoc-phep-post1055216.vnp
Kommentar (0)