Vietnam.vn - Nền tảng quảng bá Việt Nam

Una nueva técnica ayuda a evitar que la IA aprenda de datos no autorizados.

La nueva técnica altera sutilmente el contenido de las imágenes para hacerlas ilegibles para los modelos de IA, sin alterarlas para el ojo humano, según la agencia científica nacional de Australia.

VietnamPlusVietnamPlus12/08/2025

Científicos australianos han desarrollado una nueva técnica que podría impedir que los sistemas de Inteligencia Artificial (IA) aprendan ilegalmente de imágenes, obras de arte y otros contenidos en línea.

La técnica, desarrollada por la agencia científica nacional de Australia (CSIRO), altera sutilmente el contenido de las imágenes para hacerlas ilegibles para los modelos de IA, sin que resulten alteradas para el ojo humano, según un proyecto desarrollado por CSIRO en colaboración con el Centro Cooperativo de Investigación en Ciberseguridad de Australia (CSCRC) y la Universidad de Chicago.

Los autores afirman que este avance podría ayudar a artistas, organizaciones y usuarios de redes sociales a proteger su trabajo y datos personales para evitar que se utilicen para entrenar sistemas de IA o crear deepfakes: vídeos , imágenes o audios falsos de gran realismo creados por IA. Por ejemplo, los usuarios podrían aplicar automáticamente una capa protectora a las imágenes antes de publicarlas, impidiendo que la IA aprenda rasgos faciales para crear deepfakes.

Del mismo modo, las organizaciones de defensa podrían proteger imágenes satelitales sensibles o datos sobre ciberamenazas.

Según el Dr. Derui Wang, científico de CSIRO, este método utiliza una sólida base matemática para garantizar que los modelos de IA no puedan aprender de ese contenido, o dicho de otro modo, esta técnica hace que los datos sean "inaccesibles" para la IA hasta un punto que protege la privacidad y los derechos de autor, al tiempo que conserva su utilidad para los humanos.

Esta protección se mantiene vigente incluso si la IA intenta adaptarse o es reentrenada, añadió.

El Dr. Wang afirmó que la técnica podría aplicarse automáticamente a gran escala. Explicó que una plataforma de redes sociales o un sitio web podrían integrar esta capa de protección en todas las imágenes subidas. Esto podría limitar la proliferación de deepfakes, reducir el robo de propiedad intelectual y ayudar a los usuarios a mantener el control de su contenido.

Aunque actualmente el método solo se puede aplicar a imágenes, los investigadores planean extenderlo a texto, música y vídeo. La tecnología aún se encuentra en fase teórica y solo se ha demostrado su eficacia en un entorno de laboratorio.

El trabajo científico mencionado anteriormente, titulado “Ejemplos de datos demostrablemente imposibles de aprender”, recibió el Premio a la Investigación Sobresaliente en el Simposio de Seguridad de Sistemas de Red y Distribuidos (NDSS) de 2025.

(TTXVN/Vietnam+)

Fuente: https://www.vietnamplus.vn/ky-thuat-moi-giup-ngan-chan-ai-hoc-hoi-tu-du-lieu-khong-duoc-phep-post1055216.vnp


Kommentar (0)

No data
No data

Mismo tema

Misma categoría

Temporada de floración del trigo sarraceno, Ha Giang - Tuyen Quang se convierte en un lugar atractivo para hacer check-in.
Contemplando el amanecer en la isla Co To
Deambulando entre las nubes de Dalat
Los campos de cañaverales en flor de Da Nang atraen tanto a lugareños como a turistas.

Mismo autor

Herencia

Cifra

Negocio

La modelo vietnamita Huynh Tu Anh es muy solicitada por las casas de moda internacionales tras el desfile de Chanel.

Actualidad

Sistema político

Local

Producto