Los deepfakes son vídeos e imágenes creados o alterados digitalmente mediante inteligencia artificial (IA) o aprendizaje automático (AA). La pornografía creada con esta tecnología empezó a circular por internet hace unos años, cuando un usuario de Reddit compartió vídeos pornográficos falsos con rostros de famosos.
Foto: GI
Cualquiera puede ser víctima.
Desde entonces, los creadores de deepfakes han seguido publicando vídeos e imágenes similares dirigidos a influencers, periodistas y otras personas con perfiles públicos. Existen miles de vídeos de este tipo en numerosos sitios web.
A medida que las tecnologías de IA se vuelven cada vez más accesibles, esto permite a los usuarios convertir a quien quieran en una "estrella porno" sin su consentimiento o, lo que es más peligroso, utilizar la tecnología para difamar o chantajear a otros.
Los expertos dicen que el problema podría empeorar con el desarrollo de herramientas de inteligencia artificial generativa que se entrenan con miles de millones de imágenes de Internet y generan contenido nuevo utilizando datos existentes.
“La realidad es que la tecnología seguirá proliferando, evolucionando y volviéndose más accesible y fácil de usar”, afirmó Adam Dodge, fundador de EndTAB, un grupo que ofrece capacitación sobre el abuso tecnológico. “Y mientras esto siga así, la gente inevitablemente seguirá abusando de la tecnología para dañar a otros, principalmente a través de la violencia sexual en línea, la pornografía deepfake y los desnudos falsos”.
Noelle Martin, de Perth, Australia, ha experimentado esa realidad. Esta joven de 28 años encontró pornografía deepfake de sí misma hace 10 años cuando, por curiosidad, buscó su propia imagen en Google. Hasta el día de hoy, Martin afirma no tener ni idea de quién creó las imágenes o vídeos pornográficos falsos. Sospecha que alguien usó sus imágenes en redes sociales para crear vídeos pornográficos.
Martin intentó contactar a los sitios para que eliminaran los videos, pero sus esfuerzos fueron en vano. Algunos no respondieron. Otros los bajaron, pero los republicaron rápidamente. "No puedes ganar", dijo Martin. "Está en internet para siempre y puede arruinarte la vida".
Los esfuerzos de las empresas tecnológicas para solucionarlo
Algunos modelos de IA dicen que tienen acceso restringido a imágenes pornográficas.
OpenAI afirmó haber eliminado el contenido pornográfico de los datos utilizados para entrenar su generador de imágenes DALL-E, lo que debería limitar el riesgo de uso indebido. La empresa también filtra las solicitudes e impide que los usuarios creen imágenes de IA de famosos y políticos destacados. Midjourney, otro modelo, también bloquea el uso de ciertas palabras clave y anima a los usuarios a denunciar las imágenes problemáticas a los moderadores.
Mientras tanto, Stability AI también ha implementado una actualización que impide que los usuarios creen imágenes explícitas. Los cambios se producen tras informes de que algunos usuarios usaban la tecnología para crear desnudos inspirados en famosos.
Motez Bishara, portavoz de Stability AI, explicó que el filtro utiliza una combinación de palabras clave y otras técnicas, como el reconocimiento de imágenes, para detectar la desnudez. Sin embargo, los usuarios pueden modificar el software y crear lo que deseen, ya que la compañía ha publicado el código fuente abierto de la aplicación.
Algunas empresas de redes sociales también han endurecido las normas para proteger mejor sus plataformas de material dañino.
El mes pasado, TikTok dijo que todo contenido deepfake o manipulado debe estar etiquetado para indicar que es falso o alterado de alguna manera.
La plataforma de juegos Twitch también actualizó recientemente sus políticas sobre deepfakes después de que un popular streamer llamado Atrioc fuera descubierto abriendo un sitio pornográfico deepfake en su navegador durante una transmisión en vivo a fines de enero.
Apple y Google dijeron que recientemente eliminaron una aplicación de sus tiendas de aplicaciones por ejecutar videos deepfake sexualmente sugerentes para comercializar sus productos.
De cantante occidental a ídolo del K-pop.
Las investigaciones sobre pornografía deepfake son escasas, pero un informe de 2019 de la firma de inteligencia artificial DeepTrace Labs reveló que se utilizaba casi exclusivamente como arma contra las mujeres. Las actrices occidentales fueron las más atacadas, seguidas de las cantantes de K-pop.
La portavoz de Meta, Dani Lever, dijo en un comunicado que las políticas de la compañía restringen tanto el contenido para adultos generado por IA como el no generado por IA, y también restringe que las páginas de aplicaciones que generan deepfakes se anuncien en su plataforma.
En febrero, Meta, así como sitios para adultos como Only**** y Porn***, comenzaron a participar en una herramienta en línea llamada Take It Down, que permite a los adolescentes denunciar imágenes y videos sexualmente explícitos de sí mismos en internet. El sitio admite videos de cámaras espía y videos generados por IA.
Hoang Ton (según AP)
[anuncio_2]
Fuente
Kommentar (0)