Los deepfakes son vídeos e imágenes que se crean o alteran digitalmente mediante inteligencia artificial (IA) o aprendizaje automático (ML). La pornografía generada tecnológicamente comenzó a circular en Internet hace unos años cuando un usuario de Reddit compartió clips pornográficos falsos con caras de celebridades.
Foto: GI
Cualquiera puede ser víctima.
Desde entonces, los creadores de deepfakes han seguido publicando vídeos e imágenes similares dirigidos a personas influyentes en línea, periodistas y otras personas con perfiles públicos. Existen miles de vídeos como este en muchos sitios web.
A medida que las tecnologías de IA se vuelven cada vez más accesibles, esto permite a los usuarios convertir a quien quieran en una "estrella porno" sin su consentimiento o, lo que es más peligroso, utilizar la tecnología para difamar o chantajear a otros.
Los expertos dicen que el problema podría empeorar con el desarrollo de herramientas de inteligencia artificial generativa que se entrenan con miles de millones de imágenes de Internet y generan contenido nuevo utilizando datos existentes.
“La realidad es que la tecnología seguirá proliferando, seguirá evolucionando y seguirá volviéndose más accesible y fácil de usar”, dijo Adam Dodge, fundador de EndTAB, un grupo que ofrece capacitación sobre el abuso de la tecnología. “Y mientras eso siga así, la gente inevitablemente… seguirá haciendo un mal uso de esa tecnología para dañar a otros, principalmente a través de la violencia sexual en línea, la pornografía deepfake y los desnudos falsos”.
Noelle Martin, de Perth, Australia, ha experimentado esa realidad. La joven de 28 años encontró su propio deepfake pornográfico hace 10 años cuando, por curiosidad, un día buscó su propia imagen en Google. Hasta el día de hoy, Martin dice que no tiene idea de quién creó estas imágenes o vídeos pornográficos falsos. Ella sospecha que alguien usó sus imágenes de redes sociales para crear vídeos pornográficos.
Aunque Martín intentó contactar con los sitios para eliminar estos vídeos, los esfuerzos fueron en vano. Algunos no respondieron. Otros fueron eliminados pero rápidamente publicados nuevamente. "No puedes ganar", dijo la Sra. Martin. “Eso vivirá en Internet para siempre y podría arruinarte la vida”.
Los esfuerzos de las empresas tecnológicas para solucionarlo
Algunos modelos de IA dicen que tienen acceso restringido a imágenes pornográficas.
OpenAI afirmó que eliminó el contenido pornográfico de los datos utilizados para entrenar su generador de imágenes DALL-E, lo que debería limitar la posibilidad de que sea mal utilizado. La empresa también filtra las solicitudes y dice que impide que los usuarios creen imágenes de IA de celebridades y políticos de alto perfil. Midjourney, otro modelo, también bloquea el uso de ciertas palabras clave y alienta a los usuarios a marcar las imágenes problemáticas a los moderadores.
Mientras tanto, Stability AI también ha lanzado una actualización que evita que los usuarios creen imágenes sensibles. Los cambios llegan después de informes de que algunos usuarios estaban creando fotos de desnudos inspiradas en celebridades usando la tecnología.
Motez Bishara, portavoz de Stability AI, dijo que el filtro utiliza una combinación de palabras clave y otras técnicas como el reconocimiento de imágenes para detectar desnudez. Pero los usuarios pueden manipular el software y crear lo que quieran, ya que la compañía ha publicado el código fuente abierto de la aplicación.
Algunas empresas de redes sociales también han endurecido las normas para proteger mejor sus plataformas de material dañino.
El mes pasado, TikTok dijo que todo contenido deepfake o manipulado debe estar etiquetado para indicar que es falso o alterado de alguna manera.
La plataforma de juegos Twitch también actualizó recientemente sus políticas sobre deepfakes después de que un popular streamer llamado Atrioc fuera descubierto abriendo un sitio pornográfico deepfake en su navegador durante una transmisión en vivo a fines de enero.
Apple y Google dijeron que recientemente eliminaron una aplicación de sus tiendas de aplicaciones por ejecutar videos deepfake sexualmente sugerentes para comercializar sus productos.
De cantante occidental a ídolo del K-pop.
Las investigaciones sobre pornografía deepfake son poco comunes, pero un informe publicado en 2019 por la empresa de inteligencia artificial DeepTrace Labs descubrió que se utilizaba casi en su totalidad como arma contra las mujeres. Los sujetos más atacados fueron las actrices occidentales, seguidas por las cantantes de K-pop.
La portavoz de Meta, Dani Lever, dijo en un comunicado que las políticas de la compañía restringen tanto el contenido para adultos generado por IA como el no generado por IA, y también restringe que las páginas de aplicaciones que generan deepfakes se anuncien en su plataforma.
En febrero, Meta, así como sitios para adultos como Only**** y Porn***, comenzaron a participar en una herramienta en línea llamada Take It Down, que permite a los adolescentes denunciar imágenes y vídeos sexualmente explícitos de ellos mismos en Internet. Este sitio admite tanto vídeos filmados en secreto como vídeos generados por IA.
Hoang Ton (según AP)
[anuncio_2]
Fuente
Kommentar (0)