Los deepfakes son vídeos e imágenes creados o alterados digitalmente mediante inteligencia artificial (IA) o aprendizaje automático (AA). El contenido pornográfico creado con esta tecnología empezó a circular en internet hace unos años, cuando un usuario de Reddit compartió vídeos pornográficos falsos con rostros de famosos.
Foto: GI
Cualquiera puede convertirse en víctima.
Desde entonces, los creadores de deepfakes han publicado continuamente vídeos e imágenes similares dirigidos a influencers, periodistas y otras personas con perfiles públicos. Existen miles de vídeos de este tipo en numerosos sitios web.
A medida que las tecnologías de inteligencia artificial se vuelven cada vez más accesibles, esto permite a los usuarios convertir a quien quieran en "estrellas de cine pornográfico" sin su consentimiento o, lo que es más peligroso, utilizar esta tecnología para difamar o chantajear a otros.
Los expertos dicen que el problema podría empeorar con el desarrollo de herramientas de inteligencia artificial generalizadas entrenadas con miles de millones de imágenes de Internet y que generan nuevo contenido utilizando datos existentes.
“La realidad es que la tecnología seguirá proliferando, evolucionando y volviéndose más fácil y accesible”, afirmó Adam Dodge, fundador de EndTAB, un grupo que ofrece capacitación sobre el abuso tecnológico. “Y mientras esto continúe, la gente seguirá abusando de la tecnología para dañar a otros, principalmente a través de la violencia sexual en línea, la pornografía deepfake y la desnudez falsa”.
Noelle Martin, de Perth, Australia, lo experimentó en primera persona. Esta joven de 28 años descubrió sus propias imágenes pornográficas deepfake hace 10 años cuando, por curiosidad, buscó fotos suyas en Google. A día de hoy, Martin afirma desconocer quién creó estas imágenes o vídeos pornográficos falsos. Sospecha que alguien usó imágenes de sus redes sociales para crear los vídeos.
A pesar de los intentos de Martin por contactar a los sitios web para que eliminaran los videos, sus esfuerzos fueron en vano. Algunos no respondieron. Otros los bajaron, pero los volvieron a subir rápidamente. "No puedes ganar", dijo Martin. "Se quedará en internet para siempre y podría arruinarte la vida".
Esfuerzos de las empresas tecnológicas para rectificar la situación.
Algunos modelos de IA han indicado que tienen acceso restringido a imágenes pornográficas.
OpenAI afirma haber eliminado el contenido pornográfico de los datos utilizados para entrenar su herramienta de generación de imágenes DALL-E, lo que limitará el riesgo de uso indebido. La empresa también filtra las solicitudes e impide que los usuarios creen imágenes de IA de famosos y políticos destacados. Midjourney, otro modelo, también bloquea el uso de ciertas palabras clave y anima a los usuarios a denunciar las imágenes problemáticas para los moderadores.
Mientras tanto, Stability AI también ha lanzado una actualización para evitar que los usuarios creen imágenes sensibles. Estos cambios surgen tras informes de que algunos usuarios creaban fotos de desnudos inspiradas en famosos usando esta tecnología.
Motez Bishara, portavoz de Stability AI, explicó que el filtro utiliza una combinación de palabras clave y otras técnicas, como el reconocimiento de imágenes, para detectar la desnudez. Sin embargo, los usuarios pueden manipular el software y crear lo que quieran, ya que la compañía ha publicado el código abierto de la aplicación.
Algunas empresas de redes sociales también han endurecido sus normas para proteger mejor sus plataformas de material dañino.
El mes pasado, TikTok dijo que todo contenido deepfake o manipulado debe estar etiquetado para indicar que es falso o ha sido alterado de alguna manera.
La plataforma de juegos Twitch actualizó recientemente sus políticas sobre imágenes deepfake después de que se descubriera que un popular streamer llamado Atrioc accedía a un sitio web de pornografía deepfake en su navegador durante una transmisión en vivo a fines de enero.
Apple y Google anunciaron recientemente que eliminaron una aplicación de sus tiendas de aplicaciones por publicar videos deepfake sexualmente sugerentes para comercializar productos.
Desde cantantes occidentales hasta ídolos del K-pop.
Las investigaciones sobre pornografía deepfake son poco comunes, pero un informe de 2019 de la empresa de inteligencia artificial DeepTrace Labs descubrió que se utilizaba casi en su totalidad contra las mujeres, siendo las actrices occidentales las más atacadas, seguidas por las cantantes de K-pop.
La portavoz de Meta, Dani Lever, dijo en un comunicado que la política de la compañía restringe el contenido para adultos generado tanto por IA como por no IA, y también limita la publicidad de la página de la aplicación de creación de deepfakes en su plataforma.
En febrero, Meta, junto con sitios web para adultos como Only**** y Porn***, comenzó a participar en una herramienta en línea llamada Take It Down, que permite a los adolescentes denunciar sus propias imágenes y vídeos pornográficos en internet. El sitio permite procesar tanto vídeos grabados en secreto como vídeos generados por IA.
Hoang Ton (según AP)
[anuncio_2]
Fuente










Kommentar (0)