Vietnam.vn - Nền tảng quảng bá Việt Nam

Pornografía deepfake, el problema en la carrera de la IA

Công LuậnCông Luận17/04/2023

[anuncio_1]

Los deepfakes son vídeos e imágenes creados o alterados digitalmente mediante inteligencia artificial (IA) o aprendizaje automático (AA). La pornografía creada con esta tecnología empezó a circular por internet hace unos años, cuando un usuario de Reddit compartió vídeos pornográficos falsos con rostros de famosos.

Acoso deepfake en la imagen 1 de Human Race

Foto: GI

Cualquiera puede ser víctima.

Desde entonces, los creadores de deepfakes han seguido publicando vídeos e imágenes similares dirigidos a influencers, periodistas y otras personas con perfiles públicos. Existen miles de vídeos de este tipo en numerosos sitios web.

A medida que las tecnologías de IA se vuelven cada vez más accesibles, esto permite a los usuarios convertir a quien quieran en una "estrella porno" sin su consentimiento o, lo que es más peligroso, utilizar la tecnología para difamar o chantajear a otros.

Los expertos dicen que el problema podría empeorar con el desarrollo de herramientas de inteligencia artificial generativa que se entrenan con miles de millones de imágenes de Internet y generan contenido nuevo utilizando datos existentes.

“La realidad es que la tecnología seguirá proliferando, evolucionando y volviéndose más accesible y fácil de usar”, afirmó Adam Dodge, fundador de EndTAB, un grupo que ofrece capacitación sobre el abuso tecnológico. “Y mientras esto siga así, la gente inevitablemente seguirá abusando de la tecnología para dañar a otros, principalmente a través de la violencia sexual en línea, la pornografía deepfake y los desnudos falsos”.

Noelle Martin, de Perth, Australia, ha experimentado esa realidad. Esta joven de 28 años encontró pornografía deepfake de sí misma hace 10 años cuando, por curiosidad, buscó su propia imagen en Google. Hasta el día de hoy, Martin afirma no tener ni idea de quién creó las imágenes o vídeos pornográficos falsos. Sospecha que alguien usó sus imágenes en redes sociales para crear vídeos pornográficos.

Martin intentó contactar a los sitios para que eliminaran los videos, pero sus esfuerzos fueron en vano. Algunos no respondieron. Otros los bajaron, pero los republicaron rápidamente. "No puedes ganar", dijo Martin. "Está en internet para siempre y puede arruinarte la vida".

Los esfuerzos de las empresas tecnológicas para solucionarlo

Algunos modelos de IA dicen que tienen acceso restringido a imágenes pornográficas.

OpenAI afirmó haber eliminado el contenido pornográfico de los datos utilizados para entrenar su generador de imágenes DALL-E, lo que debería limitar el riesgo de uso indebido. La empresa también filtra las solicitudes e impide que los usuarios creen imágenes de IA de famosos y políticos destacados. Midjourney, otro modelo, también bloquea el uso de ciertas palabras clave y anima a los usuarios a denunciar las imágenes problemáticas a los moderadores.

Mientras tanto, Stability AI también ha implementado una actualización que impide que los usuarios creen imágenes explícitas. Los cambios se producen tras informes de que algunos usuarios usaban la tecnología para crear desnudos inspirados en famosos.

Motez Bishara, portavoz de Stability AI, explicó que el filtro utiliza una combinación de palabras clave y otras técnicas, como el reconocimiento de imágenes, para detectar la desnudez. Sin embargo, los usuarios pueden modificar el software y crear lo que deseen, ya que la compañía ha publicado el código fuente abierto de la aplicación.

Algunas empresas de redes sociales también han endurecido las normas para proteger mejor sus plataformas de material dañino.

El mes pasado, TikTok dijo que todo contenido deepfake o manipulado debe estar etiquetado para indicar que es falso o alterado de alguna manera.

La plataforma de juegos Twitch también actualizó recientemente sus políticas sobre deepfakes después de que un popular streamer llamado Atrioc fuera descubierto abriendo un sitio pornográfico deepfake en su navegador durante una transmisión en vivo a fines de enero.

Apple y Google dijeron que recientemente eliminaron una aplicación de sus tiendas de aplicaciones por ejecutar videos deepfake sexualmente sugerentes para comercializar sus productos.

De cantante occidental a ídolo del K-pop.

Las investigaciones sobre pornografía deepfake son escasas, pero un informe de 2019 de la firma de inteligencia artificial DeepTrace Labs reveló que se utilizaba casi exclusivamente como arma contra las mujeres. Las actrices occidentales fueron las más atacadas, seguidas de las cantantes de K-pop.

La portavoz de Meta, Dani Lever, dijo en un comunicado que las políticas de la compañía restringen tanto el contenido para adultos generado por IA como el no generado por IA, y también restringe que las páginas de aplicaciones que generan deepfakes se anuncien en su plataforma.

En febrero, Meta, así como sitios para adultos como Only**** y Porn***, comenzaron a participar en una herramienta en línea llamada Take It Down, que permite a los adolescentes denunciar imágenes y videos sexualmente explícitos de sí mismos en internet. El sitio admite videos de cámaras espía y videos generados por IA.

Hoang Ton (según AP)


[anuncio_2]
Fuente

Kommentar (0)

No data
No data
Escena mágica en la colina del té "cuenco al revés" en Phu Tho
Tres islas de la región central se asemejan a las Maldivas y atraen turistas en verano.
Contemple la brillante ciudad costera de Quy Nhon, Gia Lai, por la noche.
Imagen de campos en terrazas en Phu Tho, con suave pendiente, brillantes y hermosos como espejos antes de la temporada de siembra.
La fábrica Z121 está lista para la Noche Final Internacional de Fuegos Artificiales
La famosa revista de viajes elogia la cueva Son Doong como "la más magnífica del planeta"
Una cueva misteriosa atrae a turistas occidentales, comparada con la "cueva Phong Nha" en Thanh Hoa
Descubra la belleza poética de la bahía de Vinh Hy
¿Cómo se procesa el té más caro de Hanoi, cuyo precio supera los 10 millones de VND/kg?
Sabor de la región del río

Herencia

Cifra

Negocio

No videos available

Noticias

Sistema político

Local

Producto