En la red social X (anteriormente Twitter), imágenes falsas de Taylor Swift generadas por IA, que muestran a la cantante en una pose sexualmente explícita, han acumulado decenas de millones de visualizaciones. Si bien ya han sido eliminadas de la plataforma, nada en internet ha desaparecido para siempre, y sin duda seguirán compartiéndose en otras plataformas menos reguladas.
La cantante Taylor Swift, posiblemente la estrella más famosa del mundo actual. Foto: Getty Images
Como la mayoría de las principales plataformas de redes sociales, la política de X prohíbe compartir "medios sintéticos, manipulados o fuera de contexto que puedan engañar o confundir a las personas y provocar daños".
El incidente ha generado inquietud sobre la IA, ya que actores maliciosos pueden usarla para crear imágenes y videos engañosos, alimentando una desinformación generalizada.
“Este es un claro ejemplo de cómo se está implementando la IA con fines nefastos sin las medidas de seguridad adecuadas”, declaró Ben Decker, director de la agencia de análisis forense digital Memetica. “La explotación de herramientas creativas de IA para crear contenido malicioso dirigido a celebridades está creciendo rápidamente y se está extendiendo más rápido que nunca en las redes sociales”.
“Las empresas de redes sociales no cuentan con planes efectivos para monitorear el contenido”, afirmó. X, por ejemplo, ha despedido a la mayoría de su personal de moderación de contenido, recurriendo únicamente a sistemas automatizados y reportes de usuarios. Meta también ha recortado equipos que abordan la desinformación y el acoso en su plataforma.
El incidente también coincidió con la proliferación de herramientas de IA como ChatGPT y Dall-E. Junto con estas herramientas, afirmó Decker, también ha habido un aumento de modelos de IA inseguros para trabajos no verificados en plataformas de código abierto.
Esto indica una importante brecha en la moderación de contenido y la gobernanza de las plataformas entre las empresas de IA, las empresas de redes sociales, los organismos reguladores y la sociedad civil. A menos que todos se pongan de acuerdo sobre cómo abordar esta brecha, este tipo de contenido falso seguirá proliferando, añadió.
Pero Decker afirmó que el hecho de que la celebridad más importante del mundo, Taylor Swift, haya sido blanco de ataques por contenido falso podría llamar la atención sobre los crecientes problemas relacionados con las imágenes generadas por IA. Esta semana, la enorme base de fans de la cantante en todo el mundo recurrió a las redes sociales para expresar su indignación, convirtiendo el asunto en una preocupación prioritaria.
Cuando figuras influyentes como Taylor Swift sean víctimas de la IA, los legisladores y las empresas tecnológicas se verán obligados a actuar bajo la presión de los medios, afirmó Decker.
Este tipo de tecnología ha sido ampliamente utilizada por estafadores para crear imágenes pornográficas de otras personas y publicarlas en línea con fines maliciosos. Sin embargo, fue solo cuando celebridades como Taylor Swift fueron víctimas que este tipo de tecnología fraudulenta cobró gran reconocimiento público.
En Estados Unidos, nueve estados han promulgado leyes contra la creación o intercambio no consensuado de deepfakes, que son imágenes sintéticas creadas para imitar la imagen de una persona.
Hoai Phuong (según CNN)
[anuncio_2]
Fuente
Kommentar (0)