La red social X ha tenido que bloquear las búsquedas de Taylor Swift tras la viralización de imágenes pornográficas deepfake de la cantante. Al buscar a Taylor Swift en la plataforma X, los usuarios verán un mensaje de error y una solicitud para recargar la página. Joe Benarroch, director de operaciones comerciales de X, explicó que se trata de una medida preliminar y se tomó por precaución.
Imágenes pornográficas de Taylor Swift generadas por IA comenzaron a circular en X el 24 de enero, lo que incitó a los fans de la cantante a publicar una serie de fotos reales de la estrella para "destruir" el deepfake. También pidieron a X que tomara medidas más contundentes para eliminar estas fotos y denunciar las cuentas que compartían fotos falsas. El lema "Protege a Taylor Swift" también se convirtió en tendencia en la plataforma.
Un día después, las cuentas denunciadas fueron suspendidas o restringidas, pero todavía era fácil encontrar pornografía de IA en X.
En un comunicado emitido el fin de semana, X afirmó que prohíbe compartir imágenes explícitas sin el permiso del sujeto y que mantiene una política de tolerancia cero para dicho contenido. El comunicado no mencionó a Swift por su nombre.
Nuestro equipo está eliminando activamente todas las imágenes identificadas y tomando las medidas pertinentes contra las cuentas que las publicaron. Seguiremos de cerca la situación para asegurarnos de que cualquier otra infracción se solucione de inmediato y se elimine el contenido, declaró X.
Los avances en IA generativa han facilitado la falsificación de imágenes pornográficas de otras personas. Con X, tras su adquisición por Elon Musk en 2022, se flexibilizaron muchas normas de censura, al tiempo que despedía a miles de empleados para estabilizar sus finanzas.
No se sabe con certeza dónde se originaron las fotos falsas de Taylor Swift, pero, según NBC News, tenían una marca de agua que indicaba que provenían de un sitio web conocido por distribuir imágenes pornográficas falsas de celebridades. El sitio incluso tiene una sección dedicada a las fotos falsas con inteligencia artificial. Las fotos falsas de Swift fueron vistas más de 27 millones de veces y recibieron más de 260.000 "me gusta" en las 19 horas siguientes a su publicación.
Tras el incidente, el director ejecutivo de Microsoft, Satya Nadella, exigió que se implementaran más medidas de seguridad para regular la IA. En una entrevista con NBC News, argumentó que tenemos la responsabilidad de monitorear esta tecnología emergente para que se pueda producir contenido más seguro.
En respuesta a una pregunta sobre el deepfake de Swift, el director de Microsoft afirmó: «Sí, debemos actuar. Creo que todos nos beneficiamos de un mundo en línea seguro. No creo que nadie quiera un mundo en línea completamente inseguro, ni para los creadores ni para los consumidores de contenido. Por eso, creo que debemos actuar con rapidez en este asunto».
Según 404 Media, un grupo de chat de Telegram afirmó haber utilizado la herramienta Designer de Microsoft, generada con inteligencia artificial, para falsificar la foto de Taylor. El Sr. Nadella no comentó directamente sobre la información de 404 Media, pero en un comunicado enviado al sitio de noticias, Microsoft indicó que estaba investigando el informe y que tomaría las medidas pertinentes.
La administración Biden ha calificado de "alarmante" la difusión del deepfake pornográfico de Taylor Swift y ha pedido a las empresas de redes sociales que examinen su "papel vital" en la aplicación de las regulaciones para prevenir la difusión de información falsa e imágenes sensibles sin consentimiento.
En octubre de 2023, el presidente Biden firmó una orden ejecutiva sobre IA centrada en regular la tecnología emergente y sus riesgos.
(Según The Hill y WSJ)
[anuncio_2]
Fuente
Kommentar (0)