Vietnam.vn - Nền tảng quảng bá Việt Nam

Deepfakes de audio, una nueva preocupación sobre la desinformación

Công LuậnCông Luận24/01/2024

[anuncio_1]

El lunes, la Oficina del Fiscal General de New Hampshire anunció que estaba iniciando una investigación sobre una posible manipulación de votantes. Esto se produce después de las quejas de una voz falsa, que suena idéntica a la del presidente estadounidense Joe Biden, que insta a los votantes a no votar en las primarias del estado.

Los investigadores también advirtieron sobre el uso de audio deepfake para imitar a políticos y líderes, con casos destacados ocurridos en 2023 en el Reino Unido, India, Nigeria, Sudán, Etiopía y Eslovaquia.

deepfake nuevo audio nueva información imagen falsa 1

Una persona vota en las elecciones primarias en New Hampshire, EE.UU. Foto: Getty

El audio deepfake se ha convertido en una forma popular de desinformación debido al surgimiento de una gama de herramientas de inteligencia artificial baratas y efectivas por parte de nuevas empresas, dicen los expertos. Microsoft también ha desarrollado un nuevo modelo de IA que puede replicar una voz a partir de solo tres segundos de grabación.

“Cuando se trata de manipulación visual, todo el mundo está familiarizado con Photoshop o al menos sabe que existe”, dijo Henry Ajder, experto en inteligencia artificial y deepfake y consultor de Adobe, Meta y EY. “Hay muy poca conciencia de cómo se puede manipular el audio, así que, para mí, eso nos deja realmente vulnerables”.

En septiembre, NewsGuard, un sistema que califica la calidad y confiabilidad de los sitios web de noticias, descubrió una red de cuentas de TikTok que se hacían pasar por sitios de noticias legítimos y utilizaban contenido generado por IA para difundir teorías conspirativas y desinformación política. Las grabaciones de audio deepfake, incluida la del expresidente estadounidense Barack Obama, han atraído cientos de millones de visitas.

Las voces en off falsas parecen haber sido generadas por una herramienta proporcionada por ElevenLabs, respaldada por Andreessen Horowitz, mientras que los clips han obtenido cientos de millones de visitas, dijo NewsGuard.

“Más del 99% de los usuarios de nuestra plataforma crean contenido interesante, creativo y útil, pero reconocemos que hay casos de mal uso y hemos desarrollado e introducido continuamente protecciones para limitarlos”, afirmó ElevenLabs.

ElevenLabs, fundada hace dos años por los ex empleados de Google y Palantir Piotr Dabkowski y Mati Staniszewski, ofrece herramientas rudimentarias de generación de audio con IA de forma gratuita con un solo clic. Los planes de suscripción varían desde $1 al mes hasta $330 al mes y más para aquellos que buscan servicios más complejos.

El año pasado, las agencias de inteligencia estadounidenses advirtieron en un informe que “las estafas de IA personalizadas han aumentado significativamente debido al lanzamiento de modelos de clonación de voz de IA sofisticados y bien entrenados”.

Además de las estafas con motivos económicos, los expertos políticos ahora están dando la voz de alarma sobre los clips de audio deepfake virales, así como sobre el uso de deepfakes para llamadas automáticas o campañas. “Se puede construir una campaña de desinformación poderosa y generalizada atacando los teléfonos”, dijo AJ Nash, vicepresidente y destacado investigador de inteligencia del grupo de ciberseguridad ZeroFox.

Algunas de estas empresas han buscado proactivamente otras formas de combatir la desinformación. Microsoft ha publicado una declaración ética, instando a los usuarios a denunciar cualquier uso indebido de su motor de audio de inteligencia artificial. ElevenLabs ha construido sus propias herramientas de detección para identificar las grabaciones generadas por su sistema.

Durante las elecciones de 2023 en Nigeria, un clip manipulado por inteligencia artificial se volvió viral en las redes sociales "supuestamente sugiriendo que un candidato de la oposición estaba planeando manipular la votación", según el grupo de derechos humanos Freedom House.

En Eslovaquia, una grabación de audio falsa del candidato opositor Michal Šimečka aparentemente conspirando para manipular las elecciones se volvió viral pocos días antes de las elecciones presidenciales del país en septiembre.

“El deepfake de New Hampshire es un recordatorio de las muchas formas en que los deepfakes pueden confundir y engañar”, dijo Robert Weissman, presidente del grupo de defensa del consumidor sin fines de lucro Public Citizen. Ha llegado el momento de las deepfakes políticas. Los responsables políticos deben actuar con rapidez para implementar salvaguardias o nos enfrentaremos al caos electoral.

Mai Anh (según el FT)


[anuncio_2]
Fuente

Kommentar (0)

No data
No data

Mismo tema

Misma categoría

Vida silvestre en la isla de Cat Ba
Viaje perdurable en la meseta de piedra
Cat Ba - Sinfonía de verano
Encuentra tu propio Noroeste

Mismo autor

Herencia

Cifra

Negocio

No videos available

Noticias

Sistema político

Local

Producto