Fecha de actualización: 31/03/2024 05:42:42
Según una publicación del blog de OpenAI que comparte los resultados de una prueba a pequeña escala del "Voice Engine", la herramienta esencialmente puede clonar la voz de alguien basándose en una muestra de audio de 15 segundos.
Foto: OpenAI
OpenAI acaba de presentar una herramienta de clonación de voz, pero se mantendrá bajo estricto control hasta que se implementen medidas de seguridad para evitar que las falsificaciones de audio engañen a los oyentes.
OpenAI admite que la generación de voz plantea graves riesgos, especialmente en un año electoral. Sin embargo, la compañía dijo que está trabajando con socios nacionales e internacionales del gobierno, los medios de comunicación, el entretenimiento, la educación , la sociedad civil y otros sectores para recopilar comentarios para construir y desarrollar esta herramienta de manera segura.
OpenAI dice que ha implementado un conjunto de medidas de seguridad, que incluyen marcar el origen de cualquier audio generado por Voice Engine y monitorear activamente cómo se utiliza la herramienta.
Los investigadores de la desinformación están preocupados por los riesgos de un abuso masivo de aplicaciones impulsadas por IA en un año electoral crucial, ya que las herramientas de clonación de voz son cada vez más baratas, fáciles de usar y difíciles de rastrear.
Un ejemplo es una llamada generada por inteligencia artificial, ideada por un cabildero del congresista de Minnesota Dean Phillips, que suena como si el presidente Joe Biden instara a la gente a no votar en las primarias de New Hampshire en enero de 2024.
El incidente ha generado preocupación entre los expertos sobre una ola de desinformación deepfake (audio o vídeo falso) generada por IA en la carrera por la Casa Blanca de 2024 y otras elecciones mundiales importantes de este año.
Según VNA/NDO
Fuente
Kommentar (0)