Pero según la agencia de noticias AFP, en realidad, la voz de la hija era producto de inteligencia artificial (IA) y el secuestro fue completamente irreal.
Frente a este problema de fraude, los expertos dicen que el mayor peligro de la IA es difuminar la línea entre la realidad y la ficción, dando a los cibercriminales una tecnología barata pero efectiva para llevar a cabo sus malvadas intenciones.
En una nueva serie de estafas que están sacudiendo a Estados Unidos, los estafadores están utilizando herramientas de clonación de voz con inteligencia artificial que son sorprendentemente realistas (y a la vez fácilmente accesibles en línea) para robar dinero haciéndose pasar por familiares de sus víctimas.
“Ayúdame, mamá, ayúdame”, escuchó una voz frenética al otro lado de la línea Jennifer DeStefano, residente de Arizona.
El 70 % de los encuestados no cree poder distinguir entre las voces de IA y las voces humanas reales. Ilustración: Revista AI
DeStefano estaba completamente convencida de que su hija de 15 años había sufrido un accidente de esquí. "Nunca lo dudé. Esa era su voz. Así lloraba. Nunca lo dudé ni por un segundo", declaró DeStefano a una cadena de televisión local en abril.
El estafador realizó la llamada, mostrando un número desconocido en el teléfono de la Sra. DeStefano, exigiendo un rescate de hasta un millón de dólares. El plan de extorsión, basado en inteligencia artificial, se desmoronó en cuestión de minutos cuando la Sra. DeStefano pudo contactar con su hija.
Pero este horrible caso resalta el potencial que tienen los cibercriminales para abusar de las tecnologías de IA para hacerse pasar por otros.
“Las capacidades de clonación de voz de la IA son ahora casi indistinguibles de una voz humana real, lo que permite a los estafadores extraer información y dinero de las víctimas de manera más eficiente”, dijo a la AFP Wasim Khaled, director ejecutivo de Blackbird.AI.
Una simple búsqueda en internet revela una gran cantidad de aplicaciones gratuitas que pueden generar voces de IA con una grabación de muestra breve, incluso de unos pocos segundos. Como resultado, la voz real de una persona puede ser fácilmente copiada del contenido que publica en línea.
Con una pequeña muestra de audio, la copia de voz con IA puede utilizarse para enviar mensajes de voz y mensajes de texto. Incluso puede utilizarse como modificador de voz en vivo durante las llamadas telefónicas, señaló Khaled.
Los estafadores pueden utilizar diferentes acentos, géneros o incluso imitar la forma en que hablan sus víctimas.
En una encuesta mundial de 7.000 personas en nueve países, incluido Estados Unidos, una de cada cuatro dijo que había sido estafada usando voz de IA o conocía a alguien que había sido estafado de esa manera.
El 70% de los encuestados dijo que no estaba seguro de poder diferenciar entre una voz clonada y una real.
Mientras tanto, las autoridades estadounidenses han advertido repetidamente sobre la creciente frecuencia de estafas dirigidas a abuelos mayores. En un caso común, el impostor se hace pasar por el nieto de la víctima que necesita dinero urgentemente en una situación difícil.
Recibes una llamada. Se oye una voz asustada. Es tu sobrino. Dice que está en serios problemas. Chocó su coche y está en la cárcel. Pero puedes ayudarlo enviándole dinero. La FTC describe la estafa.
En los comentarios debajo del boletín de advertencia de la FTC, muchas personas dijeron que sus familiares mayores habían sido estafados de esta manera.
Esa es la historia de Eddie, un joven de 19 años de Chicago. Su abuelo recibió una llamada de alguien que se hacía pasar por él y le decía que necesitaba dinero porque había causado un accidente de coche.
La artimaña fue tan convincente que el abuelo de Eddie se apresuró a reunir el dinero e incluso consideró hipotecar su casa para conseguirlo antes de que se descubriera la mentira, según un informe de McAfee Labs.
"Dado que es tan fácil crear clones de voz altamente realistas, casi cualquier persona con presencia en línea es vulnerable", declaró a la AFP Hany Farid, profesor de la Escuela de Información de UC Berkeley. "Estas estafas están creciendo y extendiéndose".
A principios de 2023, la startup de inteligencia artificial ElevenLabs admitió que su herramienta de transcripción de voz podría utilizarse con fines maliciosos. En concreto, un usuario del producto de la compañía publicó un audio falso que mostraba a la actriz Emma Watson leyendo la biografía «Mi lucha» del líder nazi alemán Adolf Hitler.
"Nos movemos tan rápido que no podemos confiar en todo lo que vemos en internet, por eso necesitamos nuevas tecnologías para saber si la persona con la que estamos hablando es realmente quien dice ser", explicó a la AFP Gal Tal-Hochberg, director de tecnología de la firma de capital de riesgo Team8.
Según el periódico VNA/Tin Tuc
[anuncio_2]
Enlace de origen
Kommentar (0)