Jennifer DeStefano se quedó atónita cuando escuchó una voz que pedía ayuda y que sonaba exactamente como la de su hija mayor, Brianna, de 15 años. Después de investigar, se descubrió que todo era una estafa con la ayuda de inteligencia artificial.
La tarde del 20 de enero, el teléfono de Jennifer DeStefano sonó justo cuando salía de su coche frente al estudio de baile donde practicaba su hija Aubrey. Se desconocía quién llamaba y DeStefano decidió no contestar.
Pero su hija mayor, Brianna, de 15 años, estaba entrenando para una carrera de esquí. DeStefano temía que fuera una llamada de emergencia.
"¿Hola?", respondió por el altavoz mientras cerraba el coche, cogía su bolso y la funda del portátil y se dirigía al gimnasio. De repente, DeStefano oyó gritos y sollozos.
Jennifer DeStefano y sus dos hijas. Foto: NVCC. |
"¡Mamá, estoy en problemas!", gritó una niña. "¿Qué hiciste? ¿Qué pasa?", preguntó la madre inmediatamente a la persona que llamaba.
Momento de pánico
DeStefano le dijo a CNN que la voz sonaba exactamente igual a la de Brianna, desde el acento hasta todo. "Pensé que se había resbalado de la montaña, que es lo que pasa cuando estás esquiando. Así que empecé a entrar en pánico", dijo DeStefano.
Los gritos continuaron y una voz masculina grave empezó a ordenar: «Escuchen. Su hija está en mis manos. Si llaman a la policía o a quien sea, la drogaré. La llevaré a México y nunca volverán a ver a su hija».
DeStefano quedó paralizada al instante. Entonces corrió al gimnasio, temblando y gritando pidiendo ayuda. Sintió como si se estuviera ahogando de repente.
DeStefano vivió un momento aterrador cuando una voz idéntica a la de Brianna pidió ayuda por teléfono. Foto: Jennifer DeStefano. |
Se produjo una serie de acontecimientos caóticos. Los secuestradores exigieron rápidamente un rescate de un millón de dólares , y DeStefano decidió llamar a la policía. Tras numerosos intentos de contactar con Brianna, se descubrió el secuestro.
Al final resultó que todo era una estafa. Brianna, confundida, llamó a su madre para decirle que no tenía ni idea de a qué se debía tanto alboroto, cuando para ella todo estaba bien.
Pero DeStefano nunca olvidará esa aterradora llamada de cuatro minutos, con esa voz extraña.
DeStefano cree haber sido víctima de una estafa de secuestro virtual por teléfono mediante tecnología deepfake. Con esta tecnología de IA, los secuestradores asustan a la familia de la víctima con un audio alterado para simular su voz y exigen un rescate.
El lado oscuro de la IA
Según Siobhan Johnson, portavoz de la Oficina Federal de Investigaciones (FBI), en promedio, las familias en Estados Unidos han perdido alrededor de 11.000 dólares por cada llamada fraudulenta.
En promedio, las familias en EE. UU. pierden alrededor de $11,000 por cada llamada fraudulenta. Foto: Matthew Fleming. |
En 2022, los datos de la Comisión Federal de Comercio de Estados Unidos (FTC) mostraron que los estadounidenses perdieron un total de 2.600 millones de dólares debido a llamadas fraudulentas.
En una grabación de la llamada de DeStefano proporcionada a CNN por el Departamento de Policía de Scottsdale, una madre en el estudio de baile intenta explicarle al operador lo que está sucediendo.
Una madre acaba de entrar y recibió una llamada. Era su hija. Había un secuestrador que decía que quería un millón de dólares. No la dejaba hablar con su hija, dijo la persona que llamó.
De fondo, se oye a DeStefano gritar: «Quiero hablar con mi hija». El operador determinó de inmediato que la llamada era falsa.
De hecho, las llamadas fraudulentas son habituales en Estados Unidos. En ocasiones, las personas que llaman se comunican con personas mayores, alegando que sus nietos han sufrido un accidente y necesitan dinero para una cirugía.
La característica común de este método es que los falsos secuestradores a menudo utilizan grabaciones de multitudes gritando.
Sin embargo, funcionarios federales de Estados Unidos advierten que estas estafas se están volviendo más sofisticadas con tecnología deepfake que suplanta las voces de las víctimas para ganarse la confianza de conocidos y luego defraudarlos.
Las estafas de extorsión se están sofisticando con la tecnología deepfake, que imita la voz de la víctima para ganarse la confianza de conocidos y luego estafarles. Foto: Protocol |
El desarrollo de programas de inteligencia artificial baratos y accesibles ha permitido a los estafadores clonar voces libremente y crear conversaciones que suenan exactamente como el original.
Esta amenaza no es solo hipotética. Estamos viendo cómo los estafadores utilizan estas herramientas como arma. Pueden crear un clon de voz relativamente bueno con menos de un minuto de audio. Para algunas personas, incluso unos pocos segundos son suficientes», afirmó Hany Farid, profesor de informática de la Universidad de California, Berkeley.
Con la ayuda del software de inteligencia artificial, la suplantación de voz se puede realizar por tan solo 5 dólares al mes y es fácilmente accesible para cualquier persona, dijo Farid.
La FTC también emitió una advertencia en marzo de que los estafadores podrían tomar archivos de audio de los videos de las redes sociales de las víctimas.
El uso de inteligencia artificial para insertar rostros o voces falsas en videos, comúnmente conocido como deepfakes, es cada vez más común y peligroso. Esto representa un verdadero peligro en internet.
Además de los videos sensibles, los deepfakes también pueden causar graves daños si se usan con fines políticos . El video de la transformación del rostro del expresidente estadounidense Barack Obama, que se hizo viral en 2018, demostró que las figuras políticas destacadas también pueden convertirse en víctimas.
En 2019, le tocó a Nancy Pelosi, presidenta de la Cámara de Representantes de Estados Unidos, convertirse en víctima. Un video editado la mostró hablando en estado de ebriedad, con un discurso poco claro.
Los deepfakes no solo se utilizan para combinar vídeos pornográficos, sino que también generan preocupación por las noticias falsas antes de momentos importantes como las elecciones presidenciales de Estados Unidos a finales de 2020. Foto: Cnet. |
A finales de 2019, el estado estadounidense de California aprobó una ley que ilegaliza la creación o difusión de vídeos deepfake. La ley establece específicamente que los vídeos editados que contengan imágenes, vídeos o voces de políticos dentro de los 60 días previos a unas elecciones son ilegales.
En 2019, dos investigadores de las Naciones Unidas (ONU), Joseph Bullock y Miguel Luengo-Oroz, dijeron que su modelo de IA, entrenado con textos de Wikipedia y más de 7.000 discursos de la Asamblea General, podría falsificar fácilmente discursos de líderes mundiales.
El equipo dice que sólo tuvieron que alimentar a la IA con unas pocas palabras para generar un texto coherente y de “alta calidad”.
Por ejemplo, cuando los investigadores titularon “El Secretario General condena enérgicamente los letales ataques terroristas en Mogadiscio”, la IA pudo generar un discurso expresando apoyo a la decisión de la ONU.
[anuncio_2]
Enlace de origen
Kommentar (0)