Vietnam.vn - Nền tảng quảng bá Việt Nam

Cuidado con los “impostores artificiales”

Báo Văn HóaBáo Văn Hóa13/10/2023

[anuncio_1]

Tom Hanks advierte sobre imágenes falsas generadas por IA en su Instagram personal

Según The Guardian , el actor Tom Hanks advirtió a sus fans que su imagen en un reciente anuncio dental es falsa y está creada con inteligencia artificial (IA). La estrella de Forrest Gump publicó en Instagram a sus 9,5 millones de seguidores: "¡Cuidado! Hay un vídeo de un anuncio dental con una imagen mía creada con IA. No tuve nada que ver con este proyecto".

En un correo electrónico enviado a The New York Times , un portavoz de Meta, la empresa matriz de Instagram, no comentó directamente sobre el anuncio, pero afirmó que publicar anuncios que usan imágenes de famosos con fines engañosos infringe nuestras políticas comunitarias. "Hemos dedicado importantes recursos a abordar este tipo de estafas y hemos mejorado significativamente nuestra aplicación de la ley, incluyendo la suspensión y eliminación de cuentas, páginas y anuncios que infringen nuestras políticas", añadió el portavoz.

Anteriormente, Mark Zuckerberg, CEO de la famosa red social Facebook, también fue víctima de esta tecnología. A partir de un simple discurso suyo, la IA creó un video donde admitía que Facebook robaba datos de usuarios y controlaba el futuro. Aunque en este video la IA que imita la voz de Mark Zuckerberg no se parece mucho, sigue siendo muy difícil de reconocer.

Anteriormente, en Estados Unidos, una voz falsa por teléfono que sonaba tan real hizo creer a una madre que su hija había sido secuestrada. "Mamá, por favor, sálvame", escuchó recientemente Jennifer DeStefano, en Arizona, sollozar a su hija por teléfono, antes de que un hombre la interrumpiera y exigiera un rescate. La madre estaba completamente convencida de que su hija, que estaba esquiando, había sido secuestrada. "Ni siquiera me pregunté quién era. Era su voz. Así lloraba, así que no sospeché nada", dijo. El estafador usó un número de teléfono desconocido y le pidió un rescate de hasta un millón de dólares. La estafa de IA se descubrió minutos después de que la Sra. DeStefano contactara con su hija. El caso está siendo investigado por la policía y refleja el riesgo de que los ciberdelincuentes se aprovechen de las capacidades de generación de voz de la IA.

Recientemente, un estafador llamado Gilbert Chikli tuvo que ser juzgado por hacerse pasar por el ministro de Asuntos Exteriores francés, Jean-Yves le Drian, para exigir un rescate a personas adineradas y ejecutivos corporativos a cambio de liberar a rehenes franceses en Siria. O bien, a la reportera india Rana Ayyub le implantaron el rostro en vídeos pornográficos, y luego los delincuentes usaron estos vídeos falsos para chantajearla.

La empresa estadounidense de ciberseguridad McAfee publicó recientemente una encuesta titulada "Imitadores Artificiales", que muestra que muchas personas no pueden distinguir entre voces reales y falsas. La encuesta, en la que participaron 7054 personas de nueve países, incluyendo EE. UU. e India, reveló que muchas personas han sido víctimas o conocen casos de engaños causados ​​por tecnología de generación de voz con IA. Alrededor del 70 % admitió no tener la seguridad de distinguir entre voces reales y generadas por IA.

Según Reuters , el Secretario General de la ONU, António Guterres, ha respaldado una propuesta de algunos líderes de empresas de IA para establecer un organismo internacional de supervisión de la IA. «Las alarmas sobre la última forma de IA, la IA generativa, las están dando con más fuerza los desarrolladores que la diseñaron. Debemos tomarnos en serio estas advertencias», declaró. Además, anunció planes para crear un organismo asesor de alto nivel en IA este año.

Según la revista Organizer , el Sr. Wasim Khaled, director ejecutivo de Blackbird.AI Company (EE. UU.), la tecnología que utiliza IA para imitar voces es ahora prácticamente indistinguible de las voces reales. «Esto ayuda a los estafadores a obtener dinero e información de las víctimas con mayor eficacia», afirmó.

“Ahora es tan fácil crear una voz que suene realista que casi cualquier persona con presencia en línea puede convertirse en víctima”, afirmó el profesor Hany Farid de la Universidad de California (EE. UU.), advirtiendo que estas estafas son cada vez más comunes.

Gal Tal-Hochberg, tecnólogo de Team8, empresa israelí de ciberseguridad, cree que nos acercamos rápidamente a un punto en el que no podremos confiar en todo lo que vemos en línea. «Necesitaremos nuevas tecnologías para saber que la persona con la que hablamos es realmente la persona con la que hablamos», afirmó.

Tailandés An


[anuncio_2]
Fuente

Kommentar (0)

No data
No data

Misma categoría

Experimente la pesca nocturna de calamares y la observación de estrellas de mar en la isla de las perlas de Phu Quoc.
Descubra el proceso de elaboración del té de loto más caro de Hanoi
Admire la pagoda única hecha con más de 30 toneladas de piezas de cerámica en la ciudad de Ho Chi Minh.
Pueblo en la cima de la montaña en Yen Bai: Nubes flotantes, hermosas como un país de hadas.

Mismo autor

Herencia

Cifra

Negocio

No videos available

Noticias

Sistema político

Local

Producto