Una investigación de Google DeepMind indica que crear imágenes, vídeos y audios humanos falsos es casi dos veces más común que crear información errónea utilizando herramientas como chatbots de IA.
El análisis revela que el objetivo más común de quienes abusan de la IA sintética es moldear o influir en la opinión pública. Esto representa el 27 % del uso, lo que genera preocupación sobre cómo los deepfakes podrían afectar las elecciones globales de este año.
Una obra de arte falsa que representa al primer ministro británico, Rishi Sunak, apareció en TikTok e Instagram antes de las elecciones generales. Foto: AFP
En los últimos meses, han aparecido deepfakes del primer ministro británico, Rishi Sunak, y de otros líderes mundiales en TikTok, X e Instagram. Los votantes británicos acudirán a las urnas la próxima semana para las elecciones generales.
Existe la preocupación de que, a pesar de los esfuerzos de las plataformas de redes sociales por etiquetar o eliminar dicho contenido, el público podría no reconocerlo como falso y su difusión podría influir en los votantes.
Ardi Janjeva, investigadora asociada del Instituto Alan Turing, calificó los hallazgos del artículo de "particularmente relevantes", sugiriendo que la información pública generada por IA podría "distorsionar nuestra comprensión común de la realidad sociopolítica ".
"Aunque no estamos seguros del impacto de los deepfakes en el comportamiento electoral, esta distorsión puede ser difícil de detectar a corto plazo y representa un riesgo a largo plazo para la democracia", añadió Janjeva.
"Ha habido muchas preocupaciones en torno a los ciberataques bastante sofisticados que estas herramientas pueden crear", dijo la investigadora Nahema Marchal, autora principal del estudio en Google DeepMind.
Los investigadores de Google DeepMind y Jigsaw analizaron aproximadamente 200 casos de uso indebido de IA entre enero de 2023 y marzo de 2024, obtenidos de las plataformas de redes sociales X y Reddit, así como de blogs en línea e informes de medios sobre uso indebido.
La segunda motivación más común detrás del abuso es el lucro, incluyendo la creación de imágenes de desnudos de personas reales o el uso de IA para generar diversos tipos de contenido, como noticias falsas. La mayoría de las situaciones utilizan herramientas de fácil acceso que requieren una experiencia técnica mínima, lo que significa que muchos actores maliciosos pueden usar la IA de forma creativa.
Ngoc Anh (según el FT)
[anuncio_2]
Fuente: https://www.congluan.vn/nghien-cuu-deepfake-chinh-tri-dung-dau-trong-danh-list-su-dung-ai-doc-hai-post300851.html






Kommentar (0)