Usuarios de internet usan IA para crear imágenes del sospechoso del asesinato de Charlie Kirk. Foto: CBC . |
El Buró Federal de Investigaciones (FBI) de EE. UU. ha publicado dos fotos que muestran al sospechoso del tiroteo que mató al activista Charlie Kirk. Debido a que las fotos están bastante borrosas, la comunidad en línea respondió rápidamente con versiones mejoradas de las fotos mediante inteligencia artificial (IA).
Estas imágenes se ven más nítidas y claras que las originales, pero en realidad son solo producto de la especulación. La IA no tiene la capacidad de " descubrir " detalles ocultos en una foto borrosa. En cambio, la herramienta predice, completando los espacios vacíos con base en datos aprendidos, lo que puede implicar la creación de detalles inexistentes en la realidad.
![]() |
Fotos mejoradas con IA del sospechoso del tiroteo de Charlie Kirk, pero no hay dos rostros iguales. Foto: Grok. |
Se publicaron varias versiones mejoradas de las imágenes en la publicación del FBI. Es posible que algunas se hayan creado con la herramienta Grok en X, mientras que se cree que otras se crearon con plataformas como ChatGPT y Gemini. Sin embargo, la precisión de estas representaciones varía considerablemente. Algunas imágenes incluso presentan imprecisiones obvias, como el cambio de color de la camisa o la apariencia diferente del rostro del personaje con una barbilla exagerada.
Parece que estas imágenes se compartieron con el objetivo de "ayudar" a la comunidad a identificar al sospechoso. Pero, en realidad, también se convirtieron en una herramienta para atraer la atención, aumentar los "me gusta" y las publicaciones compartidas en redes sociales.
Los expertos advierten que es poco probable que estas imágenes de IA sean más útiles que las originales del FBI. De hecho, en algunos casos anteriores, las imágenes mejoradas con IA han producido resultados controvertidos.
Por ejemplo, una foto de baja resolución del expresidente Barack Obama fue "mejorada" por IA para mostrar a un hombre blanco. En otro caso, a una foto del presidente Donald Trump se le añadió un tumor inexistente en la cabeza mediante IA.
Estas discrepancias sugieren que la IA simplemente extrapola datos existentes, en lugar de recrear con precisión lo que se pierde en imágenes borrosas. Si bien la tecnología puede ser útil en algunos contextos, las imágenes generadas por IA no deben considerarse prueba definitiva en las investigaciones criminales.
El propio FBI, en su anuncio, solo publicó la foto original e instó al público a proporcionar información si lograban identificar a la persona en ella. Sin embargo, la oleada de "fotos que se actualizan automáticamente" en redes sociales atrajo rápidamente la atención, planteando preguntas sobre la responsabilidad del uso de herramientas de IA en casos delicados relacionados con la seguridad y la vida humana.
A medida que la inteligencia artificial se generaliza, este incidente pone de manifiesto un problema: la IA puede crear imágenes que parecen tan reales que resultan visualmente engañosas, pero eso no significa que sean fiables. Especialmente en actividades delictivas, la información inexacta puede acarrear graves consecuencias.
Fuente: https://znews.vn/hinh-anh-nghi-pham-am-sat-charlie-kirk-bi-lam-gia-post1584664.html











Kommentar (0)