Usuários da internet usam inteligência artificial para criar imagens do suspeito do assassinato de Charlie Kirk. Foto: CBC . |
O FBI (Departamento Federal de Investigação dos EUA) divulgou duas fotos do suspeito envolvido no tiroteio que matou o ativista Charlie Kirk. Como as fotos estão bastante desfocadas, a comunidade online rapidamente respondeu com versões "aprimoradas" das imagens usando inteligência artificial (IA).
Essas imagens parecem mais nítidas e claras do que as originais, mas na verdade são apenas produto de especulação. A IA não tem a capacidade de " descobrir " detalhes ocultos em uma foto desfocada. Em vez disso, a ferramenta faz previsões, preenchendo as lacunas com base em dados aprendidos, o que pode significar criar detalhes que não existem na realidade.
![]() |
Fotos do suspeito do tiroteio de Charlie Kirk aprimoradas por inteligência artificial, mas nenhum dos rostos é igual ao outro. Foto: Grok. |
Diversas versões aprimoradas das imagens foram publicadas na postagem do FBI. Algumas das imagens podem ter sido criadas usando a ferramenta Grok no X, enquanto outras acredita-se que tenham sido criadas usando plataformas como ChatGPT e Gemini. No entanto, a precisão dessas renderizações varia muito. Algumas imagens chegam a apresentar imprecisões óbvias, como a mudança na cor da camisa ou a alteração da aparência do rosto do personagem, com um queixo exagerado.
Ao que tudo indica, essas imagens foram compartilhadas com o objetivo de "ajudar" a comunidade a identificar o suspeito. Mas, na realidade, elas também se tornaram uma ferramenta para atrair atenção e aumentar o número de curtidas e compartilhamentos nas redes sociais.
Especialistas alertam que é improvável que essas imagens geradas por IA sejam mais úteis do que as originais do FBI. Aliás, em alguns casos anteriores, imagens aprimoradas por IA produziram resultados controversos.
Por exemplo, uma foto de baixa resolução do ex-presidente Barack Obama foi "aprimorada" por IA para mostrar um homem branco. Em outro caso, um tumor inexistente foi adicionado à cabeça do presidente Donald Trump por IA.
Essas discrepâncias sugerem que a IA está simplesmente extrapolando a partir de dados existentes, em vez de recriar com precisão o que se perde em imagens desfocadas. Embora a tecnologia possa ser útil em alguns contextos, as imagens geradas por IA não devem ser consideradas provas definitivas em investigações criminais.
O próprio FBI, em seu comunicado, divulgou apenas a foto original e pediu ao público que fornecesse informações caso reconhecesse a pessoa na imagem. No entanto, a onda de "fotos com aprimoramento automático" nas redes sociais rapidamente chamou a atenção, levantando questões sobre a responsabilidade do uso de ferramentas de IA em casos sensíveis relacionados à segurança e à vida humana.
Com o uso cada vez mais amplo da inteligência artificial, este incidente evidencia um problema: a IA pode criar imagens tão realistas que chegam a ser visualmente enganosas, mas isso não significa que sejam confiáveis. Principalmente em investigações criminais, dados imprecisos podem acarretar sérias consequências.
Fonte: https://znews.vn/hinh-anh-nghi-pham-am-sat-charlie-kirk-bi-lam-gia-post1584664.html











Comentário (0)