Imagens deepfake geradas por IA, vídeos de videogames disfarçados de cenas de combate reais e desinformação gerada por chatbots — todas essas formas de desinformação impulsionadas pela tecnologia estão distorcendo gravemente o conflito entre Israel e Irã. Elas alimentam uma guerra narrativa nas plataformas de mídia social, obscurecendo informações factuais.
A guerra da informação, que se desenrola em paralelo com os combates terrestres – que eclodiram após os ataques israelenses a instalações nucleares iranianas e líderes militares – expôs uma profunda crise digital em uma era de ferramentas de IA em rápida evolução que confundem as fronteiras entre a verdade e a mentira.
Especialistas acreditam que a explosão de desinformação durante conflitos evidenciou a necessidade urgente de ferramentas de detecção e verificação mais eficazes. Preocupantemente, as principais plataformas tecnológicas estão afrouxando suas medidas de segurança, reduzindo a censura de conteúdo e a dependência de verificadores de fatos.

Em declarações à imprensa, Ken Jon Miyachi, fundador da BitMindAI, empresa sediada em Austin, EUA, afirmou que o mundo está testemunhando um aumento drástico na desinformação gerada por inteligência artificial, particularmente no que diz respeito ao conflito Irã-Israel. Essas ferramentas estão sendo usadas para manipular a percepção pública, muitas vezes amplificando narrativas divisivas ou falsas em uma escala e com uma sofisticação sem precedentes.
A GetReal Security, uma empresa americana especializada na detecção de mídias manipuladas, também identificou uma onda de vídeos falsos relacionados ao conflito entre Israel e Irã.
Essa empresa combina vídeos extremamente impactantes — que retratam cenas horríveis de aeronaves e edifícios israelenses danificados por conflitos, bem como mísseis iranianos montados em reboques — com o mecanismo de IA Veo 3 do Google, conhecido por sua capacidade de criar imagens hiper-realistas.
Hany Farid, cofundador da GetReal Security e professor da Universidade da Califórnia, Berkeley (EUA), compartilhou uma dica para identificar imagens falsas criadas por IA: os vídeos do Veo 3 geralmente têm 8 segundos de duração ou são uma combinação de clipes de duração semelhante.
Ele enfatizou: "Esse limite de 8 segundos claramente não prova que um vídeo é falso, mas deve ser um motivo válido para você parar e verificar as informações antes de compartilhá-las."
Segundo Miyachi, especialista da BitMindAI, a atual disseminação de desinformação e conteúdo falso online reflete uma crise mais ampla: a erosão da confiança na informação digital.
Diante dessa situação, ele enfatizou a necessidade de desenvolver ferramentas mais eficazes para detectar conteúdo falso, aprimorar a alfabetização midiática na sociedade e promover o papel responsável das plataformas tecnológicas na manutenção da transparência e da integridade dos debates públicos.
Fonte: https://www.vietnamplus.vn/ai-lam-nhieu-loan-thong-tin-ve-cuoc-xung-dot-israel-iran-nhu-the-nao-post1045593.vnp






Comentário (0)