Deepfakes de IA, imagens de videogame disfarçadas de cenas de combate reais e desinformação gerada por chatbots — todas essas formas de desinformação viabilizadas pela tecnologia estão distorcendo gravemente o conflito entre Israel e o Irã. Elas estão alimentando uma guerra narrativa nas plataformas de mídia social que distorce os fatos.
A guerra de informação, que ocorre paralelamente às escaramuças no terreno — desencadeadas pelos ataques israelenses às instalações nucleares e à liderança militar do Irã — expôs uma profunda crise digital em uma era de ferramentas de IA em rápida evolução que confundem a linha entre a verdade e a fabricação.
Especialistas afirmam que a explosão de desinformação em conflitos evidenciou a necessidade urgente de ferramentas de detecção e verificação mais robustas. Preocupantemente, as principais plataformas de tecnologia estão flexibilizando essas salvaguardas, reduzindo a moderação de conteúdo e a dependência de verificadores de fatos.

Em entrevista a repórteres, Ken Jon Miyachi, fundador da BitMindAI, sediada em Austin, afirmou que o mundo está testemunhando um aumento na desinformação gerada por IA, especialmente relacionada ao conflito Irã-Israel. Essas ferramentas estão sendo usadas para manipular a percepção pública, muitas vezes amplificando narrativas divisivas ou falsas com escala e sofisticação sem precedentes.
A GetReal Security, empresa americana especializada em detectar mídia manipulada, também identificou uma onda de vídeos falsos relacionados ao conflito Israel-Irã.
A empresa vincula os vídeos altamente visuais — que retratam cenas horripilantes de aviões e edifícios israelenses danificados pelo conflito, bem como mísseis iranianos montados em reboques — ao gerador de IA Veo 3 do Google, conhecido por sua capacidade de criar imagens hiper-realistas.
Hany Farid, cofundador da GetReal Security e professor da Universidade da Califórnia, Berkeley (EUA), compartilhou uma pequena dica para identificar imagens falsas criadas por IA: os vídeos do Veo 3 geralmente têm 8 segundos de duração ou uma combinação de clipes de duração semelhante.
“Esse limite de oito segundos obviamente não prova que um vídeo é falso, mas deve ser um bom motivo para você parar e verificar as informações antes de compartilhar”, enfatizou.
De acordo com o Sr. Miyachi, especialista da BitMindAI, a situação atual de disseminação de conteúdo falso e fraudulento na internet reflete uma crise mais profunda: a erosão da confiança na informação digital.
Diante dessa situação, ele enfatizou a necessidade de desenvolver ferramentas mais eficazes para detectar conteúdo falso, melhorar a alfabetização midiática na sociedade e promover o papel responsável das plataformas tecnológicas na manutenção da transparência e da saúde das discussões públicas.
Fonte: https://www.vietnamplus.vn/ai-lam-nhieu-loan-thong-tin-ve-cuoc-xung-dot-israel-iran-nhu-the-nao-post1045593.vnp
Comentário (0)