Vídeos cada vez mais realistas gerados por inteligência artificial (IA) são um fator importante no aumento da disseminação de conteúdo falso durante desastres como enchentes, causando confusão pública e correndo o risco de pânico generalizado, ameaçando a segurança nacional da informação.
Este é o alerta de um especialista em segurança da Malásia, no contexto do crescente número de desastres naturais que ocorrem devido ao impacto das mudanças climáticas.
O Dr. Noor Nirwandy Mat Noordin, analista de guerra, segurança e política da Universidade de Tecnologia MARA (UiTM), afirmou que o público é muito suscetível a vídeos e imagens gerados por inteligência artificial. As pessoas estão vivendo uma nova era em que qualquer um pode criar vídeos ou imagens extremamente convincentes relacionados a enchentes, ciclones ou qualquer outro desastre.
Se não for controlada, essa prática pode levar ao caos de informações, já que as pessoas, sem saber, acreditam em conteúdo falso que circula nas redes sociais, contribuindo para a criação de narrativas ou percepções distorcidas, especialmente em momentos de crise. Portanto, segundo a Dra. Noor, a checagem de fatos deve se tornar uma norma cultural e o público deve usar plataformas de verificação de fatos para garantir que as informações que recebem sejam precisas.
Ele também alertou que a ameaça da manipulação de informações baseada em IA pode influenciar o sentimento público, impactar suas reações e minar a ordem pública e a segurança nacional.
O Dr. Noor sugeriu que a Malásia criasse um centro nacional de informações sobre desastres e uma unidade dedicada à revisão dessas informações para garantir um fluxo de informações mais organizado e preciso. Um calendário nacional de desastres também deveria ser desenvolvido como referência periódica para auxiliar a população na preparação, enquanto as agências de segurança se concentrariam em aprimorar a coordenação de resgates.
Concordando com essa visão, o analista criminal Shahul Hamid enfatizou que o ato de criar e disseminar informações falsas sobre desastres naturais foi identificado como uma nova ameaça à gestão de emergências, visto que a tecnologia de imagem atual pode criar imagens incrivelmente realistas de inundações em apenas alguns minutos.
Ele afirmou que o fenômeno está levando a um "desastre de informação" e causando impactos que não se limitam apenas a danos físicos, mas também interrompem informações reais e causam pânico, confusão e dificultam a comunicação efetiva.
Shahul Hamid alertou que o problema pode piorar se o nível de alfabetização digital da população permanecer baixo. A disseminação de imagens falsas também pode atrapalhar as operações de resgate dos bombeiros e da polícia, já que os recursos podem ser desviados para locais errados enquanto as áreas realmente afetadas são ignoradas. Isso aumentaria o risco de desperdício de recursos, atrasos nas respostas e falta de coordenação.
Segundo Shahul Hamid, as linhas de emergência também correm o risco de ficarem sobrecarregadas pelas constantes ligações do público para verificar a autenticidade do vídeo, o que significa que chamadas importantes podem ficar sem resposta. Além disso, a disseminação de informações que contradizem as declarações oficiais também mina a confiança pública nas agências e nas equipes de voluntários.
Além disso, imagens falsas geradas por IA também podem ser usadas para fraudes, incluindo arrecadação de fundos fraudulenta, exploração da empatia pública e manipulação de emoções, adicionando novas dimensões às ameaças à segurança digital.
À medida que o público encontra cada vez mais dificuldades em diferenciar conteúdo real de vídeos gerados por IA, a falta de treinamento em alfabetização digital e de reforço psicológico público durante desastres fará com que muitas pessoas sejam mais propensas a acreditar em conteúdo dramático, especialmente quando os algoritmos das redes sociais frequentemente priorizam conteúdo sensacionalista, fazendo com que vídeos falsos se espalhem mais rapidamente do que informações oficiais.
O Sr. Shahul Hamid salientou que a falta de um centro de referência rápida para verificar conteúdo relacionado a desastres deixaria o público vulnerável a fraudes.
Uma pesquisa da Bernama no TikTok e no Instagram revelou que houve um aumento na produção de vídeos com inteligência artificial após a temporada de monções, que afetou diversos estados. O conteúdo falso encontrado incluía imagens de crocodilos emergindo, tigres invadindo vilarejos, animais venenosos e situações inusitadas retratadas como se fossem enchentes.
Muitos vídeos falsos de inundações severas parecem muito reais e se espalham rapidamente, fazendo com que muitos usuários acreditem que se tratam de imagens reais, quando na verdade são vídeos gerados por inteligência artificial.
Fonte: https://www.vietnamplus.vn/canh-bao-moi-de-doa-tu-nhung-noi-dung-gia-mao-ve-thien-tai-do-ai-tao-ra-post1080179.vnp






Comentário (0)