O ato de usar a tecnologia para distorcer a verdade não apenas viola a ética e a lei, mas também fere profundamente a psicologia do espectador, afeta seriamente a família da vítima e mina a confiança na comunidade.

Tragédia virtual, danos reais
O naufrágio do navio de cruzeiro Blue Bay 58 na Baía de Ha Long em julho passado não só deixou consequências devastadoras para as vítimas e suas famílias, mas também serviu como um alerta sobre o fenômeno da exploração antiética de informações no ciberespaço.
Poucas horas após o incidente, uma série de vídeos de "reencenação" se espalhou rapidamente em plataformas como TikTok e Facebook. Imagens de crianças chorando, adultos gritando no meio de um vasto mar de água, sirenes de resgate ecoando no ar... fizeram os espectadores estremecerem. No entanto, a maioria desses vídeos eram produtos recriados por IA ou cortados de fontes não relacionadas, o que não refletia a verdade.
Uma foto comum de um grupo de crianças em uma viagem a Ha Long em agosto de 2024 também se transformou na "última imagem antes do desastre" do navio naufragado, compartilhada por muitas fanpages com legendas simpáticas.
Emocionada, a cantora Thai Thuy Linh compartilhou esta foto em sua página pessoal com uma mensagem memorial, antes que o dono da foto, o Sr. NT, solicitasse uma correção e remoção porque a foto estava distorcida.
Não apenas celebridades, muitas outras contas de mídia social também se tornaram vítimas de vídeos falsos e imagens distorcidas quando compartilharam conteúdo falso com inocência e simpatia.
Não foi apenas o navio que virou na Baía de Ha Long, mas muitos vídeos anteriores também "recriaram" as consequências de tempestades e inundações na vila de Lang Nu (província de Lao Cai ) no ano passado, ou antigos acidentes de trânsito de muitos anos atrás também foram "transformados em novos desastres pela IA".
Esses clipes, com ângulos de câmera dramáticos e vozes narrativas trágicas, muitas vezes terminam com a promessa de "assistir ao próximo episódio para descobrir o que aconteceu" ou um apelo para compartilhar em nome das vítimas. Ao explorar as emoções e a curiosidade dos usuários, o conteúdo falso se espalha a uma velocidade vertiginosa, expandindo a linha entre o real e o falso.
Diante da situação acima, o Professor Associado Dr. Bui Hoai Son, Membro Titular da Comissão de Cultura e Sociedade da Assembleia Nacional, afirmou que, na era da explosão de informações, muitas pessoas estão sendo atraídas para um labirinto de notícias falsas e vídeos de alta tecnologia encenados com aparência "realista". Elas acreditam involuntariamente em coisas que não são reais, ao mesmo tempo em que são céticas em relação a valores confiáveis. Esta é uma situação preocupante, que ameaça a consciência social e a confiança da comunidade.
O impacto desses conteúdos tóxicos não se limita às emoções temporárias, mas muitas pessoas também relatam ter sido severamente afetadas psicologicamente após serem expostas a vídeos trágicos e dolorosos.
A Sra. Nguyen Thanh Ha, proprietária da loja de cartões SIM na Rua Ngoc Lam, 145 (Bo De Ward, Hanói), compartilhou: “Estou assombrada a ponto de ter insônia depois de assistir a vídeos de acidentes e crianças chorando. Quando percebi que era falso, me senti ofendida. Ainda mais preocupante, muitas pessoas se aproveitam da simpatia dos espectadores para anexar códigos QR, apoiar contas, vendas disfarçadas... transformando emoções reais em ferramentas descaradas de lucro.”
Como distinguir o real do falso na era da IA
O desenvolvimento da inteligência artificial (IA) traz muitas facilidades, mas, ao mesmo tempo, traz consigo uma "pandemia de notícias falsas" sem precedentes. De acordo com especialistas da Associação de Segurança Cibernética (CSA), criar imagens e vídeos falsos está agora mais fácil e sofisticado, dificultando a distinção entre o real e o falso. Em particular, a falta de atenção e o hábito de compartilhar informações não verificadas nas redes sociais fazem com que as notícias falsas se espalhem rapidamente.
O advogado Bui Thi Mai, da Ordem dos Advogados de Hanói, afirmou que o uso de IA para criar conteúdo falso relacionado a desastres, visando atrair visualizações e lucro, é errado e precisa ser tratado com rigor. As pessoas precisam se munir proativamente de conhecimento sobre tecnologia e direito e devem confiar apenas em fontes oficiais de informação, páginas de fãs respeitáveis ou pessoas altamente confiáveis. Usar as redes sociais de forma inteligente e legal não apenas ajuda a se proteger, mas também contribui para prevenir notícias falsas e manter um ambiente online saudável e civilizado.
Compartilhando a mesma visão, o Professor Associado Dr. Bui Hoai Son propôs a solução de que medidas mais fortes são necessárias para lidar com notícias e vídeos falsos, não apenas de plataformas digitais, mas também da própria lei. Atualmente, o Código Penal, a Lei de Segurança Cibernética e decretos relacionados têm disposições para lidar com atos de calúnia, falsificação e fraude no ciberespaço, mas precisam ser rigorosamente aplicados, e novas regulamentações podem até ser adicionadas para corresponder ao perigo crescente de notícias falsas associadas a desastres. Além disso, é necessário fortalecer a educação midiática precocemente nas famílias e escolas. As crianças precisam ser ensinadas a reconhecer vídeos falsos, habilidades de verificação de informações e entender suas responsabilidades ao compartilhar conteúdo. Mais importante ainda, a educação deve ter como objetivo promover a compaixão para que ninguém possa lucrar com a dor dos outros.
Na era do forte desenvolvimento da IA, distinguir entre o real e o falso não se baseia mais apenas nos sentidos, mas exige atenção, conhecimento e responsabilidade de cada usuário de redes sociais. Portanto, cada pessoa deve verificar e ser proativa antes de compartilhar e disseminar valores verdadeiros, para que as redes sociais se tornem um espaço de conexão confiável, contribuindo para a construção de um ambiente de informação saudável e civilizado.
Fonte: https://hanoimoi.vn/chan-song-cau-view-tu-video-gia-sau-tham-hoa-711381.html
Comentário (0)