Riscos potenciais na disseminação de informações falsas
A ciência e a tecnologia não só afetam a forma como a imprensa e os meios de comunicação transmitem as suas mensagens, influenciando e afetando a forma e a eficácia do acesso público à informação, como também impactam profundamente a qualidade da informação.
De fato, o jornalismo tem se adaptado rapidamente às inovações tecnológicas, especialmente nos últimos anos. A Inteligência Artificial (IA) tem se popularizado gradualmente nos meios de comunicação e nas redações de agências de notícias. A aplicação da IA trouxe benefícios tanto para jornalistas quanto para veículos de comunicação. Ela libera os jornalistas de tarefas diárias tediosas, ajudando-os a economizar tempo e a se concentrar em trabalhos mais criativos e que exigem maior habilidade.
Embora a IA tenha muitos benefícios, também levanta algumas preocupações. Um dos riscos mais significativos é o potencial de o conteúdo gerado por IA disseminar desinformação.
As 10 maiores agências de notícias do mundo estão pedindo negociações coletivas e transparentes entre veículos de comunicação e desenvolvedores de IA para controlar quais materiais protegidos por direitos autorais podem ser usados no treinamento de ferramentas de IA, bem como para eliminar o viés nos algoritmos de IA.
Na semana passada, 10 das principais agências de notícias do mundo assinaram uma carta exigindo transparência e leis de direitos autorais claras voltadas para a inteligência artificial. As agências argumentaram que a IA tem o potencial de "ameaçar a sustentabilidade do ecossistema da mídia", corroendo significativamente a confiança dos leitores na qualidade e integridade das notícias.
De acordo com diversos estudos, a IA pode ser usada para filtrar e selecionar as notícias com maior probabilidade de atrair leitores e gerar engajamento, criando assim um desequilíbrio na informação que não existiria se as notícias fossem apresentadas de forma objetiva por humanos. O público é exposto apenas a um lado da história e, portanto, pode ser influenciado por informações tendenciosas geradas pela IA. Além disso, a IA pode ser usada para disseminar desinformação e notícias falsas, apresentando histórias inventadas ao lado de histórias verdadeiras.
A IA também pode ser vulnerável a notícias falsas. Os algoritmos de IA são projetados para processar dados com rapidez e precisão, o que significa que é difícil distinguir entre notícias verdadeiras e falsas. Além disso, a IA não é capaz de compreender as implicações emocionais e morais das notícias que processa. À medida que a IA se torna mais avançada, sua vulnerabilidade a notícias falsas aumentará, tornando ainda mais difícil distinguir entre o que é real e o que é falso.
Segundo o Professor Associado Dr. Nguyen Ngoc Oanh, Chefe da Faculdade de Relações Internacionais da Academia de Jornalismo e Comunicação, o fortalecimento da Inteligência Artificial (IA) exige atenção redobrada e proatividade diante do risco de agentes mal-intencionados e forças hostis utilizarem a IA para disseminar notícias falsas e prejudiciais. Do ponto de vista da segurança da mídia, isso demonstra o potencial de desinformação, distorção e notícias falsas. Uma vez aplicada a inteligência artificial no campo da informação, a tecnologia pode auxiliar na criação de vozes e imagens falsas, histórias e declarações que parecem reais, com o objetivo de enganar o público, especialmente nas redes sociais.
"Pessoas com más intenções se aproveitam do papel e do prestígio da imprensa para falsificar informações, enganando o público e fazendo-o acreditar que se trata de informação genuína, fornecida e divulgada pela imprensa. O desenvolvimento de notícias falsas está se tornando cada vez mais sofisticado e complexo e, portanto, além de aumentar a vigilância, os métodos de identificação, resposta e combate às notícias falsas devem priorizar o investimento em tecnologia inteligente e o gerenciamento sistemático do problema. A capacidade de gestão social e de agências de notícias precisa ser aprimorada para se adaptar às mudanças", comentou o Professor Associado Dr. Nguyen Ngoc Oanh.
O setor de notícias precisa encontrar maneiras de proteger seu conteúdo criativo.
Desde o lançamento do ChatGPT em novembro de 2022, novos aplicativos baseados em IA generativa têm sido implementados quase diariamente. Como resultado, a internet se encheu de conteúdo gerado por IA. Embora haja conteúdo realmente impressionante, também existe muito conteúdo insosso e repetitivo. Isso facilita a disseminação de desinformação e impõe um fardo maior à indústria da mídia para construir e restaurar a confiança entre os leitores.
O jornalista Nguyen Hoang Nhat, editor-chefe adjunto do jornal Vietnamplus, relembrou lições do passado, quando muitos especialistas afirmaram que um dos primeiros grandes erros da imprensa foi reagir muito lentamente à importância e à invasão das redes sociais. "Passamos por um longo período colocando todo o conteúdo que produzíamos nas redes sociais, mudando nossa essência para atendê-las, o que às vezes não era nosso ponto forte nem o que os leitores precisavam. Em resumo, demos muito poder às redes sociais e permitimos que elas se voltassem contra nós e nos engolissem", disse o jornalista Nguyen Hoang Nhat.
Durante os dias em que a seleção feminina vietnamita competiu na Copa do Mundo, as redes sociais foram inundadas por fontes que disseminavam informações distorcidas e fabricadas. (Foto: VTC)
Ao analisar a ameaça atual da IA, o jornalista Nguyen Hoang Nhat afirmou que, em geral, a IA ajuda as redações a trabalharem mais rápido e a economizarem custos, mas também torna editores e repórteres mais complacentes, além de contribuir para a disseminação mais rápida de informações falsas. "Por exemplo, durante a recente Copa do Mundo Feminina, conteúdo falso sobre a seleção feminina vietnamita viralizou de forma alarmante por meio de memes criados com ferramentas baseadas em IA, levando o estado psicológico de uma parcela do público a extremos", exemplificou o jornalista Nguyen Hoang Nhat.
No exterior, a News Guard divulgou uma estatística alarmante: 347 sites de notícias que aparentam ser legítimos, mas estão repletos de conteúdo gerado por inteligência artificial e promovem desinformação. Um estudo recente do Instituto de Tecnologia de Massachusetts (MIT) constatou que as pessoas são mais propensas a acreditar em desinformação gerada por IA do que em notícias falsas produzidas por humanos.
Segundo o jornalista Nguyen Hoang Nhat, essa realidade coloca a indústria jornalística numa posição em que precisa encontrar maneiras de proteger seu conteúdo criativo e sua propriedade intelectual, mas não pode ignorar as facilidades que a IA proporciona.
Ao avaliar os desafios à honestidade das notícias, o Professor Associado Dr. Nguyen Ngoc Oanh afirmou que, embora o Chat GPT possua muitas funcionalidades excelentes, no fim das contas, trata-se apenas de uma ferramenta que os jornalistas devem aprender a dominar, utilizando-a para servir ao seu trabalho e criar conteúdo jornalístico de acordo com os princípios da profissão. A questão da verificação das fontes de informação dos repórteres e jornalistas é extremamente importante para que não contribuam para a disseminação de informações imprecisas.
Após diversos seminários e debates sobre inteligência artificial, concluiu-se que o risco de utilização de dados e notícias falsas em trabalhos jornalísticos é muito elevado se a gestão de conteúdo nas redações não acompanhar o desenvolvimento da tecnologia digital . Nesse contexto, em que o arcabouço legal para o jornalismo digital no Vietnã ainda não se adaptou à realidade, problemas jurídicos, ameaças à segurança da mídia, casos de violação de direitos autorais e controvérsias sobre ética jornalística e responsabilidade social da imprensa na aplicação do jornalismo automatizado representam grandes desafios na atualidade.
Phan Hoa Giang
Fonte






Comentário (0)