Riscos potenciais na disseminação de desinformação
A ciência e a tecnologia não só afetam a maneira como a imprensa e a mídia transmitem suas mensagens, influenciam e influenciam a forma e a eficácia do acesso público, mas também impactam profundamente a qualidade da informação.
De fato, o jornalismo tem se adaptado rapidamente à inovação tecnológica, especialmente nos últimos anos. A Inteligência Artificial (IA) tem se popularizado gradualmente na mídia de massa e nas redações de agências de notícias. A aplicação da IA trouxe benefícios tanto para jornalistas quanto para organizações de mídia. Ela libera os jornalistas de tarefas diárias tediosas, ajudando-os a economizar tempo e a se concentrar em trabalhos mais criativos e qualificados.
Embora a IA tenha muitos benefícios, ela também levanta algumas preocupações. Um dos riscos mais significativos é o potencial de conteúdo gerado por IA disseminar informações falsas.
As 10 maiores agências de notícias do mundo estão pedindo negociações coletivas e transparentes entre veículos de comunicação e desenvolvedores de IA para controlar quais materiais protegidos por direitos autorais podem ser usados no treinamento de ferramentas de IA, bem como eliminar vieses em algoritmos de IA.
Na semana passada, 10 das principais agências de notícias do mundo assinaram uma carta pedindo transparência e leis claras de direitos autorais contra a IA. As agências de notícias argumentaram que a IA tem o potencial de "ameaçar a sustentabilidade do ecossistema da mídia", minando significativamente a confiança dos leitores na qualidade e integridade das notícias.
De acordo com diversos estudos, a IA pode ser usada para filtrar e selecionar notícias com maior probabilidade de atrair e engajar leitores, criando assim um desequilíbrio nas notícias que não existiria se as notícias fossem apresentadas de forma objetiva e produzida por humanos. O público é exposto a apenas um lado da história e, portanto, pode ser orientado por informações unilaterais geradas pela IA. Além disso, a IA pode ser usada para disseminar desinformação e notícias falsas ao público, apresentando histórias inventadas ao lado de histórias reais.
A IA também pode ser vulnerável a notícias falsas. Os algoritmos de IA são projetados para processar dados com rapidez e precisão, o que significa que é difícil distinguir entre notícias reais e falsas. Além disso, a IA não é capaz de compreender as implicações emocionais e morais das notícias que processa. À medida que a IA avança, sua vulnerabilidade a notícias falsas aumentará, tornando ainda mais difícil distinguir entre o que é real e o que é falso.
De acordo com o Professor Associado Dr. Nguyen Ngoc Oanh, Chefe da Faculdade de Relações Internacionais da Academia de Jornalismo e Comunicação, quando a IA se torna poderosa, é também o momento em que precisamos prestar atenção especial e ser proativos diante do risco de criminosos e forças hostis usarem a IA para disseminar notícias falsas e prejudiciais. Da perspectiva da segurança da mídia, isso demonstra o risco potencial de desinformação, distorção e notícias falsas. Uma vez aplicada à inteligência artificial no campo da informação, a tecnologia pode ajudar a falsificar vozes, imagens, criar histórias e declarações falsas que parecem reais para enganar o público, especialmente nas redes sociais.
"Pessoas mal intencionadas se aproveitam do papel e do prestígio da imprensa para falsificar informações, enganando o público, fazendo-as acreditar que se trata de informações fornecidas e divulgadas pela imprensa. O desenvolvimento de notícias falsas se tornará mais sofisticado e complexo e, portanto, além do aumento da vigilância, os métodos de identificação, resposta e tratamento de notícias falsas devem se concentrar em investir em tecnologia inteligente e em seu tratamento sistemático. A capacidade da gestão social e da agência de notícias precisa ser aprimorada para se adaptar às mudanças", comentou o Professor Associado, Dr. Nguyen Ngoc Oanh.
A indústria de notícias deve encontrar maneiras de proteger seu conteúdo criativo.
Desde o lançamento do ChatGPT em novembro de 2022, novas aplicações baseadas em IA Generativa têm sido implantadas quase diariamente. Como resultado, a internet se encheu de conteúdo gerado por IA. Embora haja alguns conteúdos impressionantes, também há muito conteúdo sem graça e repetitivo. Isso facilita a disseminação de desinformação e sobrecarrega a indústria da mídia na tarefa de construir e restaurar a confiança dos leitores.
O jornalista Nguyen Hoang Nhat, editor-chefe adjunto do jornal Vietnamplus, relembrou lições do passado, quando muitos especialistas afirmavam que um dos primeiros grandes erros da imprensa foi reagir com muita lentidão à importância e à invasão das redes sociais. "Passamos por um longo período colocando todo o conteúdo que produzimos nas redes sociais, mudando nossos principais objetivos para atendê-las, o que às vezes não é o nosso ponto forte nem o que os leitores precisam. Em suma, demos muito poder às redes sociais e fizemos com que elas se voltassem contra nós e nos engolissem", disse o jornalista Nguyen Hoang Nhat.
Durante os dias em que a seleção feminina vietnamita competiu na Copa do Mundo, as redes sociais estavam repletas de fontes espalhando informações distorcidas e fabricadas. (Foto: VTC)
Analisando a ameaça atual da IA, o jornalista Nguyen Hoang Nhat afirmou que, em geral, a IA ajuda as redações a trabalhar mais rápido e a economizar custos, mas tornará editores e repórteres mais tolerantes, além de contribuir para a disseminação mais rápida de informações falsas. "Por exemplo, durante a recente Copa do Mundo Feminina, conteúdo falso sobre a seleção vietnamita se tornou terrivelmente "viral" por meio de memes criados com ferramentas baseadas em IA, levando a psicologia geral de um segmento do público a extremos", exemplificou o jornalista Nguyen Hoang Nhat.
No exterior, a News Guard divulgou uma estatística alarmante: 347 sites de notícias que parecem legítimos, mas estão repletos de conteúdo gerado por IA e promovem desinformação. Um estudo recente do Instituto de Tecnologia de Massachusetts (MIT) descobriu que as pessoas são mais propensas a acreditar em desinformação gerada por IA do que em notícias falsas geradas por humanos.
De acordo com o jornalista Nguyen Hoang Nhat, essa realidade coloca a indústria de notícias em uma posição em que ela deve encontrar maneiras de proteger seu conteúdo criativo e propriedade intelectual, mas não pode ignorar as conveniências que a IA traz.
Avaliando os desafios da honestidade das notícias, o Professor Associado Dr. Nguyen Ngoc Oanh afirmou que, embora o Chat GPT tenha muitos recursos excelentes, no fim das contas, é apenas uma ferramenta que os jornalistas devem aprender a dominar e utilizá-la em suas atividades de trabalho para criar trabalhos e produtos de imprensa de acordo com os princípios da profissão. A questão da verificação das fontes de informação de repórteres e jornalistas é extremamente importante se eles não quiserem "ajudar" na disseminação de informações imprecisas.
Por meio de diversos seminários e discussões sobre inteligência artificial, concluiu-se que o risco de utilização de dados e notícias falsas em trabalhos jornalísticos é muito alto se a gestão de conteúdo na redação não acompanhar o desenvolvimento da tecnologia digital . Considerando que o cenário jurídico para o jornalismo digital no Vietnã ainda não acompanhou a realidade, problemas legais, ameaças à segurança da mídia, casos de violação de direitos autorais e controvérsias sobre ética jornalística e responsabilidade social da imprensa na aplicação do jornalismo automatizado... são grandes desafios hoje.
Phan Hoa Giang
[anúncio_2]
Fonte
Comentário (0)