Para muitos jornais, a seção de comentários é um ótimo espaço para os leitores contribuírem com diversos pensamentos, experiências e perspectivas, mas também pode se tornar um terreno fértil para negatividade, com discussões e linguagem ofensiva que abafam vozes valiosas.
Esse foi o desafio enfrentado por Lucy Warwick-Ching, editora de comunidade do Financial Times. O FT possui uma equipe de moderação dedicada, mas com centenas de artigos publicados a cada semana, eles não conseguiam acompanhar o ritmo, e os comentários eram desativados na maioria deles. Eles também decidiram fechar todas as seções de comentários nos fins de semana para evitar que discussões tóxicas saíssem do controle quando não havia ninguém trabalhando.
Contratar moderadores adicionais era muito caro e construir um sistema de moderação próprio era muito trabalhoso. Então, a equipe de Warwick-Ching usou uma ferramenta de moderação pré-existente da Utopia Analytics, que foi treinada com 200.000 comentários reais de leitores para reconhecer discussões educadas, não argumentativas e fora do tópico.
Ferramenta de IA consegue identificar comentários sexistas e racistas, mesmo com linguagem complexa. Foto: Eidosmedia
Quando a ferramenta foi lançada, o Financial Times ainda precisava verificar manualmente cada comentário aprovado. Levou vários meses para que a ferramenta tomasse as decisões de moderação corretas. Agora, ela detecta a maioria dos comentários sexistas e racistas, apesar da linguagem complexa usada pelos leitores do FT.
“Não é perfeito e ainda está em fase de desenvolvimento”, disse Warwick-Ching após seis meses.
Ainda assim, o impacto é significativo. Antes, os moderadores passavam a maior parte do tempo filtrando comentários negativos. Agora, a IA realiza grande parte do trabalho pesado, permitindo que os moderadores se concentrem na construção de comunidades.
A ferramenta de IA não só é eficaz na moderação de comentários, como também substitui os humanos no trato com comentários emocionalmente prejudiciais. A IA agora absorve grande parte da negatividade proveniente desses comentários, protegendo os humanos dela.
O mais importante, segundo Warwick-Ching, é que a introdução de ferramentas de IA não significa que nenhum moderador ficará desempregado. "Desde o início, quando introduzimos a ferramenta de moderação, deixamos claro que não se tratava de reduzir a equipe, mas sim de criar um espaço para que os moderadores pudessem realizar seu trabalho."
Até o momento, a ferramenta de IA tem apresentado resultados positivos. Leitores enviaram e-mails relatando uma melhoria na civilidade dos comentários, e não houve reclamações significativas sobre comentários sendo rejeitados injustamente.
Os jornalistas também observaram um aumento significativo nos benefícios dos comentários, com valiosas contribuições dos leitores enriquecendo suas matérias. Além disso, constataram que o uso de IA permitiu que os moderadores se concentrassem no que fazem de melhor: promover um espaço acolhedor e informativo para as pessoas.
Hoai Phuong (de acordo com o Jornalismo)
Fonte: https://www.congluan.vn/cong-cu-ai-co-the-giup-cac-toa-soan-kiem-duyet-binh-luan-nhu-the-nao-post298847.html






Comentário (0)