Para muchos periódicos, la sección de comentarios es un gran espacio para que los lectores contribuyan con pensamientos, experiencias y perspectivas diversas, pero también puede convertirse en un caldo de cultivo para la negatividad con argumentos y lenguaje ofensivo que pueden ahogar voces valiosas.
Este fue el reto al que se enfrentó Lucy Warwick-Ching, editora de la comunidad del Financial Times. El FT cuenta con un equipo de moderadores dedicado, pero con cientos de artículos publicados cada semana, no pueden seguir el ritmo, y la mayoría de ellos están cerrados a los comentarios. También decidieron cerrar todas las secciones de comentarios los fines de semana para evitar que las discusiones tóxicas se descontrolen cuando nadie está en sus escritorios.
Contratar moderadores adicionales era demasiado costoso y desarrollar su propio sistema de moderación era demasiado engorroso. Por ello, el equipo de Warwick-Ching utilizó una herramienta de moderación estándar de Utopia Analytics, que posteriormente se entrenó con 200.000 comentarios de lectores reales para reconocer discusiones educadas, sin polémica y fuera de tema.
Una herramienta de IA puede identificar comentarios sexistas y racistas, incluso con un lenguaje complejo. Foto: Eidosmedia
Cuando la herramienta se empezó a utilizar, el FT aún tenía que revisar manualmente cada comentario que aprobaba. Tardó varios meses en tomar las decisiones de moderación correctas. Ahora detecta la mayoría de los comentarios sexistas y racistas, a pesar del lenguaje complejo que utilizan los lectores del FT.
"No es perfecto y todavía es un trabajo en progreso", dijo Warwick-Ching seis meses después.
Aun así, el impacto es significativo. Antes, los moderadores dedicaban la mayor parte de su tiempo a filtrar comentarios negativos. Ahora, la IA se encarga de gran parte del trabajo pesado, lo que permite a los moderadores centrarse en construir comunidades.
La herramienta de IA no solo es eficaz para moderar comentarios, sino que también reemplaza a los humanos en la gestión de comentarios emocionalmente dañinos. La IA ahora absorbe gran parte de la negatividad que proviene de esos comentarios, protegiendo a los humanos de ella.
Lo más importante, Warwick-Ching afirma que la introducción de la herramienta de IA no dejará sin trabajo a ningún moderador. «Desde el principio, cuando introdujimos la herramienta de moderación, tuvimos claro que no se trataba de reducir personal, sino de crear un espacio para que los moderadores pudieran realizar su trabajo».
Hasta ahora, la herramienta de IA ha dado resultados positivos. Los lectores han enviado correos electrónicos para indicar que han notado una mayor civilidad en la sección de comentarios y no ha habido quejas significativas sobre rechazos injustos de comentarios.
Los periodistas también han observado un aumento significativo en los beneficios de los comentarios, ya que las valiosas aportaciones de los lectores enriquecen sus historias. Además, han descubierto que el uso de IA permite a los moderadores centrarse en lo que mejor saben hacer: fomentar un espacio acogedor e informativo para todos.
Hoai Phuong (según Periodismo)
[anuncio_2]
Fuente: https://www.congluan.vn/cong-cu-ai-co-the-giup-cac-toa-soan-kiem-duyet-binh-luan-nhu-the-nao-post298847.html
Kommentar (0)