Pour de nombreux journaux, la section des commentaires est un excellent espace permettant aux lecteurs de partager des idées, des expériences et des points de vue divers, mais elle peut aussi devenir un terrain fertile pour la négativité, avec des arguments et un langage offensant qui étouffent les voix importantes.
C’est le défi auquel était confrontée Lucy Warwick-Ching, responsable de la communauté au Financial Times. Le FT dispose d’une équipe de modération dédiée, mais avec des centaines d’articles publiés chaque semaine, elle était débordée et les commentaires ont dû être désactivés sur la plupart d’entre eux. Le journal a également décidé de fermer toutes les sections de commentaires le week-end afin d’éviter que les discussions houleuses ne dégénèrent en l’absence de modérateurs.
L'embauche de modérateurs supplémentaires s'avérait trop coûteuse et la création d'un système de modération interne trop complexe. L'équipe de Warwick-Ching a donc utilisé un outil de modération existant d'Utopia Analytics, qu'elle a ensuite entraîné sur 200 000 commentaires de lecteurs réels afin de reconnaître les discussions polies, non conflictuelles et hors sujet.
Un outil d'IA peut identifier les commentaires sexistes et racistes, même dans un langage complexe. Photo : Eidosmedia
Au lancement de l'outil, le Financial Times devait encore vérifier manuellement chaque commentaire approuvé. Il a fallu plusieurs mois pour que l'outil prenne les bonnes décisions de modération. Il repère désormais la plupart des commentaires sexistes et racistes, malgré la complexité du langage utilisé par les lecteurs du FT.
« Ce n’est pas parfait et c’est encore un travail en cours », a déclaré Warwick-Ching après six mois.
L'impact est néanmoins considérable. Auparavant, les modérateurs consacraient l'essentiel de leur temps à filtrer les commentaires négatifs. Désormais, l'IA prend en charge une grande partie de cette tâche, ce qui leur permet de se concentrer sur le développement des communautés.
Non seulement cet outil d'IA est efficace pour modérer les commentaires, mais il remplace également les humains dans la gestion des commentaires émotionnellement blessants. L'IA absorbe désormais une grande partie de la négativité qui se dégage de ces commentaires, protégeant ainsi les humains de ses effets néfastes.
Plus important encore, Warwick-Ching affirme que l'introduction des outils d'IA ne signifie pas que des modérateurs perdront leur emploi. « Dès le départ, lors de la mise en place de l'outil de modération, nous avons clairement indiqué qu'il ne s'agissait pas de réduire les effectifs, mais de créer un environnement permettant aux modérateurs de faire leur travail. »
Jusqu’à présent, l’outil d’IA a donné des résultats positifs. Des lecteurs ont signalé par courriel avoir constaté une amélioration du respect dans les commentaires, et aucun cas important de rejet injustifié de commentaires n’a été recensé.
Les journalistes ont également constaté une nette amélioration grâce aux commentaires, les précieux apports des lecteurs enrichissant leurs articles. Ils ont aussi observé que l'utilisation de l'IA permettait aux modérateurs de se concentrer sur leur mission première : créer un espace accueillant et informatif pour tous.
Hoai Phuong (selon le journalisme)
Source : https://www.congluan.vn/cong-cu-ai-co-the-giup-cac-toa-soan-kiem-duyet-binh-luan-nhu-the-nao-post298847.html






Comment (0)