Для багатьох газет розділ коментарів є чудовим простором для читачів, де вони можуть поділитися різноманітними думками, досвідом та поглядами, але він також може стати розсадником негативу з суперечками та образливою мовою, що заглушає цінні голоси.
З таким викликом зіткнулася редакторка спільноти Financial Times Люсі Ворвік-Чінг. У FT є спеціальна команда модераторів, але з сотнями статей, що публікуються щотижня, вони не можуть встигати за темпом, і коментарі до більшості з них були закриті. Вони також вирішили закривати всі розділи коментарів у вихідні, щоб уникнути виходу з-під контролю токсичних дискусій, коли нікого немає за робочими місцями.
Наймання додаткових модераторів було занадто дорогим, а створення власної системи модерації — надто громіздким. Тож команда Ворвік-Чінг використала вже існуючий інструмент модерації від Utopia Analytics, який потім був навчений на 200 000 реальних коментарях читачів, щоб розпізнавати ввічливі, не суперечливі та не за темою обговорення.
Інструмент штучного інтелекту може розпізнавати сексистські та расистські коментарі, незважаючи на складну мову. Фото: Eidosmedia
Коли інструмент вперше запустили, FT все ще доводилося вручну перевіряти кожен схвалений коментар. Знадобилося кілька місяців, щоб інструмент приймав правильні рішення щодо модерації. Зараз він виявляє більшість сексистських та расистських коментарів, незважаючи на складну мову, яку використовують читачі FT.
«Це не ідеально, і це все ще робота в процесі», – сказав Ворвік-Чінг через шість місяців.
Тим не менш, вплив значний. Раніше модератори витрачали більшу частину свого часу на фільтрацію негативних коментарів. Тепер штучний інтелект виконує значну частину важкої роботи, дозволяючи модераторам зосередитися на побудові спільнот.
Інструмент штучного інтелекту не лише ефективний у модерації коментарів, але й замінює людей у роботі з емоційно шкідливими коментарями. Штучний інтелект тепер поглинає значну частину негативу, який виходить від цих коментарів, захищаючи людей від нього.
Найголовніше, за словами Ворвік-Чінг, впровадження інструментів штучного інтелекту не означає, що будь-хто з модераторів втратить роботу. «З самого початку, коли ми запровадили інструмент модерації, ми чітко дали зрозуміти, що йдеться не про скорочення штату, а про створення простору для модераторів, щоб вони могли виконувати свою роботу».
Поки що інструмент штучного інтелекту дав позитивні результати. Читачі написали електронні листи, в яких повідомляли, що помітили покращення ввічливості коментарів, і не було жодних суттєвих скарг на несправедливе відхилення коментарів.
Журналісти також помітили значне збільшення переваг коментарів, оскільки цінний внесок читачів збагатив їхні історії. Вони також виявили, що використання штучного інтелекту дозволило модераторам зосередитися на тому, що вони роблять найкраще: створенні гостинного та інформативного простору для людей.
Хоай Фуонг (за матеріалами Journalism)
Джерело: https://www.congluan.vn/cong-cu-ai-co-the-giup-cac-toa-soan-kiem-duyet-binh-luan-nhu-the-nao-post298847.html
Коментар (0)