Für viele Zeitungen ist der Kommentarbereich ein großartiger Ort, an dem Leser unterschiedliche Gedanken, Erfahrungen und Perspektiven einbringen können. Allerdings kann er auch zu einem Nährboden für Negativität werden, da er Argumente und eine beleidigende Sprache enthält, die wertvolle Stimmen übertönen können.
Vor dieser Herausforderung stand Lucy Warwick-Ching, Community-Redakteurin der Financial Times. Die FT verfügt zwar über ein engagiertes Moderatorenteam, doch mit Hunderten von Artikeln pro Woche kann das Team nicht Schritt halten, und die meisten davon sind für Kommentare gesperrt. Sie beschlossen außerdem, alle Kommentarbereiche an Wochenenden zu schließen, um zu verhindern, dass toxische Diskussionen außer Kontrolle geraten, wenn niemand am Schreibtisch sitzt.
Die Einstellung zusätzlicher Moderatoren war zu teuer und der Aufbau eines eigenen Moderationssystems zu umständlich. Daher nutzte Warwick-Chings Team ein handelsübliches Moderationstool von Utopia Analytics, das anschließend anhand von 200.000 echten Leserkommentaren trainiert wurde, um höfliche, nicht-streitlustige und themenfremde Diskussionen zu erkennen.
KI-Tool erkennt sexistische und rassistische Kommentare trotz komplexer Sprache. Foto: Eidosmedia
Als das Tool erstmals zum Einsatz kam, musste die FT jeden freigegebenen Kommentar noch manuell prüfen. Es dauerte mehrere Monate, bis das Tool die richtigen Moderationsentscheidungen traf. Mittlerweile erkennt es die meisten sexistischen und rassistischen Kommentare, trotz der komplexen Sprache der FT-Leser.
„Es ist nicht perfekt und noch in Arbeit“, sagte Warwick-Ching sechs Monate später.
Dennoch sind die Auswirkungen erheblich. Früher verbrachten Moderatoren die meiste Zeit damit, negative Kommentare herauszufiltern. Jetzt übernimmt KI einen Großteil dieser Arbeit, sodass sich Moderatoren auf den Aufbau von Communities konzentrieren können.
Das KI-Tool moderiert nicht nur Kommentare effektiv, sondern ersetzt auch Menschen bei der Bearbeitung emotional verletzender Kommentare. KI absorbiert nun einen Großteil der Negativität, die von diesen Kommentaren ausgeht, und schützt so Menschen vor der Negativität.
Das Wichtigste sei jedoch, so Warwick-Ching, dass die Einführung des KI-Tools keine Moderatoren arbeitslos machen werde. „Von Anfang an, als wir das Moderationstool einführten, war uns klar, dass es nicht um Personalabbau ging, sondern darum, Moderatoren einen Raum zu geben, ihre Arbeit zu erledigen.“
Bisher hat das KI-Tool positive Ergebnisse erzielt. Leser haben per E-Mail berichtet, dass sie eine verbesserte Höflichkeit im Kommentarbereich bemerkt haben, und es gab keine nennenswerten Beschwerden über ungerechtfertigte Ablehnungen von Kommentaren.
Journalisten konnten zudem einen deutlichen Anstieg des Nutzens von Kommentaren feststellen, da wertvolle Leserbeiträge ihre Artikel bereichern. Sie stellten außerdem fest, dass Moderatoren sich durch den Einsatz von KI auf das konzentrieren können, was sie am besten können: einen einladenden und informativen Raum für alle zu schaffen.
Hoai Phuong (laut Journalismus)
[Anzeige_2]
Quelle: https://www.congluan.vn/cong-cu-ai-co-the-giup-cac-toa-soan-kiem-duyet-binh-luan-nhu-the-nao-post298847.html
Kommentar (0)