Für viele Zeitungen ist der Kommentarbereich ein großartiger Ort für Leser, um unterschiedliche Gedanken, Erfahrungen und Perspektiven beizutragen; er kann aber auch zu einem Nährboden für Negativität werden, mit Streitereien und beleidigender Sprache, die wertvolle Stimmen übertönt.
Vor dieser Herausforderung stand Lucy Warwick-Ching, Community-Redakteurin der Financial Times. Die FT verfügt zwar über ein eigenes Moderationsteam, doch bei Hunderten von Artikeln, die wöchentlich veröffentlicht werden, konnte dieses mit dem Tempo nicht mithalten, weshalb die Kommentarfunktion bei den meisten Artikeln deaktiviert wurde. Um zu verhindern, dass hitzige Diskussionen außer Kontrolle geraten, wenn niemand anwesend ist, beschloss man außerdem, die Kommentarfunktion am Wochenende komplett zu sperren.
Die Einstellung zusätzlicher Moderatoren war zu teuer, und der Aufbau eines eigenen Moderationssystems zu aufwendig. Daher nutzte Warwick-Chings Team ein bereits vorhandenes Moderationstool von Utopia Analytics, das mit 200.000 echten Leserkommentaren trainiert wurde, um höfliche, sachliche und themenfremde Diskussionen zu erkennen.
Ein KI-Tool kann sexistische und rassistische Kommentare trotz komplexer Sprache erkennen. Foto: Eidosmedia
Als das Tool eingeführt wurde, musste die Financial Times noch jeden freigegebenen Kommentar manuell prüfen. Es dauerte mehrere Monate, bis das Tool die richtigen Moderationsentscheidungen traf. Mittlerweile erkennt es die meisten sexistischen und rassistischen Kommentare, trotz der komplexen Sprache, die die Leser der Financial Times verwenden.
„Es ist nicht perfekt und es ist noch ein laufender Prozess“, sagte Warwick-Ching nach sechs Monaten.
Dennoch ist der Einfluss erheblich. Früher verbrachten Moderatoren den Großteil ihrer Zeit damit, negative Kommentare herauszufiltern. Jetzt übernimmt KI einen Großteil dieser Arbeit, sodass sich Moderatoren auf den Aufbau von Communitys konzentrieren können.
Das KI-Tool moderiert Kommentare nicht nur effektiv, sondern ersetzt auch Menschen im Umgang mit emotional verletzenden Kommentaren. Die KI filtert einen Großteil der Negativität aus diesen Kommentaren heraus und schützt so die Menschen davor.
Am wichtigsten ist laut Warwick-Ching, dass die Einführung von KI-Tools nicht bedeutet, dass Moderatoren ihren Job verlieren. „Von Anfang an, als wir das Moderationstool eingeführt haben, haben wir klargestellt, dass es nicht darum geht, Personal abzubauen, sondern darum, Moderatoren einen Raum zu geben, in dem sie ihre Arbeit erledigen können.“
Bislang hat das KI-Tool positive Ergebnisse geliefert. Leser haben per E-Mail mitgeteilt, dass sie eine verbesserte Höflichkeit in den Kommentaren festgestellt haben, und es gab keine nennenswerten Beschwerden über ungerechtfertigte Ablehnungen von Kommentaren.
Journalisten verzeichneten zudem einen deutlichen Anstieg der Vorteile von Kommentaren, da wertvolles Feedback der Leser ihre Artikel bereicherte. Sie stellten außerdem fest, dass der Einsatz von KI es Moderatoren ermöglichte, sich auf ihre Kernkompetenz zu konzentrieren: die Schaffung eines einladenden und informativen Umfelds für die Nutzer.
Hoai Phuong (laut Journalismus)
Quelle: https://www.congluan.vn/cong-cu-ai-co-the-giup-cac-toa-soan-kiem-duyet-binh-luan-nhu-the-nao-post298847.html






Kommentar (0)