Voor veel kranten is de sectie met reacties een geweldige plek waar lezers uiteenlopende gedachten, ervaringen en perspectieven kunnen delen. Het kan echter ook een broedplaats voor negativiteit worden, met argumenten en beledigende taal die waardevolle stemmen overstemmen.
Dit was de uitdaging waar Lucy Warwick-Ching, community-redacteur bij de Financial Times, voor stond. De Financial Times heeft een toegewijd moderatieteam, maar met honderden artikelen die wekelijks worden gepubliceerd, konden ze het tempo niet bijhouden en werden reacties op de meeste ervan gesloten. Ze besloten ook alle reactiesecties in het weekend te sluiten om te voorkomen dat giftige discussies uit de hand liepen wanneer er niemand achter hun bureau zat.
Het inhuren van extra moderators was te duur en het opzetten van een eigen moderatiesysteem was te omslachtig. Daarom gebruikte Warwick-Chings team een bestaande moderatietool van Utopia Analytics, die vervolgens werd getraind met 200.000 reacties van echte lezers om beleefde, niet-argumentatieve en off-topic discussies te herkennen.
AI-tool kan seksistische en racistische opmerkingen identificeren, ondanks complexe taal. Foto: Eidosmedia
Toen de tool net van start ging, moest de FT nog handmatig elke goedgekeurde reactie controleren. Het duurde enkele maanden voordat de tool de juiste moderatiebeslissingen nam. Nu detecteert de tool de meeste seksistische en racistische reacties, ondanks de complexe taal die FT-lezers gebruiken.
"Het is niet perfect en er wordt nog steeds aan gewerkt", zei Warwick-Ching na zes maanden.
Toch is de impact aanzienlijk. Voorheen besteedden moderators het grootste deel van hun tijd aan het filteren van negatieve reacties. Nu doet AI een groot deel van het zware werk, waardoor moderators zich kunnen richten op het opbouwen van communities.
De AI-tool is niet alleen effectief in het modereren van reacties, maar vervangt ook mensen bij het omgaan met emotioneel schadelijke reacties. AI absorbeert nu een groot deel van de negativiteit die uit die reacties voortkomt en beschermt mensen tegen die negativiteit.
Het allerbelangrijkste, zegt Warwick-Ching, is dat de introductie van AI-tools niet betekent dat moderators hun baan verliezen. "Vanaf het begin, toen we de moderatietool introduceerden, hebben we duidelijk gemaakt dat het niet ging om het verminderen van personeel, maar om het creëren van een ruimte waar moderators hun werk kunnen doen."
Tot nu toe heeft de AI-tool positieve resultaten opgeleverd. Lezers hebben e-mails gestuurd waarin ze aangeven dat ze een verbeterde beleefdheid in reacties hebben opgemerkt, en er zijn geen noemenswaardige klachten binnengekomen over onterecht afgewezen reacties.
Journalisten zagen ook een aanzienlijke toename in de voordelen van reacties, met waardevolle input van lezers die hun verhalen verrijkte. Ze ontdekten ook dat de inzet van AI moderators in staat stelde zich te concentreren op waar ze het beste in zijn: het creëren van een gastvrije en informatieve omgeving voor mensen.
Hoai Phuong (volgens journalistiek)
Bron: https://www.congluan.vn/cong-cu-ai-co-the-giup-cac-toa-soan-kiem-duyet-binh-luan-nhu-the-nao-post298847.html
Reactie (0)