Pentru multe ziare, secțiunea de comentarii este un spațiu excelent pentru cititori care își pot exprima gândurile, experiențele și perspectivele diverse, dar poate deveni și un teren fertil pentru negativitate, cu argumente și limbaj jignitor care îneacă vocile valoroase.
Aceasta a fost provocarea cu care s-a confruntat Lucy Warwick-Ching, redactorul comunitar al Financial Times. FT are o echipă dedicată de moderare, dar cu sute de articole publicate în fiecare săptămână, nu au putut ține pasul, iar comentariile au fost închise pentru majoritatea dintre ele. De asemenea, au decis să închidă toate secțiunile de comentarii în weekenduri pentru a evita ca discuțiile toxice să scape de sub control atunci când nimeni nu era la birourile lor.
Angajarea unor moderatori suplimentari era prea costisitoare, iar construirea propriului sistem de moderare era prea greoaie. Așadar, echipa lui Warwick-Ching a folosit un instrument de moderare preexistent de la Utopia Analytics, care a fost apoi antrenat pe baza a 200.000 de comentarii reale ale cititorilor pentru a recunoaște discuțiile politicoase, non-certative și în afara subiectului.
Instrumentul de inteligență artificială poate identifica comentariile sexiste și rasiste, în ciuda limbajului complex. Foto: Eidosmedia
Când instrumentul a fost lansat pentru prima dată, FT trebuia să verifice manual fiecare comentariu aprobat. A fost nevoie de câteva luni pentru ca instrumentul să ia deciziile corecte de moderare. Acum, acesta detectează majoritatea comentariilor sexiste și rasiste, în ciuda limbajului complex folosit de cititorii FT.
„Nu este perfect și este încă în lucru”, a spus Warwick-Ching după șase luni.
Totuși, impactul este semnificativ. Anterior, moderatorii își petreceau cea mai mare parte a timpului filtrând comentariile negative. Acum, inteligența artificială face o mare parte din munca grea, permițându-le moderatorilor să se concentreze pe construirea de comunități.
Instrumentul de inteligență artificială nu este doar eficient în moderarea comentariilor, ci îl înlocuiește și pe om în gestionarea comentariilor dăunătoare din punct de vedere emoțional. Inteligența artificială absoarbe acum o mare parte din negativitatea provenită din aceste comentarii, protejând oamenii de negativitate.
Cel mai important, Warwick-Ching spune că introducerea instrumentelor de inteligență artificială nu înseamnă că vreun moderator este fără loc de muncă. „Încă de la început, când am introdus instrumentul de moderare, am precizat clar că nu este vorba despre reducerea personalului, ci despre crearea unui spațiu în care moderatorii să își poată face treaba.”
Până acum, instrumentul de inteligență artificială a dat rezultate pozitive. Cititorii au trimis e-mailuri pentru a spune că au observat o îmbunătățire a politeții în comentarii și nu au existat reclamații semnificative cu privire la respingerea pe nedrept a comentariilor.
Jurnaliștii au observat, de asemenea, o creștere semnificativă a beneficiilor comentariilor, contribuțiile valoroase ale cititorilor îmbogățindu-le articolele. De asemenea, au descoperit că utilizarea inteligenței artificiale le-a permis moderatorilor să se concentreze asupra a ceea ce fac cel mai bine: să creeze un spațiu primitor și informativ pentru oameni.
Hoai Phuong (conform Jurnalism)
Sursă: https://www.congluan.vn/cong-cu-ai-co-the-giup-cac-toa-soan-kiem-duyet-binh-luan-nhu-the-nao-post298847.html
Comentariu (0)