W wielu gazetach sekcja komentarzy stanowi doskonałe miejsce, w którym czytelnicy mogą dzielić się różnymi przemyśleniami, doświadczeniami i perspektywami, ale może też stać się siedliskiem negatywnych argumentów i obraźliwego języka, które zagłuszają wartościowe głosy.
Z takim wyzwaniem zmierzyła się Lucy Warwick-Ching, redaktor działu społecznościowego Financial Times. FT ma dedykowany zespół moderatorów, ale przy setkach artykułów publikowanych co tydzień, nie nadążali za tempem i komentarze do większości z nich zostały zamknięte. Zdecydowali się również na zamykanie wszystkich sekcji komentarzy w weekendy, aby uniknąć wymykania się spod kontroli toksycznych dyskusji, gdy nikogo nie ma przy biurku.
Zatrudnienie dodatkowych moderatorów było zbyt kosztowne, a zbudowanie własnego systemu moderacji – zbyt uciążliwe. Dlatego zespół Warwick-Ching skorzystał z istniejącego narzędzia moderacyjnego Utopia Analytics, które następnie zostało przeszkolone na podstawie 200 000 prawdziwych komentarzy czytelników, aby rozpoznawać dyskusje kulturalne, pozbawione argumentów i odbiegające od tematu.
Narzędzie oparte na sztucznej inteligencji potrafi identyfikować seksistowskie i rasistowskie komentarze, mimo że zawierają złożony język. Zdjęcie: Eidosmedia
Na początku działania narzędzia, FT musiało ręcznie sprawdzać każdy zatwierdzony komentarz. Podjęcie właściwych decyzji moderacyjnych zajęło narzędziu kilka miesięcy. Teraz wychwytuje większość seksistowskich i rasistowskich komentarzy, pomimo złożonego języka, którym posługują się czytelnicy FT.
„Nie jest to rozwiązanie idealne i ciągle nad nim pracujemy” – powiedziała Warwick-Ching po sześciu miesiącach.
Mimo to wpływ jest znaczący. Wcześniej moderatorzy spędzali większość czasu na filtrowaniu negatywnych komentarzy. Teraz większość ciężkiej pracy wykonuje sztuczna inteligencja, pozwalając moderatorom skupić się na budowaniu społeczności.
Narzędzie AI nie tylko skutecznie moderuje komentarze, ale także zastępuje ludzi w radzeniu sobie z komentarzami emocjonalnie szkodliwymi. Sztuczna inteligencja pochłania teraz znaczną część negatywnych emocji płynących z tych komentarzy, chroniąc ludzi przed nimi.
Co najważniejsze, Warwick-Ching twierdzi, że wprowadzenie narzędzi AI nie oznacza, że moderatorzy tracą pracę. „Od samego początku, kiedy wprowadzaliśmy narzędzie moderacyjne, jasno daliśmy do zrozumienia, że nie chodzi o redukcję personelu, ale o stworzenie przestrzeni, w której moderatorzy mogą wykonywać swoją pracę”.
Jak dotąd narzędzie oparte na sztucznej inteligencji przyniosło pozytywne rezultaty. Czytelnicy napisali e-maile, w których poinformowali o poprawie kultury komentarzy i braku znaczących skarg na niesłuszne odrzucanie komentarzy.
Dziennikarze zauważyli również znaczący wzrost korzyści płynących z komentarzy, a cenny wkład czytelników wzbogacał ich artykuły. Odkryli również, że wykorzystanie sztucznej inteligencji pozwoliło moderatorom skupić się na tym, co robią najlepiej: tworzeniu przyjaznej i informacyjnej przestrzeni dla ludzi.
Hoai Phuong (według dziennikarstwa)
Source: https://www.congluan.vn/cong-cu-ai-co-the-giup-cac-toa-soan-kiem-duyet-binh-luan-nhu-the-nao-post298847.html
Komentarz (0)