Algorytm podżegania do nienawiści
Algorytmy mediów społecznościowych nie służą już tylko do sugerowania treści rozrywkowych, ale także do wzmacniania mowy nienawiści i ideologii ekstremistycznych. Sekretarz generalny ONZ António Guterres ostrzegł, że niektóre platformy mediów społecznościowych stały się „toksycznymi wysypiskami śmieci” wypełnionymi mową nienawiści i dezinformacją, co sprzyja rozprzestrzenianiu się ekstremizmu.
Badania pokazują, że w ciągu zaledwie kilku dni algorytmy rekomendacji mogą zaostrzyć problem. Na przykład, badanie przeprowadzone w Wielkiej Brytanii wykazało, że algorytm TikToka czterokrotnie zwiększył liczbę rekomendacji treści mizoginistycznych, z 13% do 56% filmów, w ciągu zaledwie pięciu dni.
Naukowcy wyjaśniają, że algorytm automatycznie koncentruje się na słabych stronach użytkowników (takich jak poczucie osamotnienia, utraty kontroli, nienawiści), zmieniając treści ekstremistyczne w atrakcyjną „rozrywkę”, która ma przyciągnąć widzów.
Teraz w mediach społecznościowych nawet drobne informacje lub bezpodstawne plotki mogą łatwo stać się przyczyną przemocy. Typowym przykładem są zamieszki w Wielkiej Brytanii w 2024 roku. Po ataku w Southport, fałszywe plotki o podejrzanym – że był muzułmaninem lub uchodźcą – szybko rozprzestrzeniły się w mediach społecznościowych, wraz z treściami antymuzułmańskimi i antyimigranckimi. Według raportu amerykańskiego General Accounting Office (GAO) z 2024 roku, prawie jedna trzecia użytkowników internetu zetknęła się z mową nienawiści w sieci.
W szczególności ostatnio doszło do serii poważnych protestów i zamieszek wywołanych przez pokolenie Z i studentów w różnych krajach – od Azji i Afryki po Amerykę Łacińską – wszystkie one były inicjowane i podżegane na platformach mediów społecznościowych, a ich scenariusz był niemal identyczny: wykorzystywano problem, a następnie podburzano całe społeczeństwo.

Większość świata pogrążona jest w „złudzeniu”
Sytuacja wymyka się spod kontroli wraz z eksplozją sztucznej inteligencji (AI), która pozwala niemal każdemu tworzyć „fabrykę fake newsów” na niespotykaną dotąd skalę i z niespotykaną dotąd szybkością. Modele AI, takie jak GPT, Claude czy LLaMA, potrafią automatycznie generować serię zniekształconych artykułów, obrazów i filmów w ułamku sekundy. System botów opartych na AI może jednocześnie tworzyć i udostępniać tysiące postów lub komentarzy, przekształcając fake newsy i toksyczne informacje w „trendy” online.
Badanie przeprowadzone przez amerykański Uniwersytet RIT wykazało: „Sztuczna inteligencja bardzo szybko rozpowszechnia wszelkiego rodzaju dezinformacje… Boty oparte na sztucznej inteligencji mogą rozprzestrzeniać te treści w internecie, ponieważ nie muszą polegać na ludziach, którzy je tworzą”.
Dziś, za zaledwie kilkadziesiąt dolarów miesięcznie za narzędzie oparte na sztucznej inteligencji, użytkownik może stworzyć tysiące fałszywych obrazów i filmów, prezentujących wszystko – od głosów, przez zdjęcia, po filmy. Poziom wyrafinowania i powszechność tego zjawiska jest tak wysoki, że wszyscy zastanawiamy się: czy to, co widzimy w mediach społecznościowych, jest generowane przez sztuczną inteligencję?
Ironią jest jednak to, że większość świata jest zanurzona w tym „wirtualnym” świecie godzinami, każdego dnia – wręcz czerpiąc z niego przyjemność niczym z „uzależnienia”. Według raportu „Digital 2025”, około 5,2–5,6 miliarda ludzi korzysta z sieci społecznościowych, co stanowi 64% światowej populacji. Średni czas korzystania z sieci społecznościowych przez każdą osobę oscyluje wokół 2 godzin i 20 minut dziennie.
Potrzeba kontroli nad bombami atomowymi
W obliczu coraz bardziej tanich i niebezpiecznych metod produkcji fake newsów i dezinformacji, kontrola nad treściami w internecie praktycznie wymknęła się spod ludzkiej kontroli. Ekspert technologiczny Lukasz Olejnik z King's College London (Wielka Brytania) skomentował: „Z miesiąca na miesiąc fabryki [fake newsów] stają się tańsze, bardziej inteligentne i trudniejsze do wykrycia”.
Tymczasem badanie RAND z 2024 r. wykazało, że perspektywa „wypełnienia internetu” fałszywymi kontami w mediach społecznościowych przez sztuczną inteligencję jest oczywista i niemal nieunikniona, jeśli nie zostanie wprowadzona żadna sztuczka.
Technologia jądrowa była niegdyś wielkim wynalazkiem ludzkości, podobnie jak media społecznościowe. Jednak pozostawiona bez kontroli, może doprowadzić do katastrofy. Podobnie, jeśli media społecznościowe, sztuczna inteligencja i algorytmy wzmacniające zostaną pozostawione samym sobie, mogą zdetonować „bomby atomowe” w cyberprzestrzeni – i być wystarczająco potężne, by zniszczyć realny świat.
Source: https://congluan.vn/mang-xa-hoi-ai-va-thuat-toan-khuech-dai-su-ket-hop-nguyen-tu-dang-lam-dao-lon-the-gioi-10317608.html






Komentarz (0)