|
Miliony razy udostępniono liczne fałszywe filmy przedstawiające konflikt USA-Izrael z Iranem. Zdjęcie: CNN. |
Fala fałszywych filmów i obrazów generowanych przez sztuczną inteligencję zalała media społecznościowe w pierwszych tygodniach wojny w Iranie. Filmy te, przedstawiające potężne eksplozje, zniszczone miasta czy żołnierzy protestujących przeciwko wojnie, która w rzeczywistości nie istniała, potęgowały chaos i zamieszanie wokół wydarzeń online.
„The New York Times” zastosował metody sprawdzania łatwo rozpoznawalnych podpisów, czyli znaków wodnych, w plikach i skompilował dane z wielu źródeł. Wyniki pokazały, że ponad 110 obrazów i filmów wygenerowanych przez sztuczną inteligencję w ciągu ostatnich dwóch tygodni było związanych z konfliktem na Bliskim Wschodzie.
Bezprecedensowy poziom
Te sfabrykowane filmy obejmowały niemal każdy aspekt konfliktu, od scen panikujących Izraelczyków krzyczących po ataki rakietowe i torpedowe na amerykańskie okręty wojenne . Łącznie filmy te zostały wyświetlone miliony razy na platformach takich jak X, TikTok i Facebook, a także udostępnione w prywatnych wiadomościach.
Podobne treści pojawiały się również w innych konfliktach. Eksperci twierdzą jednak, że konflikt między USA a Izraelem i Iranem ma wiele frontów, co prowadzi do gwałtownego wzrostu liczby fałszywych treści.
|
Seria fałszywych filmów stworzonych przez sztuczną inteligencję. Zdjęcie: NYT. |
Marc Owen Jones, adiunkt analityki mediów na Uniwersytecie Northwestern w Katarze, powiedział, że sytuacja jest teraz zupełnie inna niż w czasie konfliktu na Ukrainie. „Prawdopodobnie widzimy więcej treści związanych ze sztuczną inteligencją niż kiedykolwiek wcześniej” – dodał.
Treści te stały się skuteczną bronią informacyjną Teheranu, mającą na celu osłabienie akceptacji wojny przez opinię publiczną. Według badania przeprowadzonego przez Cyabra, firmę zajmującą się analizą danych w mediach społecznościowych, większość filmów wideo o wojnie, tworzonych przez sztuczną inteligencję, ma charakter proirański, często wyolbrzymiając siłę i wyrafinowanie irańskiej armii.
Marc Owen Jones argumentuje, że wykorzystanie obrazów miejsc w Zatoce Perskiej, generowanych przez sztuczną inteligencję, ma coraz większe znaczenie w irańskiej strategii medialnej. „Ponieważ stwarza to wrażenie, że ta wojna jest bardziej brutalna i potencjalnie bardziej szkodliwa dla sojuszników USA, niż jest w rzeczywistości” – powiedział.
Jeden z najpopularniejszych fałszywych filmów w internecie, nakręcony z balkonu mieszkania w Tel Awiwie, przedstawiał panoramę miasta ostrzeliwaną pociskami, z flagą Izraela na pierwszym planie. Film zgromadził miliony wyświetleń i został udostępniony przez wiele osób wpływających na opinię publiczną oraz portale informacyjne.
|
Filmy z flagą Izraela na pierwszym planie są często fałszywe. Zdjęcie: NYT. |
Według ekspertów, pojawienie się flagi Izraela na pierwszym planie jest częstym znakiem rozpoznawczym filmów generowanych przez sztuczną inteligencję. Narzędzia AI często automatycznie dodają szczegóły, gdy użytkownicy wprowadzają opisy ataków rakietowych. Tymczasem prawdziwe filmy wojenne są zazwyczaj mniej dramatyczne. Pociski często pojawiają się jedynie jako odległe jasne punkty lub słupy dymu.
Nie podjęto żadnych środków zapobiegawczych.
W jednym przypadku fałszywe treści generowane przez sztuczną inteligencję odegrały istotną rolę w rozpowszechnianiu dezinformacji. 1 marca irańska marynarka wojenna ogłosiła, że skutecznie zaatakowała amerykański okręt CVN-72, co wywołało falę fałszywych obrazów generowanych przez sztuczną inteligencję.
Wielu irańskich użytkowników udostępniło i pochwaliło nagranie w internecie, uznając je za dowód na to, że irański kontratak zachwiał sojuszem. Jednak Stany Zjednoczone później zapewniły, że atak się nie powiódł, a okręt nie został uszkodzony.
|
Liczne sfałszowane filmy przedstawiają wydarzenia wojenne. Zdjęcie: NYT. |
Dziesiątki innych obrazów i filmów generowanych przez sztuczną inteligencję funkcjonują jako nowa forma cyfrowej propagandy, nie próbując nawet ukryć swojej sztuczności. Niektóre treści gloryfikują światowych przywódców, podczas gdy inne przedstawiają liderów opozycji w sposób odczłowieczający.
Według „New York Timesa” , firmy z branży mediów społecznościowych nie podjęły większych wysiłków, aby przeciwdziałać fali fałszywych filmów generowanych przez sztuczną inteligencję, która zalała ich platformy w zeszłym roku po wprowadzeniu licznych nowych narzędzi. Zazwyczaj użytkownicy mogą łatwo maskować lub usuwać znaki wodne wskazujące na fałszywe treści.
W zeszłym tygodniu platforma X ogłosiła, że tymczasowo zawiesi na 90 dni dzielenie się przychodami z kont publikujących generowane przez sztuczną inteligencję treści o „konflikcie zbrojnym” bez wyraźnego oznaczenia. Cyabra odkryła jednak, że wiele kont powiązanych z Iranem było zainteresowanych jedynie szerzeniem dezinformacji.
„W istocie media społecznościowe i sztuczna inteligencja stały się narzędziem wojny” – powiedziała Valerie Wirtschafter, pracownik naukowy Brookings Institution, specjalizująca się w polityce zagranicznej i sztucznej inteligencji.
Źródło: https://znews.vn/ai-lam-loan-cuoc-chien-iran-post1635050.html










Komentarz (0)