Deepfake’i z wykorzystaniem sztucznej inteligencji, nagrania z gier wideo zamaskowane jako sceny z prawdziwych walk oraz dezinformacja generowana przez chatboty — wszystkie te formy dezinformacji wspomaganej technologią poważnie zniekształcają konflikt izraelsko-irański, podsycając wojnę narracyjną w mediach społecznościowych, która zaciemnia fakty.
Wojna informacyjna, tocząca się równolegle z potyczkami na ziemi — wywołanymi przez izraelskie ataki na irańskie obiekty nuklearne i dowództwo wojskowe — obnażyła głęboki kryzys cyfrowy w erze szybko rozwijających się narzędzi sztucznej inteligencji, które zacierają granicę między prawdą a zmyśleniem.
Eksperci twierdzą, że gwałtowny wzrost dezinformacji w konfliktach uwypuklił pilną potrzebę bardziej niezawodnych narzędzi do wykrywania i weryfikacji. Co niepokojące, duże platformy technologiczne łagodzą te zabezpieczenia, ograniczając moderację treści i zmniejszając zależność od weryfikatorów faktów.

W rozmowie z dziennikarzami Ken Jon Miyachi, założyciel firmy BitMindAI z siedzibą w Austin, powiedział, że świat jest świadkiem gwałtownego wzrostu dezinformacji generowanej przez sztuczną inteligencję, szczególnie w kontekście konfliktu irańsko-izraelskiego. Narzędzia te są wykorzystywane do manipulowania opinią publiczną, często wzmacniając podziały lub fałszywe narracje na niespotykaną dotąd skalę i z niespotykanym dotąd wyrafinowaniem.
GetReal Security, amerykańska firma specjalizująca się w wykrywaniu zmanipulowanych treści medialnych, zidentyfikowała również falę fałszywych filmów związanych z konfliktem izraelsko-irańskim.
Firma łączy niezwykle wizualne materiały wideo — przedstawiające przerażające sceny izraelskich samolotów i budynków zniszczonych przez konflikt, a także irańskie rakiety zamontowane na przyczepach — z generatorem sztucznej inteligencji Veo 3 firmy Google, który słynie z możliwości tworzenia hiperrealistycznych obrazów.
Hany Farid, współzałożyciel GetReal Security i profesor na Uniwersytecie Kalifornijskim w Berkeley (USA), podzielił się krótką wskazówką, która pomoże w rozpoznawaniu fałszywych obrazów stworzonych przez sztuczną inteligencję: filmy nagrane przez Veo 3 trwają zazwyczaj 8 sekund lub są kombinacją klipów o podobnej długości.
„To ośmiosekundowe ograniczenie oczywiście nie dowodzi, że film jest fałszywy, ale powinno być dobrym powodem, aby zatrzymać się i sprawdzić informacje przed ich udostępnieniem” – podkreślił.
Według pana Miyachi, eksperta BitMindAI, obecna sytuacja związana z rozpowszechnianiem fałszywych i nieprawdziwych treści w Internecie odzwierciedla głębszy kryzys – erozję zaufania do informacji cyfrowych.
W obliczu tej sytuacji podkreślił potrzebę opracowania skuteczniejszych narzędzi służących wykrywaniu fałszywych treści, poprawie znajomości mediów w społeczeństwie i promowaniu odpowiedzialnej roli platform technologicznych w utrzymaniu przejrzystości i zdrowego charakteru dyskusji publicznych./.
Source: https://www.vietnamplus.vn/ai-lam-nhieu-loan-thong-tin-ve-cuoc-xung-dot-israel-iran-nhu-the-nao-post1045593.vnp






Komentarz (0)