A mesterséges intelligencia által létrehozott deepfake képek, a valódi harcjeleneteknek álcázott videojáték-felvételek és a chatbotok által generált félretájékoztatás – a technológia által vezérelt dezinformáció ezen formái súlyosan torzítják az izraeli-iráni konfliktust. Narratív háborút táplálnak a közösségi média platformjain, elfedve a tényszerű információkat.
Az információs háború, amely a szárazföldi harcokkal párhuzamosan bontakozott ki – és amely az iráni nukleáris létesítmények és katonai vezetők elleni izraeli támadásokat követően robbant ki – mély digitális válságot tárt fel egy olyan korban, amikor a gyorsan fejlődő mesterséges intelligencia eszközök elmossák az igazság és a hazugság közötti határvonalat.
A szakértők úgy vélik, hogy a konfliktusok során robbanásszerűen terjedő félretájékoztatás rávilágított a hatékonyabb felderítő és ellenőrző eszközök sürgős szükségességére. Aggasztó módon a nagyobb technológiai platformok lazítják a biztonsági intézkedéseket a tartalomcenzúra és a tényellenőrzőkre való támaszkodás csökkentésével.

A sajtónak nyilatkozva Ken Jon Miyachi, az egyesült államokbeli Austinban működő BitMindAI alapítója elmondta, hogy a világ a mesterséges intelligencia által generált félretájékoztatás drámai növekedésének tanúja, különösen az iráni-izraeli konfliktust illetően. Ezeket az eszközöket a közvélemény manipulálására használják, gyakran példátlan mértékben és kifinomultan erősítve fel a megosztó vagy hamis narratívákat.
A manipulált média felderítésére szakosodott amerikai GetReal Security cég szintén azonosított egy hullámnyi hamis videót , amelyek az izraeli-iráni konfliktussal kapcsolatosak.
Ez a cég rendkívül lebilincselő videókat – amelyek izraeli repülőgépek és konfliktusok által megrongált épületek, valamint pótkocsikra szerelt iráni rakéták rémisztő jeleneteit ábrázolják – kapcsol össze a Google Veo 3 mesterséges intelligencia motorjával, amely hiperrealisztikus képek létrehozásának képességéről ismert.
Hany Farid, a GetReal Security társalapítója és a Kaliforniai Egyetem, Berkeley (USA) professzora megosztott egy tippet a mesterséges intelligencia által létrehozott hamis képek azonosítására: A Veo 3 videók általában 8 másodperc hosszúak, vagy hasonló hosszúságú klipek kombinációjából állnak.
Hangsúlyozta: „Ez a 8 másodperces korlátozás egyértelműen nem bizonyítja, hogy egy videó hamis, de érvényes oknak kell lennie arra, hogy megállj és ellenőrizd az információkat, mielőtt megosztod.”
Miyachi, a BitMindAI szakértője szerint a félretájékoztatás és a hamis tartalmak jelenlegi online terjedése egy szélesebb körű válságot tükröz – a digitális információkba vetett bizalom erodálódását.
A helyzet fényében hangsúlyozta a hamis tartalmak felderítésére szolgáló hatékonyabb eszközök fejlesztésének szükségességét, a társadalmi médiatudatosság javítását, valamint a technológiai platformok felelős szerepének előmozdítását a nyilvános viták átláthatóságának és egészségességének fenntartásában.
Forrás: https://www.vietnamplus.vn/ai-lam-nhieu-loan-thong-tin-ve-cuoc-xung-dot-israel-iran-nhu-the-nao-post1045593.vnp






Hozzászólás (0)