AI-deepfakebeelden, videogamebeelden die zich voordoen als echte gevechtsscènes en door chatbots gegenereerde misinformatie – al deze vormen van technologisch gedreven desinformatie vertekenen het conflict tussen Israël en Iran ernstig. Ze voeden een narratieve oorlog op sociale mediaplatformen en verhullen feitelijke informatie.
De informatieoorlog, die zich parallel aan de grondgevechten ontvouwt – die uitbraken na Israëlische aanvallen op Iraanse nucleaire installaties en militaire leiders – heeft een diepgaande digitale crisis blootgelegd in een tijdperk van snel evoluerende AI-tools die de grens tussen waarheid en leugen doen vervagen.
Deskundigen zijn van mening dat de explosie van desinformatie tijdens conflicten de dringende behoefte aan krachtigere detectie- en verificatietools heeft benadrukt. Zorgwekkend is dat grote technologieplatforms hun beveiligingsmaatregelen versoepelen door de censuur van content te verminderen en minder afhankelijk te zijn van factcheckers.

In een gesprek met de pers zei Ken Jon Miyachi, oprichter van BitMindAI, een bedrijf gevestigd in Austin, VS, dat de wereld getuigt van een dramatische toename van door AI gegenereerde desinformatie, met name over het conflict tussen Iran en Israël. Deze tools worden gebruikt om de publieke opinie te manipuleren, waarbij vaak op ongekende schaal en met ongekende verfijning polariserende of valse verhalen worden verspreid.
GetReal Security, een Amerikaans bedrijf dat gespecialiseerd is in het opsporen van gemanipuleerde media, heeft ook een golf van nepvideo 's ontdekt die verband houden met het conflict tussen Israël en Iran.
Dit bedrijf koppelt zeer indrukwekkende video's – met gruwelijke beelden van Israëlische vliegtuigen en gebouwen die door het conflict zijn beschadigd, evenals Iraanse raketten op trailers – aan Google's Veo 3 AI-engine, die bekendstaat om zijn vermogen om hyperrealistische beelden te creëren.
Hany Farid, medeoprichter van GetReal Security en professor aan de Universiteit van Californië, Berkeley (VS), deelde een tip voor het herkennen van nepbeelden die door AI zijn gemaakt: Veo 3-video's zijn meestal 8 seconden lang of een combinatie van fragmenten van vergelijkbare lengte.
Hij benadrukte: "Deze limiet van 8 seconden bewijst duidelijk niet dat een video nep is, maar het zou wel een geldige reden moeten zijn om even te stoppen en de informatie te controleren voordat je deze deelt."
Volgens Miyachi, een expert bij BitMindAI, weerspiegelt de huidige verspreiding van desinformatie en nepcontent online een bredere crisis: het afnemende vertrouwen in digitale informatie.
In het licht van deze situatie benadrukte hij de noodzaak om effectievere instrumenten te ontwikkelen voor het opsporen van nepnieuws, de mediageletterdheid in de samenleving te vergroten en de verantwoordelijke rol van technologieplatformen te bevorderen bij het waarborgen van de transparantie en de gezondheid van het publieke debat.
Bron: https://www.vietnamplus.vn/ai-lam-nhieu-loan-thong-tin-ve-cuoc-xung-dot-israel-iran-nhu-the-nao-post1045593.vnp






Reactie (0)