Tijdens de reguliere persconferentie van het Ministerie van Informatie en Communicatie vanmorgen 5 mei waarschuwde de heer Tran Quang Hung, adjunct-directeur van de afdeling Informatiebeveiliging (Ministerie van Informatie en Communicatie), voor deepfake-oplichtingsoproepen.
De heer Tran Quang Hung, adjunct-directeur van de afdeling Informatiebeveiliging
Volgens een vertegenwoordiger van het Department of Information Security is er in Vietnam de laatste tijd een explosieve toename van online deepfake-oplichtingsoproepen. De slachtoffers gebruiken kunstmatige intelligentie (AI) om nepvideo 's of -afbeeldingen te maken, portretten te kopiëren om nepvideo's van familieleden en vrienden te maken, en frauduleuze telefoontjes te plegen.
Onmiddellijk nadat ze de feedback van mensen hadden ontvangen, voerden experts van de afdeling Informatiebeveiliging een analyse uit en kwamen met een brede waarschuwing.
"Deepfake vormt een bedreiging voor de integriteit en het vertrouwen van video's en afbeeldingen. Het kan niet alleen worden gebruikt voor online fraude, maar ook voor andere doeleinden, zoals politieke aanvallen, het creëren van nepnieuws of het schaden van de reputatie van anderen. De meeste van deze vormen van online fraude zijn gericht op financiële fraude", aldus de heer Hung.
Om deepfake-oplichtingsgesprekken met het blote oog te kunnen identificeren, aldus de vertegenwoordiger van de afdeling Informatiebeveiliging, kunnen er nog steeds enkele herkenbare signalen zijn, zoals een gespreksduur die vaak erg kort is, slechts enkele seconden. Met name hun gezichten zijn emotieloos en ze zijn nogal "inert" bij het spreken, of hun houding ziet er ongemakkelijk en onnatuurlijk uit, en hun hoofd- en lichaamshouding in de video zijn inconsistent...
Bovendien, zei meneer Hung, is de huidskleur van het personage in de video ongebruikelijk, is de belichting vreemd en vallen de schaduwen niet op de juiste plek. Dit kan de video er erg nep en onnatuurlijk uit laten zien. Bovendien loopt het geluid niet synchroon met het beeld, gaat er veel ruis verloren in de clip of is er helemaal geen geluid.
"Het is opvallend dat deepfake-oplichtingsoproepen vaak voorkomen in situaties waarin de geldtransferrekening niet van de persoon is die belt. Vaak hangt de oplichter halverwege op en zegt dat het signaal weg is, dat het signaal zwak is... Vreemde factoren zoals hierboven beschreven zijn rode vlaggen voor deepfake. Mensen moeten waakzaam en absoluut kalm blijven", waarschuwde de heer Hung.
Om online oplichting met behulp van AI te voorkomen, zei een vertegenwoordiger van de afdeling Informatiebeveiliging dat technologie elke dag verandert en dat de strijd tegen online oplichting een langetermijnstrategie is. De strijd tegen online oplichting draait niet alleen om technologie, maar vereist ook juridische oplossingen. Niet alleen Vietnam, maar ook overheden van andere landen en technologiebedrijven moeten samenwerken om oplichting te detecteren en te voorkomen.
"Terwijl we wachten op een technische oplossing om deze vormen volledig te voorkomen, is het noodzakelijk dat de media op grote schaal signalen van herkenning, waakzaamheid, tijdige kennisneming en trucs verspreiden om online oplichting te voorkomen", aldus de heer Hung.
Bronlink
Reactie (0)