Deepfakes är nu ett stort problem i takt med att antalet teknikbaserade bedrägerier fortsätter att öka.
Efter att ha undersökt Darknet-forum, där cyberbrottslingar ofta verkar, fann säkerhetsexperter att det fanns så många brottslingar som använde Deepfake för bedrägerier att efterfrågan vida översteg utbudet av Deepfake-programvara som för närvarande finns på marknaden.
I takt med att efterfrågan överstiger utbudet förutspår Kaspersky-experter att Deepfake-bedrägerier kommer att öka, med mer varierande och sofistikerade former: från att erbjuda en högkvalitativ imitationsvideo till att använda kändisbilder i falska livestreams på sociala medier, där man lovar att betala dubbelt så mycket som offret skickade dem.
Enligt Regulas informationssystem har 37 % av företag världen över stött på Deepfake-röstbedrägerier och 29 % har fallit offer för Deepfake-videor.
Denna teknik har blivit ett hot mot cybersäkerheten i Vietnam, där cyberbrottslingar ofta använder falska videosamtal för att utge sig för att vara individer i syfte att låna pengar från deras släktingar och vänner.
Ett deepfake-videosamtal kan bara vara en minut, vilket gör det svårt för offren att skilja mellan äkta och falskt.
Deepfake håller gradvis på att bli en "mardröm" inom sofistikerade onlinebedrägerier.
” Deepfake har blivit en mardröm för kvinnor och samhället. Cyberbrottslingar utnyttjar artificiell intelligens (AI) för att infoga offers ansikten i pornografiska foton och videor, såväl som i propagandakampanjer.”
”Dessa former syftar till att manipulera den allmänna opinionen genom att sprida falsk information, och till och med skada organisationers eller individers rykte”, säger Vo Duong Tu Diem, landschef för Vietnam på Kaspersky.
Även om AI missbrukas av brottslingar för illvilliga syften, kan individer och företag fortfarande använda artificiell intelligens för att identifiera djupförfalskningar, vilket minskar sannolikheten för att bedrägerier lyckas.
Följaktligen kommer användare att ha tillgång till några användbara lösningar för att skydda sig mot bedrägerier, såsom att använda AI-genererad programvara för innehållsdetektering (med avancerade algoritmer för att analysera och bestämma redigeringsnivån för bilder/videor/ljud).
För Deepfake-videor finns det verktyg som kan upptäcka ojämna munrörelser och tal. Vissa program är till och med tillräckligt kraftfulla för att upptäcka onormalt blodflöde under huden genom att analysera videoupplösningen eftersom mänskliga vener ändrar färg när hjärtat pumpar blod.
Dessutom finns det en vattenstämpel som fungerar som ett identifieringsmärke i bilder, videor etc. för att hjälpa upphovsmän att skydda upphovsrätten till AI-produkter. Denna funktion kan bli ett vapen mot Deepfake eftersom den hjälper till att spåra ursprunget till plattformen som skapar artificiell intelligens. Användare med viss teknisk kunskap kan hitta ett sätt att spåra innehållets ursprung för att jämföra hur originaldata har redigerats av AI:s "händer".
För närvarande använder vissa nya tekniker krypteringsalgoritmer för att infoga hashvärden med bestämda tidsintervall i videon. Om videon har redigerats kommer hashvärdet att ändras och därifrån kan användare kontrollera om innehållet har manipulerats eller inte.
Tidigare fanns det vissa riktlinjer för att hitta avvikelser i videor, till exempel färgavvikelser, onaturliga muskelrörelser, ögonrörelser... Men AI blir smartare, så dessa värden ger inte alltid korrekta resultat.
Processen att verifiera videors tillförlitlighet är inte längre baserad på blotta ögat utan kräver tekniska verktyg som skapats i syfte att förhindra och upptäcka falskt innehåll.
Khanh Linh
[annons_2]
Källa
Kommentar (0)