SGGPO 20 oktober 2023 19:13
Deepfake används inte längre för underhållningssyften, utan utnyttjas gradvis av cyberbrottslingar för att bli ett bedrägeriverktyg... och deepfake-bedrägerier kommer att öka med mer mångsidiga och sofistikerade former.
| Kaspersky tror att djupförfalskningsbedrägerier kommer att öka med mer mångsidiga och sofistikerade former. |
Efter att ha undersökt darknet-forum, där cyberbrottslingar ofta verkar, fastställde Kaspersky att det finns många brottslingar som använder djupförfalskningar för bedrägerier, i den grad att efterfrågan vida överstiger tillgången på djupförfalskningsprogramvara som för närvarande finns på marknaden.
Kaspersky-experter förutspår att deepfake-bedrägerier kommer att öka i variation och sofistikering, från att erbjuda en högkvalitativ imitationsvideo med fullständiga produktionstjänster till att använda kändisbilder i falska livestreams på sociala medier och lova att fördubbla den mängd offret skickade till dem.
Även om AI missbrukas av brottslingar för illvilliga syften, kan individer och företag fortfarande använda AI för att identifiera deepfakes och minska sannolikheten för att bedrägerier lyckas. Kaspersky delar lösningar för användare att skydda sig mot deepfakes-bedrägerier:
AI-verktyg för innehållsidentifiering: AI-driven programvara för innehållsidentifiering använder avancerade AI-algoritmer för att analysera och bestämma graden av manipulation av bild-, video- och ljudfiler.
Vattenmärkt AI-innehåll: Vattenmärken fungerar som identifieringsmärken i bilder, videor etc. för att hjälpa upphovsmän att skydda upphovsrätten till AI-verk. Detta verktyg kan dock bli ett vapen mot deepfakes eftersom det här verktyget kan hjälpa till att spåra ursprunget till plattformen som skapade AI:n.
Innehållets ursprung: Eftersom AI samlar in stora mängder data från olika källor för att skapa nytt innehåll, syftar denna metod till att spåra innehållets ursprung.
Videoautentisering: är processen att verifiera att videoinnehållet inte har ändrats sedan det först skapades. Det här är den process som videoskapare är mest bekymrade över.
"Deepfake har blivit en mardröm för kvinnor och samhället." Cyberbrottslighet utnyttjar för närvarande artificiell intelligens (AI) för att lägga offers ansikten över pornografiska foton och videor samt i propagandakampanjer. Dessa former syftar till att manipulera den allmänna opinionen genom att sprida falsk information eller till och med skada organisationers eller individers rykte. Vi uppmanar allmänheten att vara mer vaksam mot detta hot”, säger Vo Duong Tu Diem, landschef för Kaspersky Vietnam.
[annons_2]
Källa






Kommentar (0)