Deepfake er nå en stor bekymring ettersom antallet teknologibaserte svindelforsøk fortsetter å øke.
Etter å ha undersøkt Darknet-fora, der nettkriminelle ofte opererer, fant sikkerhetseksperter ut at det var så mange kriminelle som brukte Deepfake til svindel at etterspørselen langt oversteg tilbudet av Deepfake-programvare som for tiden er på markedet.
Etter hvert som etterspørselen overstiger tilbudet, spår Kaspersky-eksperter at Deepfake-svindel vil øke, med mer varierte og sofistikerte former: fra å tilby en video av høy kvalitet som etterligner en person til å bruke kjendisbilder i falske direktesendinger på sosiale medier, der man lover å betale det dobbelte av beløpet offeret sendte dem.
Ifølge Regulas informasjonssystem har 37 % av bedrifter over hele verden opplevd Deepfake-stemmesvindel, og 29 % har blitt offer for Deepfake-videoer.
Denne teknologien har blitt en trussel mot nettsikkerheten i Vietnam, hvor nettkriminelle ofte bruker falske videosamtaler for å utgi seg for å være enkeltpersoner for å låne penger fra slektninger og venner.
En deepfake-videosamtale kan vare bare ett minutt, noe som gjør det vanskelig for ofrene å skille mellom ekte og falskt.
Deepfake er gradvis i ferd med å bli et «mareritt» innen sofistikerte nettsvindelforsøk.
« Deepfake har blitt et mareritt for kvinner og samfunnet. Nettkriminelle utnytter kunstig intelligens (KI) til å sette inn ofrenes ansikter i pornografiske bilder og videoer, samt i propagandakampanjer.»
«Disse skjemaene har som mål å manipulere opinionen ved å spre falsk informasjon, og til og med skade omdømmet til organisasjoner eller enkeltpersoner», sa Vo Duong Tu Diem, Kasperskys regiondirektør i Vietnam.
Selv om KI misbrukes av kriminelle til ondsinnede formål, kan enkeltpersoner og bedrifter fortsatt bruke kunstig intelligens til å identifisere Deepfakes, noe som reduserer sannsynligheten for at svindel lykkes.
Følgelig vil brukerne ha noen nyttige løsninger for å beskytte seg mot svindel, som for eksempel bruk av programvare for AI-generert innholdsdeteksjon (ved hjelp av avanserte algoritmer for å analysere og bestemme redigeringsnivået på bilder/videoer/lyder).
For Deepfake-videoer finnes det verktøy som kan oppdage uoverensstemmelser i munnbevegelser og tale. Noen programmer er til og med kraftige nok til å oppdage unormal blodstrøm under huden ved å analysere videooppløsningen, fordi menneskelige årer endrer farge når hjertet pumper blod.
I tillegg finnes det også et vannmerke som fungerer som et identifikasjonsmerke i bilder, videoer osv. for å hjelpe forfattere med å beskytte opphavsretten til AI-produkter. Denne funksjonen kan bli et våpen mot Deepfake fordi den bidrar til å spore opprinnelsen til plattformen som skaper kunstig intelligens. Brukere med et visst nivå av teknologikunnskap kan finne en måte å spore opprinnelsen til innholdet for å sammenligne hvordan de originale dataene har blitt redigert av AI-ens «hender».
For tiden bruker noen nye teknologier krypteringsalgoritmer for å sette inn hash-verdier i videoen med bestemte tidsintervaller. Hvis videoen har blitt redigert, vil hash-verdien endres, og derfra kan brukerne bekrefte om innholdet har blitt tuklet med eller ikke.
Det har tidligere vært noen veiledninger om å finne avvik i videoer, for eksempel fargeavvik, unaturlige bevegelser av muskelgrupper, øyne... Imidlertid blir AI smartere, så disse verdiene gir ikke alltid riktige resultater.
Prosessen med å verifisere påliteligheten til videoer er ikke lenger basert på det blotte øye, men krever teknologiske verktøy laget med det formål å forhindre og oppdage falskt innhold.
Khanh Linh
[annonse_2]
Kilde
Kommentar (0)