Met een initiële kostprijs van slechts 1,3 miljoen VND vormen namaakhulpmiddelen zoals gezichtstransplantaties en stemimitaties een waarschuwing voor de risico's van fraude, valse persoonlijke afbeeldingen en cyberveiligheid.
(Illustratie)
Lage prijzen op het darknet, groot verborgen gevaar
Het Global Research & Analysis Team (GReAT) van Kaspersky heeft zojuist bevindingen gepubliceerd waaruit blijkt dat er op darknetmarkten veel advertenties zijn verschenen die diensten aanbieden om deepfake -video's en -audio in realtime te creëren. De startprijzen voor nep-voicemailberichten liggen rond de 50 dollar (ongeveer 1,3 miljoen VND) en 30 dollar (ongeveer 800.000 VND), afhankelijk van de complexiteit en lengte van de content.
Voorheen kostten ‘legitieme’ deepfake-diensten tussen de $ 300 en $ 20.000 per minuut.
De scherpe prijsdaling – 400 keer lager dan het vorige populaire niveau – maakt het risico om uitgebuit te worden voor slechte daden nog groter.
Reclame-elementen en 'lokaas' van slechteriken
Advertenties gaan tegenwoordig verder dan alleen nepvideo's en omvatten onder andere realtime gezichtsverwisseling tijdens videogesprekken, het imiteren van camera's van apparaten of het 'vervangen' van gezichten om authenticatie te omzeilen. Ze adverteren ook met de mogelijkheid om gezichtsuitdrukkingen te synchroniseren met voice-overs en ondersteunen zelfs meerdere talen.
Daarnaast worden er ook diensten voor het klonen van stemmen verkocht, waarmee stemimitaties mogelijk zijn met de mogelijkheid om toonhoogte en toon aan te passen om verschillende emoties uit te drukken. Veel experts vermoeden echter dat dit in feite 'klantenlokking' is : kopers worden mogelijk verleid om vooraf geld over te maken, maar krijgen niet het beloofde kwaliteitsproduct.
“De noodzaak om dit instrument te gebruiken neemt ook toe”
"We hebben niet alleen advertenties gezien die deepfake als een service aanbieden, maar we hebben ook een toename opgemerkt in de vraag naar deze tools", aldus Dmitry Galov , hoofd van het GReAT-team van Kaspersky (Rusland en GOS) .
Cybercriminelen experimenteren met AI en integreren deze in hun aanvalsstrategieën, zei hij, waarbij sommige platforms zelfs hun eigen 'kwaadaardige' LLM's ontwikkelen, die losstaan van de openbare modellen en rechtstreeks op de apparaten van de slechteriken kunnen worden uitgevoerd.
Hoewel deepfakes nog niet als een compleet nieuwe cyberdreiging kunnen worden beschouwd, kan de technologie aanvallen wel geavanceerder en moeilijker te detecteren maken.
Aanbevelingen en hoe deepfake te herkennen
Kaspersky adviseert bedrijven en organisaties om uitgebreide cybersecuritymaatregelen te implementeren. Deze maatregelen beperken zich niet tot het installeren van beschermingssoftware, maar omvatten ook het samenstellen van een team van IT-experts met de vaardigheden om cyberaanvallen te detecteren en erop te reageren.
Daarnaast zouden medewerkers binnen de organisatie getraind moeten worden in het herkennen van ongebruikelijke signalen in video of audio die mogelijk het resultaat zijn van deepfake-technologie. Deze video's bevatten vaak schokkerige en onnatuurlijke bewegingen, inconsistente belichting of huidtinten tussen frames, personages die met een ongebruikelijke knipperfrequentie of bijna geen knippering verschijnen, en gezichten die vervormd of licht misvormd kunnen zijn.
Bovendien is de beeldkwaliteit vaak slecht en zijn de frames instabiel, vooral bij weinig licht, waardoor de algehele video er minder realistisch uitziet. Waakzaamheid voor deepfake-dreigingen en bewustwording worden gezien als een belangrijke eerste stap om de schade door geavanceerde oplichting in het AI-tijdperk te minimaliseren.
Bron: https://doanhnghiepvn.vn/chuyen-doi-so/rui-ro-tu-deepfake-gia-re-tu-quang-cao-darknet-den-loi-keu-goi-canh-giac/20251016105304840
Reactie (0)