Boeven kunnen AI gebruiken om gevoelige foto's en video's te combineren om anderen te belasteren en te chanteren - Foto: AI-tekening
Vroeger werd er voor het knippen en plakken van het gezicht van de ene persoon op het lichaam van de andere persoon vaak gebruikgemaakt van Photoshop of gespecialiseerde fotobewerkingssoftware. Dit is arbeidsintensief en met het blote oog gemakkelijk te herkennen.
Tegenwoordig kunnen mensen dat met behulp van AI-tools heel eenvoudig doen in "een paar aantekeningen", maar met het blote oog is dat lastig te zien.
Gezichtsverwisseling seksvideo voor chantage
Vanwege zijn werk is de heer H. (directeur van een bedrijf in Ho Chi Minhstad) vaak actief op sociale netwerken.
Op een keer raakte hij bevriend met een jong meisje dat naar zijn werk vroeg. Na een tijdje over elkaar te hebben gevraagd, gepraat en over werk en privéleven te hebben gesproken, leken de twee behoorlijk close met elkaar.
Er werden ook veel tekstberichten tussen de twee gestuurd met heel liefkozende woorden, er werden foto's heen en weer gestuurd en er werd via videogesprekken gevraagd om elkaar te zien.
Op een dag kreeg meneer H. plotseling een telefoontje van een man die beweerde de echtgenoot van het meisje te zijn. Na een "preventieve" actie tegen meneer H. eiste de "echtgenoot" dat hij een schadevergoeding zou overmaken, anders zou hij foto's van hun chats en seksvideo's naar zijn familieleden en zakenpartners sturen.
Vervolgens werd aan meneer H. door zijn "echtgenoot" een seksvideo van hem en het andere meisje getoond, en werd er een videogesprek tussen de twee gevoerd. Ook werden er intieme tekstberichten vastgelegd...
"Ik heb dat meisje nog nooit ontmoet, dus ik weet zeker dat de seksvideo een gephotoshopte afbeelding is", bevestigde meneer H.. De afbeelding van het gezicht van het meisje in de seksvideo en het meisje in zijn videogesprek zijn echter hetzelfde, samen met een foto van het liefdevolle sms-bericht, waardoor meneer H. gedwongen werd om meerdere keren geld over te maken naar zijn "man" om zijn reputatie te beschermen.
Tijdens het onderzoek van Tuoi Tre werd meneer H. op georganiseerde wijze opgelicht volgens een perfect scenario. Bij deze oplichting werd meneer H. twee keer voor de gek gehouden door deepfake. De eerste keer via een videogesprek en de tweede keer via een seksvideo.
Opvallend is dat in de seksvideo het gezicht van meneer H. zo vakkundig was geënt dat kijkers het moeilijk konden geloven dat het om een gezichtstransplantatievideo ging. Een AI-expert bevestigde aan Tuoi Tre dat de schurken een nieuwe AI-tool gebruikten die gezichten perfect op video's kon enten... net als echte gezichten.
Er zijn veel AI-tools die gezichten kunnen verwisselen
Er zijn momenteel veel AI-toepassingstools met functies zoals het creëren van een persoon met het gewenste gezicht en het samenvoegen van het gewenste gezicht met het lichaam van een andere persoon.
Daaronder zitten tools met functies die slechte doelen dienen, zoals het omzetten van normale foto's in naaktfoto's door de persoon op de foto 'uit te kleden', of het vervangen van iemands gezicht in video's door een gewenst gezicht...
De meeste van deze AI-tools kunt u uitproberen, maar als u ervoor betaalt, krijgt u alle functies en kan de transformatie zeer snel worden uitgevoerd.
Bij de face-to-bodyfunctie hoeft de gebruiker bijvoorbeeld alleen maar twee bijbehorende foto's te uploaden en enkele seconden te wachten op de resultaten.
Of de AI-tool kan van gewone foto's naaktfoto's maken. Dat kan hij heel snel, binnen enkele tientallen seconden, en kijkers zullen er versteld van staan.
Zelfs de functie voor het vervangen van gezichten in seksvideo's doet de AI-tool heel snel, in minder dan een minuut voor video's die enkele seconden duren.
In een gesprek met Tuoi Tre analyseerde de heer Nguyen Kim Tho, hoofd van het onderzoeks- en ontwikkelingsteam van het cybersecuritybedrijf VNetwork, de term deepfake. Deze term verwijst naar nepvideo's en -afbeeldingen die met behulp van kunstmatige intelligentie (AI) zijn gemaakt om kijkers te laten geloven dat ze echt zijn.
Deepfake-technologie maakt gebruik van deep learning-modellen zoals neurale netwerken om de gezichts- en stemgegevens van een persoon te analyseren en nepcontent te creëren die precies op die persoon lijkt.
Dankzij krachtige algoritmes kunnen slechteriken het gezicht van hun slachtoffer in gevoelige video's verwerken (bijvoorbeeld 'bed'-video's en porno) of afbeeldingen bewerken om nep-naaktfoto's te maken.
"Deepfake-software en -toepassingen zijn tegenwoordig erg populair op internet, zelfs via mobiele applicaties, open source-codes of gratis onlinediensten. Hierdoor heeft iedereen eenvoudig toegang tot tools waarmee ze nepvideo's en -foto's kunnen maken. Mensen moeten dus waakzaam zijn", aldus de heer Tho.
Blijf weg van 'sekschat'
Veel oplichtingspraktijken beginnen met het online maken van vrienden en lokken het slachtoffer vervolgens tot een 'sekschat' of het versturen van vertrouwelijke foto's. Gebruikers dienen daarom nooit privéfoto's of -video's te sturen naar mensen die ze alleen online ontmoeten, ongeacht welke beloftes of dreigementen ze doen.
Houd er altijd rekening mee dat alle gedeelde inhoud (zelfs via privéberichten) kan worden opgenomen (screenshot, video) en vervolgens kan worden bewerkt en tegen u gebruikt.
Wees tijdens een videogesprek op uw hoede voor vreemden die om gevoelige informatie vragen. Het kan een nepscherm zijn, maar het kan ook zijn dat ze iets opnemen.
Cybersecurity-experts adviseren gebruikers om nooit iemand te vertrouwen via enkel online contact en om de identiteit en bedoelingen van de andere persoon te verifiëren voordat u gevoelige informatie deelt.
Als u bovendien een sms-bericht of een telefoontje ontvangt waarin wordt gedreigd met het openbaar maken van 'hete' foto's om te chanteren, hoeft u als gebruiker niet bang te zijn en hoeft u niet meteen geld over te maken.
Volgens deskundigen is betalen geen garantie dat de criminelen de video verwijderen. Ze kunnen alsnog meer eisen of de content online plaatsen.
In plaats van gehoor te geven aan de verzoeken van criminelen, moeten gebruikers bewijs verzamelen (berichten, telefoonnummers, contactgegevens, bedreigende inhoud...) en onmiddellijk melding maken bij het dichtstbijzijnde politiebureau of het incident melden via de VNeID-applicatie van het Ministerie van Openbare Veiligheid voor tijdige ondersteuning.
Hoe te identificeren?
Volgens de heer Nguyen Kim Tho wordt het steeds moeilijker om onderscheid te maken tussen echte afbeeldingen en video's en deepfakes, maar er zijn nog steeds enkele identificerende signalen en ondersteunende hulpmiddelen.
Gebruikers kunnen handmatig observeren, omdat deepfake-content soms afwijkingen in beeld en geluid bevat.
Een samengesteld beeld kan bijvoorbeeld ruis of kleurverschillen vertonen tussen het samengestelde gezicht en het lichaam. Een nepvideo kan audio- en videoverschillen vertonen (lipbewegingen die niet overeenkomen met spraak) of gezichtsuitdrukkingen die stijf en onnatuurlijk overkomen.
In eerdere deepfake-video's zagen we dat personages niet met de ogen knipperden en dat de belichting en schaduwen op het gezicht niet overeenkwamen met de context. Dit waren tekenen dat de video was bewerkt.
Hoewel de technologie verbetert (nieuwe deepfakes hebben bijvoorbeeld realistische oogknipperbewegingen toegevoegd), kunnen oplettende kijkers nog steeds onlogische details in video's en foto's opmerken.
Onderzoekers ontwikkelen momenteel een groot aantal algoritmes om automatisch deepfake-sporen te detecteren.
Door AI gegenereerde content laat vaak een unieke ‘digitale vingerafdruk’ achter in elke pixel, die machines kunnen herkennen.
Intel heeft bijvoorbeeld de eerste realtime deepfake-detector geïntroduceerd, die video's kan analyseren en kan bepalen of de personages in de video's echte mensen zijn of door AI zijn gegenereerd.
Bovendien staan sommige websites gebruikers toe om video's en foto's te uploaden om de authenticiteit van de afbeeldingen te controleren (bijvoorbeeld Deepware, Sensity AI-tools...). Deze systemen worden voortdurend bijgewerkt om gelijke tred te houden met nieuwe deepfake-technieken.
Gebruikers kunnen met name de bron van het bericht en de context controleren wanneer ze een gevoelige video of afbeelding tegenkomen, omdat veel deepfake-video's worden verspreid via nepaccounts of bots op sociale netwerken.
Als gevoelige content over een persoon afkomstig is van een onofficiële bron of een anoniem account, wees dan sceptisch over de authenticiteit ervan. Je kunt proberen rechtstreeks contact op te nemen met de persoon die in de content voorkomt om te verifiëren of hij of zij de content daadwerkelijk heeft geplaatst.
Bovendien promoten projecten zoals de integratie van authenticatiegegevens (digitale handtekeningen) in foto's en video's direct vanaf het moment van creatie, waardoor originele content van bewerkte content kan worden onderscheiden. In de toekomst kunnen gebruikers deze authenticatietekens gebruiken om betrouwbare content te identificeren", aldus de heer Tho.
5 tips om jezelf te beschermen
1. Beperk het delen van gevoelige, privéfoto's en -video's (vooral naaktfoto's, familiefoto's, foto's van kinderen).
2. Maak uw sociale media-accounts privé (deel ze alleen met mensen die u vertrouwt).
3. Geef niet te veel persoonlijke informatie (volledige naam, telefoonnummer, adres...) op openbare sociale netwerken.
4. Stel sterke wachtwoorden in en schakel tweestapsverificatie in voor uw accounts om te voorkomen dat u wordt gehackt.
5. Zoek regelmatig naar uw naam en afbeelding op Google (of gebruik hulpmiddelen voor omgekeerd zoeken naar afbeeldingen, zoals Google Afbeeldingen en TinEye) om te zien of er foto's van u zijn geplaatst zonder uw toestemming, en vraag direct om verwijdering ervan.
Bron: https://tuoitre.vn/dung-ai-ghep-hinh-anh-nhay-cam-de-tong-tien-20250317075948373.htm
Reactie (0)