Vietnam.vn - Nền tảng quảng bá Việt Nam

Deskundigen geven 'tips' om frauduleuze Deepfake-oproepen te identificeren

Báo Đại Đoàn KếtBáo Đại Đoàn Kết04/03/2025


De afdeling Informatiebeveiliging heeft onlangs een waarschuwing afgegeven over de aanhoudende herhaling van fraude met hightechvideo 's en -beelden.

De autoriteiten hebben een groot aantal mensen gewaarschuwd voor de situatie waarin cybercriminelen misbruik maken van openbare afbeeldingen en video's van mensen om deze te bewerken, in te korten en te bedreigen met chantage met nepvideo's.

deepfake-1-.jpg
Illustratie: Hoang Chien.

Met behulp van Deepfake-technologie, waarmee het geluid en beeld van een persoon zeer nauwkeurig kunnen worden gereproduceerd, kunnen criminelen zich voordoen als leiders van onlinevergaderingen of video's en telefoongesprekken maken om financiële fraude te plegen.

Bovendien maken deze oplichtingspraktijken vaak gebruik van psychologische factoren zoals urgentie, angst of macht, waardoor slachtoffers overhaast handelen zonder de authenticiteit zorgvuldig te controleren.

Deepfakes beperken zich niet tot financiële beleggingsfraude. Een ander voorbeeld is liefdesfraude, waarbij deepfakes worden gebruikt om fictieve personages te creëren die via videogesprekken met slachtoffers communiceren. Nadat de oplichter het vertrouwen van het slachtoffer heeft gewonnen, vraagt ​​hij om geld over te maken om noodgevallen, reiskosten of leningen op te lossen.

Gezien bovenstaande situatie adviseert de afdeling Informatiebeveiliging mensen om voorzichtig te zijn met beleggingsadvies van beroemdheden op sociale netwerken, om op hun hoede te zijn voor onbekende berichten, e-mails of telefoontjes en om goed te letten op onnatuurlijke gezichtsuitdrukkingen in video's.

Mensen moeten ook het plaatsen van content met persoonlijke informatie op sociale netwerken beperken, om te voorkomen dat informatie zoals afbeeldingen, video's of stemmen door slechteriken worden gestolen. Tegelijkertijd moeten accounts in de privémodus worden gezet om persoonlijke informatie te beschermen.

Cybersecurity-expert Ngo Minh Hieu, medeoprichter van het Vietnam Cyber ​​​​Fraud Prevention Project (Chongluadao.vn), sprak met verslaggevers van de krant Dai Doan Ket en zei dat het gebruik van deepfake-technologie in AI om nepvideogesprekken te voeren voor fraudedoeleinden nog steeds ingewikkeld is. Proefpersonen misbruiken deze technologie om de geloofwaardigheid van hun 'prooi' te vergroten.

Concreet betekent dit dat de slachtoffers proactief videogesprekken voeren met behulp van eerder 'gestolen' afbeeldingen en video's. Ze manipuleren de techniek, vervormen het geluid of vervalsen de beelden om het vertrouwen van het slachtoffer te winnen.

Meestal zijn deze telefoontjes erg kort, hooguit een paar seconden. Vervolgens wordt het slachtoffer gevraagd om aan de verzoeken van de oplichter te voldoen, bijvoorbeeld omdat het netwerk instabiel is of omdat hij op straat is.

Deskundigen waarschuwen dat het gebruik van AI voor cyberfraude in de nabije toekomst waarschijnlijk aanzienlijk zal toenemen. Daarom moeten mensen proactief hun waakzaamheid vergroten, vooral bij het ontvangen van vreemde berichten, videogesprekken en links.

Volgens de analyse van deze expert kan het huidige algoritme voor kunstmatige intelligentie (AI) voor deepfake-gesprekken niet omgaan met de situatie als de beller naar links of rechts gaat, of opstaat...

Een specifieke zwakte waar mensen op moeten letten bij het ontvangen van dit soort telefoontjes, is het gebit. Huidige AI-algoritmen kunnen het gebit van de persoon die wordt geïmiteerd, dan ook niet reproduceren.

Bij deepfake is de afbeelding van de persoon die zijn mond opent mogelijk zonder tanden; sommige mensen hebben er zelfs drie of vier. De kenmerken van de tanden zijn daarom het meest herkenbare element van een nepgesprek met deepfake.

"Langzaam" reageren en het verzoek niet direct opvolgen is een voorwaarde om te voorkomen dat je in de valkuil van oplichting trapt. Wanneer je een bericht of telefoontje via sociale media ontvangt, moet je je familie rechtstreeks bellen om te verifiëren wie er precies contact met je opneemt, met een minimale tijd van meer dan 30 seconden, of persoonlijk afspreken.

In geval van vermoedens dat men zich voordoet als familieleden op sociale media om op te lichten of eigendommen te verduisteren, dient men onmiddellijk de dichtstbijzijnde politiedienst te contacteren zodat er tijdig hulp en afhandeling kan plaatsvinden.



Bron: https://daidoanket.vn/chuyen-gia-chi-meo-nhan-biet-cuoc-goi-deepfake-lua-dao-10300910.html

Reactie (0)

No data
No data

In hetzelfde onderwerp

In dezelfde categorie

Beeld van donkere wolken die op het punt staan ​​in te storten in Hanoi
De regen viel met bakken uit de lucht, de straten veranderden in rivieren, de mensen van Hanoi brachten boten naar de straten
Heropvoering van het Midherfstfestival van de Ly-dynastie in de keizerlijke citadel van Thang Long
Westerse toeristen kopen graag speelgoed voor het Midherfstfestival op Hang Ma Street om aan hun kinderen en kleinkinderen te geven.

Van dezelfde auteur

Erfenis

Figuur

Bedrijf

No videos available

Actuele gebeurtenissen

Politiek systeem

Lokaal

Product