Deepfake-Betrugsanrufe: Eine neue und sehr raffinierte Betrugsmasche
Ein typischer Fall ist Frau VTM (26 Jahre alt, aus Long Bien, Hanoi ), die auf Facebook eine Nachricht von einem Verwandten im Ausland erhielt, in der sie aufgefordert wurde, 75 Millionen VND auf mehrere Konten zu überweisen. Zu diesem Zeitpunkt dachte Frau VTM, es handele sich um einen Verwandten, und überwies ohne zu zögern Geld.
Frau VTM sagte, als sie eine Nachricht mit der Bitte um Geldleihe von einem Verwandten erhielt, rief sie vorsichtig zurück, um nachzufragen, und sah, dass das Bild tatsächlich ihren Freund zeigte. Frau VTM hat das Vertrauen gewonnen und den Kredit überwiesen. Doch kurze Zeit später sah ich auf der persönlichen Seite eines Verwandten einen Beitrag, in dem behauptet wurde, sein Facebook-Konto sei von einem Betrüger gehackt worden, um einige Freunde und Verwandte um Geld zu bitten. Frau VTM rief ihre Verwandten zurück und stellte fest, dass sie betrogen worden war.
Oder wie die Situation von Herrn VDC (42 Jahre alt, aus Co Nhue, Hanoi), der sagte, er sei durch einen Deepfake-Videoanruf um 30 Millionen VND betrogen worden. Konkret: Vor kurzem schickte mir ein Verwandter im Ausland eine SMS mit der Bitte, sich wegen einer dringenden Angelegenheit Geld zu leihen. Unmittelbar danach erhielt Frau Tam einen Videoanruf über die Messenger-Anwendung von Facebook.
„Das Gespräch dauerte nur wenige Sekunden, aber ich sah das Gesicht meines Liebsten und die vertraute Anrede, allerdings kam es zu Unterbrechungen. Dann erhielt ich die Nachricht, dass das Signal schwach sei und ich den Videoanruf nicht fortsetzen konnte. Deshalb wechselte ich der Einfachheit halber zu SMS. Ich vertraute ihm und überwies das Geld wie angewiesen“, erzählte Herr VDC.
Der Technologieexperte Ngo Minh Hieu vom National Cyber Security Monitoring Center (NCSC) kommentierte dieses Thema und erklärte, dass die Technologie der künstlichen Intelligenz (KI) das menschliche Leben sehr bereichert. Allerdings haben sich Kriminelle die KI-Technologie zunutze gemacht, um Sprachklone zu erstellen. Sie haben Facebook- und Instagram-Konten gekapert, Nachrichten, Anredeformen und Transaktionsverläufe studiert, um gefälschte Anrufe zu tätigen und Verwandte und Familienangehörige des gekaperten Kontos um Geld zu betrügen, oder das Opfer direkt angerufen, um dringende Situationen zu schaffen, die Geldüberweisungen erfordern.
„Nachdem der Betrüger das Facebook-Konto des Opfers übernommen hatte, schickte er ihm proaktiv eine SMS, um sich Geld zu leihen. Anschließend rief er das Opfer proaktiv per Videoanruf mit einem Deepfake-Video an, legte für ein paar Sekunden auf und sagte dann, er habe sein Telefonsignal verloren … An diesem Punkt vertraute ihm das Opfer und überwies das Geld, weil die andere Partei dringend Geld leihen musste“, kommentierte der Technologieexperte Ngo Minh Hieu.
Herr Ngo Tuan Anh, Vorstandsvorsitzender und CEO der Smart Cyber Security Joint Stock Company, sagte, dass Online-Betrug derzeit in zwei Hauptmethoden unterteilt werden kann, nämlich die Nachahmung von Ermittlungsbehörden und Gerichten und die Ausnutzung der „Gier“ der Menschen, etwa um große Belohnungen zu erhalten und schnell Geld zu machen... Bei diesen beiden Betrugsformen gibt es viele verschiedene Szenarien, darunter das Szenario, in dem Benutzern geraten wird, Informationen durch einen Videoanruf zu überprüfen. Es war der Betrüger, der sich diese „Lösung“ ausgedacht hat, um das Opfer zu betrügen.
Wie funktioniert Deepfake?
Laut der Polizei von Hanoi ist Deepfake eine Technologie, die künstliche Intelligenz (KI) nutzt, um Audio-, Bild- und Videotechnologieprodukte zu erstellen, die reale Objekte mit sehr hoher Genauigkeit vortäuschen.
Basierend auf der Bilddatei des Gesichts und der Stimme einer realen Person verwendet Deepfake Algorithmen, um das Gesicht und die Stimme so nachzubilden, dass sie den Gesichtszügen und Ausdrücken einer anderen Person entsprechen. Erstellen Sie dann ein völlig gefälschtes Video des realen Subjekts. Über das Internet sammeln die Probanden Bilder und Stimmen von Benutzern sozialer Netzwerke und verwenden die Deepfake-Technologie, um Animationen und gefälschte Videos von Benutzern zu erstellen, die online mit demselben Gesicht, derselben Stimmlage und derselben Anrede sprechen.
Der Täter erstellte ein gefälschtes Social-Network-Konto mit denselben Informationen und demselben Profilbild wie der Benutzer, fügte das Opfer seiner Freundesliste hinzu und schickte Nachrichten, um sich gemäß einem bereits bestehenden Szenario Geld zu leihen. In einigen Fällen kapert der Täter die Social-Network-Konten der Benutzer, um den Opfern in ihrer Freundesliste direkt Nachrichten zu senden. Um das Vertrauen des Opfers zu gewinnen, lud das Subjekt ein vorhandenes Deepfake-Video in den Videoanrufkanal hoch, wodurch das Opfer das Bild und die Stimme eines Bekannten erkennen und wie vom Subjekt gewünscht schnell Geld überweisen konnte.
Die Polizei von Hanoi fügte hinzu, dass gefälschte Videos dank der Deepfake-Technologie eine hohe Genauigkeit aufweisen und es sehr schwierig sei, zwischen echt und gefälscht zu unterscheiden. Allerdings enthalten die vom Opfer erstellten Videos häufig allgemeine Inhalte, die nicht vollständig mit dem tatsächlichen Kontext der Kommunikation mit dem Opfer übereinstimmen, was das Opfer misstrauisch machen und zur Detektivarbeit anregen kann. Um die oben genannten Mängel zu vertuschen, erstellen die Probanden häufig Videos mit schwer verständlichem Ton und unklaren Bildern, ähnlich wie bei Videoanrufen mit instabilen Signalen in Gebieten mit schwacher Mobilfunk-/WLAN-Abdeckung. Dies ist ein sehr neuer und sehr raffinierter Betrug.
Wie kann der Diebstahl von Gesichts- und Sprachdaten verhindert werden?
Laut dem Technologieexperten Ngo Minh Hieu besteht die beste Möglichkeit, Deepfake zu vermeiden, darin, dass Benutzer die Weitergabe persönlicher Bilder oder Videos im Internet einschränken. Schützen Sie gleichzeitig Ihre Social-Media- und E-Mail-Konten immer mit sicheren Passwörtern.
Wenn Sie Videos oder Clips online teilen, sollten Sie Ihre Stimme verzerren und durch eine Roboter- oder KI-Stimme ersetzen, um zu verhindern, dass Bösewichte Ihre wahre Stimme kennen.
Wenn Deepfake gefälscht ist, sollten Benutzer sofort alle benachrichtigen und den Behörden unter canhbao.ncsc.gov.vn oder dem Chongluadao-Projekt https://chongluadao.vn Bericht erstatten. Gleichzeitig ist es notwendig, das Bewusstsein für die Erkennung von Cyberbetrug zu schärfen unter: dauhieuluadao.com.
Die Polizei von Hanoi empfiehlt den Bürgern, wachsam zu sein, wenn sie Nachrichten oder Videoanrufe über soziale Netzwerkanwendungen erhalten, in denen um Geld gebeten wird. Die Leute müssen ruhig bleiben, wenn sie Nachrichten oder Videoanrufe erhalten, in denen sie gebeten werden, Geld über soziale Netzwerkanwendungen zu leihen oder zu leihen, und dann Verwandte direkt anrufen oder kontaktieren, um dies zu überprüfen (rufen Sie nicht über soziale Netzwerkanwendungen wie Zalo, Messenger, Viber, Telegram usw. an). Bei Verdacht auf Betrug oder Eigentumsmissbrauch in sozialen Netzwerken müssen sich die Betroffenen umgehend bei der nächstgelegenen Polizeidienststelle melden, damit rechtzeitig Unterstützung geleistet und die Täter entsprechend dem Gesetz bekämpft, verhindert und streng behandelt werden können.
Herr Ngo Tuan Anh erläuterte, wie man betrügerische Anrufe verhindern kann, und wies darauf hin, dass die Leute wachsam sein und nicht auf seltsame Links klicken müssen. Wenn Sie Geld überweisen, gibt es eine einfache und effektive Möglichkeit zur Überprüfung: Prüfen Sie vor der Überweisung in der Online-Banking-Anwendung der Bank, ob bei der Eingabe der Kontonummer die korrekten Daten von Verwandten und Freunden angezeigt werden.
Der Technologieexperte Ngo Minh Hieu sagte, ein Zeichen zum Erkennen und Vermeiden von Deepfake-Anrufen sei, dass das Gesicht der Figur im Video emotionslos und beim Sprechen ziemlich „gleichgültig“ sei, oder dass die Haltung ungeschickt oder unnatürlich sei oder dass die Kopf- und Körperrichtung der Figur im Video nicht miteinander übereinstimmten.
Laut Sicherheitsfirmen ist Deepfake ein Kofferwort aus „Deep“ in „Deep Learning“ und „Fake“. Beim Deep Learning handelt es sich um die Verwendung fortschrittlicher KI-Methoden, die mehrere Algorithmen anwenden, um schrittweise fortschrittliche Merkmale aus Eingabedaten zu synthetisieren. Von dort aus ist diese Technologie in der Lage, von Benutzern eingegebene Daten wie Gesichter, Körperbewegungen und Stimmen zu synthetisieren und daraus zu lernen. Deepfake kann das Gesicht einer Person in einem Video mit hoher Wiedergabetreue auf das Gesicht einer anderen Person legen. |
BÜROSTIL
[Anzeige_2]
Quelle
Kommentar (0)