Laut Sicherheitsexperten sind Betrügereien mit Deepfake-Technologie sehr gefährlich. Allerdings gibt es Möglichkeiten für Benutzer, Videos mithilfe dieser künstlichen Intelligenz zu erkennen und so zu verhindern, dass sie von Bösewichten getäuscht werden.
Das Risiko einer Betrugswelle mit Deepfake-Technologie
In einer Warnung vom 24. März teilte die Provinzpolizei von Tuyen Quang mit, dass in letzter Zeit im Cyberspace eine äußerst raffinierte Methode des Betrugs und der Aneignung von Eigentum aufgetaucht sei. Dabei nutze man Deepfake-Technologie (eine Technologie, die künstliche Intelligenz (KI) zur Erstellung von Audio-, Bild- und Videotechnologieprodukten einsetzt, die mit hoher Genauigkeit reale Personen vortäuschen), um gefälschte Videoanrufe zu tätigen und sich Geld von Verwandten zu leihen. Man gebe sich als im Ausland studierende Kinder aus und rufe seine Eltern an, um Geld für die Studiengebühren zu überweisen. Oder man stelle sich Notsituationen vor, wie etwa einen Unfall von Verwandten, der dringend Geld für eine Notfallbehandlung benötigt.
In den letzten Tagen warnte die Polizei in einigen anderen Orten wie Hanoi und Thai Nguyen weiterhin vor betrügerischen Tricks zur Aneignung von Vermögenswerten im Internet mithilfe der Deepfake-Technologie.
Die Polizei in mehreren Provinzen und Städten hat vor Betrug mit Deepfake-Technologie gewarnt. (Bild: Internet)
In einem Beitrag auf dem Workshop zum Thema „Cybersicherheit im digitalen Raum – Trends und Chancen“, der am 27. März vom Posts and Telecommunications Institute of Technology (PTIT) organisiert wurde, sagte der Experte Ngo Minh Hieu, Mitbegründer des Projekts ChongLuaDao.vn und Threat Hunter vom National Cyber Security Monitoring Center, dass Deepfake-Videos gerade erst in Vietnam aufgetaucht seien, diese KI-basierte Betrugs- und Fälschungstechnik jedoch tatsächlich schon seit etwa zwei bis drei Jahren von internationalen kriminellen Gruppen eingesetzt werde.
Experte Ngo Minh Hieu analysierte außerdem, dass es im Internet zahlreiche Tools gibt, die die Erstellung von Deepfake-Videos unterstützen. Wenn Cyberkriminelle in Vietnam künftig besser wissen, wie sie Videos und Bilder stehlen, ausschneiden und einfügen und dann Online-Tools zur Erstellung von Deepfakes verwenden können, wird es eine Betrugswelle der Generation 4.0 geben, die viele Menschen, die lange Zeit schwer zu täuschen waren, zu Opfern machen wird.
„Menschen mittleren Alters und ältere Menschen sind am anfälligsten für Betrug, da ihnen das Bewusstsein für Informationssicherheit und Technologie fehlt und sie Schwierigkeiten haben, diese Art von ausgeklügeltem Betrug zu erkennen“, fügte Experte Ngo Minh Hieu hinzu.
Der Experte Ngo Minh Hieu informierte PTIT-Studenten über Betrugsformen, darunter auch Betrug mit Deepfake.
Vu Ngoc Son, Technischer Direktor der NCS Company, erklärte zu diesem Thema, dass Deepfake-Anwendungen immer beliebter würden und sogar die Sorge vor einem Kontrollverlust auslösten. Ursprünglich wurden diese Anwendungen mit dem Ziel des „Gesichtstauschs“ entwickelt, um Nutzern zu ermöglichen, ihre Gesichter und Stimmen einfach durch Figuren aus berühmten Filmen zu ersetzen. Dies kann als Weiterentwicklung des Trends zur Fotobearbeitung und humorvollen Synchronisation von Clips angesehen werden, der in der Vergangenheit für Furore sorgte.
Betrüger haben Deepfake-Anwendungen jedoch ausgenutzt, um Clips mit betrügerischen und nachahmenden Inhalten zu erstellen. Viele Menschen haben Geld verloren, weil sie dachten, ihre Verwandten, Kollegen und Vorgesetzten würden sie anrufen und sie um Geldüberweisungen bitten. Diese Technologie wird für immer bösartigere Zwecke eingesetzt, sodass bei Deepfake in letzter Zeit oft an schädliche Tools gedacht wird.
So vermeiden Sie Betrug mit Deepfake-Technologie
Zur Prävention analysierte Experte Vu Ngoc Son, dass die Rechenleistung von Deepfake-Anwendungen noch nicht ausgereift sei. Daher hätten mit dieser Technologie erstellte Clips oft eine geringe Kapazität, eine kurze Dauer und eine schlechte Ton- und Bildqualität. Am auffälligsten sei, dass das Gesicht recht steif und weniger emotional sei. Der Körper der Figur in Deepfake bewege sich zudem weniger, insbesondere weniger mit dem Gesicht nach oben oder unten als in normalen Clips. Auch das Reiben oder Verdecken des Gesichts werde nicht vorkommen, da die KI Fehler behandele, wenn das Gesicht teilweise verdeckt sei. Bei genauer Beobachtung könne man dies also erkennen.
„Benutzer sollten Clips nicht vertrauen, die kurz, von geringer Qualität, verschwommen oder unklar sind, wenig Gesichtsausdruck und Körperbewegung aufweisen, deren Gesichter nicht zur Seite gedreht sind, deren Stimmen nicht flüssig oder zu monoton sind und die keine Pausen haben“, empfiehlt Experte Vu Ngoc Son.
Der Experte von NCS betonte außerdem, dass Nutzer vor allem wachsam sein sollten. Vertrauen Sie insbesondere nicht auf kurze Clips oder Videoanrufe mit schlechter Bild- oder Tonqualität. Überprüfen Sie dies, indem Sie direkt mit einem normalen Telefon anrufen. Bitten Sie den Anrufer, sich die Hand vors Gesicht zu legen oder sich nach links oder rechts zu drehen. Sprechen Sie so viel wie möglich mit dem Anrufer, um sicherzustellen, dass es sich um einen echten Anruf handelt und nicht um ein aufgezeichnetes Video. Insbesondere sollten Nutzer kein Geld überweisen oder Informationen an unbekannte Adressen oder Konten senden.
Der Experte Ngo Minh Hieu teilt diese Meinung und empfiehlt, wachsam und aufmerksam zu sein, um Betrug zu vermeiden. Wenn jemand in sozialen Netzwerken oder aus Ihrer Freundesliste plötzlich um Geld bittet oder einen seltsamen Link sendet, sollten Sie nichts überstürzen, sondern ruhig bleiben und die Informationen erneut prüfen.
„Nutzer können sich proaktiv authentifizieren, indem sie direkt anrufen oder mindestens eine Minute lang per Facetime kommunizieren und dann so tun, als würden sie persönliche Fragen stellen, die nur sie und die andere Person kennen. Denn Deepfake wird nicht in der Lage sein, ein echtes Gespräch in Echtzeit mit hoher Genauigkeit zu fälschen“, rät Experte Ngo Minh Hieu.
Laut VNN
[Anzeige_2]
Quelle
Kommentar (0)