Am 2. Februar erklärte Herr Nguyen Tien Dat, Generaldirektor des AntiMalware-Forschungszentrums von Bkav, dass man, selbst wenn man bei einem Videoanruf das Gesicht eines Verwandten oder Freundes sieht und seine Stimme hört, nicht unbedingt mit dieser Person spricht.
Nguyen Thanh Huong (Name der Figur wurde geändert) ist ein Büroangestellter in Hanoi . Während einer Unterhaltung mit einem Freund über Facebook Messenger verabschiedete sich Huongs Freund und beendete die Unterhaltung, doch plötzlich kehrte er zu einer SMS zurück, in der er um Geld bat und vorschlug, das Geld auf ein Bankkonto zu überweisen.
Obwohl der Kontoname mit dem Namen ihrer Freundin übereinstimmte, war Huong immer noch misstrauisch und forderte zur Überprüfung einen Videoanruf an. Der Freund stimmte sofort zu, doch das Gespräch dauerte aufgrund einer „Instabilität des Internets“ nur wenige Sekunden, wie der Freund erklärte. Nachdem sie das Gesicht ihrer Freundin im Videoanruf gesehen hatte und auch die Stimme dieser Person gehörte, hatte Huong keine Zweifel mehr und überwies das Geld. Doch erst nachdem die Geldüberweisung erfolgreich war, wurde Huong klar, dass sie in die Falle des Hackers getappt war.
In letzter Zeit sind viele Menschen Opfer von Finanzbetrug geworden, bei dem Deepfakes und KI (künstliche Intelligenz) zum Einsatz kamen.
Nicht nur Huong, sondern auch viele andere Opfer, darunter Huongs Freunde und Verwandte, wurden auf die gleiche Weise getäuscht. Die Summe, die Kriminelle mit einem solchen Facebook-Konto ergaunern können, liegt bei mehreren zehn Millionen Dong.
Auch im zweiten Halbjahr 2023 gingen bei der Bkav laufend Meldungen und Hilfeanfragen von Opfern zu ähnlichen Betrugsfällen ein. Laut Bkav-Experten übernahmen die Kriminellen im Fall von Huong zwar die Kontrolle über das Facebook-Konto, übernahmen es jedoch nicht sofort vollständig, sondern verfolgten es heimlich und warteten auf eine Gelegenheit, sich als Opfer auszugeben und Freunde und Verwandte um Geld zu bitten.
Sie verwenden KI, um ein gefälschtes Video des Gesichts und der Stimme des Facebook-Kontoinhabers zu erstellen (Deepfake). Als sie aufgefordert wurden, zur Authentifizierung einen Videoanruf zu tätigen, stimmten sie zu, den Anruf anzunehmen, trennten die Verbindung dann jedoch schnell wieder, um einer Entdeckung zu entgehen.
Laut Herrn Nguyen Tien Dat vom AntiMalware Research Center des Bkav ermöglicht die Fähigkeit, Benutzerdaten durch KI zu sammeln und zu analysieren, die Entwicklung ausgefeilter Betrugsstrategien. Dies bedeutet auch, dass die Komplexität von Betrugsszenarien bei der Kombination von Deepfake und GPT zunimmt, was die Betrugserkennung erschwert.
Bkav empfiehlt den Benutzern, besonders wachsam zu sein, keine persönlichen Daten (CCCD, Bankkonto, OTP-Code usw.) preiszugeben und kein Geld per Telefon, über soziale Netzwerke oder Websites mit Anzeichen von Betrug an Fremde zu überweisen.
Bei Anfragen zum Ausleihen/Überweisen von Geld auf ein Konto über soziale Netzwerke sollten zur erneuten Bestätigung andere Authentifizierungsmethoden wie Anrufe oder die Nutzung anderer Kommunikationskanäle verwendet werden.
[Anzeige_2]
Quelle: https://nld.com.vn/canh-bao-su-dung-ai-tao-hinh-anh-va-giong-noi-gia-mao-de-lua-tien-196240202191252818.htm
Kommentar (0)