Deepfake ist mittlerweile ein großes Problem, da die Zahl technologiebasierter Betrügereien weiter zunimmt.
Nach Recherchen in Darknet-Foren, wo Cyberkriminelle häufig aktiv sind, stellten Sicherheitsexperten fest, dass so viele Kriminelle Deepfake für Betrugszwecke nutzen, dass die Nachfrage das Angebot an derzeit auf dem Markt verfügbarer Deepfake-Software bei weitem übersteigt.
Da die Nachfrage das Angebot übersteigt, prognostizieren die Experten von Kaspersky, dass die Zahl der Deepfake-Betrugsmaschen zunehmen wird, und zwar in immer vielfältigeren und ausgefeilteren Formen: von der Bereitstellung eines qualitativ hochwertigen Identitätsvideo bis hin zur Verwendung von Prominentenbildern in gefälschten Social-Media-Livestreams mit dem Versprechen, den doppelten Betrag zu zahlen, den das Opfer ihnen geschickt hat.
Laut dem Informationsreferenzsystem Regula sind 37 % der Unternehmen weltweit bereits Opfer von Deepfake-Stimmbetrug geworden und 29 % sind Opfer von Deepfake-Videos geworden.
Diese Technologie ist zu einer Bedrohung für die Cybersicherheit in Vietnam geworden, wo Cyberkriminelle häufig gefälschte Videoanrufe nutzen, um sich als Einzelpersonen auszugeben und sich Geld von deren Verwandten und Freunden zu leihen.
Ein Deepfake-Videoanruf kann nur eine Minute dauern, sodass es für Opfer schwierig ist, zwischen echt und gefälscht zu unterscheiden.
Deepfake entwickelt sich bei ausgeklügelten Online-Betrugsmaschen allmählich zum „Albtraum“.
„ Deepfakes werden zum Albtraum für Frauen und die Gesellschaft. Cyberkriminelle nutzen künstliche Intelligenz (KI), um die Gesichter ihrer Opfer in pornografische Fotos und Videos sowie in Propagandakampagnen einzufügen.
Diese Formen zielen darauf ab, die öffentliche Meinung durch die Verbreitung falscher Informationen zu manipulieren und sogar den Ruf von Organisationen oder Einzelpersonen zu schädigen“, sagte Frau Vo Duong Tu Diem, Regionaldirektorin von Kaspersky in Vietnam.
Während KI von Kriminellen für böswillige Zwecke missbraucht wird, können Einzelpersonen und Unternehmen künstliche Intelligenz selbst immer noch nutzen, um Deepfakes zu erkennen und so die Erfolgswahrscheinlichkeit von Betrügereien zu verringern.
Dementsprechend stehen den Benutzern einige nützliche Lösungen zum Schutz vor Betrug zur Verfügung, beispielsweise die Verwendung einer KI-generierten Software zur Inhaltserkennung (mithilfe fortschrittlicher Algorithmen zur Analyse und Bestimmung des Bearbeitungsgrads von Bildern/Videos/Audio).
Für Deepfake-Videos gibt es mittlerweile Tools, die dabei helfen können, nicht übereinstimmende Mundbewegungen und Sprache zu erkennen. Einige Programme sind so leistungsfähig, dass sie durch Analyse der Videoauflösung einen abnormalen Blutfluss unter der Haut erkennen können, da sich die Farbe der menschlichen Venen ändert, wenn das Herz Blut pumpt.
Darüber hinaus gibt es auch ein Wasserzeichen, das als Erkennungszeichen in Bildern, Videos usw. dient und den Autoren hilft, das Urheberrecht an KI-Produkten zu schützen. Diese Funktion könnte zu einer Waffe gegen Deepfakes werden, da sie dabei hilft, den Ursprung der Plattform zurückzuverfolgen, die die künstliche Intelligenz erstellt hat. Technisch versierte Benutzer können sich den Quellinhalt ansehen, um zu sehen, wie die Originaldaten durch KI verändert wurden.
Derzeit verwenden einige neue Technologien kryptografische Algorithmen, um in festgelegten Zeitintervallen Hashwerte in das Video einzufügen. Wenn das Video bearbeitet wurde, ändert sich der Hashwert und der Benutzer kann anhand dessen überprüfen, ob der Inhalt manipuliert wurde oder nicht.
Es gab in der Vergangenheit einige Tutorials zum Auffinden von Anomalien in Videos, wie etwa Farbabweichungen, unnatürlichen Muskelbewegungen, Augenbewegungen usw. Allerdings wird die KI immer intelligenter, sodass diese Werte nicht immer richtige Ergebnisse liefern.
Der Prozess zur Überprüfung der Zuverlässigkeit von Videos basiert nicht mehr auf dem bloßen Auge, sondern erfordert technologische Tools, die mit dem Ziel entwickelt wurden, gefälschte Inhalte zu verhindern und zu erkennen.
Khanh Linh
[Anzeige_2]
Quelle
Kommentar (0)