Deepfake ist mittlerweile ein großes Problem, da die Zahl technologiebasierter Betrügereien weiter zunimmt.
Nach Recherchen in Darknet-Foren, in denen Cyberkriminelle häufig aktiv sind, stellten Sicherheitsexperten fest, dass so viele Kriminelle Deepfake für Betrugszwecke nutzten, dass die Nachfrage das Angebot an derzeit auf dem Markt verfügbarer Deepfake-Software bei weitem überstieg.
Da die Nachfrage das Angebot übersteigt, prognostizieren die Experten von Kaspersky, dass Deepfake-Betrug in immer vielfältigeren und raffinierteren Formen zunehmen wird: vom Anbieten eines hochwertigen Identitätsvideo bis hin zur Verwendung von Promi-Bildern in gefälschten Social-Media-Livestreams mit dem Versprechen, den doppelten Betrag zu zahlen, den das Opfer ihnen geschickt hat.
Laut dem Informationsreferenzsystem Regula sind 37 % der Unternehmen weltweit auf Deepfake-Stimmbetrug gestoßen und 29 % sind Opfer von Deepfake-Videos geworden.
Diese Technologie ist zu einer Bedrohung für die Cybersicherheit in Vietnam geworden, wo Cyberkriminelle häufig gefälschte Videoanrufe verwenden, um sich als Einzelpersonen auszugeben und sich Geld von deren Verwandten und Freunden zu leihen.
Ein Deepfake-Videoanruf kann nur eine Minute dauern, sodass es für die Opfer schwierig ist, zwischen echt und gefälscht zu unterscheiden.
Deepfake entwickelt sich bei ausgeklügelten Online-Betrugsmaschen allmählich zum „Albtraum“.
„ Deepfake ist zu einem Albtraum für Frauen und die Gesellschaft geworden. Cyberkriminelle nutzen künstliche Intelligenz (KI), um die Gesichter ihrer Opfer in pornografische Fotos und Videos sowie in Propagandakampagnen einzufügen.
Diese Formen zielen darauf ab, die öffentliche Meinung durch die Verbreitung falscher Informationen zu manipulieren und sogar den Ruf von Organisationen oder Einzelpersonen zu schädigen“, sagte Frau Vo Duong Tu Diem, Vietnam Country Director von Kaspersky.
Obwohl KI von Kriminellen für böswillige Zwecke missbraucht wird, können Einzelpersonen und Unternehmen künstliche Intelligenz selbst immer noch nutzen, um Deepfakes zu erkennen und so die Erfolgswahrscheinlichkeit von Betrugsversuchen zu verringern.
Dementsprechend stehen den Benutzern einige nützliche Lösungen zum Schutz vor Betrug zur Verfügung, beispielsweise die Verwendung einer KI-generierten Software zur Inhaltserkennung (mithilfe fortschrittlicher Algorithmen zur Analyse und Bestimmung des Bearbeitungsgrads von Bildern/Videos/Tönen).
Für Deepfake-Videos gibt es Tools, die nicht übereinstimmende Mundbewegungen und Sprache erkennen können. Einige Programme sind sogar leistungsstark genug, um durch Analyse der Videoauflösung einen abnormalen Blutfluss unter der Haut zu erkennen, da sich die Farbe menschlicher Venen ändert, wenn das Herz Blut pumpt.
Darüber hinaus gibt es ein Wasserzeichen, das als Erkennungszeichen in Bildern, Videos usw. dient und Autoren hilft, das Urheberrecht an KI-Produkten zu schützen. Diese Funktion kann zu einer Waffe gegen Deepfake werden, da sie hilft, den Ursprung der Plattform, die künstliche Intelligenz erstellt, zurückzuverfolgen. Nutzer mit technischem Wissen können den Ursprung des Inhalts zurückverfolgen und vergleichen, wie die Originaldaten von der KI bearbeitet wurden.
Derzeit verwenden einige neue Technologien Verschlüsselungsalgorithmen, um in festgelegten Zeitintervallen Hashwerte in das Video einzufügen. Wenn das Video bearbeitet wurde, ändert sich der Hashwert und Benutzer können anhand dessen überprüfen, ob der Inhalt manipuliert wurde oder nicht.
Früher gab es einige Richtlinien zum Auffinden von Anomalien in Videos, beispielsweise Farbabweichungen, unnatürliche Muskelbewegungen, Augenbewegungen … Allerdings wird die KI immer intelligenter, sodass diese Werte nicht immer zu korrekten Ergebnissen führen.
Der Prozess zur Überprüfung der Zuverlässigkeit von Videos basiert nicht mehr auf dem bloßen Auge, sondern erfordert technologische Tools, die mit dem Ziel entwickelt wurden, gefälschte Inhalte zu verhindern und zu erkennen.
Khanh Linh
[Anzeige_2]
Quelle
Kommentar (0)