Vietnam.vn - Nền tảng quảng bá Việt Nam

Kaspersky erklärt, wie man Betrug mithilfe der Deepfake-Technologie erkennt

Báo Thanh niênBáo Thanh niên21/10/2023

[Anzeige_1]

Da der technologische Fortschritt die sozialen Medien und Massenmedien weiterhin prägt, werden Deepfakes zu einem großen Problem, da die Zahl der Deepfake-Betrügereien weiter zunimmt.

Kaspersky chia sẻ cách nhận diện lừa đảo bằng công nghệ deepfake  - Ảnh 1.

Deepfakes können für schlechte Zwecke verwendet werden

Nach Untersuchungen in Darknet-Foren, in denen Cyberkriminelle häufig aktiv sind, stellte Kaspersky fest, dass viele Kriminelle Deepfakes für Betrugszwecke verwenden, und zwar in einem Ausmaß, dass die Nachfrage das Angebot an Deepfake-Software auf dem Markt bei weitem übersteigt.

Da die Nachfrage das Angebot übersteigt, prognostizieren die Experten von Kaspersky, dass Deepfake-Betrug in immer vielfältigeren und ausgefeilteren Formen zunehmen wird. Von der Bereitstellung eines hochwertigen Identitätsbetrugsvideos mit vollem Produktionsservice bis hin zur Verwendung von Promi-Bildern in gefälschten Social-Media-Livestreams und dem Versprechen, den Betrag, den das Opfer ihnen geschickt hat, zu verdoppeln.

„Deepfakes sind zu einem Albtraum für Frauen und die Gesellschaft geworden. Cyberkriminelle nutzen mittlerweile künstliche Intelligenz (KI), um die Gesichter ihrer Opfer in pornografische Fotos und Videos sowie in Propagandakampagnen einzufügen. Ziel dieser Methoden ist es, die öffentliche Meinung durch die Verbreitung falscher Informationen zu manipulieren oder sogar den Ruf von Organisationen oder Einzelpersonen zu schädigen. Wir rufen die Öffentlichkeit dazu auf, gegenüber dieser Bedrohung wachsamer zu sein“, sagte Vo Duong Tu Diem, Country Director von Kaspersky Vietnam.

Laut Regula, einem Informationsreferenzsystem, sind bis zu 37 % der Unternehmen weltweit Opfer von Voice-Deepfake-Betrug geworden und 29 % sind Opfer von Deepfake-Videos geworden. Deepfakes sind in Vietnam zu einer Bedrohung für die Cybersicherheit geworden. Cyberkriminelle nutzen dort häufig Deepfakes-Videoanrufe, um sich als eine andere Person auszugeben und sich von deren Verwandten und Freunden große Geldsummen für dringende Fälle zu leihen. Darüber hinaus kann ein Deepfake-Videoanruf in nur einer Minute getätigt werden, sodass es für die Opfer schwierig ist, zwischen einem echten und einem gefälschten Anruf zu unterscheiden.

Während KI von Kriminellen für böswillige Zwecke missbraucht wird, können Einzelpersonen und Unternehmen KI dennoch nutzen, um Deepfakes zu erkennen und so die Erfolgswahrscheinlichkeit von Betrugsversuchen zu verringern.

Kaspersky stellt Lösungen vor, mit denen Benutzer sich vor Deepfake-Betrug schützen können:

Tools zur KI-Inhaltserkennung : KI-gestützte Software zur Inhaltserkennung verwendet fortschrittliche KI-Algorithmen, um den Grad der Manipulation von Bild-, Video- und Audiodateien zu analysieren und zu bestimmen. Bei Deepfake-Videos helfen einige Tools dabei, nicht übereinstimmende Mundbewegungen und Sprache zu erkennen. Einige Tools erkennen einen abnormalen Blutfluss unter der Haut, indem sie die Auflösung des Videos analysieren, da die Farbe der menschlichen Venen sich ändert, wenn das Herz Blut pumpt.

Mit Wasserzeichen versehene KI-Inhalte : Wasserzeichen dienen als Erkennungszeichen in Bildern, Videos usw. und helfen Autoren dabei, das Urheberrecht an KI-Werken zu schützen. Das Tool könnte jedoch zu einer Waffe gegen Deepfakes werden, da es dabei helfen könnte, den Ursprung der Plattform zurückzuverfolgen, die die KI erstellt hat.

Herkunft der Inhalte : Da KI große Datenmengen aus verschiedenen Quellen sammelt, um neue Inhalte zu erstellen, zielt dieser Ansatz darauf ab, den Ursprung dieser Inhalte zu ermitteln.

Videoauthentifizierung : ist der Vorgang, mit dem überprüft wird, dass der Videoinhalt seit seiner Erstellung nicht verändert wurde. Dies ist der Prozess, der den Videoproduzenten die größten Sorgen bereitet. Einige neue Technologien verwenden kryptografische Algorithmen, um in festgelegten Intervallen Hashwerte in das Video einzufügen. Wenn das Video bearbeitet wurde, wird der Hashwert geändert.


[Anzeige_2]
Quellenlink

Kommentar (0)

No data
No data

Gleiches Thema

Gleiche Kategorie

Tierwelt auf der Insel Cat Ba
Die feuerrote Sonnenaufgangsszene bei Ngu Chi Son
10.000 Antiquitäten versetzen Sie zurück ins alte Saigon
Der Ort, an dem Onkel Ho die Unabhängigkeitserklärung las

Gleicher Autor

Erbe

Figur

Geschäft

No videos available

Nachricht

Politisches System

Lokal

Produkt