SGGPO 20. Oktober 2023 19:13
Deepfakes werden nicht mehr nur zu Unterhaltungszwecken eingesetzt, sondern zunehmend auch von Cyberkriminellen als Betrugswerkzeug genutzt... und Deepfake-Betrug wird mit immer vielfältigeren und ausgefeilteren Formen zunehmen.
| Kaspersky geht davon aus, dass Deepfake-Betrugsfälle mit zunehmender Vielfalt und Raffinesse zunehmen werden. |
Nach Recherchen in Darknet-Foren, in denen Cyberkriminelle häufig aktiv sind, stellte Kaspersky fest, dass viele Kriminelle Deepfakes für Betrugszwecke einsetzen, und zwar so sehr, dass die Nachfrage das Angebot an Deepfake-Software auf dem Markt bei Weitem übersteigt.
Kaspersky-Experten prognostizieren, dass Deepfake-Betrügereien an Vielfalt und Raffinesse zunehmen werden – von dem Angebot hochwertiger Imitationsvideos mit umfassenden Produktionsdienstleistungen bis hin zur Verwendung von Prominentenbildern in gefälschten Social-Media-Livestreams und dem Versprechen, den vom Opfer gesendeten Betrag zu verdoppeln.
Obwohl KI von Kriminellen für böswillige Zwecke missbraucht wird, können Privatpersonen und Unternehmen KI dennoch nutzen, um Deepfakes zu erkennen und so die Wahrscheinlichkeit erfolgreicher Betrugsversuche zu verringern. Kaspersky stellt Lösungen vor, mit denen sich Nutzer vor Deepfake-Betrug schützen können:
KI-gestützte Inhaltserkennungstools: KI-gestützte Inhaltserkennungssoftware verwendet fortschrittliche KI-Algorithmen, um den Grad der Manipulation von Bild-, Video- und Audiodateien zu analysieren und zu bestimmen.
KI-Inhalte mit Wasserzeichen: Wasserzeichen dienen als Identifikationsmerkmale in Bildern, Videos usw. und helfen Autoren, das Urheberrecht an KI-Werken zu schützen. Dieses Werkzeug kann jedoch auch zur Waffe gegen Deepfakes werden, da es die Rückverfolgung der Plattform ermöglicht, die die KI erstellt hat.
Herkunft der Inhalte: Da KI große Datenmengen aus verschiedenen Quellen sammelt, um neue Inhalte zu erstellen, zielt dieser Ansatz darauf ab, den Ursprung dieser Inhalte zurückzuverfolgen.
Videoauthentifizierung: Dabei wird überprüft, ob der Videoinhalt seit seiner Erstellung verändert wurde. Dieser Prozess ist für Videoproduzenten von größter Bedeutung.
„Deepfake ist zu einem Albtraum für Frauen und die Gesellschaft geworden. Cyberkriminalität.“ Derzeit wird künstliche Intelligenz (KI) eingesetzt, um die Gesichter von Opfern in pornografische Fotos und Videos sowie in Propagandakampagnen einzufügen. Ziel dieser Methoden ist es, die öffentliche Meinung durch die Verbreitung von Falschinformationen zu manipulieren oder sogar den Ruf von Organisationen oder Einzelpersonen zu schädigen. „Wir rufen die Öffentlichkeit zu erhöhter Wachsamkeit gegenüber dieser Bedrohung auf“, sagte Vo Duong Tu Diem, Landesdirektorin von Kaspersky Vietnam.
Quelle






Kommentar (0)