SGGPO 20. Oktober 2023 19:13
Deepfakes werden nicht mehr länger zu Unterhaltungszwecken eingesetzt, sondern von Cyberkriminellen zunehmend als Betrugsinstrument missbraucht … und der Deepfake-Betrug wird in immer vielfältigeren und ausgefeilteren Formen zunehmen.
Kaspersky prognostiziert, dass Deepfake-Betrug in immer vielfältigeren und ausgefeilteren Formen zunehmen wird. |
Nach Untersuchungen in Darknet-Foren, in denen Cyberkriminelle häufig aktiv sind, stellte Kaspersky fest, dass viele Kriminelle Deepfakes für Betrugszwecke verwenden, und zwar in einem Ausmaß, dass die Nachfrage das Angebot an Deepfake-Software auf dem Markt bei weitem übersteigt.
Die Experten von Kaspersky gehen davon aus, dass die Vielfalt und Raffinesse von Deepfake-Betrugsmaschen zunehmen wird. Sie reichen vom Angebot eines hochwertigen Identitätsvideo mit umfassenden Produktionsservices bis hin zur Verwendung von Promi-Bildern in gefälschten Social-Media-Livestreams und dem Versprechen, den Betrag, den das Opfer ihnen schickt, zu verdoppeln.
Während KI von Kriminellen für böswillige Zwecke missbraucht wird, können Privatpersonen und Unternehmen KI nutzen, um Deepfakes zu erkennen und so die Erfolgsaussichten von Betrugsfällen zu verringern. Kaspersky stellt Lösungen zum Schutz vor Deepfake-Betrug vor:
Tools zur KI-Inhaltserkennung: KI-gestützte Software zur Inhaltserkennung verwendet fortschrittliche KI-Algorithmen, um den Grad der Manipulation von Bild-, Video- und Audiodateien zu analysieren und zu bestimmen.
Wasserzeichen für KI-Inhalte: Wasserzeichen dienen als Erkennungszeichen in Bildern, Videos usw. und helfen Autoren, das Urheberrecht an KI-Werken zu schützen. Dieses Tool kann jedoch auch zu einer Waffe gegen Deepfakes werden, da es hilft, den Ursprung der Plattform, die die KI erstellt hat, zurückzuverfolgen.
Herkunft der Inhalte: Da KI große Datenmengen aus verschiedenen Quellen sammelt, um neue Inhalte zu erstellen, zielt dieser Ansatz darauf ab, den Ursprung dieser Inhalte zurückzuverfolgen.
Videoauthentifizierung: Hierbei wird überprüft, ob der Videoinhalt seit seiner Erstellung verändert wurde. Dieser Prozess ist für Videoproduzenten von größter Bedeutung.
„Deepfake ist zu einem Albtraum für Frauen und die Gesellschaft geworden. Cyberkriminalität „Wir nutzen künstliche Intelligenz (KI), um die Gesichter unserer Opfer auf pornografische Fotos und Videos zu propagieren und nutzen diese für Propagandakampagnen. Diese Methoden zielen darauf ab, die öffentliche Meinung durch die Verbreitung falscher Informationen zu manipulieren oder sogar den Ruf von Organisationen oder Einzelpersonen zu schädigen. Wir rufen die Öffentlichkeit dazu auf, gegenüber dieser Bedrohung wachsamer zu sein“, sagte Vo Duong Tu Diem, Country Director von Kaspersky Vietnam.
[Anzeige_2]
Quelle
Kommentar (0)