Bei Anschaffungskosten von nur etwa 1,3 Millionen VND geben gefälschte Werkzeuge wie Gesichtstransplantationen und Stimmenimitationen Anlass zu Warnungen vor dem Risiko von Betrug, gefälschten persönlichen Bildern und Folgen für die Cybersicherheit.

(Illustration)
Billige Preise im Darknet, lauern aber in großer Gefahr
Das globale Forschungs- und Analyseteam von Kaspersky (GReAT) hat Ergebnisse veröffentlicht, die zeigen, dass auf Darknet-Märkten vermehrt Anzeigen für die Erstellung von Deepfake- Videos und -Audios in Echtzeit aufgetaucht sind. Die Preise beginnen bei etwa 50 USD (ca. 1,3 Millionen VND) bzw. 30 USD (ca. 800.000 VND) für gefälschte Sprachnachrichten, abhängig von Komplexität und Länge des Inhalts.
Bisher kosteten „seriöse“ Deepfake-Dienste zwischen 300 und 20.000 US-Dollar pro Minute.
Der drastische Preisverfall – der Preis ist 400 Mal niedriger als das vorherige beliebte Niveau – erhöht das Risiko, für kriminelle Handlungen ausgenutzt zu werden, noch weiter.
Werbemerkmale und „Köder“ von Bösewichten
Die Werbung geht mittlerweile über einfache gefälschte Videos hinaus und umfasst Echtzeit-Gesichtstausch während Videoanrufen, das Vortäuschen von Gerätekameras oder das „Ersetzen“ von Gesichtern, um die Authentifizierung zu umgehen. Sie wirbt außerdem mit der Möglichkeit, Gesichtsausdrücke mit Sprachaufnahmen zu synchronisieren und sogar mehrere Sprachen zu unterstützen.
Darüber hinaus werden auch „Stimmenklonierungsdienste“ angeboten, die Stimmen imitieren und Tonhöhe und Klangfarbe anpassen, um verschiedene Emotionen auszudrücken. Viele Experten vermuten jedoch, dass es sich dabei um Lockangebote handelt – Käufer könnten dazu verleitet werden, Geld im Voraus zu überweisen, ohne das versprochene Produkt in der versprochenen Qualität zu erhalten.
„Auch die Notwendigkeit, dieses Instrument zu nutzen, nimmt zu.“
„Wir haben nicht nur Werbung für Deepfake-as-a-Service gesehen, sondern auch eine steigende Nachfrage nach diesen Tools festgestellt“, sagte Dmitry Galov , Leiter des GReAT-Teams von Kaspersky (Russland und GUS).
Cyberkriminelle experimentieren mit KI und integrieren sie in ihre Angriffsstrategien, sagte er. Einige Plattformen entwickeln sogar ihre eigenen „bösartigen“ LLMs, die von öffentlichen Modellen getrennt sind und direkt auf den Geräten der Angreifer ausgeführt werden können.
Deepfakes stellen zwar noch keine völlig neue Cyberbedrohung dar, doch die Technologie könnte Angriffe raffinierter und schwieriger zu erkennen machen.
Empfehlungen und Hinweise zur Erkennung von Deepfakes
Kaspersky empfiehlt Unternehmen und Organisationen, umfassende Cybersicherheitsmaßnahmen zu ergreifen, die sich nicht nur auf die Installation von Schutzsoftware beschränken, sondern auch den Aufbau eines Teams von IT-Experten mit den erforderlichen Fähigkeiten zur Erkennung und Reaktion beinhalten.
Darüber hinaus sollten die Mitarbeiter der Organisation darin geschult werden, ungewöhnliche Anzeichen in Video- oder Audioaufnahmen zu erkennen, die auf Deepfake-Technologie hindeuten könnten. Solche Videos weisen häufig ruckartige und unnatürliche Bewegungen, uneinheitliche Beleuchtung oder Hauttöne zwischen den einzelnen Bildern, Personen mit ungewöhnlich häufiger oder gar keiner Lidschlagfrequenz sowie verzerrte oder leicht deformierte Gesichter auf.
Zudem ist die Bildqualität oft mangelhaft und die Einzelbilder sind instabil, insbesondere bei schwachem Licht, wodurch das Video insgesamt weniger realistisch wirkt. Wachsamkeit gegenüber Deepfake-Bedrohungen und die Sensibilisierung der Öffentlichkeit gelten als wichtiger erster Schritt, um den Schaden durch ausgeklügelte Betrugsmaschen im Zeitalter der KI zu minimieren.
Quelle: https://doanhnghiepvn.vn/chuyen-doi-so/rui-ro-tu-deepfake-gia-re-tu-quang-cao-darknet-den-loi-keu-goi-canh-giac/20251016105304840










Kommentar (0)