Im Gegensatz zur Vergangenheit, als der Zugang zu künstlichen Tools zur Erstellung von Deepfake -Videos recht eingeschränkt war, sind viele KI-Tools wie Grok, ChatGPT, Meta AI, Gemeni und DeepSeek weit verbreitet und ermöglichen die kostenlose Nutzung grundlegender Funktionen, einschließlich der Bildbearbeitung. Nutzer können das gewünschte Bild erstellen oder sogar zuschneiden und bearbeiten, ohne spezielle Verarbeitungstechniken verstehen zu müssen. Dies hat zu einem zunehmenden Einsatz von KI zur Erstellung von Gesichts-Splicing für Zwecke geführt, die von der Unterhaltung bis hin zu Bedrohungen im Internet reichen.
Frau YN (Bezirk 1, Ho-Chi-Minh-Stadt) gab an, sie sei einmal Opfer einer KI-basierten Bildmanipulation geworden und müsse eine hohe Geldsumme zahlen, um „sensible“ Daten abrufen zu können, obwohl diese alle mithilfe künstlicher Intelligenz erstellt worden seien. Kriminelle sammelten ihre persönlichen Bilder, bearbeiteten ihre Gesichter zu schädlichen Inhalten, erstellten vertrauliche Chats und erpressten Frau YN anschließend.
Kriminelle nutzen KI, um Opfer zu bearbeiten, zu beschneiden und zu erpressen
„Sie zeigten mir Screenshots der gefälschten Chats, Bilder und Videos, die sie erstellt hatten, und verlangten dann 100 Millionen VND, um die Inhalte zu löschen. Ich muss zugeben, dass die zusammengesetzten Bilder weder echt noch gefälscht zu erkennen sind“, teilte das Opfer mit und fügte hinzu, dass sie das oben genannte Verhalten den Behörden gemeldet habe.
Der Fall von Frau YN ist nur einer von vielen jüngsten Vorfällen, bei denen KI und Bildbearbeitungstools für böswillige Zwecke missbraucht werden. Derzeit teilen Social-Media-Nutzer in Vietnam trotz zahlreicher Warnungen von Experten im Bereich Informationssicherheit immer noch sehr unbekümmert persönliche Bilder sowie Fotos von Freunden und Verwandten online und öffentlich.
Kürzlich warnte das Ministerium für öffentliche Sicherheit auch Telefonnutzer vor dem Aufkommen von Kriminellen, die öffentlich im Internet verfügbare Bilder und Videos von Personen ausnutzen, bearbeiten, zuschneiden und kombinieren, um sensible Inhalte zu erstellen, mit denen sie drohen und erpressen können. „Wir raten den Nutzern, beim Empfang von Nachrichten oder Anrufen mit den oben genannten Inhalten wachsam zu sein und bei Bedrohung kein Geld zu überweisen. Bei Anzeichen von Betrug oder Erpressung von Eigentum sollten sie sich umgehend bei der nächstgelegenen Polizeidienststelle melden und dies über die VNeID-App melden“, heißt es in der Mitteilung.
Neben Erpressung können Kriminelle auch viele öffentliche persönliche Bilder und Videos des Opfers nutzen, um gefälschte Inhalte zu erstellen, den Ruf des Opfers im Arbeitsumfeld zu schädigen, persönliche Rache zu nehmen und dem Geist und der Ehre zu schaden. Insbesondere werden diese gefälschten Dokumente immer raffinierter und sind sowohl für Laien als auch für diejenigen, die sich für künstliche Intelligenz interessieren, schwer zu erkennen.
Eine Studie des polnischen Unternehmens Tidio, das KI-Chatbots zur Vertriebsunterstützung entwickelt, ergab Ende letzten Jahres, dass die Mehrheit der Internetnutzer zunehmend Schwierigkeiten hat, von KI generierte Bilder zu unterscheiden. Das Unternehmen gibt an, dass 87 % der Befragten KI-Bilder mit Fotos von echten Menschen verwechselten. 62 % der Befragten zeigten Interesse an KI und maschinellem Lernen, doch die Hälfte dieser Gruppe konnte von künstlicher Intelligenz generierte Bilder nicht richtig identifizieren.
Derzeit gibt es keine spezifischen Vorschriften für den Einsatz von KI bei Cyberkriminalität. Die Verwendung von Bildern anderer Personen zum Drohen, Erpressen oder Verbreiten falscher Informationen kann jedoch dennoch im Rahmen der Bestimmungen geahndet werden, die sich auf Straftaten wie die Demütigung anderer, die Erpressung von Eigentum oder die Verbreitung obszöner Kulturprodukte beziehen.
Angesichts dieser Situation empfehlen Experten den Benutzern, beim Teilen persönlicher Bilder in sozialen Netzwerken vorsichtig zu sein und Sicherheitstools zum Schutz ihrer Privatsphäre zu verwenden.
[Anzeige_2]
Quelle: https://thanhnien.vn/canh-giac-ke-xau-loi-dung-ai-ghep-mat-nan-nhan-de-de-doa-tong-tien-185241107153341681.htm
Kommentar (0)