Vietnam.vn - Nền tảng quảng bá Việt Nam

Gefälschte Fotocollage, echtes Risiko

Việt NamViệt Nam12/09/2023

08:22, 12.09.2023

Technologien der künstlichen Intelligenz (KI) schaffen durch immer ausgefeiltere Täuschungstechniken alarmierende Gefahren in der sozialen Gemeinschaft.

Unter anderem lockt die kürzlich entwickelte „Deepfake“-Technologie viele Nutzer, insbesondere Frauen, an, ihre Fotos mit Bildern von Schönheitsköniginnen, Models usw. zu kombinieren, um echt auszusehen, ohne zu wissen, dass dahinter unvorhersehbare Risiken stecken.

Kürzlich teilte ein Bekannter von mir einen Link zu einem Video mit der Überschrift „Enthüllungsfilm“ eines berühmten weiblichen Stars. Beim Anklicken des Links waren die Leute überrascht, das Gesicht einer jungen Schauspielerin in sexy Kleidung zu sehen, die „intim“ mit einem Mann war. Ein Technologieexperte erklärte, dass es sich nicht um einen echten Film, sondern lediglich um einen Technologiebetrug handele, bei dem mithilfe von „Deepfake“-Technologie das Bild einer anderen Person erstellt werde.

Ein KI-generiertes Foto eines Benutzers. Foto aus dem Internet

Dieser Experte berichtete außerdem, dass es in den letzten zehn Tagen in sozialen Netzwerken einen Trend gegeben habe, Porträtfotos an KI-Anwendungssoftware zu senden, um „schöne, realistische“ Fotos zu erhalten. Viele junge Leute sind davon begeistert und beraten sich gegenseitig, welche intelligentere Software die schönsten Bilder, wie zum Beispiel von berühmten Schauspielern, Models usw., kombinieren kann. Manche Anwendungssoftware ermöglicht es sogar, Fotos zu Videos zusammenzufügen. „Allerdings kann niemand die Gefahren dieses Spiels vorhersehen. Kurz gesagt: Eines Tages wirst du ein Bild von dir selbst in einem sexy, nackten Körper sehen“, warnte der Experte.

Aus den Informationen geht hervor, dass die „Deepfake“-Technologie auf Basis der Machine-Learning-Plattform und unter Verwendung des Open-Source-Codes von Google entwickelt wurde. Der Begriff „Deepfake“ setzt sich aus den Begriffen „Deep Learning“ und „Fake“ zusammen und bedeutet „lernendes Erzeugen von Simulationen“. Die Technologie scannt das Video und Porträt eines bestimmten Nutzers und fügt es anschließend mit anderen Videos oder Fotos zu einem Foto oder Clip zusammen. Dank intelligenter KI-Funktionen kann diese Technologie grundlegende Identifikationsmerkmale eines menschlichen Gesichts wie Augen, Mund und Nase sowie die Geschwindigkeit der Gesichtsbewegungen und den Klang der Stimme ersetzen, um eine nahezu reale Kopie zu erstellen. Je mehr Originalbilddaten in diesem Prozess vorhanden sind, desto einfacher ist es für die KI-Funktion, zu lernen und ein gefälschtes Gesicht und Bild zu erstellen, das mit einer realen Person identisch ist.

Mit der rasanten technologischen Entwicklung breitet sich „Deepfake“ schnell in viele Lebensbereiche aus – von der einfachen Unterstützung bei der Wahl einer passenden Frisur bis hin zum Design eines bestimmten Outfits. Der Anwendungszweck der Technologie ist daher sehr positiv und wird von vielen Nutzern geschätzt. Die Kehrseite des Problems ist jedoch die Möglichkeit für Täter und Kriminelle, sie für böse Zwecke zu missbrauchen.

Dementsprechend werden Benutzer, die ihre Porträts oder Videos an Online-Bildbearbeitungssoftware weitergeben, leicht Opfer billiger Unterhaltung, wie etwa der Bearbeitung von Aktfotos, sexueller Stimulation usw. Personen, die Fotos bearbeiten, unterhalten sich vielleicht nur selbst, aber sie können diese gefälschten Bilder auch verwenden, um andere anzugreifen, lächerlich zu machen, zu diffamieren oder zu erpressen, die Ehre anderer zu beleidigen und sogar die Beziehungen der Beteiligten zu verwirren und zu zerstören.

Zweitens können Kriminelle KI nutzen, um gefälschte Charaktere zu erstellen und Online-Betrug zu begehen, beispielsweise Verwandte und Freunde anzurufen, um Geld zu leihen, oder Informationen für böse Zwecke zu stehlen. Kriminelle können sich sogar als Benutzer ausgeben, um sich bei Online-Technologieanwendungen anzumelden, online zu kaufen und zu verkaufen, per Bankkarte … und sich Vermögenswerte anzueignen. Von dort aus können Betrugs-, Erpressungs- und Terrorringe virtuelle Konten mit gefälschten Charakteren nutzen, um böse Taten zu begehen.

Die Technologie-Community hat vorübergehend viele beliebte Software- und Website-Tools aufgelistet, die „Deepfake“-Technologie verwenden, wie z. B. reface, zao, avatarify, deepfakes web β, myheritage, wombo … Diese Liste könnte jedoch aufgrund der rasanten technologischen Entwicklung länger und vielfältiger werden. Daher warnt die Cybersicherheits-Community Nutzer, bei Betrugsversuchen mit Deepfake-Technologie äußerst vorsichtig zu sein. Andernfalls könnten Nutzer eines Tages feststellen, dass sich jemand als sie ausgibt, um Geld von der Bank abzuheben oder onlinepolitisch- terroristische Aussagen zu einem bestimmten Thema zu machen.

Mädchen und Jungen, die gerne ihre Online-Fotos zeigen, ihre Bilder simulieren und unvergessliche Momente festhalten, sollten es sich noch einmal gut überlegen. Denn nichts ist für Nutzer absolut kostenlos und sicher, und unvorsichtiges Handeln kann später schwerwiegende Folgen haben. In der Online-Community gibt es ein Sprichwort: „Hab Spaß, aber nicht zu viel!“ – vielleicht ist es angebracht, diese Warnung noch einmal zu betonen!

Thuy Bat Nhi


Quelle

Kommentar (0)

No data
No data

Gleiches Thema

Gleiche Kategorie

Ruhige Morgen auf dem S-förmigen Landstreifen
Feuerwerk explodiert, Tourismus nimmt zu, Da Nang punktet im Sommer 2025
Erleben Sie nächtliches Tintenfischangeln und Seesternbeobachtung auf der Perleninsel Phu Quoc
Entdecken Sie den Herstellungsprozess des teuersten Lotustees in Hanoi

Gleicher Autor

Erbe

Figur

Geschäft

No videos available

Nachricht

Politisches System

Lokal

Produkt