Vietnam.vn - Nền tảng quảng bá Việt Nam

Schreckliche Erfahrung mit KI-Erpressungsstimme

ZNewsZNews04/05/2023

[Anzeige_1]

Jennifer DeStefano war fassungslos, als sie eine um Hilfe rufende Stimme hörte, die genau wie die ihrer ältesten Tochter Brianna (15) klang. Nach eingehender Untersuchung stellte sich heraus, dass es sich lediglich um einen Betrug mit Hilfe künstlicher Intelligenz handelte.

Am Nachmittag des 20. Januar klingelte Jennifer DeStefanos Telefon, als sie vor dem Tanzstudio, in dem ihre Tochter Aubrey trainierte, aus ihrem Auto stieg. Der Anrufer war unbekannt, und DeStefano hatte vor, nicht ans Telefon zu gehen.

Doch ihre ältere Tochter Brianna, 15, trainierte für ein Skirennen. DeStefano befürchtete, es könnte sich um einen Notruf handeln.

„Hallo?“, antwortete sie über die Freisprecheinrichtung, während sie ihr Auto abschloss, ihre Handtasche und Laptoptasche schnappte und ins Fitnessstudio ging. Plötzlich hörte DeStefano Schreie und Schluchzen.

AI anh 1

Jennifer DeStefano und ihre beiden Töchter. Foto: NVCC.

„Mama, ich stecke in Schwierigkeiten!“, rief eine Mädchenstimme. „Was hast du getan? Was ist los?“, fragte die Mutter sofort die Anruferin am anderen Ende der Leitung.

Moment der Panik

DeStefano sagte gegenüber CNN , die Stimme habe sich vom Akzent bis ins kleinste Detail genau wie Briannas angehört. „Ich dachte, sie wäre vom Berg gerutscht, so etwas passiert beim Skifahren. Ich geriet in Panik“, sagte DeStefano.

Die Schreie hörten nicht auf, und eine tiefe Männerstimme begann zu befehlen: „Hören Sie zu. Ihre Tochter ist in meinen Händen. Wenn Sie die Polizei oder sonst jemanden rufen, spritze ich ihr Drogen. Ich bringe sie nach Mexiko, und Sie werden Ihre Tochter nie wiedersehen.“

DeStefano war augenblicklich gelähmt. Dann rannte sie zitternd und schreiend in die Turnhalle. Sie hatte das Gefühl, als würde sie plötzlich ertrinken.

AI anh 2

DeStefano erlebte einen schrecklichen Moment, als eine Stimme, die genau wie Brianna klang, am Telefon um Hilfe rief. Foto: Jennifer DeStefano.

Es folgte eine chaotische Reihe von Ereignissen. Die Entführer forderten umgehend ein Lösegeld von einer Million Dollar , und DeStefano beschloss, die Polizei zu rufen. Nach zahlreichen Versuchen, Brianna zu erreichen, flog die „Entführung“ auf.

Wie sich herausstellte, war alles nur Schwindel. Verwirrt rief Brianna ihre Mutter an und sagte ihr, sie habe keine Ahnung, was die ganze Aufregung solle, obwohl bei ihr alles in Ordnung sei.

Doch DeStefano wird diesen schrecklichen vierminütigen Anruf mit dieser seltsamen Stimme nie vergessen.

DeStefano glaubt, Opfer einer virtuellen Entführung per Telefon geworden zu sein, bei der Deepfake-Technologie zum Einsatz kam. Mithilfe dieser KI-Technologie erschrecken die Entführer die Familie des Opfers mit Audioaufnahmen, die so verändert wurden, dass sie der Stimme des Opfers ähneln, und fordern Lösegeld.

Die dunkle Seite der KI

Laut Siobhan Johnson, einer Sprecherin des Federal Bureau of Investigation (FBI), haben Familien in den USA durch jeden Betrugsanruf durchschnittlich etwa 11.000 Dollar verloren.

AI anh 3

Durchschnittlich verlieren Familien in den USA etwa 11.000 Dollar pro Betrugsanruf. Foto: Matthew Fleming.

Im Jahr 2022 zeigten Daten der US-amerikanischen Federal Trade Commission (FTC), dass Amerikaner durch betrügerische Anrufe insgesamt 2,6 Milliarden Dollar verloren.

In einer Aufzeichnung von DeStefanos Anruf, die CNN von der Polizei von Scottsdale zur Verfügung gestellt wurde, versucht eine Mutter im Tanzstudio dem Disponenten zu erklären, was los ist.

„Eine Mutter kam herein und bekam einen Anruf von jemandem. Es war ihre Tochter. Ein Entführer sagte, er wolle eine Million Dollar. Er ließ sie nicht mit ihrer Tochter sprechen“, sagte die Anruferin.

Im Hintergrund hört man DeStefano rufen: „Ich möchte mit meiner Tochter sprechen.“ Der Disponent stellte sofort fest, dass es sich bei dem Anruf um eine Falschmeldung handelte.

Tatsächlich sind Spoofing-Anrufe in den USA an der Tagesordnung. Manchmal kontaktieren Anrufer ältere Menschen und behaupten, ihre Enkel hätten einen Unfall gehabt und bräuchten Geld für eine Operation.

Das Gemeinsame an dieser Methode ist, dass die falschen Entführer oft Aufnahmen von schreienden Menschenmengen verwenden.

US-Bundesbeamte warnen jedoch davor, dass diese Betrügereien immer raffinierter werden. Mithilfe von Deepfake-Technologien wird die Stimme der Opfer imitiert, um das Vertrauen von Bekannten zu gewinnen und sie dann um Geld zu betrügen.

AI anh 4

Erpressungsbetrügereien werden immer raffinierter. Deepfake-Technologie imitiert die Stimme des Opfers, um das Vertrauen von Bekannten zu gewinnen und dann Geld zu ergaunern. Foto: Protokoll

Durch die Entwicklung kostengünstiger und leicht zugänglicher KI-Programme können Betrüger Stimmen beliebig klonen und Gespräche erstellen, die genau wie das Original klingen.

„Diese Bedrohung ist nicht nur hypothetisch. Wir sehen, wie Betrüger diese Tools als Waffe einsetzen. Sie können mit weniger als einer Minute Audio einen relativ guten Stimmklon erstellen. Für manche Menschen reichen sogar ein paar Sekunden“, sagte Hany Farid, Professor für Informatik an der University of California in Berkeley.

Mithilfe von KI-Software könne die Stimmimitation bereits für 5 Dollar im Monat durchgeführt werden und sei für jeden leicht zugänglich, sagte Farid.

Die FTC gab im März außerdem eine Warnung heraus, dass Betrüger Audiodateien aus den Social-Media- Videos der Opfer stehlen könnten.

Der Einsatz künstlicher Intelligenz zum Einfügen von Gesichtern in Videos oder zum Einfügen gefälschter Stimmen (sogenannte Deepfakes) wird immer häufiger und gefährlicher. Dies stellt eine reale Gefahr im Internet dar.

Neben sensiblen Videos können Deepfakes auch ernsthaften Schaden anrichten, wenn sie fürpolitische Zwecke eingesetzt werden. Das 2018 viral gegangene Video der Gesichtsverwandlung des ehemaligen US-Präsidenten Barack Obama zeigte, dass auch führende Politiker Opfer werden können.

Im Jahr 2019 wurde Nancy Pelosi, die Sprecherin des US-Repräsentantenhauses, Opfer eines solchen Vorfalls. Ein bearbeitetes Video zeigte Pelosi im betrunkenen Zustand, wobei ihre Aussprache undeutlich war.

AI anh 5

Deepfakes werden nicht nur verwendet, um pornografische Videos zu kombinieren, sondern wecken auch vor wichtigen Ereignissen wie der US-Präsidentschaftswahl Ende 2020 Bedenken hinsichtlich Fake News. Foto: Cnet.

Ende 2019 verabschiedete der US-Bundesstaat Kalifornien ein Gesetz, das die Erstellung und Verbreitung von Deepfake-Videos verbietet. Das Gesetz besagt insbesondere, dass bearbeitete Videos, die Bilder, Videos oder Stimmen von Politikern innerhalb von 60 Tagen vor einer Wahl enthalten, illegal sind.

Im Jahr 2019 erklärten zwei Forscher der Vereinten Nationen (UN), Joseph Bullock und Miguel Luengo-Oroz, dass ihr KI-Modell, das mit Wikipedia-Texten und mehr als 7.000 Reden der Generalversammlung trainiert wurde, Reden von Staats- und Regierungschefs problemlos fälschen könne.

Das Team sagt, dass sie der KI nur ein paar Wörter eingeben mussten, um einen zusammenhängenden, „hochwertigen“ Text zu generieren.

Als die Forscher beispielsweise die Überschrift „Generalsekretär verurteilt tödliche Terroranschläge in Mogadischu aufs Schärfste“ eingaben, konnte die KI eine Rede generieren, in der sie ihre Unterstützung für die UN-Entscheidung zum Ausdruck brachte.


[Anzeige_2]
Quellenlink

Kommentar (0)

No data
No data
STÜCKE von HUE - Stücke von Hue
Magische Szene auf dem „umgedrehten Teehügel“ in Phu Tho
3 Inseln in der Zentralregion werden mit den Malediven verglichen und ziehen im Sommer Touristen an
Beobachten Sie nachts die glitzernde Küstenstadt Gia Lai in Quy Nhon
Bild von Terrassenfeldern in Phu Tho, sanft abfallend, hell und schön wie Spiegel vor der Pflanzsaison
Z121 Factory ist bereit für die International Fireworks Final Night
Berühmtes Reisemagazin lobt Son-Doong-Höhle als „die großartigste der Welt“
Geheimnisvolle Höhle zieht westliche Touristen an, vergleichbar mit der „Phong Nha-Höhle“ in Thanh Hoa
Entdecken Sie die poetische Schönheit der Vinh Hy Bay
Wie wird der teuerste Tee in Hanoi, der über 10 Millionen VND/kg kostet, verarbeitet?

Erbe

Figur

Geschäft

No videos available

Nachricht

Politisches System

Lokal

Produkt