Doch der Nachrichtenagentur AFP zufolge war die Stimme der Tochter tatsächlich ein Produkt künstlicher Intelligenz (KI) und die Entführung völlig unwirklich.
Angesichts dieses Betrugsproblems sagen Experten, dass die größte Gefahr der KI darin besteht, dass die Grenze zwischen Realität und Fiktion verschwimmt und Cyberkriminellen eine billige, aber dennoch effektive Technologie zur Durchführung ihrer bösen Absichten zur Verfügung steht.
In einer neuen Serie von Betrügereien, die die USA erschüttern, verwenden Betrüger KI-gestützte Stimmklon-Tools, die überraschend realistisch sind – und dennoch leicht online zugänglich sind –, um Geld zu stehlen, indem sie sich als Familienmitglieder ihrer Opfer ausgeben.
„Hilf mir, Mama, hilf mir“, hörte Jennifer DeStefano aus Arizona eine panische Stimme am anderen Ende der Leitung.
70 % der Befragten glauben nicht, dass sie zwischen KI-Stimmen und echten menschlichen Stimmen unterscheiden können. Abbildung: AI Magazine
DeStefano war hundertprozentig davon überzeugt, dass ihre 15-jährige Tochter einen Skiunfall hatte. „Ich habe nie daran gezweifelt. Das war ihre Stimme. So weinte sie. Ich habe keine Sekunde daran gezweifelt“, sagte DeStefano im April einem lokalen Fernsehsender.
Der Betrüger rief DeStefanos Telefon an, zeigte eine unbekannte Nummer an und forderte ein Lösegeld von bis zu einer Million Dollar. Das KI-gestützte Erpressungsschema scheiterte innerhalb weniger Minuten, als DeStefanos Tochter Kontakt aufnehmen konnte.
Doch dieser schreckliche Fall verdeutlicht, dass Cyberkriminelle KI-Technologien missbrauchen können, um sich als andere auszugeben.
„Die Stimmklonfähigkeiten der KI sind mittlerweile kaum noch von einer echten menschlichen Stimme zu unterscheiden, sodass Betrüger ihren Opfern effizienter Informationen und Geld entlocken können“, sagte Wasim Khaled, CEO von Blackbird.AI, gegenüber AFP.
Eine einfache Suche im Internet liefert eine Vielzahl kostenlos verfügbarer Apps, die KI-Stimmen mithilfe einer kurzen, sogar nur wenige Sekunden dauernden Beispielaufnahme generieren können. Dadurch kann die echte Stimme einer Person leicht aus den online veröffentlichten Inhalten gestohlen werden.
„Mit einer kleinen Audioprobe kann die KI-Sprachkopie zum Versenden von Voicemails und Sprachtexten verwendet werden. Sie kann sogar als Live-Stimmverzerrer bei Telefongesprächen eingesetzt werden“, bemerkte Khaled.
Betrüger verwenden möglicherweise unterschiedliche Akzente oder Geschlechter oder ahmen sogar die Sprechweise ihrer Opfer nach.
In einer weltweiten Umfrage unter 7.000 Personen in neun Ländern, darunter auch den USA, gab jeder Vierte an, entweder schon einmal mithilfe der KI-Spracherkennung betrogen worden zu sein oder jemanden zu kennen, der auf diese Weise betrogen worden sei.
70 % der Befragten gaben an, dass sie nicht sicher seien, ob sie den Unterschied zwischen einer geklonten und einer echten Stimme erkennen könnten.
US-Behörden haben in letzter Zeit wiederholt vor der zunehmenden Zahl von Betrügereien gewarnt, die auf ältere Großeltern abzielen. In einem häufigen Szenario gibt sich der Betrüger als Enkel des Opfers aus, der in einer schwierigen Situation dringend Geld benötigt.
„Sie erhalten einen Anruf. Eine panische Stimme ist am Apparat. Es ist Ihr Neffe. Er sagt, er steckt in großen Schwierigkeiten. Er hat sein Auto zu Schrott gefahren und sitzt im Gefängnis. Aber Sie können ihm helfen, indem Sie ihm Geld schicken“, beschreibt die FTC den Betrug.
In den Kommentaren unter dem Warnhinweis der FTC gaben viele Menschen an, dass ihre älteren Familienmitglieder auf diese Weise betrogen worden seien.
Das ist die Geschichte des 19-jährigen Eddie aus Chicago. Eddies Großvater erhielt einen Anruf von jemandem, der sich als er ausgab und sagte, er brauche Geld, weil er einen Autounfall verursacht habe.
Die List war so überzeugend, dass Eddies Großvater sich beeilte, das Geld zusammenzukratzen, und sogar erwog, sein Haus mit einer Hypothek zu belasten, um an das Geld zu kommen, bevor die Lüge aufflog, heißt es in einem Bericht von McAfee Labs.
„Weil es so einfach ist, hochrealistische Stimmklone zu erstellen, ist praktisch jeder mit einer Online-Präsenz gefährdet“, sagte Hany Farid, Professor an der UC Berkeley School of Information, gegenüber AFP. „Diese Betrügereien nehmen zu und verbreiten sich.“
Anfang 2023 räumte das KI-Startup ElevenLabs ein, dass sein Sprachtranskriptionstool für böswillige Zwecke missbraucht werden könnte. Konkret veröffentlichte ein Nutzer des Unternehmensprodukts einen gefälschten Audioclip, der die Schauspielerin Emma Watson beim Lesen der Biografie „Mein Kampf“ des deutschen Naziführers Adolf Hitler zeigt.
Wir entwickeln uns so schnell, dass man nicht allem trauen kann, was man im Internet sieht. Deshalb brauchen wir neue Technologien, um zu wissen, ob die Person, mit der man spricht, wirklich die ist, die sie vorgibt zu sein, sagte Gal Tal-Hochberg, Technologiechefin der Risikokapitalgesellschaft Team8, gegenüber AFP.
Laut VNA/Tin Tuc Zeitung
[Anzeige_2]
Quellenlink
Kommentar (0)