Laut BGR wird 2024 ein entscheidendes Jahr sein, in dem sich zeigen wird, ob künstliche Intelligenz tatsächlich die Zukunft des Computings ist oder nur eine vorübergehende Modeerscheinung. Während die legitimen Anwendungsbereiche von KI immer vielfältiger werden, wird in den kommenden Monaten auch die Schattenseite dieser Technologie durch unzählige Betrugsfälle ans Licht kommen.
Die Betrugsexperten von Scams.info haben soeben eine Liste mit drei KI-gestützten Betrugsmaschen veröffentlicht, vor denen man sich im Jahr 2024 in Acht nehmen sollte. Generell gilt: Vorsicht ist geboten bei allem, was zu glamourös wirkt, doch die unten aufgeführten Maschen erfordern besonders erhöhte Wachsamkeit.
KI-basierte Anlagebetrügereien
Große Unternehmen wie Google, Microsoft und OpenAI haben Millionen von Dollar in KI investiert und werden auch dieses Jahr weiterhin massiv investieren. Betrüger nutzen dies aus, um Sie mit fragwürdigen Angeboten zu verleiten. Wenn Ihnen jemand in den sozialen Medien weismachen will, KI würde Ihre Rendite vervielfachen, sollten Sie zweimal überlegen, bevor Sie Ihr Geld investieren.
„Tolle Angebote“ und risikoarme Investitionen gibt es in Wirklichkeit nicht.
„Seien Sie vorsichtig bei Anlagen, die hohe Renditen bei geringem Risiko versprechen, und recherchieren Sie gründlich, bevor Sie Ihr Geld investieren“, warnt Experte Nicholas Crouch von Scams.info. Neue Anleger sollten auch Angebote, die die Anwerbung neuer Mitglieder erfordern, kritisch hinterfragen; diese basieren häufig auf einem Multi-Level-Marketing-Modell (MLM), von dem nur die Spitzenreiter profitieren, während andere Teilnehmer kaum etwas davon haben.
Sich als Verwandter ausgeben
Der Betrug, sich als Freunde oder Verwandte auszugeben, um Geld zu leihen, ist nicht neu, da Stimmenimitationen nicht sehr effektiv sind. Mit KI wird diese Betrugsmasche jedoch deutlich heimtückischer. Ein YouTube- Video oder Facebook-Post mit der Stimme eines Verwandten genügt, und der Betrüger kann diese mithilfe von KI perfekt imitieren. Könnten Sie den Unterschied bei einem Telefonat bemerken?
Künstliche Intelligenz kann die Stimmen Ihrer Angehörigen problemlos imitieren.
Screenshot aus der Washington Post
„Es ist von entscheidender Bedeutung, dass die Menschen ihre Social-Media-Konten schützen, um zu verhindern, dass Betrüger Sprachaufnahmen und Familieninformationen sammeln“, betonte Crouch.
Nutzung von Sprachbefehlen zum Umgehen von Sicherheitssystemen.
Manche Banken nutzen Spracherkennung zur Identitätsprüfung bei telefonischen Transaktionen. Aus den oben genannten Gründen ist diese Methode jedoch deutlich unsicherer geworden. Werden Videos oder Clips mit der eigenen Stimme im Internet veröffentlicht, können Kriminelle diese Inhalte nutzen, um die Stimme zu kopieren. Wie Crouch anmerkt, verfügen Banken zwar weiterhin über andere Daten zur Überprüfung der Kundenidentität, doch diese Taktik erhöht das Risiko, dass Kriminelle Zugriff auf Bankkonten erhalten.
Sprachbasierte Sicherheitssysteme sind vor der Macht der KI nicht mehr sicher.
Künstliche Intelligenz (KI) hat das Potenzial, unser Leben und die Interaktion mit Geräten grundlegend zu verändern. Gleichzeitig ist sie das neueste Werkzeug, das Hacker und Betrüger für Angriffe auf Nutzer einsetzen. Daher ist es unerlässlich, wachsam zu bleiben und gründliche Recherchen durchzuführen, bevor man sich auf Aktivitäten im Zusammenhang mit KI einlässt.
Quellenlink






Kommentar (0)