Vietnam.vn - Nền tảng quảng bá Việt Nam

3 KI-Betrügereien, vor denen Sie sich im Jahr 2024 in Acht nehmen sollten

Báo Thanh niênBáo Thanh niên16/01/2024

[Anzeige_1]

Laut BGR wird das Jahr 2024 ein entscheidender Zeitpunkt für die Welt sein, um zu erkennen, ob künstliche Intelligenz wirklich die Zukunft der Computertechnik ist oder nur ein vorübergehender Trend. Während die realen Anwendungsgebiete von KI immer vielfältiger werden, werden in den kommenden Monaten auch die Schattenseiten dieser Technologie durch unzählige Betrügereien ans Licht kommen.

Die Betrugsbekämpfungsexperten von Scams.info haben gerade eine Liste mit drei KI-Betrugsmaschen veröffentlicht, vor denen sich im Jahr 2024 jeder in Acht nehmen sollte. Generell gilt: Vorsicht vor allem, was zu auffällig ist, aber die folgenden Tricks erfordern besondere Wachsamkeit.

Anlagebetrug mit KI

Große Unternehmen wie Google, Microsoft und OpenAI haben Millionen von Dollar in KI investiert und werden auch dieses Jahr massiv investieren. Betrüger nutzen diese Tatsache aus, um Sie zu Investitionen in unseriöse Gelegenheiten zu verleiten. Wenn Ihnen jemand in den sozialen Medien weismachen will, dass KI Ihre Anlagerenditen vervielfachen wird, überlegen Sie es sich zweimal, bevor Sie Ihr Portemonnaie öffnen.

3 chiêu trò lừa đảo AI cần cảnh giác trong năm 2024- Ảnh 1.

„Gute“ Investitionen mit geringem Risiko gibt es nie.

„Seien Sie vorsichtig bei Investitionen, die hohe Renditen bei geringem Risiko versprechen, und informieren Sie sich gründlich, bevor Sie Ihr Geld investieren“, warnt Nicholas Crouch von Scams.info. Neue Anleger sollten auch bei Empfehlungsangeboten vorsichtig sein; dabei handelt es sich oft um Pyramidensysteme, von denen nur die Top-Performer profitieren, während nur wenige andere Teilnehmer profitieren.

Sich als Verwandte ausgeben

Der Trick, sich als Freund oder Verwandter auszugeben, um Geld zu leihen, ist nicht neu. Die Stimmenimitation des Betrügers ist allerdings nicht wirklich effektiv. Mit KI wird dieser Betrug jedoch deutlich gefährlicher. Ein YouTube- Video oder ein Facebook-Post mit der Stimme eines Verwandten kann der Betrüger mithilfe von KI perfekt imitieren. Erkennen Sie den Unterschied bei einem Telefonat?

3 chiêu trò lừa đảo AI cần cảnh giác trong năm 2024- Ảnh 2.

KI kann die Stimme Ihrer Liebsten problemlos imitieren

Screenshot der Washington Post

„Es ist wichtig, dass die Menschen ihre Social-Media-Konten schützen, um zu verhindern, dass Betrüger ihre Stimme und Familieninformationen aufzeichnen“, betonte Crouch.

Sicherheitssystem per Sprache umgehen

Manche Banken nutzen Stimmerkennung zur Verifizierung von Nutzern bei telefonischen Geschäftsabschlüssen. Aus den oben genannten Gründen ist diese Methode plötzlich weniger sicher als früher. Wenn Sie ein Video oder einen Clip Ihrer Stimme irgendwo im Internet veröffentlichen, kann ein Krimineller diesen Inhalt nutzen, um Ihre Stimme zu kopieren. Wie Crouch anmerkt, verfügen Banken zwar weiterhin über andere Daten zur Überprüfung der Kundenidentität, doch diese Taktik bringt sie dem Diebstahl Ihres Bankkontos einen Schritt näher.

3 chiêu trò lừa đảo AI cần cảnh giác trong năm 2024- Ảnh 3.

Sprachsicherheitssysteme sind vor der Macht der KI nicht mehr sicher

KI hat das Potenzial, unser Leben und die Art und Weise, wie wir mit unseren Geräten interagieren, grundlegend zu verändern. Sie ist zudem das neueste Werkzeug, mit dem Hacker und Betrüger Nutzer angreifen. Seien Sie daher stets wachsam und informieren Sie sich gründlich, bevor Sie KI-bezogene Aktivitäten durchführen.


[Anzeige_2]
Quellenlink

Kommentar (0)

No data
No data

Gleiches Thema

Gleiche Kategorie

Dorf auf dem Berggipfel in Yen Bai: Schwebende Wolken, schön wie ein Märchenland
Dorf versteckt im Tal in Thanh Hoa zieht Touristen an, um zu erleben
Die Küche von Ho-Chi-Minh-Stadt erzählt Geschichten von den Straßen
Vietnam – Polen malt „Symphonie des Lichts“ in den Himmel über Da Nang

Gleicher Autor

Erbe

Figur

Geschäft

No videos available

Nachricht

Politisches System

Lokal

Produkt