BGRによると、2024年は世界にとって、人工知能が本当にコンピューティングの未来なのか、それとも一時的な流行に過ぎないのかを見極める重要な時期となるでしょう。AIの実際の応用はますます多様化していますが、今後数ヶ月の間に、数え切れないほどの詐欺によって、この技術のダークサイドも明らかになるでしょう。
Scams.info の詐欺対策専門家が、2024 年に誰もが警戒すべき 3 つの AI 詐欺のリストを発表しました。一般的に、派手すぎるものには注意が必要ですが、以下の手口には特に注意が必要です。
AIを使った投資詐欺
Google、Microsoft、OpenAIといった大企業はAIに数百万ドルを投入しており、今年も引き続き多額の投資を続けるでしょう。詐欺師たちはこの事実につけ込み、怪しい投資機会にあなたを誘い込もうとします。ソーシャルメディアで、AIが投資収益を倍増させると説得してくる人がいたら、財布の紐を緩める前によく考えてください。
低リスクで「良い」投資など存在しない。
「低リスクで高リターンを約束する投資には注意が必要です。投資する前に必ずリサーチを行ってください」と、Scams.infoのニコラス・クラウチ氏は警告しています。また、新規投資家は紹介オファーにも注意が必要です。こうしたオファーは、上位の成績を収めた人だけが利益を得て、他の参加者はほとんど利益を得られない、いわゆる「ねずみ講」であることが多いからです。
親戚になりすます
友人や親戚になりすましてお金を借りるという手口は、詐欺師の声真似があまり効果的でなかった時代では、特に目新しいものではありませんでした。しかし、AIの登場により、この詐欺はさらに恐ろしいものになります。YouTube動画やFacebookの投稿に親戚の声を載せるだけで、詐欺師はAIを使ってそれを完璧に真似ることができます。電話でその違いを見分けられるでしょうか?
AIはあなたの愛する人の声を簡単に真似できる
ワシントンポストのスクリーンショット
「詐欺師が自分の声や家族の情報を盗み取らないように、人々がソーシャルメディアのアカウントを保護することが重要だ」とクラウチ氏は強調した。
音声を使ってセキュリティシステムを回避する
一部の銀行は、電話での取引時に音声認識を利用して本人確認を行っています。しかし、前述の理由から、この方法は以前よりも安全性が低下しています。自分の音声を収録した動画やクリップをインターネット上に投稿すれば、悪意のある人物がそのコンテンツを利用して声を盗む可能性があります。クラウチ氏が指摘するように、銀行は顧客の本人確認に他のデータも活用していますが、この手法は銀行口座の盗難に一歩近づくことになります。
音声セキュリティシステムはもはやAIの力から安全ではない
AIは私たちの生活やデバイスとの関わり方を根本的に変える可能性を秘めています。同時に、ハッカーや詐欺師がユーザーを攻撃するために利用する最新のツールでもあります。AI関連の活動に携わる前に、常に警戒を怠らず、必ず調査を行うようにしてください。
[広告2]
ソースリンク
コメント (0)