BGRによると、2024年は、人工知能が真にコンピューティングの未来を担うものなのか、それとも単なる一過性の流行に過ぎないのかを世界が認識する上で、極めて重要な年となるだろう。AIの真の応用分野はますます多様化している一方で、この技術の負の側面も、今後数ヶ月の間に無数の詐欺行為を通して明らかになるだろう。
Scams.infoの詐欺対策専門家が、2024年に人々が警戒すべきAIを利用した詐欺3件のリストを公開しました。一般的に、あまりにも魅力的に見えるものには注意が必要ですが、以下の詐欺は特に警戒を強める必要があります。
AIを利用した投資詐欺
Google、Microsoft、OpenAIといった大手企業は、AIに数百万ドルもの資金を投入しており、今年も引き続き多額の投資を行う予定です。詐欺師たちはこの事実を利用して、怪しい投資機会にあなたを誘い込もうとするでしょう。ソーシャルメディア上で、AIが投資収益を何倍にも増やすと説得しようとする人がいたら、財布を開く前に二度考えてください。
「お買い得な取引」や低リスクの投資など、実際には存在しない。
「低リスクで高収益を約束する投資には注意し、投資する前に必ず徹底的な調査を行ってください」と、Scams.infoの専門家であるニコラス・クラウチ氏は警告しています。新規投資家は、新規会員の紹介を求めるオファーにも注意が必要です。こうしたオファーはマルチレベルマーケティング(MLM)モデルで運営されていることが多く、上位層だけが利益を得る一方で、他の参加者はほとんど恩恵を受けません。
親族になりすます
友人や親戚になりすましてお金を借りる詐欺は、声真似があまり効果的ではないため、目新しいものではありません。しかし、AIの登場により、この種の詐欺ははるかに巧妙になっています。必要なのは、親戚の声が入ったYouTube 動画やFacebookの投稿だけで、詐欺師はAIを使ってそれを完璧に再現できます。電話でその違いに気づくことができるでしょうか?
AIは、あなたの愛する人の声を簡単に模倣することができます。
ワシントン・ポストのスクリーンショット
「詐欺師が音声録音や家族情報を収集するのを防ぐためにも、人々がソーシャルメディアのアカウントを保護することが極めて重要です」とクラウチ氏は強調した。
音声コマンドを使ってセキュリティシステムを回避する。
一部の銀行は、電話での取引時にユーザー認証に音声認識を使用しています。しかし、前述の理由から、この方法は以前よりも安全性が低下しています。インターネット上に自分の声を含む動画やクリップを投稿すると、悪意のある人物がそのコンテンツを利用してあなたの声をコピーする可能性があります。クラウチ氏が指摘するように、銀行は顧客の身元確認に他のデータも活用していますが、この手法は犯罪者があなたの銀行口座を盗む可能性を高めていると言えるでしょう。
音声ベースのセキュリティシステムも、もはやAIの力から逃れることはできない。
AIは私たちの生活やデバイスとの関わり方を根本的に変える可能性を秘めています。同時に、ハッカーや詐欺師がユーザーを攻撃するために利用する最新のツールでもあります。そのため、AIに関わる活動を行う前に、常に警戒を怠らず、徹底的な調査を行うことが非常に重要です。
ソースリンク






コメント (0)