ホアン・オアン(役名は変更されています)はハノイの会社員です。Facebookメッセンジャーで友人と会話中、オアンの友人は別れを告げて会話を終えましたが、突然メッセージに戻り、お金を借りたいと言い、銀行口座に振り込むことを提案しました。
アカウント名は友人の名前と一致していたものの、ホアン・オアンさんは少し疑念を抱き、ビデオ通話による確認を依頼しました。友人はすぐに同意しましたが、友人の説明によると「インターネットの遅延」のため、通話は数秒しか続きませんでした。ビデオ通話で友人の顔を確認し、声も同じだったため、ホアン・オアンさんはもう疑うことなく送金しました。しかし、送金が成功した後になって初めて、彼女は自分がハッカーの罠に陥っていたことに気づきました。
ユーザーであるホアン・オアン氏のケースは、人工知能技術を使って被害者の友人や親族の画像や音声を作成し、彼らを騙して財産を奪おうとする詐欺グループの罠に陥った多くの被害者のうちの1人にすぎません。
Bkavの専門家によると、2023年後半、特に2024年の旧正月頃に、この情報セキュリティ会社は、上記と同様の詐欺事件に関する被害者からの報告や支援の要請を継続的に受けていたという。
同社の専門家の分析によると、ユーザー Hoang Oanh の場合、悪意のある人物が Facebook アカウントを乗っ取ったものの、すぐに完全に乗っ取ったわけではなく、密かに追跡し、被害者のふりをして友人や親戚に金銭を借りるよう依頼する機会を待っていたという。
詐欺師たちはAIを駆使し、Facebookアカウント所有者の顔と声を模倣した偽の動画(ディープフェイク)を作成しました。認証のためにビデオ通話を要求された際、詐欺師たちは通話に応じましたが、すぐに発覚を避けるために切断しました。
Bkavマルウェア研究センター所長のグエン・ティエン・ダット氏は、たとえビデオ通話で親戚や友人の顔が見え、声を聞いたとしても、必ずしもその人と話しているとは限らないと強調した。最近、ディープフェイクや人工知能技術を利用した金融詐欺の被害者が増えている。
「AIを通じてユーザーデータを収集・分析できる能力は、高度な不正戦略の構築を可能にします。これはまた、ディープフェイクとGPTを組み合わせた場合の不正シナリオの複雑さが増し、不正検出がはるかに困難になることを意味します」とグエン・ティエン・ダット氏は述べています。
Bkavの専門家は、ユーザーに対し、個人情報(IDカード、銀行口座、ワンタイムパスワードなど)を提供しないよう、特に注意を払うよう推奨しています。電話、ソーシャルネットワーク、または詐欺の兆候が見られるウェブサイトを介して、見知らぬ人に送金しないでください。ソーシャルネットワーク経由で口座への融資/送金の依頼があった場合は、電話やその他の通信チャネルを使用して確認するなど、他の認証方法を使用する必要があります。
2024 年のサイバー攻撃の傾向を予測する専門家は、AI の急速な発展が明らかなメリットをもたらすだけでなく、サイバーセキュリティに重大なリスクも生み出すという点で一致しています。
今日、AI技術に直面する企業や組織にとって最大の課題は、詐欺と高度な持続的脅威(APT)です。特にディープフェイクとGPTを組み合わせることで、詐欺シナリオはますます複雑化しています。AIを通じてユーザーデータを収集・分析できるようになったことで、高度な詐欺戦略が構築され、ユーザーによる詐欺の特定が困難になっています。
AIセキュリティの強化は、今後の紛れもないトレンドです。国際社会は緊密に協力し、新たなセキュリティ対策を開発するとともに、AIの潜在的なリスクに関するユーザーの知識と意識を高める必要があります。
偽のブランドメッセージを拡散する詐欺に注意してください
2024年の旧正月中に発生する5つのオンライン詐欺に関する警告
ベトナムにおけるフィッシング攻撃全体の9%は、当局のなりすましによるもの
[広告2]
ソース
コメント (0)