情報セキュリティ部門は最近、ハイテクビデオおよび画像詐欺が継続的に発生していることについて警告を発しました。
そのため、サイバー犯罪者が人々の公開画像や動画を悪用して編集、カットしたり、偽の動画で脅迫したりする状況について、当局は広く国民に警告を発している。
人物の音声と画像を高精度に再現できるディープフェイク技術を使用することで、犯罪者はオンライン会議でリーダーになりすましたり、ビデオや通話を作成して金融詐欺を実行したりすることができます。
さらに、こうした詐欺は緊急性、恐怖、権力といった心理的要因を悪用することが多く、被害者は真偽を慎重に確認せずに性急に行動してしまいます。
ディープフェイクは金融投資詐欺に限りません。ロマンス詐欺もその一例です。ディープフェイクは、被害者とビデオ通話でやり取りする架空のキャラクターを作成するために使用されます。被害者の信頼を得た後、詐欺師は緊急事態、旅行費用、ローンの解決のために送金を要求します。
情報セキュリティ部門は、上記の状況を踏まえ、ソーシャルネットワーク上の著名人による投資アドバイスには注意すること、身元不明のメッセージ、電子メール、電話には注意すること、動画内の不自然な表情には注意深く観察することを推奨しています。
また、画像や動画、音声などの情報が悪者に盗まれるのを避けるために、ソーシャル ネットワーク上で個人情報に関連するコンテンツの投稿を制限する必要があります。同時に、個人情報を保護するためにアカウントをプライベート モードに設定する必要があります。
ベトナムサイバー詐欺防止プロジェクト(Chongluadao.vn)の共同設立者でサイバーセキュリティ専門家のゴ・ミン・ヒュー氏は、ダイ・ドアン・ケット紙の記者に対し、AIのディープフェイク技術を用いてビデオ通話を偽装し、詐欺行為を行う手法は依然として複雑だと述べた。被害者は、この技術を悪用して「獲物」の信頼性を高めている。
具体的には、被験者は、以前に「盗まれた」画像や動画から被害者に積極的にビデオ通話をかけ、技術的に加工したり、音声を歪めたり、画像を偽造したりして、被害者の信頼を得ようとします。
通常、これらの通話は非常に短く、数秒しか続きません。その後、詐欺師は不安定なネットワークや路上にいるなどの言い訳を使って、被害者に詐欺師の要求に応じるように求めます。
専門家は、近い将来、サイバー詐欺におけるAIの利用が大幅に増加する可能性があると警告しています。そのため、特に不審なメッセージ、ビデオ通話、リンクを受け取った場合は、積極的に注意を払う必要があります。
この専門家の分析によると、リアルタイム通話中の現在のディープフェイク人工知能(AI)アルゴリズムは、発信者が左を向いたり、右を向いたり、立ち上がったりした場合には対応できないとのことだ...
こうした電話を受ける際に特に注意すべき弱点の一つは、歯です。現在のAIアルゴリズムでは、なりすましの対象となる人物の歯を再現することはできません。
ディープフェイクを使用する場合、口を開けている人物の映像には歯が映っていない可能性があります。中には3つ、あるいは4つの顎を持つ人もいます。そのため、ディープフェイクを使った偽通話において、歯の特徴は最も認識しやすい要素となります。
詐欺の罠に陥らないためには、「ペースを落とす」こと、そして要求にすぐに従わないことが前提条件です。ソーシャルネットワーク経由でメッセージや電話を受けた場合は、少なくとも30秒以上かけて親戚に直接電話し、誰が連絡してきたのかを確認するか、直接会う必要があります。
ソーシャル ネットワーク上で親族を装い、詐欺や財産の横領を行っている疑いがある場合は、速やかに最寄りの警察機関に通報し、迅速なサポートと対応を受ける必要があります。
[広告2]
出典: https://daidoanket.vn/chuyen-gia-chi-meo-nhan-biet-cuoc-goi-deepfake-lua-dao-10300910.html
コメント (0)