テクノロジーベースの詐欺が増加し続けているため、ディープフェイクは現在大きな懸念事項となっています。
セキュリティ専門家は、サイバー犯罪者が頻繁に活動するダークネットフォーラムを調査した結果、詐欺目的でディープフェイクを使用する犯罪者が非常に多く、現在市場に出回っているディープフェイクソフトウェアの需要が供給をはるかに上回っていることを発見した。
需要が供給を上回るにつれ、カスペルスキーの専門家は、高品質のなりすましビデオを提供したり、偽のソーシャルメディアライブストリームで有名人の画像を使用したり、被害者が送った金額の2倍を支払うと約束したりするなど、ディープフェイク詐欺の件数は増加し、より多様で洗練された形態をとるようになると予測しています。
規制情報参照システムによると、世界中の企業の37%がディープフェイク音声詐欺に遭遇し、29%がディープフェイク動画の被害に遭っています。
この技術はベトナムのサイバーセキュリティに対する脅威となっており、サイバー犯罪者は偽のビデオ通話を使って個人になりすまし、親戚や友人から金を借りることが多い。
ディープフェイクのビデオ通話はわずか 1 分しか続かないため、被害者が本物と偽物を見分けるのは困難です。
ディープフェイクは、高度なオンライン詐欺における「悪夢」になりつつある。
「ディープフェイクは女性と社会にとって悪夢になりつつあります。サイバー犯罪者は人工知能(AI)を悪用し、被害者の顔をポルノ写真や動画、そしてプロパガンダキャンペーンに重ね合わせています。」
「これらのフォームは、虚偽の情報を拡散して世論を操作し、組織や個人の評判を傷つけることさえ目的としています」と、カスペルスキーのベトナム地域ディレクター、ヴォ・ドゥオン・トゥ・ディエム氏は述べています。
AIは犯罪者によって悪意のある目的で悪用されていますが、個人や企業は人工知能自体を使用してディープフェイクを識別し、詐欺の成功確率を減らすことができます。
したがって、ユーザーには、AI 生成コンテンツ検出ソフトウェア (高度なアルゴリズムを使用して画像/ビデオ/オーディオの編集レベルを分析および判断する) を使用するなど、詐欺から身を守るための便利なソリューションがいくつか提供されます。
ディープフェイク動画には、口の動きと音声の不一致を検出できるツールがあります。中には、心臓が血液を送り出す際に人間の静脈の色が変化することから、動画の解像度を解析することで皮下の異常な血流を検出できるほど強力なプログラムもあります。
さらに、画像や動画などに透かしを挿入することで識別マークとして機能し、AI製品の著作権保護に役立ちます。この機能は、人工知能(AI)を作成するプラットフォームの出所を追跡するのに役立つため、ディープフェイク対策の武器となり得ます。ある程度の技術知識を持つユーザーは、コンテンツの出所を追跡する方法を見つけ、元のデータがAIの「手」によってどのように編集されたかを比較することができます。
現在、いくつかの新興技術では、暗号化アルゴリズムを用いて、動画に一定間隔でハッシュ値を挿入しています。動画が編集された場合、ハッシュ値は変化し、ユーザーはそこからコンテンツが改ざんされたかどうかを検証できます。
これまで、色の偏差、不自然な筋肉の動き、目の動きなど、ビデオ内の異常を見つけることに関するチュートリアルがいくつかありました。ただし、AI はますます賢くなってきているため、これらの値が必ずしも正しい結果をもたらすとは限りません。
動画の信頼性を検証するプロセスは、もはや肉眼に基づくものではなく、偽造コンテンツを防止および検出することを目的として生まれた技術的なツールが必要です。
カーン・リン
[広告2]
ソース
コメント (0)