テクノロジーベースの詐欺が増加し続けているため、ディープフェイクは現在大きな懸念事項となっています。
セキュリティ専門家は、サイバー犯罪者が頻繁に活動するダークネットフォーラムを調査した結果、詐欺目的でディープフェイクを使用する犯罪者が非常に多く、現在市場に出回っているディープフェイクソフトウェアの需要が供給をはるかに上回っていることを発見した。
需要が供給を上回るにつれ、カスペルスキーの専門家は、高品質のなりすましビデオを提供したり、偽のソーシャルメディアライブストリームで有名人の画像を使用したり、被害者が送った金額の2倍を支払うと約束したりするなど、ディープフェイク詐欺の件数は増加し、より多様で洗練された形態をとるようになると予測しています。
規制情報参照システムによると、世界中の企業の37%がディープフェイク音声詐欺に遭遇し、29%がディープフェイク動画の被害に遭っています。
この技術はベトナムのサイバーセキュリティに対する脅威となっており、サイバー犯罪者は偽のビデオ通話を使って個人になりすまし、親戚や友人から金を借りることが多い。
ディープフェイクのビデオ通話はわずか 1 分しか続かないため、被害者が本物と偽物を見分けるのは困難です。
ディープフェイクは、高度なオンライン詐欺における「悪夢」になりつつある。
「ディープフェイクは女性と社会にとって悪夢になりつつあります。サイバー犯罪者は人工知能(AI)を悪用し、被害者の顔をポルノ写真や動画、そしてプロパガンダキャンペーンに重ね合わせています。」
「これらのフォームは、虚偽の情報を拡散して世論を操作し、組織や個人の評判を傷つけることさえ目的としています」と、カスペルスキーのベトナム地域ディレクター、ヴォ・ドゥオン・トゥ・ディエム氏は述べています。
AIは犯罪者によって悪意のある目的で悪用されていますが、個人や企業は人工知能自体を使用してディープフェイクを識別し、詐欺の成功確率を減らすことができます。
したがって、ユーザーには、AI 生成コンテンツ検出ソフトウェア (高度なアルゴリズムを使用して画像/ビデオ/オーディオの編集レベルを分析および判断する) を使用するなど、詐欺から身を守るための便利なソリューションがいくつか提供されます。
ディープフェイク動画の場合、口の動きや話し方の不一致を検出できるツールが登場しました。一部のプログラムは非常に強力で、心臓が血液を送り出すと人間の静脈の色が変わるため、ビデオ解像度を分析することで皮膚の下の異常な血流を検出できます。
さらに、画像や動画などに識別マークとして機能し、作者が AI 製品の著作権を保護するのに役立つ透かしもあります。この機能は、人工知能を作成したプラットフォームの起源を追跡するのに役立つため、ディープフェイクに対する武器となる可能性があります。技術に精通したユーザーは、ソースコンテンツを確認して、元のデータが AI によってどのように変更されたかを確認できます。
現在、いくつかの新興技術では、暗号化アルゴリズムを使用して、設定された時間間隔でビデオにハッシュ値を挿入しています。ビデオが編集されている場合、ハッシュ値が変更され、そこからユーザーはコンテンツが改ざんされているかどうかを確認できます。
これまでも、色の偏差、不自然な筋肉の動き、目の動きなど、動画内の異常を見つけるチュートリアルがいくつかありました。しかし、AIはどんどん賢くなってきているので、これらの値が必ずしも正しい結果をもたらすとは限りません。
動画の信頼性を検証するプロセスは、もはや肉眼に基づくものではなく、偽造コンテンツを防止および検出することを目的として生まれた技術的なツールが必要です。
カーン・リン
[広告2]
ソース
コメント (0)