あらゆる角度から攻撃せよ。
Googleは「Gemini Nano Banana」と呼ばれる新しい人工知能(AI)製品を発表しました。これは、文章を書いたり推論したりできる大規模な言語AI(LLM)ではなく、写真編集に特化したAIです。多くのユーザーはこのツールに期待を寄せていますが、同時にいくつかの欠点も抱えています。

「これはAI技術と倫理的制約における『後退』のようなものだ」と、コンダクトファイAIの最高科学責任者であるグエン・ホン・フック氏は個人的な意見を述べた。「ジェミニ・ナノ・バナナは効果的な画像編集機能を備えている。しかし、Googleがジェミニ・ナノ・バナナの検閲を解除し、障壁や制限メカニズムを緩めたことで、このAIは有名人に非常によく似た画像、示唆的な画像、センシティブな画像などを作成できるようになった」とフック氏は語った。
グエン・ホン・フック氏によると、この機能により、ジェミニ・ナノ・バナナは、AI専門家でさえ見分けがつかないほどリアルな偽画像を作成するツールとなり、有名政治家の偽写真を作成して虚偽情報を拡散したり、個人がAIによる写真加工やソーシャルメディア上での誹謗中傷の被害に遭ったりするなど、新たな詐欺やサイバーセキュリティ上のリスクにつながる可能性があるという。
さらに、数十種類ものAI写真編集ツールがインターネット上で爆発的な人気を博している中、ディープフェイク詐欺は止まる気配を見せていません。セキュリティ機関の統計によると、ディープフェイク技術は、特にビジネスリーダーなどの高価値な個人を標的としたフィッシングキャンペーンを生み出しています。2024年には、世界中で14万~15万件の事例が発生し、その75%がCEOや上級幹部を標的としていました。ディープフェイクは、2027年までに世界の経済損失を32%、年間約400億ドル増加させる可能性があります。
最近、AI企業Anthropicは、外国のハッカーによるサイバー攻撃キャンペーンを検知し阻止した。これは、自動化された攻撃活動を調整するためにAIが使用されたことを初めて記録した事例である。具体的には、ハッカーはAIシステムを使用して侵入作戦を計画、指示、実行していた。これは、サイバー攻撃キャンペーンの規模と速度を拡大させる恐れのある「憂慮すべき」展開である。
国家サイバーセキュリティ協会の不正対策組織の責任者であるゴ・ミン・ヒエウ氏は、AIを統合したツールは、人間を使う場合と比べて不正のスピードを約20倍に高めると語った。詐欺師はAIに分析用の不正シナリオを提供し、システムは即座に被害者と自動的にチャットを開始する。初期データから、AIは被害者の要望を理解し、リアルタイムでコミュニケーションを取ることができる。最も高度な手口は「中間者攻撃」で、ユーザーがビデオ認証(顔の録画やコマンドの送信など)を行う際に、ハッカーが介入して送信データを妨害する。サイバー犯罪者は、事前に準備したディープフェイク動画を挿入し、ユーザーの実際のデータストリームを置き換えて認証プロセスを回避しようとする。この方法により、銀行や金融機関のセキュリティシステムも騙される危険にさらされている。
より良いデータ管理
AIの普及が進むにつれ、セキュリティとプライバシーのリスクも著しく増加しています。リモートサーバーに保存・処理されるデータは、ハッカーやサイバー犯罪者にとって魅力的な標的となるでしょう。全米サイバーセキュリティ協会(NCSA)のデータによると、2025年第2四半期だけで、AIを利用したサイバー攻撃の件数は62%増加し、世界全体で最大180億ドルの損失が発生しました。
専門家はデータ保護が極めて重要だと考えている。しかし、多くの「闇市場」プラットフォームでは、月額わずか20ドルでデータの収集と販売が公然と行われている。サイバー犯罪者は、言語モデルを模倣しつつ犯罪目的にカスタマイズされたツールを使用できる。これらのツールはマルウェアを生成したり、アンチウイルスソフトを回避したりする能力を持っている。
ベトナムでは、政令第13/2023/ND-CP号(2023年4月17日施行)により個人データの保護が規定されています。さらに、2026年1月1日に施行予定の個人データ保護法は、個人データの漏洩や悪用リスクに対処するためのより強力な法的メカニズムを確立するものです。しかし、国家サイバーセキュリティ協会によると、その執行の有効性は、国民の意識向上、企業の責任強化、規制機関の処理能力向上という3つの柱において、依然として強化される必要があります。技術的な対策に加え、個人一人ひとりが、異常な兆候や疑わしい兆候を識別し、危険なデジタルインタラクションから自らを積極的に保護する能力を身につける必要があります。
カスペルスキーは、ダークAI(標準的なセキュリティ対策の対象外で動作する大規模言語モデル(LLM)の展開を指す用語で、フィッシング、情報操作、サイバー攻撃、データ悪用などの行為を可能にする)の悪用について警告を発しました。アジア太平洋地域におけるダークAIの台頭により、組織や個人は、ますます高度化し、検知が困難なサイバー攻撃に備える必要があります。
カスペルスキーの中東、トルコ、アフリカ、アジア太平洋地域担当グローバルリサーチ&アナリシスチーム(GReAT)責任者であるセルゲイ・ロジキン氏は、現在のAI悪用の一例として、ブラックハットGPTモデルの出現を挙げました。これらは、マルウェアの作成、大規模攻撃のための流暢で説得力のあるフィッシングメールの作成、ディープフェイク音声や動画の作成、さらには模擬攻撃のサポートなど、非倫理的かつ違法な目的のために特別に開発または改変されたAIモデルです。
カスペルスキーの専門家は、個人および企業に対し、AIが生成するマルウェアを検出するために次世代セキュリティソリューションを使用するとともに、データ保護を最優先事項とすることを推奨しています。企業は、AIによる脆弱性悪用を追跡するためのリアルタイム監視ツールを導入し、アクセス制御と従業員研修を強化して、AIのダークゾーンへの侵入とデータ漏洩のリスクを抑制し、脅威を監視してインシデントに迅速に対応するためのサイバーセキュリティオペレーションセンターを設立する必要があります。
出典:https://www.sggp.org.vn/bao-mat-du-lieu-thoi-ai-post824210.html






コメント (0)