
感染した文書は ChatGPT 経由で Google ドライブ上のデータを漏洩する可能性があります (写真: Wired)。
懸念されるのは、この脆弱性はユーザーによる操作を必要としないという点であり、個人データとますます関連付けられる人工知能 (AI) モデルの文脈におけるサイバーセキュリティに関する新たな警告を引き起こしている。
「汚染された」文書がデータ漏洩につながる
8月6日に米国ラスベガスで開催されたBlack Hatセキュリティカンファレンスで、2人の専門家、マイケル・バルグリー氏とタミール・イシャイ・シャルバット氏がAgentFlayerと呼ばれる攻撃手法を実演しました。
この攻撃は、ChatGPT を Google ドライブ、Gmail、Microsoft カレンダーなどの外部サービスに接続する機能であるコネクタの脆弱性を悪用します。
「ハッキングされたりデータ漏洩したりするために、ユーザーは何もする必要はありません。私たちはこれが完全にゼロクリックであることを証明しました」と、セキュリティ企業ZenityのCTO、マイケル・バルグリー氏は述べています。
攻撃は、攻撃者が被害者のGoogleドライブに「ポイズニング」された文書を共有することから始まります。この文書には、約300語の悪意のあるプロンプトが含まれており、フォントサイズ1の白い文字で書かれています。肉眼ではほとんど見えませんが、コンピュータでは判読可能です。
表面上、このテキストは会議メモを装っていますが、実際には、ChatGPTが被害者のGoogleドライブアカウントから機密性の高いAPIキーを見つけて抽出するための指示が含まれています。
この隠されたプロンプトは、ユーザーの要求通りにコンテンツを要約するのではなく、AIが見つけたAPIキーをMarkdownリンク経由で外部サーバーに送信するよう強制します。データは画像として抽出されるため、サーバーは情報全体を取得できます。
OpenAIはこれに対処したが、リスクは残る
OpenAIはバルグリー氏の報告を受け、迅速に緩和策を実施した。「連続したマルウェアインジェクション攻撃に対する強固な防御策を開発することが重要です」と、Google Workspaceのセキュリティ製品管理担当シニアディレクター、アンディ・ウェン氏は述べた。
このインシデントは修正されましたが、大規模言語モデル(LLM)を外部システムに接続する際の潜在的なリスクを浮き彫りにしています。AIが私たちの生活や仕事に深く浸透するにつれて、ハッカーが悪用できる攻撃対象領域も拡大しています。
専門家は、間接プロンプトインジェクションは深刻な脅威となり、スマートホームから企業のインフラに至るまで、多くのスマートシステムを攻撃者が制御できるようになると警告している。
「LLM を外部データ ソースに接続することは強力ですが、AI ではよくあることですが、強力になればなるほどリスクも増大します」と Bargury 氏は結論付けています。
出典: https://dantri.com.vn/cong-nghe/canh-bao-lo-du-lieu-luu-tru-tren-google-drive-thong-qua-chatgpt-20250807155706949.htm
コメント (0)