ChatGPTの長期記憶機能は、OpenAIが2024年2月に導入し、9月に拡張した新機能です。
最近、セキュリティ研究者のヨハン・レーベルガー氏がこの機能に関連する重大な脆弱性を明らかにしました。
報道によると、この新機能により、チャットボットは過去の会話の情報を保存できるようになる。これにより、ユーザーはチャットのたびに年齢、興味、個人的な意見などの情報を再入力する必要がなくなる。しかし、この機能自体が攻撃者に悪用される脆弱性となっている。

ヨハン・レーバーガー氏は、ハッカーがプロンプト・インジェクション技術、つまりAIのメモリに悪意のある命令を埋め込み、命令に従わせる手法を利用できると指摘した。これらのコマンドは、電子メール、文書、ウェブサイトといった信頼できないコンテンツを通じて配信される。
こうした偽の記憶が一度保存されると、AIはそれをユーザーとの会話において真実の情報として使い続けるため、ユーザーの個人データが不正に収集・利用される可能性があります。
レーバーガー氏は具体的な例として、悪意のある画像を含むリンクを送信し、ChatGPTに偽の記憶を保存させた例を挙げました。この情報はChatGPTのその後の応答に影響を与えます。重要なのは、すべてのユーザー入力がハッカーのサーバーにも送信されることです。
したがって、ハッカーが攻撃を実行するには、ChatGPTユーザーに悪意のある画像を含むリンクをクリックさせるだけで済みます。すると、ChatGPTユーザーとのすべての会話は、痕跡を残さずに攻撃者のサーバーにリダイレクトされます。
2024年5月、Rehberger氏は脆弱性を発見し、OpenAiに報告しましたが、OpenAiはこれをセキュリティ上の欠陥として却下しました。ユーザーデータが盗まれた可能性があるという証拠を受け取った後、同社はChatGPTのWeb版に一時的なパッチをリリースしました。
この問題は一時的に解決されたものの、Rehberger氏は、信頼できないコンテンツが依然としてプロンプトインジェクションを利用してChatGPTの長期メモリに偽の情報を挿入できる可能性があると強調しました。つまり、場合によってはハッカーがこの脆弱性を悪用し、個人情報を永久に盗む目的で悪意のあるメモリを保存できる可能性があるということです。
OpenAIは、ChatGPTに保存されたデータを定期的に確認し、誤情報を検出することをユーザーに推奨しています。また、ツール内で保存されたデータの管理と削除方法についても詳細な手順を提供しています。
[広告2]
出典: https://kinhtedothi.vn/nguoi-dung-chatgpt-co-nguy-co-bi-danh-cap-thong-tin.html






コメント (0)