ChatGPTの公開リンク経由のチャット共有機能 - 写真: Techradar
ChatGPT は現在、世界中のユーザーから毎日 25 億件を超えるクエリを受けており、このチャットボットの人気の高まりを示しています。
しかし、このツールはユーザーから強い反発を受けています。「共有」機能のせいで何千もの会話から機密情報がGoogleやインターネット上の複数の検索エンジンに漏洩したからです。
高いセキュリティリスク
国家サイバーセキュリティ協会(NCA)の技術責任者であるVu Ngoc Son氏は、上記の事件はChatGPTユーザーにとって高いレベルのセキュリティリスクを示していると評価しました。
「上記のインシデントは、ユーザーがシェアボタンをクリックするという一定の主体性があるため、必ずしも技術的な欠陥とは言えません。しかし、AIチャットボット製品の設計に問題があり、ユーザーを混乱させ、ユーザーがシェアした場合に個人情報が漏洩するリスクについて十分な警告措置が講じられていないと言えるでしょう」と、ヴー・ゴック・ソン氏は分析しました。
ChatGPT では、ユーザーがパブリック リンクを介してチャットを共有することを選択した後にこの機能が実装され、コンテンツは OpenAI のサーバーにパブリック Web サイト (chatgpt.com/share/...) として保存され、アクセスにログインやパスワードは必要ありません。
Google のクローラーはこれらのページを自動的にスキャンしてインデックス化し、テキスト、画像、機密のチャット データなどを含むページを検索結果に表示します。
多くのユーザーは、友人や連絡先とチャットを共有していると思い込み、リスクに気づいていませんでした。その結果、数千件もの会話が流出し、中には個人情報を含むものもありました。
OpenAIはコミュニティからの反発を受け、2025年7月下旬にこの機能を迅速に削除しましたが、古いインデックスを削除するためにGoogleと調整するのに時間がかかりました。特に、Googleのキャッシュサーバーを含む複雑なストレージシステムでは、迅速に行うことはできません。
AIチャットボットを「安全のブラックボックス」として扱わないでください
データセキュリティ専門家のヴー・ゴック・ソン氏(国家サイバーセキュリティ協会(NCA)の技術責任者) - 写真:CHI HIEU
何千ものチャットが漏洩すると、個人秘密や企業秘密の漏洩、評判の失墜、経済的リスク、さらには自宅住所の漏洩による安全上の危険など、ユーザーにリスクをもたらす可能性があります。
「AI搭載のチャットボットは便利ですが、『ブラックボックス』ではありません。共有データはチェックされずに放置されると、ウェブ上に永久に残る可能性があるからです。
この事件は、プロバイダーとユーザーの両方にとって間違いなく教訓となるでしょう。他のAIサービスプロバイダーはこの経験から学び、より明確で透明性の高い警告機能を備えた機能を設計すべきです。
同時に、ユーザーはAIプラットフォーム上で個人を特定できる情報や機密情報を無制限に投稿することを積極的に制限する必要がある」とセキュリティ専門家のヴー・ゴック・ソン氏は勧告した。
データセキュリティの専門家によると、上記の事件はAIのための法的枠組みとサイバーセキュリティ基準の必要性を示している。AIサプライヤーと開発者は、悪質な脆弱性による漏洩、ソフトウェアの脆弱性を起因とするデータベース攻撃、不適切な管理によるポイズニングや、誤解を招くような歪曲された質問に答える不正使用といったデータ漏洩のリスクを回避し、セキュリティを確保するシステムを設計する必要がある。
ユーザーはAIとの個人情報の共有を制御し、機密情報を共有しないようにする必要があります。本当に必要な場合は、匿名モードを使用するか、情報を積極的に暗号化することで、データが特定の個人に直接結び付けられることを防ぐことをお勧めします。
出典: https://tuoitre.vn/hang-ngan-cuoc-tro-chuyen-voi-chatgpt-bi-lo-tren-google-nguoi-dung-luu-y-gi-20250805152646255.htm
コメント (0)