アメリカ最大の銀行JPモルガン・チェース、アマゾン、テクノロジー企業のアクセンチュアはいずれも、データセキュリティ上の懸念から従業員によるChatGPTの使用を制限している。
CNNによると、これらの企業の懸念には根拠があるという。3月20日、OpenAIのチャットボットにエラーが発生し、ユーザーデータが漏洩した。このエラーはすぐに修正されたものの、同社はChatGPT Plusユーザーの1.2%が影響を受けたと明らかにした。漏洩した情報には、氏名、メールアドレス、請求先住所、クレジットカード番号の下4桁、カード有効期限が含まれていた。
3月31日、イタリアのデータ保護当局(ガランテ)は、OpenAIが脆弱性を公表した後、プライバシー上の懸念を理由にChatGPTの一時的な禁止を命じた。
法律事務所フォックス・ロスチャイルドLLPのデータセキュリティ・プライバシー担当共同議長マーク・マクリアリー氏はCNNに対し、ChatGPTをめぐるセキュリティ上の懸念は誇張ではないと述べた。同氏はこのAIチャットボットを「ブラックボックス」に例えた。
ChatGPTは2022年11月にOpenAIによってリリースされ、プロンプトを出すだけでエッセイ、物語、歌詞を作成できる機能で急速に注目を集めました。GoogleやMicrosoftといったテクノロジー大手も、膨大なオンラインデータリポジトリで学習された大規模言語モデルを搭載した同様のAIツールをリリースしています。
イタリアに続き、ドイツもChatGPTの禁止を検討している。
マクレア氏は、「ユーザーがこれらのツールに情報を入力する際、それがどのように使用されるかは分からない」と付け加えた。これは企業にとって懸念すべき事態だ。なぜなら、業務メールの作成や会議のメモを取るためにツールを利用する従業員が増えており、企業秘密の漏洩リスクが高まっているからだ。
ボストンコンサルティンググループ(BCG)のAI倫理担当ディレクター、スティーブ・ミルズ氏は、企業は従業員が誤って機密情報を漏洩することを懸念していると述べた。従業員が入力したデータがAIツールの学習に使用されている場合、データの管理権を他者に奪われることになる。
OpenAIのプライバシーポリシーによると、同社はAIモデルの改善のため、サービス利用者のあらゆる個人情報とデータを収集することがあります。これらの情報は、サービスの改善や分析、調査の実施、ユーザーとのコミュニケーション、新しいプログラムやサービスの開発に利用される場合があります。
プライバシーポリシーでは、OpenAIは法律で義務付けられている場合を除き、ユーザーに通知することなく個人情報を第三者に提供する場合があると規定されています。OpenAIには独自の利用規約もありますが、AIツールを利用する際に適切な措置を講じる責任の大部分はユーザーに負わせています。
ChatGPTの所有者は、安全なAIへのアプローチについてブログに投稿しました。同社は、データをサービス販売、広告、ユーザープロファイルの作成に利用するのではなく、OpenAIがモデルをより有用にするためにデータを使用していることを強調しています。例えば、ユーザーの会話はChatGPTの学習に使用されます。
ChatGPT のプライバシー ポリシーは非常に曖昧だと考えられています。
Bard AIを開発するGoogleは、AIユーザー向けに追加のプライバシー対策を講じています。会話の一部を選択し、自動ツールを用いて個人を特定できる情報を削除します。これにより、ユーザーのプライバシーを保護しながら、Bardの精度向上に役立てられます。
サンプル会話は人間のトレーナーによって確認され、ユーザーのGoogleアカウントとは別に最大3年間保存されます。Googleはまた、Bard AIでの会話に自分自身や他人の個人情報を含めないようユーザーに注意喚起しています。このテクノロジー大手は、これらの会話が広告目的で使用されることはないことを強調しており、今後変更を発表する予定です。
Bard AIでは、ユーザーがGoogleアカウントへの会話の保存をオプトアウトしたり、リンクから会話を確認または削除したりすることができます。さらに、Bardは回答に個人情報が含まれないようにするための安全対策も講じています。
スティーブ・ミルズ氏は、ユーザーや開発者が新しいテクノロジーに潜むセキュリティリスクに気付くのは、手遅れになってからだという。例えば、オートコンプリート機能によってユーザーの社会保障番号が誤って公開されてしまうことがある。
ミルズ氏は、ユーザーは他人と共有したくないものをこれらのツールに保存すべきではないと述べた。
[広告2]
ソースリンク
コメント (0)