研究チームは、AIにランダムな単語を繰り返すよう指示することで、ChatGPTにいくつかのデータを明らかにさせることに成功したと述べています。
Google DeepMind、ワシントン大学、コーネル大学、カーネギーメロン大学、カリフォルニア大学バークレー校、ETHチューリッヒの研究者らは共同で、AI企業に対し、大規模な言語モデルから、チャットボットや画像ジェネレーターなどのAIサービスを支える基盤技術に至るまで、製品を公式リリースする前に徹底的にテストするよう呼びかけている。
この警告は、研究者がChatGPTに「poem(詩)」という単語を無限ループで繰り返すよう指示した後に発せられました。ChatGPTは指示に従いましたが、その後、OpenAIのCEO兼共同創設者の実際のメールアドレスと電話番号を明らかにし始めました。「company(会社)」という単語でテストしたところ、チャットボットはランダムに選んだ法律事務所のメールアドレスと電話番号を表示しました。
スマートフォンに表示されたChatGPTのロゴ。写真:ロイター
他のキーワードを使用することで、ChatGPTはビットコインアドレス、ファックス番号、氏名、生年月日、ソーシャルメディアアカウント、著作権で保護された研究論文の抜粋、 CNNの有料記事などを明らかにすることにも成功しました。1万件の個人情報とデータを生成するのにかかった費用はわずか200ドルでした。
チームは驚いたと述べ、ChatGPT の脆弱性を「本当にばかげている」と呼び、もっと早く発見されるべきだったと語った。
この脆弱性はOpenAIに報告され、8月30日に修正されました。しかし、 Engadgetの新しいテストでは、ChatGPTに「reply」という単語を際限なく繰り返すように指示したところ、同技術サイトは誰かの名前とSkype IDを受け取ったのです。
OpenAIはまだコメントしていない。
ChatGPTやDall-Eテキスト画像生成器のような生成AIは、大規模な言語モデルと機械学習アルゴリズムを基盤としており、ユーザーの同意なしに膨大なデータで学習されています。OpenAIは、ChatGPTの学習に利用されている大規模言語モデルがクローズドソースであるため、ChatGPTがどのようなデータで学習されているかを明らかにしていません。
Huy Duc氏によると - VnExpress
ソース
コメント (0)