具体的には、Googleの親会社であるAlphabetは、従業員に対し、AIチャットボットに機密文書を入力しないよう勧告している。ロイターが入手したアルファベット内部の情報筋によると、同社はエンジニアらに対し、チャットボットが生成するコンピューターコードを直接使用しないよう警告したという。
テクノロジー大手のグーグルも、自社のAIチャットボットを通じた情報漏洩を懸念している。写真:ロイター
BardやChatGPTなどのチャットボットは、いわゆる汎用人工知能を使用してユーザーと人間のような会話を実行するプログラムです。また、専門家によると、チャットボットは応答プロセス中に吸収したデータを再現できるため、ユーザー情報の漏洩のリスクが生じる可能性があるとのことです。
こうした懸念は、Google が ChatGPT と競合するためにリリースしたソフトウェアによるビジネス上の損害を回避したいと考えていることを示している。グーグルの警告は、企業がチャットボットに関する情報開示に対して警告するなど、世界中で高まる恐怖の傾向を反映している。
サムスン、アマゾン、ドイツ銀行など、世界中でますます多くの企業が AI チャットボットに安全対策を講じています。
米国のウェブサイト「フィッシュボウル」が約1万2000人を対象に実施した調査によると、1月時点で技術専門家の約43%がChatGPTなどのAIツールを使用しており、その多くは上司に報告せずに使用していた。
Insiderによると、2月までにGoogleはBardチャットボットの従業員に内部情報を提供しないよう要請した。 Googleは現在、Bardを180か国以上、40言語で展開している。
Google の AI 技術は、電子メールや文書を自動的に作成したり、ソフトウェアを作成したりするツールに適用されています。しかし、これらの仕事には虚偽の情報が含まれる可能性があり、情報漏洩のリスクも伴います。
ブイ・フイ(ロイター、インサイダーによる)
[広告2]
ソース
コメント (0)