大手IT企業による人工知能(AI)とチャットボットへの巨額投資は、企業の情報セキュリティ責任者にとって頭痛の種となっている。CNBCによると、AIは職場に浸透しつつあり、情報セキュリティ責任者はAI技術に慎重にアプローチし、防御策を講じる必要があるという。
GPTの基盤となる技術は、大規模言語モデル(LLM)と呼ばれます。すべての企業が独自のGPTを導入しているわけではないため、従業員がどのようにGPTを使用しているかを監視することが重要です。マッキンゼー・グローバル・インスティテュートのパートナーであるマイケル・チュイ氏は、「人々は生成AIを有用だと感じれば使うでしょう」と述べています。彼はこれを、職場でのコンピューターやスマートフォンの使用に例えています。
たとえ禁止されていたとしても、従業員はこっそりと侵入する方法を見つけるだろう。歴史的に見ても、人々が喜んでお金を払ってしまうほど魅力的なテクノロジーは存在した。例えば、会社から個人用のデバイスを支給される前に、人々は携帯電話を買っていたとチュイ氏は言う。
サイバー攻撃の脅威に既に対処しているCISOは、AIとGPTという新たな懸念を抱えています。チュイ氏によると、企業はAIプラットフォームのライセンスを取得することで、従業員がチャットボットに何を開示しているかを監視し、共有される情報が保護されていることを確認することができます。
「企業としては、従業員が公開チャットボットに機密情報を入力するのは望ましくありません」とチュイ氏は言います。そのため、ソフトウェアのライセンス取得やデータの保管場所に関する法的契約の締結など、技術的な対策を講じることが重要です。
CeipalのCEO、サミール・ペナカラパティ氏は、企業が独自のGPTを開発するか、GPT開発者を雇って独自のバージョンを作成することが安全な選択肢だと述べています。独自のGPTを作成すれば、企業が従業員にアクセスさせたい情報を正確にソフトウェアに組み込むことができます。また、従業員が入力した情報を保護することもできます。どちらのソリューションを選択する場合でも、GPTに取り込むデータには注意が必要です。
(CNBCによると)
[広告2]
ソース
コメント (0)