英国サイバーセキュリティ庁は、AIツールは簡単に操作されて悪意のあるタスクを実行できることが研究で示されているとして、人工知能(AI)チャットボットを自社の製品やサービスに統合している組織に警告した。
英国サイバーセキュリティセンター(NCSC)は8月30日のブログ投稿で、「人間のように」対話できるアルゴリズム、すなわち大規模言語モデル(LLM)に関連する潜在的なサイバーセキュリティ問題を専門家はまだ把握していないと述べた。
NCSCは、このようなモデルがビジネスプロセスに組み込まれるとリスクが生じ、学者や研究者はチャットボットに詐欺を働かせたり、組み込まれた安全策を回避させたりしてAIを「騙す」方法を常に模索していると述べた。
たとえば、銀行で使用されている AI チャットボットは、ハッカーが適切な「指示」を与えれば、騙されて不正な取引を行う可能性があります。
NCSCは最近のAIリリースに言及し、「LLMを中心としたサービスを構築している組織は、ベータ版の新製品を使用しているという点で注意する必要がある」と述べた。
最近のロイター/イプソスの世論調査によると、多くの企業従業員がメールの下書き、文書の要約、初期調査データの収集といった基本的なタスクを実行するために ChatGPT などのツールを使用していることがわかりました。
このうち、上司が外部の AI ツールの使用を明確に禁止していると答えた従業員はわずか 10% で、25% は自社がこの技術の使用を許可しているかどうかを知りませんでした。
セキュリティ企業RiverSafeの最高技術責任者、オセロカ・オビオラ氏は、ビジネスリーダーが必要なデューデリジェンスを実施しなければ、AIをビジネスモデルに統合しようと急ぐことは「壊滅的な結果」をもたらすだろうと述べた。「AI導入の波に飛びつくのではなく、経営幹部は慎重に検討し、リスクとベネフィットを評価し、ビジネスを守るために必要なセキュリティ対策を講じるべきだ」
フェイクニュースとハッカー
世界各国の政府は、OpenAIのChatGPTのようなLLMの台頭を管理しようとしています。この新技術に関するセキュリティ上の懸念も政策上の焦点となっており、米国とカナダは最近、ハッカーによる生成AIの悪用が増加していると述べています。
あるハッカーは、悪意のある素材で「訓練」された法務・法務・法務博士(LLM)を見つけ、送金詐欺を作成するよう指示したと述べています。するとAIは、受信者に緊急の請求書の支払いを求める3段落のメールを生成しました。
2023年7月、カナダサイバーセキュリティセンターは、「メール詐欺、マルウェア、誤情報、偽情報」におけるAIの利用が増加していると指摘しました。同センター所長のサミ・クーリー氏は具体的な証拠は示さなかったものの、サイバー犯罪者がこの新興技術を積極的に悪用していると主張しました。
同リーダーはまた、マルウェアを作成するためのAIの利用はまだ初期段階にあるものの、AIモデルは急速に発展しているため、その悪意あるリスクを制御できなくなる可能性が高くなっていると述べた。
これに先立ち、2023年3月には、欧州警察機構(ユーロポール)が報告書を発表し、ChatGPTは「基本的な英語のみを使用しても、非常にリアルな方法で組織や個人になりすますことができる」と指摘しました。同月、英国国立サイバーセキュリティセンターは、「LLMはサイバー攻撃を支援するために使用される可能性がある」と警告しました。
(ロイター通信によると)
[広告2]
ソース
コメント (0)