英国サイバーセキュリティ庁は、AIツールは簡単に操作されて悪意のあるタスクを実行できることが研究で示されているとして、人工知能(AI)チャットボットを自社製品やサービスに統合している組織に警告した。
英国サイバーセキュリティセンター(NCSC)は8月30日のブログ投稿で、「人間のように」対話できるアルゴリズム、すなわち大規模言語モデル(LLM)に関連する潜在的なサイバーセキュリティ問題を専門家はまだ把握していないと述べた。
NCSC は、このようなモデルが企業のビジネス プロセスに導入されると、リスクが生じると述べています。学者や研究者は最近、チャットボットに詐欺を働かせたり、内蔵の保護バリアを突破するよう指示したりして、AIを「騙す」方法を見つけている。
たとえば、銀行で使用されている AI チャットボットは、ハッカーが適切な「指示」を与えれば、騙されて不正な取引を行う可能性があります。
NCSCは最近のAIリリースに言及し、「LLMを中心としたサービスを構築している組織は、ベータ版の新製品を使用しているという点で注意する必要がある」と述べた。
最近のロイター/イプソスの世論調査によると、多くの企業従業員がメールの下書き、文書の要約、初期調査データの収集といった基本的なタスクを実行するために ChatGPT などのツールを使用していることがわかりました。
このうち、上司が外部の AI ツールの使用を明確に禁止していると答えた従業員はわずか 10% で、25% は自社がこの技術の使用を許可しているかどうかを知りませんでした。
セキュリティ企業リバーセーフの最高技術責任者オセロカ・オビオラ氏は、ビジネスリーダーが必要なチェックを行わなければ、AIをビジネスモデルに統合する競争は「壊滅的な結果」をもたらすだろうと述べた。 「経営幹部はAI導入に飛びつくのではなく、慎重に検討し、メリットとリスクの評価、そしてビジネスを守るために必要なセキュリティ対策を実施すべきだ。」
フェイクニュースとハッカー
世界中で、政府も OpenAI の ChatGPT のような LLM の台頭を規制しようとしています。新技術のセキュリティに関する懸念も政策上の焦点となっており、米国とカナダは最近、ハッカーによる生成AIの悪用が増加していると発表した。
あるハッカーは、悪意ある文書で「訓練」された法学修士(LLM)を見つけ、それに送金詐欺を仕掛けるよう依頼しようとしたとさえ述べている。それに応えて、AIは受信者に緊急の請求書を支払うように求める3段落の電子メールを生成しました。
2023年7月、カナダサイバーセキュリティセンターは、「電子メール詐欺、マルウェア、誤報、偽情報」におけるAIの使用が増加していると指摘しました。同センター所長のサミ・コウリー氏は詳細な証拠は示さなかったが、サイバー犯罪者がこの新興技術を積極的に悪用していると断言した。
同リーダーはまた、マルウェアを作成するためのAIの利用はまだ初期段階にあるものの、AIモデルは急速に発展しているため、その悪意あるリスクを制御できなくなる可能性が高くなっていると述べた。
以前、2023年3月に欧州警察機構ユーロポールは、ChatGPTは「基本的な英語のみを使用しても、非常にリアルな方法で組織や個人になりすますことができる」という報告書を発表しました。同月、英国国立サイバーセキュリティセンターは「LLMはサイバー攻撃の支援に利用される可能性がある」と述べた。
(ロイター通信によると)
[広告2]
ソース
コメント (0)