ハッカーはサイバー攻撃やフェイクニュースに人工知能を使います。 |
具体的には、カナダサイバーセキュリティセンターのサミ・コウリー所長が今週ロイター通信とのインタビューで、同センターが「フィッシングメール、マルウェア、真実を歪曲するための誤情報」にAIが使用されていることを発見したと語った。
さらに、多くのサイバーセキュリティ組織も、AI、特に大量のユーザーデータに基づいてトレーニングされ、リアルなテキスト、画像、ビデオなどを作成する一部の大規模言語処理(LLM)プログラムの仮説的なリスクを表明するレポートを公開しています。
ユーロポールの3月の報告書によると、OpenAIのChatGPTのような人工知能モデルを使えば、基本的な英語だけで組織や個人になりすますことが容易になるという。また今月、英国の国家サイバーセキュリティセンターは、サイバー犯罪者がLLMを利用してサイバー攻撃能力を拡大するリスクについて警告した。
セキュリティ研究者は、さまざまな悪意のある AI の使用例を示しています。一部の専門家は、AIが生成したと疑われるコンテンツを現実世界で記録し始めています。先週、元ハッカーは、悪意のあるデータで訓練され、人々を騙して送金させるためのシナリオを描くよう要求されたLLMを発見したと述べた。 LLMは3段落の電子メールで返信し、緊急の口調で「獲物」の支援を求めた。
LLMは次のように書いている。「急な通知であることは承知していますが、この支払いは非常に重要なので、24時間以内に行う必要があります。」
[広告2]
ソース
コメント (0)