ChatGPTのような人工知能(AI)は2023年初頭から世界的な注目を集めていますが、必ずしも良い目的に利用されているわけではありません。最近、セキュリティ専門家が、テスト中にChatGPTに悪意のあるコードを生成するよう指示する方法を発見しました。
Forcepointのセキュリティ専門家、アーロン・マルグルー氏は、OpenAIのバイリンガルチャットボットを用いて悪意のあるコードを書くリスクについて説明しました。ChatGPTはユーザーがAIにマルウェアの設計を依頼できないように設計されていますが、マルグルー氏はAIにコードを1行ずつ記述させるためのコマンド(プロンプト)を作成することで脆弱性を発見しました。このツールを組み合わせることで、マルグルー氏は、現在入手可能な最も高度なマルウェアにも匹敵するほど高度な、検知不可能なデータ窃取実行ツールを手に入れたことに気づきました。
ChatGPT によって生成された各コード行を組み合わせると、高度なマルウェアになる可能性があります。
マルグルー氏の発見は、ハッキンググループを必要とせず、作成者自身がコードを1行も書かなくても、AIを悪用して危険なマルウェアを作成できる可能性に対する警鐘となっている。
Mulgrewのマルウェアはデスクトップアプリケーションを装っていますが、Windowsデバイス上で自動的に起動します。オペレーティングシステムに侵入すると、Word文書、画像ファイル、PDFファイルなど、あらゆるファイルに「侵入」し、盗むデータを探します。
必要な情報を入手すると、プログラムはそれを分解し、コンピュータ上の画像ファイルに埋め込みます。検出を回避するため、これらの画像はGoogleドライブのクラウドストレージ上のフォルダにアップロードされます。MulgrewはChatGPTに入力された簡単なコマンドによって検出を回避するために機能を微調整・強化できるため、このマルウェアは非常に強力になります。
これはセキュリティ専門家による非公開テストの結果であり、テストエリア外での攻撃は実行されなかったものの、サイバーセキュリティ専門家はChatGPTを用いた活動の危険性を依然として認識していました。マルグルー氏は、自身はプログラミングの経験があまりないが、OpenAIの人工知能は依然として彼のテストを阻止できるほど強力でも賢くもないと述べました。
[広告2]
ソースリンク






コメント (0)