ChatGPTのような人工知能(AI)は2023年初頭から世界的な注目を集めていますが、このAIは必ずしも良い目的で使用されるわけではありません。最近、セキュリティ専門家がテスト中にChatGPTに悪意のあるコードを作成させる方法を発見しました。
Forcepointのセキュリティ専門家、アーロン・マルグルー氏は、OpenAIが開発した言語チャットボットを用いてマルウェアを作成するリスクについて語った。ChatGPTはユーザーがAIにマルウェアの設計を依頼できないように設計されていたが、マルグルー氏はAIがコマンドライン(プロンプト)を作成し、各行にプログラミングコードを記述するという脆弱性を発見した。これらを組み合わせることで、マルグルー氏は、今日の主要なマルウェアに匹敵するほど高度な、検出不可能なデータ窃盗実行ツールを手に入れたと悟った。
ChatGPT によって生成された個々のコマンド ラインを組み合わせると、高度なマルウェアになる可能性があります。
マルグルー氏の発見は、ハッカー集団やツールの作成者がコードを1行も書かなくても、AIが危険なマルウェアの作成に利用される可能性があることを警告するものだ。
マルグルーのソフトウェアはスクリーンセーバーアプリケーションを装っていますが、Windowsベースのデバイスでは自動的に起動します。オペレーティングシステムに侵入すると、マルウェアはWord文書エディター、画像ファイル、PDFファイルなど、あらゆるファイルに「潜入」し、盗むデータを探します。
必要な情報を入手すると、プログラムは情報を分解し、マシン上の画像ファイルに添付します。検出を回避するため、画像はGoogleドライブのクラウドストレージ上のフォルダにアップロードされます。このマルウェアが非常に強力なのは、ChatGPTに入力された簡単なコマンドによって、Mulgrewが検出を回避するために機能を微調整・強化できるためです。
これはセキュリティ専門家による非公開のテストであり、テストエリア外への攻撃は行われなかったものの、サイバーセキュリティコミュニティは依然としてChatGPTを利用した活動の危険性を認識しています。マルグルー氏はプログラミングの経験があまりないと主張していますが、OpenAIの人工知能は依然として彼のテストを阻止できるほど強力でインテリジェントではありません。
[広告2]
ソースリンク
コメント (0)