ダーク AI は安全基準の外で動作し、多くの場合、厳密な監視なしに詐欺、操作、サイバー攻撃、データマイニングなどの行為を許容します。
「悪意のある攻撃者は、攻撃能力を強化するためにAIも利用しています。今日、AIの悪用で最もよく見られる形態は、ブラックハットGPTモデルの出現です。これらは、マルウェアの作成、フィッシングメールの作成、音声やディープフェイク動画の生成など、違法な目的のために特別に開発または改造されたAIモデルです」と、カスペルスキーの中東、トルコ、アフリカ、アジア太平洋地域担当グローバル調査分析チーム(GReAT)責任者であるセルゲイ・ロズキン氏は述べています。
ブラックハットGPTは、完全にプライベートなAIモデル、または半プライベートなAIモデルとして存在します。注目すべき例としては、WormGPT、DarkBard、FraudGPT、Xanthoroxなどが挙げられます。いずれもサイバー犯罪、詐欺、悪意のある自動化を目的として設計されています。
ロシュキン氏は、カスペルスキーの専門家が現在、国家や政府が支援するサイバー攻撃グループが攻撃活動に大規模言語モデル(LLM)を活用し始めているという、さらに憂慮すべき傾向を記録していることを明らかにした。
「OpenAIは最近、同社のAIツールを悪用した20件以上の秘密の影響力行使キャンペーンとサイバー攻撃を阻止したと発表しました。今後もますます巧妙化する攻撃者がAIを武器化し、公共および民間のエコシステムの両方に脅威をもたらすことが予想されます。これはすべての組織が備えるべき、憂慮すべき傾向です」とロズキン氏は述べています。
OpenAIの報告書によると、悪意のある攻撃者は、大規模機械学習モデル(LLM)の機能を悪用して被害者を欺き、従来のセキュリティレイヤーを回避し始めています。彼らは、説得力のある偽メッセージを作成したり、被害者に大量のメッセージを送信したり、複数の言語でコンテンツを作成したりすることが可能になっています。
ダークAIの脅威に対する防御を強化するために、カスペルスキーのエキスパートは以下の対策を推奨しています。Kaspersky Nextなどの次世代セキュリティソリューションを活用し、AIが生成したマルウェアを検知し、サプライチェーンにおけるリスクを管理する。リアルタイムの脅威インテリジェンスツールを適用し、AIを悪用したエクスプロイトを監視する。シャドーAIとデータ漏洩のリスクを抑えるため、アクセス制御と従業員トレーニングを強化する。脅威を監視し、インシデントに迅速に対応するためのセキュリティオペレーションセンター(SOC)を設置する。
出典: https://www.sggp.org.vn/kaspersky-canh-bao-toi-pham-mang-dung-dark-ai-tan-cong-post808493.html
コメント (0)