サイバーセキュリティ企業SlashNextの報告によると、サイバー犯罪者はChatGPTなどの人工知能(AI)生成ツールを利用して、企業などを標的としたフィッシングメールを作成している。北米の300人以上のサイバーセキュリティ専門家を対象とした調査では、ほぼ半数が自社を標的としたフィッシング攻撃を経験したと回答し、77%が悪意のある攻撃者から標的にされたと答えた。
SlashNextのCEO、パトリック・ハー氏は、今回の調査結果は、AIが生成するコンテンツが詐欺の増加に寄与しているという懸念をさらに強めるものだと述べた。犯罪者は、成功率を高めるために、マルウェアやソーシャルエンジニアリング詐欺を開発する際にAIを利用することが多い。
報告書によると、オンライン詐欺は平均して毎日3万1000件発生している。
ChatGPTが2022年後半にローンチされた時期は、SlashNextがフィッシング攻撃の急増を目の当たりにした時期と重なっていた、とハール氏は付け加えた。
FBIのインターネット犯罪報告書によると、企業にフィッシングメールを送信する詐欺行為により、2022年には約27億ドルの損失が発生した。
AI生成がサイバー犯罪に及ぼす真の影響については議論があるものの、ハール氏はChatGPTのようなチャットボットがサイバー攻撃の「武器」として利用されていると考えている。例えば、7月にはSlashNextの研究者らがWormGPTとFraudGPTという2つの悪質なチャットボットを発見した。これらは犯罪者が高度なフィッシング攻撃を実行するためのツールとして利用されているとみられている。
エンタープライズ・マネジメント・アソシエイツのリサーチディレクター、クリス・ステフェン氏は、ハッカーがAI生成ツールと自然言語処理(NLP)モデルを悪用して詐欺行為を行っていると指摘した。AIを用いて情報や過去の記事を分析し、 政府機関や企業の文章を模倣することで、フィッシングメールは非常に巧妙になり、見分けるのが困難になるという。
攻撃の増加に対抗するには、人々のセキュリティ意識を高め、不審なメールや活動に警戒する必要があります。もう一つの解決策は、AIや機械学習を活用したメールフィルタリングツールを導入してフィッシング攻撃を防止することです。組織は、定期的なセキュリティ監査を実施し、システムの脆弱性や従業員研修の弱点を特定し、既知の問題に迅速に対処することで、攻撃のリスクを軽減する必要があります。
ソースリンク






コメント (0)