脅威に対抗するためにAIを導入しているサイバーセキュリティ企業によると、特に香港でサイバー詐欺が蔓延する中、生成AIは多くのサイバーセキュリティリスクをもたらしている。
人工知能によって生成されるフィッシングメールやなりすまし電話は、ますます巧妙化し、検知が困難になっています。(写真:Shutterstock)
香港では、オンラインチャット、電話、テキストメッセージを通じて、詐欺師が48億香港ドル(6億1,150万米ドル)を詐取しました。AIが生成した音声、動画、テキストによって、こうした詐欺の検知はより困難になっています。
スイスに拠点を置くサイバーセキュリティサービス企業、Wizlynx GroupのアジアCEO、キム・ホック・レオウ氏は、ChatGPTのような生成AIツールの出現により、特定の種類の詐欺がより蔓延し、効果的になるだろうと述べた。
「音声や動画の模倣はますます現実的になってきており、情報の盗難や企業のサイバーセキュリティ侵害を企む者たちに悪用される可能性がある」と彼は語った。
政府は、オンライン詐欺の増加に対策を講じ始めています。2月には、北京市公安局がWeChat上の声明で、詐欺師がAIを悪用して「犯罪を犯したり、噂を広めたり」する可能性があると警告しました。また3月には、米国連邦取引委員会(FTC)が、AI生成音声を用いて、オンライン上の短い音声クリップのみで人物になりすます詐欺師について警告を発しました。
「誰もがフィッシング攻撃の標的になる可能性はありますが、メールの長さ、スペルミス、あるいは本人や本人の仕事に関する文脈の欠如などから、簡単に見破られてしまいます。しかし今、サイバー犯罪者は新たなAI言語モデルを用いて、フィッシングメールの複雑さを増しています」と、キム=ホック・レオウ氏は述べています。
こうした詐欺は、ChatGPTのようなツールを使用してメッセージの文言をスキャンし、専門用語を巧みに解釈することで実行されます。これには、詐欺メールをパーソナライズするための文脈情報を追加するために、迅速に背景調査を行うことも含まれます。
金融機関は、こうした巧妙な詐欺に対抗するため、ChatGPTを自社で導入しています。チャットボットは、詐欺対策の訓練を目的としたフィッシングメールの作成、脆弱性の特定、サイバーセキュリティシステムの調査などに活用されています。
「AIが時間をかけて収集・生成できる知識とデータに基づき、サイバーセキュリティの専門家はそれを活用して、セキュリティシステムの脆弱で危険な領域を正確に特定することができます」とレオウ氏は語った。
「サイバーセキュリティの専門家や他の業界に対し、ChatGPT自体を活用して防御力を強化するよう促す必要があります。ある意味で、これはサイバーセキュリティとサイバー犯罪の両方に利用される両刃の剣と言えるでしょう」と彼は付け加えた。
ChatGPTの開発元であるOpenAIの利用規約では、同技術を違法目的で使用することを禁止している。しかし、悪意のある人物がChatGPTのフィルターを回避できるリスクは依然として存在すると、レオウ氏は述べた。
サイバーセキュリティベンチャーの報告によると、サイバー犯罪による金銭の盗難、資産の損失、生産性の損失は今年、世界で8兆ドルに達すると予想されている。
こうした脅威に直面し、サイバーセキュリティ分野におけるAIの軍拡競争が勃発する可能性があります。 「今後数年間で、セキュリティチームは脅威認識を向上させ、防御プロセスの大部分を自動化するためにAIを効果的に活用するようになるでしょう」と、 Netskopeのアジア太平洋地域最高情報責任者であるDavid Fairman氏は述べています。
カーン・リー(出典:SCMP)
役に立つ
感情
クリエイティブ
個性的
怒り
[広告2]
ソース
コメント (0)