TechRadarによると、AI(人工知能)技術の発展は多くの利便性をもたらす一方で、悪意のある目的に悪用される可能性も秘めている。専門家は、人間の声を驚くほど模倣するAI音声を利用した電話詐欺が増加していると警告している。
AIの台頭は高度な詐欺リスクを伴う
写真: TECHRADAR スクリーンショット
AI音声詐欺が増加中
ソーシャルメディアからわずか数秒の音声を盗み出すだけで、犯罪者は被害者の親戚、友人、さらには有名人のAI音声クローンを作成できます。彼らはこの技術を利用して、自動電話をかけたり、知人になりすまして詐欺や財産窃盗を行ったりしています。
よくある手口は、困っている家族を装ったり、緊急にお金が必要な人物を装ったり、銀行員や政府機関を装って個人情報や口座情報を要求したりすることです。専門家は、不審な電話、送金の要求、機密情報の提供などには十分注意するよう呼びかけています。
自分自身を守るために、ユーザーは次のことを行う必要があります。
- 大切な人とのプライベートな「パスワード」を設定する: 愛する人や友人と秘密のフレーズを決めておき、必要に応じて本人確認をしましょう。
- テストの質問をする: あなたと相手だけが知っている情報を発信者に確認してもらいます。
- 声を注意深く聞いて、イントネーションや不自然な感情などの異常がないか確認します。
- 通話の確認: 電話を切って、相手の携帯電話番号を使用して折り返し電話をかけます。
- 異常な要求、特に緊急の送金要求には注意してください。
- 銀行のコミュニケーションプロセスを学び、銀行が顧客と連絡を取る方法を理解します。
この事件は、AI技術が悪意ある目的で悪用された場合の潜在的なリスクについて、改めて警鐘を鳴らすものです。ユーザーは、こうした新しく巧妙な詐欺から身を守るために、意識を高め、知識を身につける必要があります。
[広告2]
出典: https://thanhnien.vn/lua-dao-bang-giong-noi-ai-tang-manh-va-cach-phong-chong-185241125092848927.htm
コメント (0)