По данным Vietnam News Agency, сегодня одним из распространенных трюков является отправка угрожающих писем с требованием уплаты фальшивых сборов, таких как штрафы за нарушение правил дорожного движения, неоплаченные сборы за обслуживание или доступ к незаконным документам. Эти письма часто ведут на поддельные веб-сайты, обманывая пользователей, заставляя их предоставлять данные для входа, пароли или банковские данные. Если раньше фишинговые письма часто легко обнаруживались из-за орфографических ошибок или изображений низкого качества, то теперь с помощью ИИ они пишутся отточенным, персонализированным и убедительным образом.
По словам Кристофа Аксена, заместителя директора Регионального подразделения по борьбе с компьютерными преступлениями Федеральной судебной полиции Бельгии в Льеже, генеративный ИИ теперь способен имитировать целый разговор, заставая пользователей врасплох. В том же духе профессор Бенуа Донне (Университет Льежа) предупреждает, что ИИ можно обучить поддерживать убедительный тон в течение длительного времени, тем самым завоевывая доверие жертв, прежде чем обманом заставить их предоставить информацию или открыть вредоносные файлы.
Особенно опасна способность ИИ персонализировать содержимое электронной почты. Киберпреступники могут использовать имена, адреса, должности и данные социальных сетей для создания фейковой информации. Во многих случаях фейковые сообщения отправляются от знакомых или начальников, что делает жертв еще более уязвимыми.
Мошенничество с использованием искусственного интеллекта: жертвой может стать каждый. (Фото: Интернет) |
Киберпреступники теперь не ограничиваются отдельными лицами, а действуют в профессиональной организационной модели с советом директоров, техническим отделом, бухгалтерией и даже отдельной столовой. Они нацелены на крупные цели, такие как больницы, предприятия и государственные учреждения. При поддержке ИИ атаки становятся более непредсказуемыми — от имитации электронных писем лидеров до распространения документов, содержащих вредоносный код.
Еще одна форма мошенничества, которая также набирает популярность, — это Deepfake — технология, которая подделывает изображения и голоса с помощью ИИ. По данным журнала VnEconomy, эксперт по кибербезопасности Нго Минь Хьеу из Национального центра мониторинга кибербезопасности (NCSC) предупредил, что люди используют Deepfake для кражи видео , изображений, копирования и вставки, а также для выдачи себя за родственников и друзей с целью мошенничества с денежными переводами. Видео Deepfake можно распознать по напряженным выражениям лица, звуку, который не соответствует изображению, необычному освещению или таким ситуациям, как запрос на перевод денег, а затем внезапное отключение.
Г-н Нго Минь Хьеу посоветовал людям быть осторожными с любыми странными сообщениями в социальных сетях. Если есть просьба перевести деньги, звоните или общайтесь по Facetime напрямую и задавайте личные вопросы, которые знают только знакомые. Текущий ИИ не может идеально имитировать разговор в реальном времени с естественными эмоциями, как у людей.
Эксперт по безопасности Ву Нгок Сон также прокомментировал, что мошенничество с использованием искусственного интеллекта станет основной тенденцией в кибербезопасности в ближайшем будущем. Злоумышленники продолжат использовать новые технологии для обмана пользователей все более изощренными и непредсказуемыми способами. Чтобы предотвратить это, пользователи ни в коем случае не должны предоставлять личную информацию, заходить на странные веб-сайты или устанавливать программное обеспечение неизвестного происхождения. Кроме того, государственным органам необходимо усилить пропаганду и руководство по выявлению мошенничества с использованием высоких технологий. Сетевым операторам и поставщикам услуг также необходимо регулярно обновлять технологические решения для оперативного обнаружения и предотвращения мошеннического поведения, обеспечивая безопасность пользователей.
Источник: https://thoidai.com.vn/lua-dao-thoi-ai-ai-cung-co-the-la-nan-nhan-213974.html
Комментарий (0)