По данным Вьетнамского информационного агентства, одним из распространённых сегодня способов взлома является отправка угрожающих писем с требованием оплатить фиктивные сборы, такие как штрафы за нарушение правил дорожного движения, неоплаченные сборы за услуги или доступ к незаконным документам. Такие письма часто ведут на поддельные веб-сайты, где пользователей обманным путём выманивают данные для входа, пароли или банковские данные. Если раньше фишинговые письма часто легко распознавались по орфографическим ошибкам или низкому качеству изображений, то теперь, благодаря искусственному интеллекту, они пишутся тщательно, персонализированно и убедительно.
По словам Кристофа Аксена, заместителя директора Регионального отдела по борьбе с компьютерными преступлениями Федеральной судебной полиции Бельгии в Льеже, генеративный ИИ теперь способен имитировать целый разговор, заставая пользователей врасплох. В том же духе профессор Бенуа Донне (Льежский университет) предупреждает, что ИИ можно научить поддерживать убедительный тон в течение длительного времени, тем самым завоевывая доверие жертв, прежде чем обманом заставить их предоставить информацию или открыть вредоносные файлы.
Особую опасность представляет способность ИИ персонализировать содержимое электронных писем. Киберпреступники могут использовать имена, адреса, должности и данные социальных сетей для создания ложной информации. Во многих случаях поддельные сообщения отправляются знакомыми или начальниками, что делает жертв ещё более уязвимыми.
Мошенничество с использованием искусственного интеллекта: жертвой может стать каждый. (Фото: Интернет) |
Киберпреступники теперь действуют не только против отдельных лиц, но и по профессиональной организационной модели с советом директоров, техническим отделом, бухгалтерией и даже отдельной столовой. Они нацелены на крупные объекты, такие как больницы, компании и государственные учреждения. При поддержке искусственного интеллекта атаки становятся более непредсказуемыми — от имитации электронных писем руководителей до распространения документов, содержащих вредоносный код.
Ещё одна форма мошенничества, которая также набирает популярность, — это Deepfake — технология подделки изображений и голосов с помощью искусственного интеллекта. Как сообщает журнал VnEconomy, эксперт по кибербезопасности Нго Минь Хьеу из Национального центра мониторинга кибербезопасности (NCSC) предупредил, что злоумышленники используют Deepfake для кражи видео , изображений, копирования и вставки, а также для выдачи себя за родственников и друзей с целью мошенничества с денежными переводами. Видео с Deepfake можно распознать по застывшему выражению лица, звуку, не соответствующему изображению, необычному освещению или таким ситуациям, как запрос на перевод денег и последующее внезапное отключение.
Г-н Нго Минь Хьеу посоветовал людям быть осторожными с любыми странными сообщениями в социальных сетях. Если вам предлагают перевести деньги, позвоните или напишите напрямую в FaceTime и задайте личные вопросы, которые будут понятны только вашим знакомым. Современный ИИ не может в совершенстве имитировать разговор в реальном времени с естественными эмоциями, как у людей.
Эксперт по безопасности Ву Нгок Сон также отметил, что мошенничество с использованием искусственного интеллекта станет основным трендом в кибербезопасности в ближайшем будущем. Злоумышленники продолжат использовать новые технологии для обмана пользователей всё более изощрёнными и непредсказуемыми способами. Чтобы предотвратить это, пользователи ни в коем случае не должны предоставлять личную информацию, заходить на подозрительные сайты или устанавливать программное обеспечение неизвестного происхождения. Кроме того, государственным органам необходимо усилить пропаганду и рекомендации по выявлению мошенничества в сфере высоких технологий. Операторам сетей и поставщикам услуг также необходимо регулярно обновлять технологические решения для оперативного выявления и предотвращения мошеннических действий, обеспечивая безопасность пользователей.
Источник: https://thoidai.com.vn/lua-dao-thoi-ai-ai-cung-co-the-la-nan-nhan-213974.html
Комментарий (0)