Что вы думаете о тенденции, когда хакеры используют ИИ в качестве «оружия» для совершения кибератак и мошенничества?
Доктор Нгуен Туан Кханг: Согласно индексу угроз X-Force 2024 от IBM, Азиатско- Тихоокеанский регион , включая Вьетнам, стал регионом, который в 2023 году пострадал от наибольшего количества кибератак в мире. При этом наиболее пострадавшей от кибератак отраслью является обрабатывающая промышленность.
Основным методом злоумышленников по-прежнему остаются фишинговые атаки, направленные на уязвимых пользователей и использующие уязвимости для установки вредоносного ПО. Кроме того, в 2024 году набирает силу тенденция кибератак с использованием искусственного интеллекта (ИИ).
В отчете Wired указывается, что многие злоумышленники используют генеративный ИИ для помощи в проведении взломов, создании мошеннических чат-ботов или поддельных изображений и видео лиц и голосов других людей с помощью Deepfake.
Однако наряду с этой тенденцией системы информационной безопасности также начинают интегрировать функции искусственного интеллекта, такие как Watsonx. Искусственный интеллект может быть использован, но он также может заменить человека в анализе, мониторинге, идентификации данных и прогнозировании сценариев атак, тем самым повышая возможности защиты и минимизируя риски информационной безопасности.
Мошенничество с использованием дипфейков становится всё более распространённым. Насколько опасными будут эти атаки в будущем, учитывая стремительное развитие искусственного интеллекта?
Д-р Нгуен Туан Кханг: По сути, Deepfake — это технология, которая позволяет хакерам создавать поддельные цифровые личности, выдавая себя за других. Deepfake станет серьёзной проблемой, поскольку эта технология становится всё более сложной.
Для борьбы с дипфейками первым делом необходимо определить, сгенерировано ли изображение или голос человека искусственным интеллектом. В настоящее время не существует универсального инструмента, позволяющего мгновенно обнаружить дипфейки, поскольку злоумышленники постоянно разрабатывают новые модели.
Помимо обнаружения дипфейков, существует ещё один метод борьбы с ними — использование технологий анализа поведения. С организационной и бизнес-точки зрения необходимо разработать систему, сочетающую оба этих метода.
В последнее время участились кибератаки, в ходе которых хакеры тайно внедряли вредоносное ПО в систему компании. Вредоносное ПО выжидает и анализирует все действия, создавая поддельные личности для реализации злонамеренных намерений. С развитием технологии Deepfake и возможностью создания видеороликов с помощью искусственного интеллекта подобные атаки станут гораздо опаснее в будущем.
Как можно защитить пожилых людей, детей и другие уязвимые группы населения от мошенников в связи с эскалацией кибератак Deepfake?
Доктор Нгуен Туан Кханг: Мошенники часто атакуют пожилых людей и детей, используя технику социальной инженерии. Этот термин описывает атаки, основанные на манипуляции человеческим поведением.
Теперь хакеры могут использовать ИИ в сочетании со сбором, добычей и анализом данных, чтобы выявлять людей, которые, вероятно, станут жертвами мошенничества, и находить способы атаковать. Помимо повышения осведомлённости сообщества, мы также должны признать, что ситуации мошенничества будут возникать, и использовать технологии для их обнаружения и предотвращения.
Недавно был случай, когда сотрудник банка заподозрил мошенничество у пожилой женщины, пришедшей перевести деньги. Этот человек немедленно прервал транзакцию и сообщил об этом властям. В IT-системах банков теперь есть технологии, позволяющие заменить человека в таких задачах.
Роль технологий заключается в том, что даже если известно, что отправитель — реальный человек, система всё равно предотвратит подобное поведение, если возникнет подозрение, что кто-то другой манипулирует данными. Такие инструменты называются системами противодействия мошенничеству и подделке.
Настало ли время для Вьетнама ввести санкции для управления ИИ и включить исследования, разработки и использование ИИ в конкретную структуру?
Д-р Нгуен Туан Кханг: Санкции за управление с помощью ИИ упоминаются уже давно, однако споров по-прежнему много. Например, на парковке в моём районе установлена система распознавания номерных знаков с помощью ИИ, но кражи всё равно случались. Тогда же и начались споры о том, кто в этом виноват. Должен ли нести ответственность владелец квартиры, охранник или подразделение, разрабатывающее систему ИИ?
С тех пор правила здания изменились, и теперь жильцы могут использовать искусственный интеллект для распознавания номерных знаков для удобства, но им придётся принять риски. Те, кто согласен, смогут пользоваться автоматическими воротами, а тем, кто не согласен, придётся парковать автомобили по-старому. Нам нужны подобные санкции.
Аналогично, IBM когда-то разработала систему искусственного интеллекта для профилактики рака. Когда система выписывает лекарство, но пациенту всё равно не удаётся спасти жизнь, виноват ли в этом врач или искусственный интеллект?
Я считаю, что регулирование ИИ должно быть конкретным, с чётким указанием того, что можно и что нельзя делать при разработке приложений ИИ. Чтобы сделать мир безопаснее, самое простое, что мы можем сделать, — это ввести требование биометрической аутентификации для крупных денежных переводов. В такой ситуации люди, потерявшие свои идентификационные данные, могут полностью избежать финансовых потерь.
Благодарю вас, сэр.
Источник
Комментарий (0)