По данным компании по кибербезопасности, которая использует ИИ для борьбы с этой угрозой, генеративный ИИ создает множество рисков для кибербезопасности, особенно на фоне широко распространенных случаев кибермошенничества в Гонконге.
Фишинговые письма и поддельные голосовые звонки, генерируемые искусственным интеллектом, становятся все более изощренными и их сложнее обнаружить. (Фото: Shutterstock)
В Гонконге мошенники обманули людей на 4,8 млрд гонконгских долларов (611,5 млн долларов США) через онлайн-чаты, телефонные звонки и текстовые сообщения. Аудио, видео и текст, созданные искусственным интеллектом, затрудняют обнаружение подобных видов мошенничества.
По словам Ким-Хок Леоу, генерального директора азиатского подразделения Wizlynx Group, швейцарской компании по предоставлению услуг кибербезопасности, появление инструментов генеративного искусственного интеллекта, таких как ChatGPT, позволит определенным видам мошенничества стать более распространенными и эффективными.
«Мы видим, что имитация голоса и видео становится все более реалистичной, и ее могут использовать те, кто хочет украсть информацию и поставить под угрозу корпоративную кибербезопасность», — поделился он.
Правительства начинают принимать меры против роста онлайн-мошенничества. В феврале Пекинское муниципальное бюро общественной безопасности предупредило в заявлении на WeChat, что мошенники могут использовать ИИ для «совершения преступлений и распространения слухов». А в марте Федеральная торговая комиссия США выпустила предупреждение о мошенниках, использующих голоса, сгенерированные ИИ, чтобы выдавать себя за людей, используя только короткую аудиозапись их голоса из сети.
«Каждый подвержен фишинговым атакам, но их легко обнаружить из-за длины, опечаток или отсутствия контекста о вас и вашей работе. Но теперь киберпреступники могут использовать новые языковые модели ИИ, чтобы повысить сложность своих фишинговых писем», — сказал Ким-Хок Леоу .
Эти мошенничества осуществляются с помощью инструмента вроде ChatGPT для сканирования и профессионализации языка сообщений. Это может включать быстрое проведение фонового исследования для добавления контекстной информации для персонализации мошеннических писем.
Финансовые компании теперь сами внедряют ChatGPT для борьбы с этими сложными мошенничествами. Они используют чатботов для генерации фишинговых писем в целях обучения по борьбе с мошенничеством, а также для выявления уязвимостей и проведения исследований систем кибербезопасности.
«Основываясь на знаниях и данных, которые ИИ может собирать и генерировать с течением времени, эксперты по кибербезопасности могут использовать их для точного выявления уязвимых и рискованных областей системы безопасности», — поделился г-н Леоу.
«Нам нужно поощрять профессионалов в области кибербезопасности и другие отрасли использовать ChatGPT для улучшения своей защиты. В некотором смысле, это палка о двух концах, которая будет использоваться как для кибербезопасности, так и для киберпреступности», — добавил он.
Условия обслуживания OpenAI, создателя ChatGPT, запрещают использование его технологии в незаконных целях. Но все еще существует риск того, что злоумышленники могут обойти фильтры ChatGPT, сказал Леоу.
По данным отчета Cybersecurity Ventures, в этом году ущерб от киберпреступности во всем мире составит 8 триллионов долларов США в виде украденных денег, потерянных активов и потерянной производительности.
Перед лицом этой угрозы в кибербезопасности может назреть гонка вооружений ИИ. «В ближайшие годы мы увидим, как службы безопасности эффективно используют ИИ для улучшения распознавания угроз и автоматизации большей части процесса защиты», — сказал Дэвид Фэрман, директор по информационным технологиям в Азиатско- Тихоокеанском регионе компании Netskope.
Кхань Ли (Источник: SCMP)
Полезный
Эмоция
Творческий
Уникальный
Гнев
Источник
Комментарий (0)