Хакеры используют искусственный интеллект для кибератак и фейковых новостей. |
В частности, директор Канадского центра кибербезопасности Сами Хури в интервью агентству Reuters на этой неделе рассказал, что его агентство обнаружило использование ИИ в «фишинговых письмах, вредоносном ПО и дезинформации с целью искажения истины».
Кроме того, многие организации по кибербезопасности также опубликовали отчеты, в которых озвучиваются гипотетические риски ИИ, особенно некоторых крупных программ обработки языка (LLM), которые обучаются на основе больших объемов пользовательских данных для создания реалистичных текстов, изображений, видео и т. д.
Согласно мартовскому отчету Европола, модели искусственного интеллекта, такие как ChatGPT от OpenAI, позволяют легко выдавать себя за организацию или отдельное лицо, владея лишь базовыми знаниями английского языка. Также в этом месяце Национальный центр кибербезопасности Великобритании предупредил об опасности использования киберпреступниками LLM для расширения возможностей своих кибератак.
Исследователи безопасности проиллюстрировали различные случаи вредоносного использования ИИ. Некоторые эксперты начали фиксировать в реальной жизни предполагаемый контент, созданный искусственным интеллектом. На прошлой неделе бывший хакер сообщил, что обнаружил магистра права, обученного с использованием вредоносных данных, и попросил его разработать сценарий, позволяющий обманом заставить людей перевести деньги. LLM ответил письмом из трех абзацев, в котором настоятельно просил «жертву» оказать поддержку.
LLM написал: «Я понимаю, что уведомление было сделано в сжатые сроки, но этот платеж чрезвычайно важен и должен быть произведен в течение 24 часов».
Источник
Комментарий (0)