В сообщении в блоге от 30 августа Центр кибербезопасности Великобритании (NCSC) заявил, что эксперты до сих пор не до конца понимают потенциальные проблемы кибербезопасности, связанные с алгоритмами, которые могут взаимодействовать «как люди», называемыми большими языковыми моделями (LLM).
NCSC предупреждает, что это может быть рискованно, особенно когда подобные модели встроены в бизнес-процессы. Учёные и исследователи также недавно нашли способы «обмануть» ИИ, давая ему ложные команды или обходя встроенные защитные механизмы.
Инструменты генеративного искусственного интеллекта используются в качестве чат-ботов, которые, как ожидается, заменят не только интернет-поиск, но и звонки в службу поддержки клиентов и отдел продаж. |
Например, чат-бот на основе искусственного интеллекта, развернутый в банке, может быть обманут и заставить совершать несанкционированные транзакции, если хакеры установят правильные «инструкции».
Итак, говоря о последних бета-версиях ИИ, NCSC предупреждает: «Организации, разрабатывающие сервисы на основе LLM, должны быть столь же осторожны, как если бы они использовали новый продукт в стадии бета-тестирования».
Недавний опрос Reuters/Ipsos показал, что многие сотрудники компаний используют такие инструменты, как ChatGPT, для выполнения основных задач, таких как составление электронных писем, составление резюме документов или сбор первичных исследовательских данных.
Из них только около 10% сотрудников заявили, что их начальство прямо запретило использование внешних инструментов ИИ, а 25% не знали, разрешает ли компания использование этой технологии.
По словам Оселоки Обиоры, технологического директора охранной компании RiverSafe, гонка за внедрением ИИ в бизнес-процессы будет иметь «катастрофические последствия», если руководители компаний не проведут необходимые проверки. «Вместо того, чтобы гнаться за трендом на ИИ, руководителям следует тщательно продумать и провести оценку преимуществ и рисков, а также мер безопасности, необходимых для защиты бизнеса».
Фейковые новости и хакеры
Власти по всему миру также стремятся регулировать распространение LLM, таких как ChatGPT от OpenAI. Опасения по поводу безопасности новых технологий рассматриваются в качестве одного из приоритетов политики, поскольку в США и Канаде недавно было выявлено больше случаев, когда хакеры всё активнее используют генеративный ИИ для совершения противоправных действий.
Один хакер даже заявил, что нашёл магистр права, «обученный» вредоносным материалом, и поручил ему организовать мошенничество с денежными переводами. В ответ ИИ сгенерировал электронное письмо с просьбой к получателю оплатить срочный счёт.
В июле 2023 года Канадский центр кибербезопасности зафиксировал рост использования ИИ для «электронного мошенничества, распространения вредоносных программ, дезинформации и искажения информации». Директор центра Сами Хури заявил, что киберпреступники активно используют эту новую технологию.
Этот лидер также добавил, что, хотя использование ИИ для создания вредоносных программ находится только на ранних стадиях, модели ИИ развиваются так быстро, что это легко приведет к моменту, когда контролировать их вредоносные риски станет невозможно.
Ранее, в марте 2023 года, европейская полицейская организация Европол также опубликовала отчёт, в котором говорилось, что ChatGPT может «очень реалистично выдавать себя за организации и отдельных лиц, даже используя лишь базовый английский». В том же месяце Национальный центр кибербезопасности Великобритании подтвердил, что «степень магистра права может быть использована для поддержки кибератак».
Источник
Комментарий (0)