● Риски можно контролировать, если предприятия применяют соответствующие меры безопасности.
● Team8, компания по кибербезопасности из Израиля, подготовила отчет по этой проблеме с учетом отзывов директоров по информационной безопасности многих предприятий.
Фото: Гэбби Джонс/Bloomberg.
Израильская компания по кибербезопасности Team8 заявила в своем отчете, что компании, которые в настоящее время используют некоторые приложения на основе искусственного интеллекта, такие как ChatGPT, могут столкнуться с риском раскрытия конфиденциальной информации клиентов и их коммерческих секретов.
В отчете, предоставленном Bloomberg News перед публикацией, говорится, что растущее использование ИИ в чат-ботах и текстовых редакторах может подвергнуть многие компании утечкам данных и судебным искам. В отчете высказываются опасения, что чат-боты могут использоваться хакерами для добычи конфиденциальной корпоративной информации или осуществления других вредоносных действий против компании. Существуют также опасения, что конфиденциальная информация, в настоящее время предоставляемая чат-ботам, может быть использована компаниями ИИ в будущем.
Многие крупные технологические компании, такие как Microsoft Corp. и Alphabet Inc., спешат интегрировать искусственный интеллект для улучшения своих чат-ботов и поисковых систем, обучая свои модели искусственного интеллекта на наборах данных, добытых из Интернета, чтобы предоставить пользователям многофункциональный инструмент, который может ответить на любой их вопрос. Согласно отчету, если эти приложения будут содержать конфиденциальные или частные данные, будет крайне сложно удалить предоставленную информацию.
«Применение искусственного интеллекта в корпоративной среде может привести к риску эксплуатации и обработки конфиденциальной информации, интеллектуальной собственности, исходного кода, коммерческих секретов и других данных с помощью данных, полученных напрямую от пользователей или через API, включая конфиденциальную информацию пользователей», — говорится в отчете. В отчете эти риски оценены как «высокие» и указано, что эти риски «управляемы», если будут реализованы соответствующие меры кибербезопасности.
В отчете Team8 подчеркивается, что данные чат-бота не предоставляются компаниям для обучения искусственного интеллекта, в отличие от недавних сообщений о том, что данные могут быть прочитаны другими лицами.
«На момент написания статьи модели ИИ, обученные на больших языковых данных, не способны обновляться в режиме реального времени и, следовательно, не способны использовать ввод от одного человека для ответа другому, поэтому опасения по поводу этой возможности не оправданы. Однако будущие версии этих моделей не обязательно будут иметь схожие характеристики».
В отчете также были оценены три другие проблемы с интеграцией ИИ как «высокий риск» и подчеркнута растущая угроза обмена информацией со сторонними приложениями. Microsoft интегрировала несколько функций чат-бота в свою поисковую систему Bing и программный пакет Microsoft 365.
«Например, со стороны пользователя сторонние приложения, использующие API моделей искусственного интеллекта, могут быть скомпрометированы и получить доступ к электронной почте и веб-браузеру пользователя, что позволит злоумышленнику выполнять действия от имени этого пользователя».
В отчете также оценивается «средний риск» того, что использование искусственного интеллекта может усилить дискриминацию, нанести ущерб репутации компании или подвергнуть ее судебным искам из-за проблем с авторскими правами.
В подготовке отчета приняла участие Энн Джонсон, корпоративный вице-президент Microsoft. Microsoft инвестировала миллиарды долларов в OpenAI, компанию, которая разработала приложение ChatGPT.
«Microsoft поощряет открытое обсуждение развивающихся киберрисков в сообществах, занимающихся кибербезопасностью и искусственным интеллектом», — заявил представитель Microsoft.
Несколько руководителей служб информационной безопасности из ряда американских компаний также внесли свой вклад в отчет. Отчет Team8 также был одобрен Майклом Роджерсом, бывшим председателем Агентства национальной безопасности США и Киберкомандования США.
Нгуен Куанг Минь (по данным Bloomberg)
Источник
Комментарий (0)