Масштабные инвестиции крупных технологических компаний в искусственный интеллект (ИИ) и чат-ботов создали проблемы для руководителей корпоративных служб информационной безопасности. По данным CNBC , ИИ проникает на рабочие места, и руководителям служб информационной безопасности следует относиться к этой технологии с осторожностью и готовиться к защите.
Технология, лежащая в основе GPT, называется большой языковой моделью (LLM). Не у каждой компании есть собственная GPT, поэтому важно следить за тем, как сотрудники её используют. По словам Майкла Чуи, партнёра McKinsey Global Institute, люди будут использовать генеративный ИИ, если сочтут его полезным. Он сравнивает его с использованием компьютера или телефона на работе.
Даже если это запрещено, сотрудники всё равно найдут способы пробраться внутрь. Исторически существовали технологии, которые были настолько привлекательны, что люди были готовы за них платить. Например, по словам Чуй, они покупали мобильные телефоны ещё до того, как компании предоставляли им персональные устройства.
Руководители служб информационной безопасности, уже сталкивающиеся с угрозой кибератак, теперь столкнулись с новой проблемой, связанной с ИИ и GPT. По словам Чуи, компании могут лицензировать платформу ИИ для отслеживания того, что сотрудники сообщают чат-ботам, и обеспечения защиты передаваемой ими информации.
«Вам, как компании, не нужно, чтобы ваши сотрудники передавали конфиденциальную информацию публичному чат-боту», — говорит Чуй. Поэтому важно принять технические меры, такие как лицензирование программного обеспечения и заключение юридических соглашений о том, куда будут передаваться ваши данные.
По словам Самира Пенакалапати, генерального директора Ceipal, безопасным вариантом для компании является разработка собственного GPT-тега или найм разработчиков GPT для создания собственной версии. Если вы создадите собственный GPT, программное обеспечение будет содержать именно ту информацию, к которой компания хочет предоставить доступ своим сотрудникам. Кроме того, оно может защитить вводимую сотрудниками информацию. Независимо от выбранного решения, необходимо соблюдать осторожность с данными, которые попадают в GPT-тег.
(По данным CNBC)
Источник
Комментарий (0)