Крупнейший банк Америки JPMorgan Chase, Amazon и технологическая компания Accenture ограничили использование ChatGPT своими сотрудниками из-за проблем с безопасностью данных.
По данным CNN, опасения этих компаний вполне обоснованы. 20 марта чат-бот OpenAI допустил ошибку, которая раскрыла данные пользователей. Хотя ошибка была быстро устранена, компания сообщила, что инцидент затронул 1,2% пользователей ChatGPT Plus. Утечка информации включала полные имена, адреса электронной почты, адреса выставления счетов, последние четыре цифры номеров кредитных карт и даты истечения срока действия карты.
31 марта итальянский орган по защите данных (Garante) временно запретил ChatGPT, сославшись на проблемы с конфиденциальностью после того, как OpenAI раскрыла уязвимость.
Марк МакКрири, сопредседатель по безопасности данных и конфиденциальности в юридической фирме Fox Rothschild LLP, сказал CNN, что опасения по поводу безопасности вокруг ChatGPT не преувеличены. Он сравнил чат-бота на основе искусственного интеллекта с «черным ящиком».
ChatGPT был выпущен OpenAI в ноябре 2022 года и быстро привлек внимание своей способностью писать эссе, рассказы и тексты песен, выдавая подсказки. Такие технологические гиганты, как Google и Microsoft, также выпустили похожие инструменты ИИ, работающие на основе больших языковых моделей, обученных на обширных онлайн-хранилищах данных.
Вслед за Италией Германия также рассматривает возможность запрета ChatGPT
Когда пользователи вводят информацию в эти инструменты, они не знают, как она будет использоваться, добавил Маккри. Это беспокоит компании, поскольку все больше сотрудников используют инструменты, помогающие им писать рабочие электронные письма или делать заметки для совещаний, что приводит к большему риску раскрытия коммерческой тайны.
Стив Миллс, директор по этике ИИ в Boston Consulting Group (BCG), сказал, что компании обеспокоены тем, что сотрудники случайно раскроют конфиденциальную информацию. Если данные, которые вводят люди, используются для обучения этого инструмента ИИ, они утратили контроль над данными, передав их кому-то другому.
Согласно политике конфиденциальности OpenAI, компания может собирать всю личную информацию и данные пользователей сервиса для улучшения моделей ИИ. Они могут использовать эту информацию для улучшения или анализа своих сервисов, проведения исследований, общения с пользователями и разработки новых программ и сервисов.
В политике конфиденциальности указано, что OpenAI может предоставлять персональные данные третьим лицам без уведомления пользователей, если это не требуется по закону. OpenAI также имеет собственный документ «Условия обслуживания», но компания возлагает большую часть ответственности на пользователей за принятие соответствующих мер при взаимодействии с инструментами ИИ.
Владельцы ChatGPT опубликовали в своем блоге пост о своем подходе к безопасному ИИ. Компания подчеркивает, что она не использует данные для продажи услуг, рекламы или создания профилей пользователей, а OpenAI использует данные, чтобы сделать свои модели более полезными. Например, разговоры пользователей будут использоваться для обучения ChatGPT.
Политика конфиденциальности ChatGPT считается весьма расплывчатой.
Google, компания, стоящая за Bard AI, имеет дополнительные положения о конфиденциальности для своих пользователей ИИ. Компания выберет небольшую часть разговора и использует автоматизированные инструменты для удаления персонально идентифицируемой информации, что поможет улучшить Bard, одновременно защищая конфиденциальность пользователей.
Образцы разговоров будут просматриваться людьми-тренерами и храниться до трех лет отдельно от учетной записи Google пользователя. Google также напоминает пользователям не включать личную информацию о себе или других в разговоры на Bard AI. Технологический гигант подчеркивает, что эти разговоры не будут использоваться в рекламных целях, и объявит об изменениях в будущем.
Bard AI позволяет пользователям отказаться от сохранения разговоров в своих аккаунтах Google, а также просматривать или удалять разговоры по ссылке. Кроме того, компания имеет меры безопасности, предназначенные для предотвращения включения Bard личной информации в ответы.
Стив Миллс говорит, что иногда пользователи и разработчики обнаруживают скрытые в новых технологиях риски безопасности, когда уже слишком поздно. Например, функции автозаполнения могут случайно раскрыть номера социального страхования пользователей.
Г-н Миллс заявил, что пользователи не должны помещать в эти инструменты ничего, чем они не хотели бы поделиться с другими.
Ссылка на источник
Комментарий (0)