По данным Bloomberg , Samsung уведомила сотрудников об этом решении 1 мая. Компания обеспокоена тем, что данные, загружаемые на платформы искусственного интеллекта, такие как Google Bard и Bing, хранятся на внешних серверах, что затрудняет их извлечение и удаление, и в конечном итоге будут раскрыты другим пользователям.
В прошлом месяце южнокорейский электронный гигант провел опрос об использовании инструментов ИИ в своих компаниях. 65% респондентов считали, что такие сервисы представляют риск. В начале апреля инженеры Samsung случайно слили внутренний исходный код, разместив его на ChatGPT. Неясно, что содержала эта информация.
Представитель Samsung подтвердил информацию о запрете использования сервисов генеративного ИИ.
В служебной записке для сотрудников Samsung признала, что платформы генеративного ИИ, такие как ChatGPT, набирают все большую популярность. Хотя они удобны и эффективны, они также вызывают опасения по поводу безопасности.
Samsung — последнее крупное имя, выразившее обеспокоенность по поводу этой технологии. В феврале, всего через несколько месяцев после того, как чат-бот ChatGPT от OpenAI покорил мир, несколько банков Уолл-стрит, включая JPMorgan Chase, Bank of America и Citigroup, запретили или ограничили его использование. Италия также запретила ChatGPT из-за проблем безопасности, но недавно отменила запрет.
Политика Samsung запрещает использование генеративных служб ИИ на компьютерах, планшетах и телефонах, выпущенных компанией, а также во внутренних сетях. Она не распространяется на устройства, продаваемые клиентам, такие как смартфоны и ноутбуки.
Samsung требует от сотрудников, использующих ChatGPT и другие инструменты на персональных устройствах, не отправлять никакую информацию, связанную с компанией, или персональные данные, которые могут раскрыть интеллектуальную собственность. Компания предупреждает, что нарушения приведут к увольнению.
Тем временем Samsung также разрабатывает собственные внутренние инструменты ИИ для перевода и реферирования документов, а также разработки программного обеспечения. Компания стремится запретить сотрудникам загружать конфиденциальную информацию на внешние сервисы. В прошлом месяце ChatGPT добавил режим инкогнито, чтобы пользователи могли предотвратить использование своих данных для обучения моделей ИИ.
(По данным Bloomberg)
Источник
Комментарий (0)