Компания Anthropic только что обновила свою политику. Фото: GK Images . |
28 августа компания Anthropic, занимающаяся разработкой искусственного интеллекта, объявила об обновлении своих Условий обслуживания пользователей и Политики конфиденциальности. Теперь пользователи могут разрешить использование своих данных для улучшения Claude и усиления защиты от злоупотреблений, таких как мошенничество и мошенничество.
Это уведомление будет отправлено чат-боту с 28 августа. У пользователей есть один месяц, чтобы принять или отклонить условия. Новые правила вступят в силу немедленно после их принятия. После 28 сентября пользователям потребуется подтвердить своё согласие, чтобы продолжить использование Claude.
По заявлению компании, эти обновления призваны помочь создать более мощные и полезные модели искусственного интеллекта. Изменить эту опцию легко и можно в любое время в настройках конфиденциальности.
Эти изменения вносятся в тарифные планы Claude Free, Pro и Max, которые включают Claude Code, инструмент программирования от Anthropic. Сервисы, подпадающие под действие Коммерческих условий, включая Claude for Work, Claude Gov, Claude for Education, а также использование API, в том числе сторонних, таких как Amazon Bedrock и Vertex AI от Google Cloud, не будут применяться.
Как сообщила Anthropic в своём блоге, участвуя в проекте, пользователи помогут повысить безопасность модели, повысив её способность точно определять вредоносный контент и снизив риск ошибочной пометки безобидных разговоров. В будущих версиях Claude также будут улучшены такие навыки, как программирование, анализ и рассуждение.
Важно, чтобы пользователи имели полный контроль над своими данными и могли самостоятельно разрешить платформе использовать их во всплывающих окнах. Новые учётные записи могут настроить это при регистрации.
![]() |
Всплывающее окно «Новые условия» в чат-боте. Фото: Anthropic. |
Срок хранения данных увеличен до пяти лет и распространяется на новые или продолжающиеся разговоры или сеансы программирования, а также на ответы чат-ботов. Удаленные данные не будут использоваться для обучения модели в будущем. Если пользователи не согласятся предоставлять данные для обучения, для них будет действовать текущая 30-дневная политика хранения.
Объясняя эту политику, компания Anthropic отметила, что циклы разработки ИИ обычно длятся годы, и поддержание согласованности данных на протяжении всего процесса обучения также способствует стабильности моделей. Более длительное хранение данных также улучшает работу классификаторов — систем, используемых для выявления злоупотреблений, — и позволяет выявлять вредоносные шаблоны.
«Для защиты конфиденциальности пользователей мы используем комбинацию автоматизированных инструментов и процессов для фильтрации или маскировки конфиденциальных данных. Мы не продаём данные пользователей третьим лицам», — написала компания.
Компанию Anthropic часто называют одним из лидеров в области безопасного ИИ. Anthropic разработала методологию «Конституционный ИИ», которая устанавливает этические принципы и правила, которым должны следовать модели. Anthropic также входит в число компаний, подписавших Обязательства по безопасному ИИ с правительствами США, Великобритании и стран «Большой семёрки».
Источник: https://znews.vn/cong-ty-ai-ra-han-cuoi-cho-nguoi-dung-post1580997.html
Комментарий (0)