Компания Anthropic только что обновила свою политику. Фото: GK Images . |
28 августа компания Anthropic, занимающаяся разработкой искусственного интеллекта, объявила о выпуске обновленных Условий предоставления услуг для пользователей и Политики конфиденциальности. Теперь пользователи могут разрешить использование своих данных для улучшения Claude и усиления защиты от таких злоупотреблений, как фишинг и мошенничество.
Это уведомление будет внедрено в чат-боте начиная с 28 августа. У пользователей есть один месяц, чтобы принять или отклонить условия. Новые правила вступят в силу немедленно после принятия. После 28 сентября пользователям потребуется сделать выбор, продолжать ли использовать Claude.
По словам компании, обновления направлены на создание более полезных и мощных моделей искусственного интеллекта. Настроить этот параметр очень просто, это можно сделать в любое время в настройках конфиденциальности.
Эти изменения касаются тарифных планов Claude Free, Pro и Max, которые включают Claude Code, инструмент программирования от Anthropic. Услуги, на которые распространяются Условия коммерческого использования, не будут включены, включая Claude for Work, Claude Gov, Claude for Education, а также использование API, в том числе через третьих лиц, таких как Amazon Bedrock и Vertex AI от Google Cloud.
В своем сообщении в блоге компания Anthropic заявила, что, участвуя в проекте, пользователи помогут повысить безопасность модели, улучшить ее способность точно обнаруживать вредоносный контент и снизить риск ошибочной идентификации безобидных разговоров. В будущих версиях Claude также будут расширены такие навыки, как программирование, анализ и логическое мышление.
Важно, чтобы пользователи имели полный контроль над своими данными и могли выбирать, разрешать ли платформе использовать их в видимом окне или нет. Новые учетные записи могут настроить это по желанию во время регистрации.
![]() |
Окно с новыми Условиями использования в чат-боте. Изображение: Anthropic. |
Срок хранения данных увеличен до 5 лет и распространяется на новые диалоги или сеансы программирования, а также на ответы на вопросы чат-бота. Удаленные данные не будут использоваться для обучения модели в будущем. Если пользователи не согласны предоставлять данные для обучения, будет действовать текущая политика хранения данных в течение 30 дней.
Объясняя свою политику, компания Anthropic утверждает, что циклы разработки ИИ обычно длятся много лет, и поддержание согласованности данных на протяжении всего процесса обучения помогает создавать более согласованные модели. Более длительное хранение данных также улучшает классификаторы и системы, используемые для выявления противоправного поведения, позволяя обнаруживать вредоносные модели поведения.
«Для защиты конфиденциальности пользователей мы используем сочетание автоматизированных инструментов и процессов для фильтрации или сокрытия конфиденциальных данных. Мы не продаем данные пользователей третьим лицам», — говорится в сообщении компании.
Компания Anthropic часто упоминается как одна из ведущих компаний в области безопасного ИИ. Anthropic разрабатывает методологию под названием «Конституционный ИИ», которая устанавливает этические принципы и руководящие указания, которым должна следовать модель. Anthropic также является одной из компаний, участвующих в обязательствах по обеспечению безопасности ИИ с правительствами США, Великобритании и стран «Большой семерки».
Источник: https://znews.vn/cong-ty-ai-ra-han-cuoi-cho-nguoi-dung-post1580997.html







Комментарий (0)