Vietnam.vn - Nền tảng quảng bá Việt Nam

Компанія зі штучним інтелектом встановлює терміни для користувачів.

Клод ШІ, творець чат-бота, опублікував нові умови щодо використання даних та конфіденційності користувачів, вимагаючи від користувачів прийняти рішення за місяць наперед, щоб продовжувати користуватися ним.

ZNewsZNews29/08/2025

Anthropic щойно оновив свою політику. Фото: GK Images .

28 серпня компанія Anthropic, що займається штучним інтелектом, оголосила про випуск оновлених Умов обслуговування для користувачів та Політики конфіденційності. Тепер користувачі можуть дозволити використання своїх даних для покращення Claude та посилення захисту від зловживань, таких як фішинг та шахрайство.

Це сповіщення буде розгорнуто в чат-боті, починаючи з 28 серпня. Користувачі мають один місяць, щоб прийняти або відхилити умови. Нові правила набудуть чинності негайно після їх прийняття. Після 28 вересня користувачам потрібно буде зробити вибір, чи продовжувати користуватися Claude.

За словами компанії, оновлення спрямовані на створення більш корисних та потужних моделей штучного інтелекту. Налаштування цього параметра просте та його можна виконати будь-коли в налаштуваннях конфіденційності.

Ці зміни стосуються планів Claude Free, Pro та Max, які включають Claude Code, інструмент програмування Anthropic. Сервіси, що охоплюються Умовами комерції, не будуть включені, зокрема Claude for Work, Claude Gov, Claude for Education, а також використання API, зокрема через треті сторони, такі як Amazon Bedrock та Vertex AI від Google Cloud.

У своєму блозі Anthropic заявила, що, беручи участь, користувачі допоможуть покращити безпеку моделі, збільшити її здатність точно виявляти шкідливий контент і зменшити ризик помилкового позначення нешкідливих розмов. Майбутні версії Claude також матимуть покращені навички, такі як програмування, аналіз і міркування.

Важливо, щоб користувачі мали повний контроль над своїми даними та могли вибирати, чи дозволяти платформі використовувати їх у видимому вікні. Нові облікові записи можуть за бажанням налаштувати це під час процесу реєстрації.

Chinh sach moi Anthropic anh 1

Вікно, що відображає нові Умови та положення в чат-боті. Зображення: Anthropic.

Термін зберігання даних збільшено до 5 років, що стосується нових розмов або сеансів кодування, а також відповідей на відповіді чат-ботів. Видалені дані не будуть використані для майбутнього навчання моделей. Якщо користувачі не погоджуються надавати дані для навчання, вони продовжуватимуть діяти з поточною 30-денною політикою зберігання.

Пояснюючи свою політику, Anthropic стверджує, що цикли розробки штучного інтелекту зазвичай тривають багато років, а підтримка узгодженості даних протягом усього процесу навчання допомагає створювати більш узгоджені моделі. Довше зберігання даних також покращує класифікатори та системи, що використовуються для виявлення образливої ​​поведінки, що дозволяє виявляти шкідливі моделі поведінки.

«Для захисту конфіденційності користувачів ми використовуємо комбінацію автоматизованих інструментів та процесів для фільтрації або приховування конфіденційних даних. Ми не продаємо дані користувачів третім сторонам», – написала компанія.

Anthropic часто називають однією з провідних компаній у сфері безпечного штучного інтелекту. Anthropic розробляє методологію під назвою «Конституційний штучний інтелект», яка визначає етичні принципи та рекомендації, яких має дотримуватися модель. Anthropic також є однією з компаній, що беруть участь у зобов'язаннях щодо безпечного штучного інтелекту з урядами США, Великої Британії та країн Великої сімки.

Джерело: https://znews.vn/cong-ty-ai-ra-han-cuoi-cho-nguoi-dung-post1580997.html


Коментар (0)

Залиште коментар, щоб поділитися своїми почуттями!

У тій самій категорії

Того ж автора

Спадщина

Фігура

Бізнеси

Поточні події

Політична система

Місцевий

Продукт

Happy Vietnam
З Днем Незалежності

З Днем Незалежності

09.02.2025

09.02.2025

Момент перемоги

Момент перемоги