Vietnam.vn - Nền tảng quảng bá Việt Nam

شرکت هوش مصنوعی برای کاربران ضرب‌الاجل تعیین می‌کند.

Claude AI، سازنده Claude AI، شرایط و ضوابط جدیدی را در مورد استفاده از داده‌ها و حریم خصوصی کاربران منتشر کرده است و از کاربران می‌خواهد که یک ماه قبل از شروع استفاده از این چت‌بات، تصمیم خود را در مورد ادامه استفاده از آن بگیرند.

ZNewsZNews29/08/2025

شرکت آنتروپیک به تازگی سیاست خود را به‌روزرسانی کرده است. عکس: GK Images .

در تاریخ ۲۸ آگوست، شرکت هوش مصنوعی آنتروپیک (Anthropic) از انتشار به‌روزرسانی شرایط خدمات کاربران و سیاست حفظ حریم خصوصی خبر داد. کاربران اکنون می‌توانند انتخاب کنند که آیا داده‌هایشان برای بهبود کلود (Claude) و افزایش محافظت در برابر سوءاستفاده‌هایی مانند فیشینگ و کلاهبرداری استفاده شود یا خیر.

این اعلان از ۲۸ آگوست در چت‌بات منتشر خواهد شد. کاربران یک ماه فرصت دارند تا شرایط را بپذیرند یا رد کنند. سیاست‌های جدید بلافاصله پس از پذیرش اعمال می‌شوند. پس از ۲۸ سپتامبر، کاربران ملزم به انتخاب ادامه استفاده از کلود خواهند بود.

طبق گفته این شرکت، هدف از این به‌روزرسانی‌ها ارائه مدل‌های هوش مصنوعی مفیدتر و قدرتمندتر است. تنظیم این گزینه ساده است و می‌توان آن را در هر زمانی در تنظیمات حریم خصوصی انجام داد.

این تغییرات شامل طرح‌های Claude Free، Pro و Max می‌شود که شامل Claude Code، ابزار برنامه‌نویسی Anthropic، می‌شود. خدماتی که تحت پوشش شرایط تجارت هستند، شامل Claude for Work، Claude Gov، Claude for Education یا استفاده از APIها، از جمله از طریق اشخاص ثالث مانند Amazon Bedrock و Vertex AI گوگل کلود، نخواهند شد.

آنتروپیک در پست وبلاگ خود اظهار داشت که با مشارکت، کاربران به بهبود ایمنی مدل، افزایش توانایی آن در تشخیص دقیق محتوای مخرب و کاهش خطر علامت‌گذاری اشتباه مکالمات بی‌ضرر کمک خواهند کرد. نسخه‌های آینده کلود همچنین مهارت‌های پیشرفته‌ای مانند برنامه‌نویسی، تجزیه و تحلیل و استدلال خواهند داشت.

مهم است که کاربران کنترل کاملی بر داده‌های خود داشته باشند و بتوانند انتخاب کنند که آیا به پلتفرم اجازه می‌دهند از آنها در یک پنجره قابل مشاهده استفاده کند یا خیر. حساب‌های کاربری جدید می‌توانند این مورد را به صورت اختیاری در طول فرآیند ثبت نام تنظیم کنند.

Chinh sach moi Anthropic anh 1

پنجره‌ای که شرایط و ضوابط جدید را در ربات چت نمایش می‌دهد. تصویر: Anthropic.

مدت زمان نگهداری داده‌ها به ۵ سال افزایش یافته است که شامل مکالمات جدید یا جلسات کدنویسی و همچنین پاسخ‌ها به پاسخ‌های ربات‌های چت می‌شود. داده‌های حذف شده برای آموزش مدل در آینده استفاده نخواهند شد. اگر کاربران با ارائه داده‌ها برای آموزش موافقت نکنند، سیاست نگهداری ۳۰ روزه فعلی ادامه خواهد یافت.

شرکت آنتروپیک در توضیح سیاست خود استدلال می‌کند که چرخه‌های توسعه هوش مصنوعی معمولاً سال‌ها طول می‌کشند و حفظ ثبات داده‌ها در طول فرآیند آموزش به ایجاد مدل‌های سازگارتر کمک می‌کند. نگهداری طولانی‌تر داده‌ها همچنین طبقه‌بندی‌کننده‌ها و سیستم‌های مورد استفاده برای شناسایی رفتارهای سوءاستفاده‌گرانه را بهبود می‌بخشد و امکان تشخیص الگوهای رفتاری مضر را فراهم می‌کند.

این شرکت نوشت: «برای محافظت از حریم خصوصی کاربران، ما از ترکیبی از ابزارها و فرآیندهای خودکار برای فیلتر کردن یا پنهان کردن داده‌های حساس استفاده می‌کنیم. ما داده‌های کاربران را به اشخاص ثالث نمی‌فروشیم.»

آنتروپیک اغلب به عنوان یکی از شرکت‌های پیشرو در هوش مصنوعی امن شناخته می‌شود. آنتروپیک روشی به نام هوش مصنوعی مبتنی بر قانون اساسی (Constitutional AI) را توسعه می‌دهد که اصول و دستورالعمل‌های اخلاقی را که مدل باید از آنها پیروی کند، تعیین می‌کند. آنتروپیک همچنین یکی از شرکت‌هایی است که در تعهدات هوش مصنوعی امن با دولت‌های ایالات متحده، بریتانیا و گروه هفت مشارکت دارد.

منبع: https://znews.vn/cong-ty-ai-ra-han-cuoi-cho-nguoi-dung-post1580997.html


نظر (0)

لطفاً نظر دهید تا احساسات خود را با ما به اشتراک بگذارید!

در همان دسته‌بندی

از همان نویسنده

میراث

شکل

کسب و کارها

امور جاری

نظام سیاسی

محلی

محصول

Happy Vietnam
هواپیماها در زمان صلح

هواپیماها در زمان صلح

جوانی من ❤

جوانی من ❤

لحظه پیروزی

لحظه پیروزی