شرکت آنتروپیک به تازگی سیاست خود را بهروزرسانی کرده است. عکس: GK Images . |
در تاریخ ۲۸ آگوست، شرکت هوش مصنوعی آنتروپیک (Anthropic) از انتشار بهروزرسانی شرایط خدمات کاربران و سیاست حفظ حریم خصوصی خبر داد. کاربران اکنون میتوانند انتخاب کنند که آیا دادههایشان برای بهبود کلود (Claude) و افزایش محافظت در برابر سوءاستفادههایی مانند فیشینگ و کلاهبرداری استفاده شود یا خیر.
این اعلان از ۲۸ آگوست در چتبات منتشر خواهد شد. کاربران یک ماه فرصت دارند تا شرایط را بپذیرند یا رد کنند. سیاستهای جدید بلافاصله پس از پذیرش اعمال میشوند. پس از ۲۸ سپتامبر، کاربران ملزم به انتخاب ادامه استفاده از کلود خواهند بود.
طبق گفته این شرکت، هدف از این بهروزرسانیها ارائه مدلهای هوش مصنوعی مفیدتر و قدرتمندتر است. تنظیم این گزینه ساده است و میتوان آن را در هر زمانی در تنظیمات حریم خصوصی انجام داد.
این تغییرات شامل طرحهای Claude Free، Pro و Max میشود که شامل Claude Code، ابزار برنامهنویسی Anthropic، میشود. خدماتی که تحت پوشش شرایط تجارت هستند، شامل Claude for Work، Claude Gov، Claude for Education یا استفاده از APIها، از جمله از طریق اشخاص ثالث مانند Amazon Bedrock و Vertex AI گوگل کلود، نخواهند شد.
آنتروپیک در پست وبلاگ خود اظهار داشت که با مشارکت، کاربران به بهبود ایمنی مدل، افزایش توانایی آن در تشخیص دقیق محتوای مخرب و کاهش خطر علامتگذاری اشتباه مکالمات بیضرر کمک خواهند کرد. نسخههای آینده کلود همچنین مهارتهای پیشرفتهای مانند برنامهنویسی، تجزیه و تحلیل و استدلال خواهند داشت.
مهم است که کاربران کنترل کاملی بر دادههای خود داشته باشند و بتوانند انتخاب کنند که آیا به پلتفرم اجازه میدهند از آنها در یک پنجره قابل مشاهده استفاده کند یا خیر. حسابهای کاربری جدید میتوانند این مورد را به صورت اختیاری در طول فرآیند ثبت نام تنظیم کنند.
![]() |
پنجرهای که شرایط و ضوابط جدید را در ربات چت نمایش میدهد. تصویر: Anthropic. |
مدت زمان نگهداری دادهها به ۵ سال افزایش یافته است که شامل مکالمات جدید یا جلسات کدنویسی و همچنین پاسخها به پاسخهای رباتهای چت میشود. دادههای حذف شده برای آموزش مدل در آینده استفاده نخواهند شد. اگر کاربران با ارائه دادهها برای آموزش موافقت نکنند، سیاست نگهداری ۳۰ روزه فعلی ادامه خواهد یافت.
شرکت آنتروپیک در توضیح سیاست خود استدلال میکند که چرخههای توسعه هوش مصنوعی معمولاً سالها طول میکشند و حفظ ثبات دادهها در طول فرآیند آموزش به ایجاد مدلهای سازگارتر کمک میکند. نگهداری طولانیتر دادهها همچنین طبقهبندیکنندهها و سیستمهای مورد استفاده برای شناسایی رفتارهای سوءاستفادهگرانه را بهبود میبخشد و امکان تشخیص الگوهای رفتاری مضر را فراهم میکند.
این شرکت نوشت: «برای محافظت از حریم خصوصی کاربران، ما از ترکیبی از ابزارها و فرآیندهای خودکار برای فیلتر کردن یا پنهان کردن دادههای حساس استفاده میکنیم. ما دادههای کاربران را به اشخاص ثالث نمیفروشیم.»
آنتروپیک اغلب به عنوان یکی از شرکتهای پیشرو در هوش مصنوعی امن شناخته میشود. آنتروپیک روشی به نام هوش مصنوعی مبتنی بر قانون اساسی (Constitutional AI) را توسعه میدهد که اصول و دستورالعملهای اخلاقی را که مدل باید از آنها پیروی کند، تعیین میکند. آنتروپیک همچنین یکی از شرکتهایی است که در تعهدات هوش مصنوعی امن با دولتهای ایالات متحده، بریتانیا و گروه هفت مشارکت دارد.
منبع: https://znews.vn/cong-ty-ai-ra-han-cuoi-cho-nguoi-dung-post1580997.html







نظر (0)