قامت شركة أنثروبيك بتحديث سياستها مؤخراً. الصورة: جي كي إيميجز . |
في 28 أغسطس، أعلنت شركة أنثروبيك المتخصصة في الذكاء الاصطناعي عن إصدار نسخة محدثة من شروط الخدمة للمستخدمين وسياسة الخصوصية. وبات بإمكان المستخدمين الآن اختيار السماح باستخدام بياناتهم لتحسين أداء كلود وتعزيز الحماية من الانتهاكات مثل التصيد الاحتيالي والاحتيال.
سيتم تفعيل هذا الإشعار في برنامج الدردشة الآلي ابتداءً من 28 أغسطس. أمام المستخدمين شهر واحد لقبول الشروط أو رفضها. ستدخل السياسات الجديدة حيز التنفيذ فور الموافقة. بعد 28 سبتمبر، سيُطلب من المستخدمين اختيار الاستمرار في استخدام كلود.
بحسب الشركة، تهدف التحديثات إلى تقديم نماذج ذكاء اصطناعي أكثر فائدة وقوة. تعديل هذا الخيار بسيط ويمكن القيام به في أي وقت من خلال إعدادات الخصوصية.
تنطبق هذه التغييرات على باقات Claude المجانية والاحترافية والمتقدمة، والتي تتضمن Claude Code، أداة البرمجة من Anthropic. لن تشمل هذه التغييرات الخدمات المشمولة بشروط التجارة، بما في ذلك Claude for Work وClaude Gov وClaude for Education، أو استخدام واجهات برمجة التطبيقات (APIs)، بما في ذلك تلك التي تتم عبر جهات خارجية مثل Amazon Bedrock وVertex AI من Google Cloud.
ذكرت شركة أنثروبيك في منشورها على المدونة أن مشاركة المستخدمين ستساهم في تحسين أمان النموذج، وزيادة قدرته على الكشف بدقة عن المحتوى الضار، وتقليل مخاطر تصنيف المحادثات غير الضارة بشكل خاطئ. كما ستتمتع الإصدارات المستقبلية من كلود بمهارات محسّنة مثل البرمجة والتحليل والاستدلال.
من المهم أن يتمتع المستخدمون بالتحكم الكامل في بياناتهم، وأن يكون بإمكانهم اختيار السماح للمنصة باستخدامها أو عدم السماح بذلك في نافذة مرئية. ويمكن للمستخدمين الجدد إعداد هذا الخيار أثناء عملية التسجيل.
![]() |
نافذة تعرض الشروط والأحكام الجديدة في برنامج الدردشة الآلي. الصورة: أنثروبيك. |
تم تمديد فترة الاحتفاظ بالبيانات إلى 5 سنوات، وتشمل هذه الفترة المحادثات الجديدة وجلسات البرمجة، بالإضافة إلى الردود على إجابات روبوت الدردشة. ولن تُستخدم البيانات المحذوفة في تدريب النموذج مستقبلاً. وفي حال عدم موافقة المستخدمين على تقديم بيانات للتدريب، فسيستمر العمل بسياسة الاحتفاظ الحالية لمدة 30 يومًا.
تُوضح شركة أنثروبيك سياستها قائلةً إن دورات تطوير الذكاء الاصطناعي تستغرق عادةً سنوات عديدة، وأن الحفاظ على اتساق البيانات طوال عملية التدريب يُسهم في إنشاء نماذج أكثر اتساقًا. كما أن الاحتفاظ بالبيانات لفترات أطول يُحسّن من أداء المصنفات والأنظمة المستخدمة لتحديد السلوكيات المسيئة، مما يُتيح الكشف عن أنماط السلوك الضارة.
وكتبت الشركة: "لحماية خصوصية المستخدم، نستخدم مزيجًا من الأدوات والعمليات الآلية لتصفية البيانات الحساسة أو إخفائها. ولا نبيع بيانات المستخدم لأطراف ثالثة".
كثيراً ما يُشار إلى شركة أنثروبيك كإحدى الشركات الرائدة في مجال الذكاء الاصطناعي الآمن. تُطوّر أنثروبيك منهجية تُسمى الذكاء الاصطناعي الدستوري، والتي تُحدد المبادئ والتوجيهات الأخلاقية التي يجب على النموذج اتباعها. كما تُعدّ أنثروبيك إحدى الشركات المشاركة في التزامات الذكاء الاصطناعي الآمن مع حكومات الولايات المتحدة والمملكة المتحدة ومجموعة السبع.
المصدر: https://znews.vn/cong-ty-ai-ra-han-cuoi-cho-nguoi-dung-post1580997.html







تعليق (0)