Anthropic نے ابھی اپنی پالیسی کو اپ ڈیٹ کیا ہے۔ تصویر: جی کے امیجز |
28 اگست کو، AI کمپنی Anthropic نے صارفین کے لیے سروس کی تازہ ترین شرائط اور رازداری کی پالیسی کے اجراء کا اعلان کیا۔ صارفین اب کلاڈ کو بہتر بنانے اور فریب دہی اور دھوکہ دہی جیسی بدسلوکی کے خلاف تحفظات کو بڑھانے کے لیے اپنے ڈیٹا کو استعمال کرنے کی اجازت دینے کا انتخاب کر سکتے ہیں۔
یہ نوٹیفکیشن 28 اگست سے چیٹ بوٹ میں متعارف کرایا جائے گا۔ صارفین کے پاس شرائط کو قبول یا مسترد کرنے کے لیے ایک ماہ کا وقت ہے۔ نئی پالیسیاں منظوری کے فوراً بعد نافذ العمل ہوں گی۔ 28 ستمبر کے بعد، صارفین کو Claude کا استعمال جاری رکھنے کا انتخاب کرنا ہوگا۔
کمپنی کے مطابق، اپ ڈیٹس کا مقصد زیادہ مفید اور طاقتور AI ماڈلز فراہم کرنا ہے۔ اس اختیار کو ایڈجسٹ کرنا آسان ہے اور رازداری کی ترتیبات میں کسی بھی وقت کیا جا سکتا ہے۔
یہ تبدیلیاں کلاڈ فری، پرو، اور میکس پلانز پر لاگو ہوتی ہیں، جن میں کلاڈ کوڈ، اینتھروپک کا پروگرامنگ ٹول شامل ہے۔ تجارت کی شرائط کے تحت آنے والی خدمات کو شامل نہیں کیا جائے گا، بشمول Claude for Work، Claude Gov، Claude for Education، یا APIs کا استعمال، بشمول Amazon Bedrock اور Google Cloud's Vertex AI جیسے تیسرے فریق کے ذریعے۔
اپنی بلاگ پوسٹ میں، Anthropic نے کہا کہ حصہ لے کر، صارفین کو ماڈل کی حفاظت کو بہتر بنانے میں مدد ملے گی، نقصان دہ مواد کا درست طریقے سے پتہ لگانے کی صلاحیت میں اضافہ ہو گا، اور بے ضرر گفتگو کو غلطی سے جھنڈا لگانے کے خطرے کو کم کیا جائے گا۔ کلاڈ کے مستقبل کے ورژن میں پروگرامنگ، تجزیہ اور استدلال جیسی بہتر مہارتیں بھی ہوں گی۔
یہ ضروری ہے کہ صارفین کو اپنے ڈیٹا پر مکمل کنٹرول حاصل ہو، اور وہ انتخاب کر سکتے ہیں کہ آیا پلیٹ فارم کو اسے مرئی ونڈو میں استعمال کرنے کی اجازت دی جائے یا نہیں۔ نئے اکاؤنٹس اختیاری طور پر رجسٹریشن کے عمل کے دوران اسے ترتیب دے سکتے ہیں۔
![]() |
چیٹ بوٹ میں نئی شرائط و ضوابط کو ظاہر کرنے والی ونڈو۔ تصویر: انتھروپک۔ |
ڈیٹا کی برقراری کو بڑھا کر 5 سال کر دیا گیا ہے، جو نئی بات چیت یا کوڈنگ سیشنز کے ساتھ ساتھ چیٹ بوٹ کے جوابات پر لاگو ہوتا ہے۔ حذف شدہ ڈیٹا مستقبل کے ماڈل ٹریننگ کے لیے استعمال نہیں کیا جائے گا۔ اگر صارفین تربیت کے لیے ڈیٹا فراہم کرنے سے اتفاق نہیں کرتے ہیں، تو وہ موجودہ 30 دن کی برقراری کی پالیسی کو جاری رکھیں گے۔
اپنی پالیسی کی وضاحت کرتے ہوئے، Anthropic کا کہنا ہے کہ AI کی ترقی کے چکر عام طور پر کئی سالوں تک چلتے ہیں، اور تربیت کے پورے عمل میں ڈیٹا کی مستقل مزاجی کو برقرار رکھنے سے مزید مستقل ماڈل بنانے میں مدد ملتی ہے۔ طویل ڈیٹا برقرار رکھنے سے بدسلوکی کے رویے کی نشاندہی کرنے کے لیے استعمال کیے جانے والے درجہ بندی کرنے والوں اور سسٹمز کو بھی بہتر بنایا جاتا ہے، جس سے نقصان دہ رویے کے نمونوں کا پتہ لگانے میں مدد ملتی ہے۔
"صارف کی پرائیویسی کے تحفظ کے لیے، ہم حساس ڈیٹا کو فلٹر کرنے یا چھپانے کے لیے خودکار ٹولز اور پراسیس کا ایک مجموعہ استعمال کرتے ہیں۔ ہم صارف کا ڈیٹا تیسرے فریق کو فروخت نہیں کرتے،" کمپنی نے لکھا۔
اینتھروپک کو اکثر محفوظ AI میں سرکردہ کمپنیوں میں سے ایک کے طور پر حوالہ دیا جاتا ہے۔ انتھروپک ایک طریقہ کار تیار کرتا ہے جسے آئینی AI کہا جاتا ہے، جو اخلاقی اصولوں اور رہنما خطوط کا تعین کرتا ہے جن کی پیروی ماڈل کو کرنی چاہیے۔ Anthropic ان کمپنیوں میں سے ایک ہے جو امریکہ، برطانیہ اور G7 حکومتوں کے ساتھ محفوظ AI وعدوں میں حصہ لے رہی ہے۔
ماخذ: https://znews.vn/cong-ty-ai-ra-han-cuoi-cho-nguoi-dung-post1580997.html







تبصرہ (0)