
انتھروپک نے خبردار کیا ہے کہ AI ردعمل کو کم کرنے کے لیے بدنیتی پر مبنی ڈیٹا داخل کرنا تصور سے کہیں زیادہ آسان ہے - تصویر: FREEPIK
آرٹیفیشل انٹیلی جنس کمپنی اینتھروپک، جو چیٹ بوٹ کلاڈ کی ڈویلپر ہے، نے ابھی تحقیق شائع کی ہے جس میں بتایا گیا ہے کہ بڑے لینگویج ماڈلز (LLMs) کو "زہریلا" کرنا، یعنی AI ردعمل کو مسخ کرنے کے لیے بدنیتی پر مبنی ڈیٹا داخل کرنا تصور سے کہیں زیادہ آسان ہے۔
سائبر نیوز کے مطابق، صرف 250 خصوصی طور پر تیار کی گئی دستاویزات ایک جنریٹو AI (GenAI) ماڈل بنانے کے لیے کافی ہیں جو کسی خاص محرک جملے کا سامنا کرنے پر مکمل طور پر غلط جواب دیتے ہیں۔
تشویشناک بات یہ ہے کہ ماڈل کا سائز اس خطرے کو کم نہیں کرتا ہے۔ پہلے، محققین کا خیال تھا کہ ماڈل جتنا بڑا ہوگا، "بیک ڈور" کو انسٹال کرنے کے لیے اتنا ہی زیادہ نقصان دہ ڈیٹا کی ضرورت ہوگی۔
لیکن انتھروپک کا دعویٰ ہے کہ دونوں 13 بلین پیرامیٹر ماڈل – 20 گنا سے زیادہ ڈیٹا پر تربیت یافتہ – اور 600 ملین پیرامیٹر ماڈل کو صرف اتنی ہی چھوٹی تعداد میں "زہریلا" دستاویزات کے ساتھ سمجھوتہ کیا جا سکتا ہے۔
"یہ تلاش اس مفروضے کو چیلنج کرتی ہے کہ حملہ آور کو تربیتی ڈیٹا کے ایک خاص فیصد کو کنٹرول کرنا چاہیے۔ درحقیقت، انہیں صرف ایک بہت ہی کم مقررہ رقم کی ضرورت ہو سکتی ہے،" اینتھروپک نے زور دیا۔
کمپنی نے خبردار کیا ہے کہ یہ کمزوریاں AI سسٹمز کی سلامتی کے لیے سنگین خطرات کا باعث بن سکتی ہیں اور حساس علاقوں میں ٹیکنالوجی کے استعمال کو خطرہ لاحق ہو سکتی ہیں۔
ماخذ: https://tuoitre.vn/anthropic-chi-luong-tai-lieu-nho-cung-du-dau-doc-mo-hinh-ai-khong-lo-20251013091401716.htm
تبصرہ (0)