ChatGPT کی طویل مدتی میموری کی خصوصیت ایک نئی خصوصیت ہے جسے OpenAI نے فروری 2024 میں متعارف کرایا تھا اور ستمبر میں توسیع کی گئی تھی۔
حال ہی میں، سیکورٹی محقق جوہن ریبرگر نے حال ہی میں اس خصوصیت سے متعلق ایک سنگین خطرے کا انکشاف کیا۔
معلوم ہوا ہے کہ یہ نیا فیچر چیٹ بوٹس کو پچھلی بات چیت کی معلومات کو ذخیرہ کرنے میں مدد کرتا ہے۔ اس کی بدولت، صارفین کو ہر بار چیٹ کرنے پر عمر، دلچسپی یا ذاتی خیالات جیسی معلومات دوبارہ درج کرنے کی ضرورت نہیں ہے۔ تاہم، یہ حملہ آوروں کے لیے فائدہ اٹھانا ایک کمزوری بن گیا ہے۔
Johann Rehberger نے ظاہر کیا کہ ہیکرز ایک تکنیک کا استعمال کر سکتے ہیں جسے پرامپٹ انجیکشن کہا جاتا ہے — میموری میں بدنیتی پر مبنی ہدایات داخل کر کے، AI کو ماننے پر مجبور کرتا ہے۔ یہ کمانڈز غیر بھروسہ مند مواد جیسے ای میلز، دستاویزات یا ویب سائٹس کے ذریعے فراہم کیے جائیں گے۔
ایک بار جب یہ جعلی یادیں محفوظ ہوجاتی ہیں، تو AI صارفین کے ساتھ بات چیت میں انہیں حقیقی معلومات کے طور پر استعمال کرتا رہے گا، جو صارفین کے ذاتی ڈیٹا کو جمع کرنے اور غلط استعمال کا باعث بن سکتا ہے۔
Rehberger نے ایک ایسا لنک بھیج کر ایک مخصوص مثال فراہم کی جس میں ایک بدنیتی پر مشتمل تصویر تھی جس کی وجہ سے ChatGPT نے غلط میموری کو اسٹور کیا۔ یہ معلومات ChatGPT کے مستقبل کے جوابات کو متاثر کرے گی۔ خاص طور پر، صارف کی داخل کردہ کوئی بھی معلومات ہیکر کے سرور کو بھیجا جائے گا۔
اس کے مطابق، حملے کو متحرک کرنے کے لیے، ہیکر کو صرف چیٹ جی پی ٹی کے صارفین کو اس بات پر قائل کرنے کی ضرورت ہے کہ وہ کسی نقصان دہ تصویر والے لنک پر کلک کریں۔ اس کے بعد، ChatGPT کے ساتھ صارف کی تمام چیٹس بغیر کوئی نشان چھوڑے حملہ آور کے سرور پر بھیج دی جائیں گی۔
Rehberger نے مئی 2024 میں OpenAi کو اس مسئلے کی اطلاع دی، لیکن کمپنی نے اسے صرف ایک حفاظتی خامی سمجھا۔ اس بات کا ثبوت ملنے کے بعد کہ صارف کا ڈیٹا چوری ہو سکتا ہے، کمپنی نے ChatGPT کے ویب ورژن پر ایک عارضی پیچ جاری کیا۔
جب کہ مسئلہ کو عارضی طور پر حل کر دیا گیا ہے، ریبرگر نے نوٹ کیا کہ غیر بھروسہ مند مواد اب بھی ChatGPT کی طویل مدتی میموری میں جعلی معلومات داخل کرنے کے لیے Prompt انجیکشن کا استعمال کر سکتا ہے۔ اس کا مطلب یہ ہے کہ بعض صورتوں میں، ہیکرز اب بھی نقصان دہ یادوں کو ذخیرہ کرنے کے خطرے سے فائدہ اٹھا کر ذاتی معلومات کو طویل مدتی چوری کر سکتے ہیں۔
OpenAI تجویز کرتا ہے کہ صارفین غلط مثبت کے لیے ChatGPT کی ذخیرہ شدہ یادوں کو باقاعدگی سے چیک کریں، اور کمپنی ٹول میں محفوظ یادوں کو منظم اور حذف کرنے کے بارے میں تفصیلی ہدایات بھی فراہم کرتی ہے۔
ماخذ: https://kinhtedothi.vn/nguoi-dung-chatgpt-co-nguy-co-bi-danh-cap-thong-tin.html
تبصرہ (0)