
ایک متاثرہ دستاویز ChatGPT (تصویر: وائرڈ) کے ذریعے گوگل ڈرائیو پر ڈیٹا لیک کر سکتی ہے۔
تشویشناک بات یہ ہے کہ اس خطرے کو صارف کی طرف سے کسی کارروائی کی ضرورت نہیں ہے، جو کہ مصنوعی ذہانت (AI) ماڈلز کے تناظر میں سائبرسیکیوریٹی کے بارے میں نئی انتباہات کو بڑھاتے ہوئے ذاتی ڈیٹا سے تیزی سے جڑے ہوئے ہیں۔
"زہر آلود" دستاویزات ڈیٹا لیک ہونے کا باعث بنتی ہیں۔
6 اگست کو لاس ویگاس (USA) میں ہونے والی بلیک ہیٹ سیکیورٹی کانفرنس میں، دو ماہرین مائیکل بارگوری اور تمیر ایشے شربت نے ایجنٹ فلیئر نامی حملے کے طریقہ کار کا مظاہرہ کیا۔
یہ حملہ کنیکٹرز میں کمزوری کا فائدہ اٹھاتا ہے – ایک ایسی خصوصیت جو ChatGPT کو بیرونی سروسز جیسے کہ Google Drive، Gmail یا Microsoft Calendar سے جوڑتی ہے۔
سیکیورٹی فرم زینٹی کے سی ٹی او مائیکل بارگوری نے کہا کہ "صارف کو سمجھوتہ کرنے یا اس کا ڈیٹا لیک ہونے کے لیے کچھ کرنے کی ضرورت نہیں ہے۔" "ہم نے ثابت کیا ہے کہ یہ مکمل طور پر صفر کلک ہے۔"
حملہ اس وقت شروع ہوتا ہے جب حملہ آور نے متاثرہ کی گوگل ڈرائیو پر ایک "زہر آلود" دستاویز کا اشتراک کیا۔ دستاویز میں تقریباً 300 الفاظ کا ایک بدنیتی پر مبنی اشارہ ہے، جو سفید، 1 نکاتی فونٹ میں لکھا گیا ہے – جو ننگی آنکھ سے تقریباً پوشیدہ ہے لیکن پھر بھی کمپیوٹر کے لیے پڑھا جا سکتا ہے۔
سطح پر، متن میٹنگ کے نوٹس کے طور پر بھیس میں ہے۔ حقیقت میں، اس میں ChatGPT کے لیے متاثرہ کے Google Drive اکاؤنٹ سے حساس API کیز تلاش کرنے اور نکالنے کی ہدایات شامل ہیں۔
صارف کی درخواست کے مطابق مواد کا خلاصہ کرنے کے بجائے، یہ پوشیدہ پرامپٹ AI کو مجبور کرتا ہے کہ وہ مارک ڈاؤن لنک کے ذریعے ایک بیرونی سرور کو ملنے والی API کیز بھیجے۔ ڈیٹا کو ایک تصویر کے طور پر نکالا جاتا ہے، جس سے سرور پوری معلومات کو حاصل کر سکتا ہے۔
OpenAI نے اس کا پتہ لگا لیا ہے، لیکن خطرات باقی ہیں۔
بارگوری کی رپورٹ موصول ہونے کے بعد اوپن اے آئی نے فوری طور پر تخفیف کو نافذ کیا۔ گوگل ورک اسپیس میں سیکیورٹی پروڈکٹ مینجمنٹ کے سینئر ڈائریکٹر اینڈی وین نے کہا، "تیز رفتار سے چلنے والے میلویئر انجیکشن حملوں کے خلاف مضبوط دفاع کو تیار کرنا ضروری ہے۔"
اگرچہ پیچ کیا گیا ہے، یہ واقعہ بڑے لینگویج ماڈلز (LLMs) کو بیرونی نظاموں سے جوڑنے کے ممکنہ خطرات کو اجاگر کرتا ہے۔ جیسا کہ AI ہماری زندگیوں اور کام میں زیادہ گہرائی سے مربوط ہوتا جاتا ہے، حملے کی سطح جس کا ہیکرز استحصال کر سکتے ہیں بھی پھیلتا جاتا ہے۔
ماہرین نے خبردار کیا ہے کہ بالواسطہ فوری انجیکشن ایک سنگین خطرہ بن سکتا ہے، جس سے حملہ آوروں کو سمارٹ ہومز سے لے کر انٹرپرائز انفراسٹرکچر تک بہت سے سمارٹ سسٹمز پر کنٹرول حاصل ہو سکتا ہے۔
"ایل ایل ایم کو بیرونی ڈیٹا ذرائع سے جوڑنا طاقتور ہے، لیکن جیسا کہ اکثر AI کے ساتھ ہوتا ہے، زیادہ طاقت کے ساتھ زیادہ خطرہ ہوتا ہے،" بارگوری نے نتیجہ اخذ کیا۔
ماخذ: https://dantri.com.vn/cong-nghe/canh-bao-lo-du-lieu-luu-tru-tren-google-drive-thong-qua-chatgpt-20250807155706949.htm
تبصرہ (0)