چیٹ جی پی ٹی پر عوامی لنک کے ذریعے چیٹ شیئرنگ کی خصوصیت - تصویر: ٹیکراڈر
چیٹ جی پی ٹی اب ہر روز عالمی صارفین کے 2.5 بلین سوالات تک پہنچتا ہے، جو اس چیٹ بوٹ کی بڑھتی ہوئی مقبولیت کو ظاہر کرتا ہے۔
تاہم، اس ٹول کو صارفین کی جانب سے شدید ردعمل کا سامنا کرنا پڑ رہا ہے، کیونکہ "شیئرنگ" فیچر کی وجہ سے ہزاروں مکالمات گوگل اور انٹرنیٹ پر کئی سرچ انجنوں کو حساس معلومات لیک کر چکے ہیں۔
ہائی سیکیورٹی رسک
مسٹر Vu Ngoc Son - نیشنل سائبر سیکیورٹی ایسوسی ایشن (NCA) کے ٹیکنالوجی کے سربراہ - نے اندازہ لگایا کہ مذکورہ واقعہ ChatGPT صارفین کے لیے اعلیٰ سطح کے سیکیورٹی رسک کو ظاہر کرتا ہے۔
"مذکورہ واقعہ ضروری نہیں کہ کوئی تکنیکی خرابی ہو کیونکہ شیئر بٹن پر کلک کرنے میں صارف کا ایک خاص اقدام ہے۔ تاہم، یہ کہا جا سکتا ہے کہ مسئلہ AI چیٹ بوٹ پروڈکٹ کے ڈیزائن میں ہے، جب اس نے صارفین کو الجھا دیا ہے اور اگر صارفین شیئر کرتے ہیں تو ذاتی ڈیٹا کے لیک ہونے کے خطرے کے بارے میں کوئی سخت انتباہی اقدامات نہیں ہیں،" مسٹر وو نگوک سون نے تجزیہ کیا۔
چیٹ جی پی ٹی پر، یہ فیچر اس وقت لاگو ہوتا ہے جب صارف عوامی لنک کے ذریعے چیٹ کو شیئر کرنے کا انتخاب کرتا ہے، مواد کو اوپن اے آئی کے سرور پر ایک عوامی ویب سائٹ (chatgpt.com/share/...) کے طور پر اسٹور کیا جائے گا، رسائی کے لیے کسی لاگ ان یا پاس ورڈ کی ضرورت نہیں ہوگی۔
گوگل کے کرالر خود بخود ان صفحات کو اسکین اور انڈیکس کرتے ہیں، جس سے وہ تلاش کے نتائج میں ظاہر ہوتے ہیں، بشمول متن، تصاویر، یا حساس چیٹ ڈیٹا۔
بہت سے صارفین اس خطرے سے ناواقف تھے، یہ سوچتے ہوئے کہ وہ دوستوں یا رابطوں کے ساتھ چیٹ شیئر کر رہے ہیں۔ اس کی وجہ سے ہزاروں مکالمے سامنے آئے، جن میں سے کچھ حساس ذاتی معلومات پر مشتمل تھیں۔
اگرچہ OpenAI نے کمیونٹی کی جانب سے ردعمل کے بعد جولائی 2025 کے آخر میں فیچر کو فوری طور پر ہٹا دیا، لیکن پھر بھی پرانے اشاریہ جات کو ہٹانے کے لیے گوگل کے ساتھ ہم آہنگی کرنے میں وقت لگا۔ خاص طور پر پیچیدہ اسٹوریج سسٹم کے ساتھ، جس میں گوگل کے کیش سرورز شامل ہیں، یہ جلدی نہیں کیا جا سکتا۔
AI چیٹ بوٹس کو "سیفٹی بلیک باکس" کے طور پر مت سمجھیں۔
ڈیٹا سیکورٹی ماہر Vu Ngoc Son - نیشنل سائبر سیکورٹی ایسوسی ایشن (NCA) میں ٹیکنالوجی کے سربراہ - تصویر: CHI HIEU
ہزاروں چیٹس کے لیک ہونے سے صارفین کو خطرات لاحق ہو سکتے ہیں جیسے کہ ذاتی راز افشا کرنا، کاروباری راز۔ گھر کے پتے ظاہر کرتے وقت ساکھ کو نقصان، مالی خطرات یا حتیٰ کہ حفاظتی خطرات۔
"AI سے چلنے والے چیٹ بوٹس کارآمد ہیں لیکن 'بلیک باکس' نہیں، کیونکہ مشترکہ ڈیٹا ویب پر ہمیشہ کے لیے زندہ رہ سکتا ہے اگر ان کو چیک نہ کیا جائے۔
یہ واقعہ یقینی طور پر فراہم کنندگان اور صارفین دونوں کے لیے ایک سبق ہے۔ دیگر AI سروس فراہم کرنے والے اس تجربے سے سیکھ سکتے ہیں اور واضح، زیادہ شفاف انتباہات کے ساتھ ڈیزائن کی خصوصیات حاصل کر سکتے ہیں۔
ایک ہی وقت میں، صارفین کو AI پلیٹ فارمز پر ذاتی طور پر قابل شناخت یا خفیہ معلومات کی بے قابو پوسٹنگ کو بھی فعال طور پر محدود کرنے کی ضرورت ہے،" سیکیورٹی ماہر Vu Ngoc Son نے تجویز کیا۔
ڈیٹا سیکیورٹی ماہرین کے مطابق مذکورہ واقعہ یہ ظاہر کرتا ہے کہ اے آئی کے لیے قانونی راہداریوں اور سائبر سیکیورٹی کے معیارات کی ضرورت ہے۔ AI فراہم کنندگان اور ڈویلپرز کو بھی ایسے نظاموں کو ڈیزائن کرنے کی ضرورت ہے جو سیکورٹی کو یقینی بنائیں، ڈیٹا کے رساو کے خطرے سے بچتے ہوئے جیسے کہ: خراب خطرات سے لیکیج؛ سافٹ ویئر کی کمزوریاں جو ڈیٹا بیس کے حملوں کا باعث بنتی ہیں۔ ناقص کنٹرول جو زہر دینے کا باعث بنتا ہے، گمراہ کن اور مسخ شدہ سوالات کا جواب دینے کے لیے غلط استعمال۔
صارفین کو AI کے ساتھ ذاتی معلومات کے اشتراک کو بھی کنٹرول کرنے کی ضرورت ہے، اور حساس معلومات کا اشتراک نہیں کرنا چاہیے۔ ایسے معاملات میں جہاں یہ واقعی ضروری ہے، یہ مشورہ دیا جاتا ہے کہ گمنام موڈ استعمال کریں یا معلومات کو فعال طور پر خفیہ کریں تاکہ ڈیٹا کو مخصوص افراد سے براہ راست منسلک ہونے سے بچایا جا سکے۔
ماخذ: https://tuoitre.vn/hang-ngan-cuoc-tro-chuyen-voi-chatgpt-bi-lo-tren-google-nguoi-dung-luu-y-gi-20250805152646255.htm
تبصرہ (0)