Vietnam.vn - Nền tảng quảng bá Việt Nam

Độc lập - Tự do - Hạnh phúc

ChatGPT استعمال کرتے وقت سیکیورٹی کے خطرات

Báo Thanh niênBáo Thanh niên16/04/2023


امریکہ کے سب سے بڑے بینک JPMorgan Chase، Amazon اور ٹیکنالوجی کمپنی Accenture نے تمام ملازمین کو ChatGPT استعمال کرنے سے ڈیٹا سیکورٹی خدشات پر پابندی لگا دی ہے۔

CNN کے مطابق، ان کاروباری اداروں کے خدشات اچھی طرح سے قائم ہیں۔ 20 مارچ کو اوپن اے آئی کے چیٹ بوٹ میں ایک خامی تھی جس نے صارف کے ڈیٹا کو بے نقاب کیا۔ اگرچہ غلطی کو فوری طور پر ٹھیک کر دیا گیا تھا، کمپنی نے انکشاف کیا کہ اس واقعے نے ChatGPT Plus کے 1.2% صارفین کو متاثر کیا۔ لیک ہونے والی معلومات میں مکمل نام، ای میل ایڈریس، بلنگ ایڈریس، کریڈٹ کارڈ نمبروں کے آخری چار ہندسے اور کارڈ کی میعاد ختم ہونے کی تاریخیں شامل تھیں۔

31 مارچ کو، اٹلی کی ڈیٹا پروٹیکشن اتھارٹی (گارانٹے) نے اوپن اے آئی کی جانب سے خطرے کے انکشاف کے بعد رازداری کے خدشات کا حوالہ دیتے ہوئے ChatGPT پر عارضی پابندی جاری کی۔

لا فرم فاکس روتھسچلڈ ایل ایل پی میں ڈیٹا سیکیورٹی اور پرائیویسی کے شریک چیئرمین مارک میکریری نے سی این این کو بتایا کہ چیٹ جی پی ٹی سے متعلق سیکیورٹی خدشات کو بڑھاوا نہیں دیا گیا ہے۔ انہوں نے اے آئی چیٹ بوٹ کو "بلیک باکس" سے تشبیہ دی۔

ChatGPT کو OpenAI نے نومبر 2022 میں جاری کیا تھا اور فوری طور پر اشارے جاری کر کے مضامین، کہانیاں اور گانے کے بول لکھنے کی صلاحیت پر توجہ حاصل کی۔ گوگل اور مائیکروسافٹ جیسے ٹیک جنات نے بھی اسی طرح کے AI ٹولز جاری کیے ہیں، جو کہ وسیع آن لائن ڈیٹا ریپوزٹریز پر تربیت یافتہ بڑے لینگویج ماڈلز کے ذریعے تقویت یافتہ ہیں۔

chatgpt.jpg

اٹلی کے اس اقدام کے بعد جرمنی بھی ChatGPT پر پابندی لگانے پر غور کر رہا ہے۔

میک کری نے مزید کہا کہ جب صارفین ان ٹولز میں معلومات داخل کرتے ہیں، تو وہ نہیں جانتے کہ اسے کیسے استعمال کیا جائے گا۔ یہ کمپنیوں کے لیے پریشان کن ہے کیونکہ زیادہ سے زیادہ ملازمین کام کی ای میلز لکھنے یا میٹنگز کے لیے نوٹس لینے میں مدد کرنے کے لیے ٹولز کا استعمال کرتے ہیں، جس سے تجارتی رازوں کو بے نقاب کرنے کا خطرہ بڑھ جاتا ہے۔

بوسٹن کنسلٹنگ گروپ (BCG) میں AI اخلاقیات کے ڈائریکٹر سٹیو ملز نے کہا کہ کمپنیاں ملازمین کے حادثاتی طور پر حساس معلومات کے افشاء کرنے پر فکر مند ہیں۔ اگر اس AI ٹول کو تربیت دینے کے لیے لوگوں کا ڈیٹا استعمال کیا جا رہا ہے، تو وہ ڈیٹا کا کنٹرول کسی اور کے ہاتھ میں کھو چکے ہیں۔

OpenAI کی رازداری کی پالیسی کے مطابق، کمپنی AI ماڈلز کو بہتر بنانے کے لیے سروس صارفین کی تمام ذاتی معلومات اور ڈیٹا اکٹھا کر سکتی ہے۔ وہ اس معلومات کو اپنی خدمات کو بہتر بنانے یا تجزیہ کرنے، تحقیق کرنے، صارفین کے ساتھ بات چیت کرنے اور نئے پروگرام اور خدمات تیار کرنے کے لیے استعمال کر سکتے ہیں۔

رازداری کی پالیسی میں کہا گیا ہے کہ OpenAI صارفین کو مطلع کیے بغیر تیسرے فریق کو ذاتی معلومات فراہم کر سکتا ہے، جب تک کہ قانون کی ضرورت نہ ہو۔ OpenAI کے پاس سروس کی اپنی شرائط کی دستاویز بھی ہے، لیکن کمپنی زیادہ تر ذمہ داری صارفین پر ڈالتی ہے کہ وہ AI ٹولز کے ساتھ بات چیت کرتے وقت مناسب اقدامات کریں۔

ChatGPT کے مالکان نے اپنے بلاگ پر محفوظ AI کے بارے میں اپنے نقطہ نظر کے بارے میں پوسٹ کیا ہے۔ کمپنی اس بات پر زور دیتی ہے کہ وہ سروسز بیچنے، تشہیر کرنے یا صارفین کے پروفائل بنانے کے لیے ڈیٹا کا استعمال نہیں کرتی، بلکہ OpenAI ڈیٹا کو اپنے ماڈلز کو مزید کارآمد بنانے کے لیے استعمال کرتی ہے۔ مثال کے طور پر، ChatGPT کو تربیت دینے کے لیے صارف کی گفتگو کا استعمال کیا جائے گا۔

06DRHXAVI9Fvj02541vbBqy-1.webp

ChatGPT کی رازداری کی پالیسی کو کافی مبہم سمجھا جاتا ہے۔

Google، Bard AI کے پیچھے والی کمپنی، اپنے AI صارفین کے لیے رازداری کی اضافی دفعات رکھتی ہے۔ کمپنی گفتگو کا ایک چھوٹا سا حصہ منتخب کرے گی اور ذاتی طور پر قابل شناخت معلومات کو ہٹانے کے لیے خودکار ٹولز کا استعمال کرے گی، جو صارف کی رازداری کی حفاظت کرتے ہوئے Bard کو بہتر بنانے میں مدد کرے گی۔

نمونے کی گفتگو کا انسانی ٹرینرز کے ذریعے جائزہ لیا جائے گا اور صارف کے گوگل اکاؤنٹ سے الگ، تین سال تک کے لیے ذخیرہ کیا جائے گا۔ گوگل صارفین کو بارڈ اے آئی پر ہونے والی گفتگو میں اپنے یا دوسروں کے بارے میں ذاتی معلومات شامل نہ کرنے کی یاددہانی بھی کرتا ہے۔ ٹیک دیو اس بات پر زور دیتا ہے کہ یہ بات چیت اشتہاری مقاصد کے لیے استعمال نہیں کی جائے گی اور مستقبل میں تبدیلیوں کا اعلان کرے گی۔

Bard AI صارفین کو اپنے Google اکاؤنٹس میں گفتگو کو محفوظ کرنے سے آپٹ آؤٹ کرنے کے ساتھ ساتھ ایک لنک کے ذریعے گفتگو کا جائزہ لینے یا حذف کرنے کی اجازت دیتا ہے۔ مزید برآں، کمپنی کے پاس حفاظتی اقدامات ہیں جو Bard کو جوابات میں ذاتی معلومات شامل کرنے سے روکنے کے لیے بنائے گئے ہیں۔

سٹیو ملز کا کہنا ہے کہ بعض اوقات صارفین اور ڈویلپرز کو نئی ٹیکنالوجیز میں چھپے ہوئے حفاظتی خطرات کا تب ہی پتہ چلتا ہے جب بہت دیر ہو چکی ہوتی ہے۔ مثال کے طور پر، خود کار طریقے سے کام کرنے والے فنکشنز غلطی سے صارفین کے سوشل سیکورٹی نمبرز کو ظاہر کر سکتے ہیں۔

مسٹر ملز نے کہا کہ صارفین کو ان ٹولز میں کوئی ایسی چیز نہیں ڈالنی چاہیے جسے وہ دوسروں کے ساتھ شیئر نہیں کرنا چاہتے۔



ماخذ لنک

تبصرہ (0)

No data
No data

اسی موضوع میں

اسی زمرے میں

Su 30-MK2 لڑاکا طیاروں نے جامنگ گولے گرائے، ہیلی کاپٹروں نے دارالحکومت کے آسمان پر پرچم بلند کیا
Su-30MK2 لڑاکا طیارہ دارالحکومت کے آسمان پر ایک چمکتا ہوا گرمی کا جال گرا رہا ہے
(لائیو) 2 ستمبر کو قومی دن منانے کے لیے جشن، پریڈ، اور مارچ کی جنرل ریہرسل
ڈوونگ ہوانگ ین ایک کیپیلا گاتا ہے "فادر لینڈ ان دی سن لائٹ" جس سے شدید جذبات پیدا ہوتے ہیں

اسی مصنف کی

ورثہ

پیکر

کاروبار

No videos available

خبریں

سیاسی نظام

مقامی

پروڈکٹ