ChatGPT پر چائلڈ مانیٹرنگ فیچر والدین کو اپنے بچوں کو مصنوعی ذہانت استعمال کرنے دیتے وقت زیادہ محفوظ محسوس کرنے میں بھی مدد کرتا ہے۔
آنے والے ChatGPT چائلڈ مانیٹرنگ ٹول کو ایک ہائی پروفائل مقدمہ کے بعد OpenAI کی جانب سے حفاظتی تبدیلی کے طور پر دیکھا جا رہا ہے۔ اس فیچر کا مقصد بچوں کے چیٹ بوٹس کے ساتھ چیٹ کرنے کے خطرات کو کم کرنا ہے، جبکہ مصنوعی ذہانت سے متعلق کمپنیوں کی سماجی ذمہ داری پر بھی سوالات اٹھانا ہے۔
چونکا دینے والے مقدمے سے
گزشتہ اگست میں، کیلیفورنیا میں ایک 16 سالہ لڑکے ایڈم رائن کے خاندان نے OpenAI کے خلاف مقدمہ دائر کیا، جس میں دعویٰ کیا گیا کہ ChatGPT نے خود کو نقصان پہنچانے کی ہدایات اور زبانی بدسلوکی فراہم کی جس سے ان کے بیٹے کو خودکشی کرنے سے پہلے مایوسی کا احساس ہوا۔
مقدمہ نے تیزی سے ہلچل مچا دی اور نوجوان صارفین کے لیے مصنوعی ذہانت کے تحفظ کے بارے میں بحث شروع کر دی۔
یہ واقعہ اہم سوالات کو جنم دیتا ہے: کیا نابالغوں کو بغیر نگرانی کے ChatGPT استعمال کرنا چاہیے، اور جب پروڈکٹ نوجوان صارفین کی نفسیات کو براہ راست متاثر کرتی ہے تو مصنوعی ذہانت کے ڈویلپرز کی ذمہ داری کا تعین کیسے کیا جانا چاہیے؟
اس دباؤ کے جواب میں، OpenAI نے والدین کے کنٹرول کے اضافے کا اعلان کیا، جو بچوں کے تحفظ کے لیے اپنی وابستگی کا مظاہرہ کرنے کی جانب پہلا قدم ہے اور یہ اشارہ دیتا ہے کہ کمپنی ChatGPT کی ترقی کے اگلے مرحلے میں حفاظت کو پہلے رکھنے کے لیے تیار ہے۔
ChatGPT پر مانیٹرنگ کی خصوصیات
سرکاری اعلان کے مطابق، OpenAI ایک ایسا ٹول تیار کرے گا جو والدین کو اپنے اکاؤنٹس کو اپنے بچوں کے ChatGPT اکاؤنٹس سے منسلک کرنے کی اجازت دیتا ہے۔ ایک بار چالو ہونے کے بعد، والدین اہم ترتیبات کا نظم کر سکتے ہیں جیسے کہ چیٹ اسٹوریج کو بند کرنا، استعمال کی تاریخ کو کنٹرول کرنا، اور عمر کے مطابق تعامل کی سطح کو ایڈجسٹ کرنا۔
اس اختراع کی خاص بات الرٹ سسٹم ہے۔ ChatGPT کو یہ پہچاننے کی تربیت دی جائے گی کہ جب نوجوان صارفین نفسیاتی پریشانی کے آثار دکھاتے ہیں، جیسے کہ تناؤ، ڈپریشن، یا خود کو نقصان۔ ان صورتوں میں، والدین کو فوری مداخلت کرنے کی اطلاع موصول ہوگی۔ OpenAI کا دعویٰ ہے کہ مقصد پوری گفتگو کی نگرانی کرنا نہیں ہے، بلکہ بچوں کی حفاظت کے لیے ہنگامی حالات پر توجہ مرکوز کرنا ہے۔
مزید برآں، جب حساس مواد کا پتہ چل جاتا ہے، تو ChatGPT گہرے استدلال کے ماڈلز میں تبدیل ہو جائے گا جو زیادہ سوچ سمجھ کر اور معاون جوابات فراہم کرنے کے لیے بنائے گئے ہیں۔ متوازی طور پر، کمپنی طبی ماہرین اور ایک بین الاقوامی مشاورتی بورڈ کے ساتھ مل کر کام کر رہی ہے تاکہ اپنے تحفظات کو آگے بڑھاتے رہیں۔
درپیش چیلنجز
جب کہ OpenAI نے اس بات پر زور دیا ہے کہ نئی خصوصیت خاندانوں کو فائدہ پہنچانے کے لیے بنائی گئی ہے، بین الاقوامی ردعمل ملا جلا ہے۔ اس ٹول سے والدین کے لیے تحفظ کی ایک اضافی پرت کی توقع کی جاتی ہے کیونکہ ان کے بچے مصنوعی ذہانت کے ساتھ تعامل کرتے ہیں، لیکن اس نے استعمال کی حد سے لے کر بچوں کے ڈیٹا کی رازداری تک دیرینہ خدشات کو بھی جنم دیا ہے۔
درحقیقت، ماہرین کی طرف سے بچوں کے ڈیٹا کی رازداری کے بارے میں خدشات برسوں سے اٹھائے جا رہے ہیں۔ یہ انتباہات اس بات پر روشنی ڈالتے ہیں کہ سخت تحفظات کے بغیر بچوں کی چیٹ کی تاریخوں کو ذخیرہ کرنے اور ان کا تجزیہ کرنے سے حساس معلومات کے سامنے آنے کا خطرہ بڑھ سکتا ہے۔ ChatGPT کے مانیٹرنگ ٹول کے ظہور نے اس مسئلے کو دوبارہ روشنی میں لایا ہے۔
ایک اور نکتہ جس پر تبادلہ خیال کیا گیا وہ تھا سسٹم کی انتباہی حد۔ OpenAI نے کہا کہ ChatGPT شدید تناؤ کی علامات کا پتہ لگائے گا اور والدین کو الرٹ بھیجے گا۔
تاہم، مشین لرننگ ہمیشہ غلطی کا خطرہ رکھتی ہے۔ اگر سسٹم غلط الارم دیتا ہے تو والدین غیر ضروری طور پر الجھ سکتے ہیں۔ اس کے برعکس، اگر یہ سگنل چھوٹ جاتا ہے، تو بچوں کو ایسے خطرات کا سامنا کرنا پڑ سکتا ہے کہ خاندان وقت پر مداخلت نہیں کر سکتے۔
بچوں کے تحفظ کی بین الاقوامی تنظیمیں بھی OpenAI کے اقدام کو قریب سے دیکھ رہی ہیں، والدین کے کنٹرول کے آلے کو ایک مثبت علامت کے طور پر تسلیم کرتی ہیں، لیکن انتباہ کہ سخت عمر کی تصدیق اور پہلے سے طے شدہ تحفظات کی کمی کا مطلب ہے کہ والدین کی نگرانی کے باوجود بھی بچے خطرے میں پڑ سکتے ہیں۔
ان مباحثوں سے ظاہر ہوتا ہے کہ مصنوعی ذہانت کی ترقی نہ صرف ٹیکنالوجی کا معاملہ ہے بلکہ اس کا سماجی ذمہ داری اور نوجوان نسل کی حفاظت سے بھی گہرا تعلق ہے۔
تھانہ تھو
ماخذ: https://tuoitre.vn/openai-tung-tinh-nang-giam-sat-tre-tren-chatgpt-sau-nhieu-tranh-cai-2025090316340093.htm
تبصرہ (0)