تساعد ميزة مراقبة الأطفال على ChatGPT أيضًا الآباء على الشعور بمزيد من الأمان عند السماح لأطفالهم باستخدام الذكاء الاصطناعي.
تُعتبر أداة مراقبة الأطفال ChatGPT القادمة نقلة نوعية في مجال الأمان من OpenAI، وذلك بعد دعوى قضائية رفيعة المستوى. تهدف هذه الميزة إلى الحد من خطر تواصل الأطفال مع روبوتات الدردشة، مع إثارة تساؤلات حول المسؤولية الاجتماعية لشركات الذكاء الاصطناعي.
من الدعوى القضائية المروعة
في أغسطس/آب الماضي، رفعت عائلة آدم راين، وهو صبي يبلغ من العمر 16 عامًا من كاليفورنيا، دعوى قضائية ضد شركة OpenAI، زاعمة أن ChatGPT قدم تعليمات لإيذاء النفس وإساءة لفظية جعلت ابنهم يشعر باليأس قبل أن ينتحر.
وأثارت الدعوى القضائية ضجة كبيرة وفتحت نقاشا حول سلامة الذكاء الاصطناعي للمستخدمين الشباب.
وهذا يثير أسئلة مهمة: هل يجب على القاصرين استخدام ChatGPT دون إشراف، وكيف يجب تحديد مسؤولية مطوري الذكاء الاصطناعي عندما يؤثر المنتج بشكل مباشر على نفسية المستخدمين الشباب؟
ردًا على هذا الضغط، أعلنت OpenAI عن إضافة عناصر التحكم الأبوية، وهي خطوة أولى نحو إظهار التزامها بحماية الأطفال والإشارة إلى أن الشركة على استعداد لوضع السلامة أولاً في المرحلة التالية من تطوير ChatGPT.
ميزات المراقبة على ChatGPT
وفقًا للإعلان الرسمي، ستطرح OpenAI أداةً تُمكّن الآباء من ربط حساباتهم بحسابات أطفالهم على ChatGPT. بمجرد تفعيلها، يُمكن للآباء إدارة الإعدادات المهمة، مثل إيقاف تخزين الدردشة، والتحكم في سجل الاستخدام، وضبط مستويات التفاعل المناسبة للعمر.
أبرز ما يميز هذا الابتكار هو نظام التنبيه. سيتم تدريب ChatGPT على رصد أعراض الأزمات النفسية التي يُظهرها المستخدمون الصغار، مثل التوتر أو الاكتئاب أو إيذاء النفس. في هذه الحالات، سيتلقى الآباء إشعارات للتدخل الفوري. تؤكد OpenAI أن الهدف ليس مراقبة المحادثة بأكملها، بل التركيز على حالات الطوارئ لحماية سلامة الأطفال.
بالإضافة إلى ذلك، عند اكتشاف محتوى حساس، سيتحول ChatGPT إلى العمل بنماذج التفكير العميق، المصممة لتقديم استجابات أكثر عمقًا ودعمًا. بالتوازي مع ذلك، تعمل الشركة أيضًا مع خبراء طبيين ومجلس استشاري دولي لمواصلة تحسين إجراءات الحماية الخاصة بها في المستقبل.
التحديات التي تواجهها
في حين أكدت OpenAI أن الميزة الجديدة مصممة لمصلحة العائلات، تباينت ردود الفعل الدولية. من المتوقع أن تضيف هذه الأداة حماية إضافية للآباء أثناء تفاعل أطفالهم مع الذكاء الاصطناعي، إلا أنها أثارت أيضًا مخاوف قائمة منذ فترة طويلة، بدءًا من حدود الاستخدام ووصولًا إلى خصوصية بيانات الأطفال.
في الواقع، أثار الخبراء مخاوف بشأن خصوصية بيانات الأطفال لسنوات. تُبرز هذه التحذيرات أن تخزين سجلات محادثات الأطفال وتحليلها، دون حماية صارمة، قد يزيد من خطر كشف المعلومات الحساسة. وقد أعاد ظهور أدوات المراقبة على ChatGPT تسليط الضوء على هذه القضية.
ومن النقاط الأخرى التي نوقشت عتبة تحذير النظام. وذكرت OpenAI أن ChatGPT سيكتشف علامات التوتر الشديد ويرسل تنبيهًا للآباء.
مع ذلك، يحمل التعلم الآلي دائمًا خطر التحيز. فإذا أصدر النظام إنذارًا خاطئًا، فقد يُصاب الوالدان بارتباك لا داعي له. وفي المقابل، إذا فات النظام إشارة، فقد يواجه الأطفال مخاطر قد تمنع الأسرة من التدخل في الوقت المناسب.
كما راقبت منظمات حماية الطفل الدولية عن كثب الخطوة التي اتخذتها شركة OpenAI، حيث أقرت بأداة الرقابة الأبوية باعتبارها علامة إيجابية، لكنها حذرت من أن الافتقار إلى التحقق الصارم من العمر والحماية الافتراضية يعني أن الأطفال ما زالوا يواجهون المخاطر، حتى مع الإشراف الأبوي.
وتظهر هذه المناقشات أن تطوير الذكاء الاصطناعي ليس مجرد قصة تكنولوجية، بل يرتبط أيضًا ارتباطًا وثيقًا بالمسؤولية الاجتماعية وسلامة جيل الشباب.
ثانه ثو
المصدر: https://tuoitre.vn/openai-tung-tinh-nang-giam-sat-tre-tren-chatgpt-sau-nhieu-tranh-cai-2025090316340093.htm






تعليق (0)