إس جي بي
أطلقت الحكومة الأسترالية مقترحات لخطة تهدف إلى زيادة التزامات شركات الإنترنت بحماية الأطفال وغيرهم من مستخدمي الإنترنت من المحتوى الضار.
تأمل أستراليا أن تساهم التغييرات التنظيمية المقترحة في الحفاظ على أمان الأطفال على الإنترنت |
وتأتي التغييرات المقترحة بعد انتقادات بأن الحكومة لم تبذل جهودا كافية للحفاظ على سلامة الأطفال على الإنترنت، وفقا لوزيرة الاتصالات الأسترالية ميشيل رولاند.
وقالت السيدة رولاند إن التغييرات المقترحة من شأنها توسيع نطاق التنظيم ليشمل الخوارزميات والذكاء الاصطناعي وضمان أن تكون المصلحة الفضلى للأطفال في المقدمة عند تصميم أي خدمة.
وقالت السيدة رولاند، موضحة لماذا يجب أن يكون الأطفال في طليعة تصميم المحتوى الذي يمكنهم الوصول إليه: "نحن نعلم أن الأطفال معرضون لمحتوى ضار على الإنترنت، ومن الأهمية بمكان إعطاء الأولوية لمصالحهم الفضلى طوال تصميم الخدمات وتنفيذها". من المقرر أن تُغلق المشاورات بشأن التغييرات المقترحة على مقدمي الخدمات عبر الإنترنت، بما في ذلك خدمات وسائل التواصل الاجتماعي، في فبراير/شباط 2024. وفي وقت سابق من أغسطس/آب، دعت هيئة مراقبة السلامة عبر الإنترنت الأسترالية eSafety إلى الإشراف التنظيمي على صناعة تكنولوجيا الاتصالات.
وبحسب موقع eSafety، تلقت الوكالة شكاوى بشأن استخدام الأطفال لأجهزة الكمبيوتر لإنشاء صور إباحية لأقرانهم لأغراض التنمر. تنص eSafety على أن مقدمي الخدمات يجب أن يتخذوا "خطوات معقولة" للتخفيف بشكل استباقي من مدى قدرة قدرات الذكاء الاصطناعي على إنشاء مواد أو ظروف للأنشطة غير القانونية أو الضارة، بما في ذلك تزوير الأفلام باستخدام الذكاء الاصطناعي.
حذرت منظمة eSafety من ضرورة تطبيق إجراءات أكثر صرامة للتحقق من السن على المواقع الإلكترونية التي يستخدمها الأطفال لمنع إجبارهم على إنشاء مواد أو محتوى مسيء جنسياً بأنفسهم. أظهر تحليل أكثر من 1300 تقرير عن الاعتداء الجنسي على الأطفال حصلت عليه eSafety أن طفلاً واحدًا من كل 8 أطفال "أنتج" المحتوى بنفسه لأن "المفترسين" أجبروهم على تصوير أنفسهم في أفعال جنسية صريحة. في الواقع، يمكن للأطفال تجاوز التحقق من العمر بسهولة عند الانضمام إلى المواقع عبر الإنترنت.
في 26 نوفمبر/تشرين الثاني، أعلنت الولايات المتحدة والمملكة المتحدة وأكثر من 10 دول أخرى عن اتفاقية دولية بشأن سلامة الذكاء الاصطناعي. وبحسب مسؤولين أميركيين، فإن هذا هو أول اتفاق تفصيلي حول كيفية ضمان استخدام تكنولوجيا الذكاء الاصطناعي بشكل آمن، كما يحث شركات التكنولوجيا على إنشاء أنظمة ذكاء اصطناعي آمنة منذ مرحلة التصميم. وبحسب الوثيقة، اتفقت 18 دولة على أن الشركات التي تقوم بتصميم واستخدام الذكاء الاصطناعي بحاجة إلى تطوير ونشر هذه التكنولوجيا المتقدمة. الاتفاقية غير ملزمة وتقدم بشكل أساسي توصيات عامة، مثل مراقبة إساءة استخدام الذكاء الاصطناعي وحماية البيانات وما إلى ذلك.
[إعلان 2]
مصدر
تعليق (0)