وفي الأشهر الأخيرة، حذر خبراء سلامة الأطفال والباحثون من خطر أن يؤدي الذكاء الاصطناعي إلى تفاقم الإساءة عبر الإنترنت.
مارك زوكربيرج، الرئيس التنفيذي لشركة ميتا، يتحدث في جلسة استماع للجنة القضائية بمجلس الشيوخ الأمريكي في 31 يناير/كانون الثاني 2024، أمام حشد من الحضور حاملاً صورًا مُولّدة بالذكاء الاصطناعي. الصورة: رويترز
لم يصدر المركز الوطني للأطفال ضحايا الاعتداء الجنسي بعد العدد الإجمالي للتقارير المتعلقة بمواد إساءة معاملة الأطفال من جميع المصادر التي تلقاها في عام 2023. ولكن في عام 2022، تلقى تقارير عن حوالي 88.3 مليون ملف حول المشكلة.
وقال جون شيان، نائب رئيس المركز الوطني للأطفال المفقودين والمهجرين: "نتلقى تقارير من شركات الذكاء الاصطناعي المبتكرة نفسها، ومنصات (عبر الإنترنت)، وأفراد من الجمهور".
أدلى الرؤساء التنفيذيون لشركات ميتا، وإكس، وتيك توك، وسناب، وديسكورد بشهاداتهم في جلسة استماع بمجلس الشيوخ الأمريكي حول سلامة الأطفال على المنصات الإلكترونية، يوم الأربعاء (31 يناير). وتساءل المشرعون الأمريكيون عن جهود شركات التواصل الاجتماعي لحماية الأطفال من "المعتدين الإلكترونيين".
وفي تقرير صدر في يونيو/حزيران الماضي، قال باحثون في مرصد ستانفورد للإنترنت إن الذكاء الاصطناعي التوليدي قد يستخدمه جهات سيئة لإلحاق الضرر بشكل متكرر بالأطفال في الحياة الواقعية من خلال إنشاء صور مزيفة لهم.
قالت فالون ماكنولتي، مديرة CyberTipline التابعة للمركز الوطني للأطفال ضحايا الاستغلال، والتي تتلقى تقارير عن استغلال الأطفال عبر الإنترنت، إن المحتوى الذي يتم إنشاؤه بواسطة الذكاء الاصطناعي أصبح "أكثر واقعية"، مما يجعل من الصعب تحديد ما إذا كان الضحايا أشخاصًا حقيقيين.
وقال ماكنولتي إن شركة OpenAI، التي أنشأت ChatGPT، أنشأت عملية لتقديم التقارير إلى المركز الوطني للأطفال المفقودين والمهجرين، كما تجري المنظمة محادثات مع شركات الذكاء الاصطناعي الأخرى.
هوانغ هاي (وفقا لرويترز، إف تي)
[إعلان 2]
مصدر
تعليق (0)