لقد أحدث التطور السريع وغير المتوقع لبرنامج ChatGPT، وهو روبوت دردشة ذكي ذو وظائف فائقة، تغييرًا جذريًا في حياة الإنسان، لا سيما في طريقة عمله. ومع ذلك، أثارت المخاطر المرتبطة بهذه التقنية مخاوف كثيرة لدى السلطات في العديد من الدول، لا سيما فيما يتعلق ببيانات المستخدمين.
في سياق افتقار العالم إلى إطار قانوني جديد قوي لإدارة الذكاء الاصطناعي بشكل فعال وضمان موثوقية عالية للمستخدمين، بدأت العديد من البلدان في اتخاذ تدابير لتنظيم استخدام ChatGPT والذكاء الاصطناعي بشكل عام لتقليل المخاطر التي تجلبها هذه التكنولوجيا.
تتخذ العديد من البلدان "إجراءات" باستخدام الذكاء الاصطناعي
إيطاليا تتصدر الدول التي أصدرت قرارًا بحظر ChatGPT.
في 31 مارس/آذار، فرضت السلطات الإيطالية حظرًا مؤقتًا على تطبيق ChatGPT بسبب مخاوف تتعلق بالخصوصية، ولعدم تحقق التطبيق من أن عمر المستخدمين 13 عامًا أو أكثر، وفقًا لمتطلبات إيطاليا. وفي الوقت نفسه، أعلنت إيطاليا أنها ستفتح تحقيقًا في كيفية استخدام OpenAI لبيانات المستخدمين.
في أعقاب حظر إيطاليا لتطبيق ChatGPT، اتخذت العديد من الدول إجراءات ضد التطبيق. (صورة: رويترز)
منحت هيئة حماية البيانات الإيطالية شركة OpenAI - الشركة التي أنشأت ChatGPT - موعدًا نهائيًا في نهاية شهر أبريل لتلبية متطلبات حماية البيانات والخصوصية قبل استئناف العمليات العادية في البلاد.
بعد قرار إيطاليا مباشرة، بدأت العديد من الدول في "اتباع" هذا البلد في حظر ChatGPT بسبب المخاوف المتعلقة بالأمن وخصوصية البيانات.
تواصلت هيئات تنظيم الخصوصية والأمن الفرنسية والأيرلندية مع نظرائها الإيطاليين لمعرفة أساس الحظر. وفي 11 أبريل/نيسان، أعلنت هيئة CNIL الفرنسية المعنية بمراقبة الخصوصية أنها تحقق في عدة شكاوى تتعلق بتطبيق ChatGPT.
قال مفوض حماية البيانات في ألمانيا إن برلين من المرجح أن "تحذو حذو إيطاليا" في حظر ChatGPT.
تجدر الإشارة إلى أن الهيئة الأوروبية لحماية البيانات (EDPB) شكلت فريق عمل معنيًا بخدمة ChatGPT في 13 أبريل، وذكرت: "ناقشت الدول الأعضاء في الهيئة إجراءات الإنفاذ الأخيرة التي اتخذتها هيئة حماية البيانات الإيطالية ضد OpenAI فيما يتعلق بخدمة ChatGPT. وقررت الهيئة تشكيل فريق عمل لتعزيز التعاون وتبادل المعلومات حول إجراءات الإنفاذ الممكنة".
بالإضافة إلى ذلك، يناقش مشرّعون في الاتحاد الأوروبي قانون الذكاء الاصطناعي للاتحاد الأوروبي، الذي سينظّم أي جهة تُقدّم منتجات أو خدمات باستخدام الذكاء الاصطناعي، بما في ذلك الأنظمة التي تُنتج محتوى أو تنبؤات أو توصيات أو قرارات تؤثر على البيئة. ويقترح الاتحاد الأوروبي أيضًا تصنيف أدوات الذكاء الاصطناعي المختلفة وفقًا لمستوى خطورتها، من منخفض إلى غير مقبول.
أعلنت وكالة حماية البيانات الإسبانية AEPD أنها تجري تحقيقًا أوليًا في خروقات بيانات ChatGPT.
وفي أستراليا، أعلنت وزارة العلوم والتكنولوجيا في 12 أبريل/نيسان أن الحكومة طلبت من هيئتها الاستشارية العلمية تقديم المشورة بشأن كيفية الاستجابة للذكاء الاصطناعي، وأنها تدرس الخطوات التالية.
تُثير هذه الخطوة تساؤلات حول مدى أمان الذكاء الاصطناعي وما يُمكن للحكومات فعله للحد من مخاطره. وقد أظهر تقريرٌ صدر في مارس/آذار عن شركة الاستشارات KPMG ورابطة صناعة المعلومات الأسترالية أن ثلثي الأستراليين أفادوا بعدم وجود قوانين أو لوائح كافية لمنع إساءة استخدام الذكاء الاصطناعي، بينما يعتقد أقل من نصف من شملهم الاستطلاع أن الذكاء الاصطناعي يُستخدم بأمان في مكان العمل.
بدأت العديد من الدول في اتخاذ إجراءات لتنظيم تكنولوجيا الذكاء الاصطناعي. (صورة: رويترز)
وفي المملكة المتحدة، أعلنت الحكومة أنها تنوي تقسيم المسؤولية عن تنظيم الذكاء الاصطناعي بين هيئات حقوق الإنسان والصحة والسلامة وهيئات المنافسة، بدلاً من إنشاء هيئة تنظيمية جديدة.
مؤخرًا، صاغ تشاك شومر، زعيم الأغلبية الديمقراطية في مجلس الشيوخ الأمريكي، وأصدر إطارًا تنظيميًا جديدًا للذكاء الاصطناعي، من شأنه أن يمنع الأضرار الكارثية المحتملة التي قد تلحق بالبلاد. ويشترط اقتراح السيد شومر على الشركات السماح لخبراء مستقلين بمراجعة واختبار تقنيات الذكاء الاصطناعي قبل إصدارها أو تحديثها.
وفي وقت سابق من يوم 11 أبريل، قالت وزارة التجارة الأمريكية إنها تسعى للحصول على تعليقات عامة بشأن تدابير المساءلة المتعلقة بالذكاء الاصطناعي.
في هذه الأثناء، طلب مركز الذكاء الاصطناعي والسياسة الرقمية في الولايات المتحدة من لجنة التجارة منع شركة OpenAI من إصدار إصدارات تجارية جديدة من GPT-4، بحجة أن هذه التكنولوجيا "متحيزة ومضللة وتشكل مخاطر على الخصوصية والسلامة العامة".
في هذه الأثناء، قال وزير التحول الرقمي في اليابان تارو كونو إنه يريد أن يناقش اجتماع وزراء التحول الرقمي في مجموعة السبع المقبل، المقرر عقده في أواخر أبريل، تقنيات الذكاء الاصطناعي بما في ذلك ChatGPT وتقديم رسالة موحدة لمجموعة السبع.
أعلنت الصين مؤخرا عن تدابير مخططة لتنظيم خدمات الذكاء الاصطناعي، قائلة إن الشركات التي تقدم تقنية الذكاء الاصطناعي يجب أن تقدم تقييمات أمنية للسلطات قبل إطلاق الخدمة في السوق.
خبراء يحذرون من مخاطر الذكاء الاصطناعي
ويقول بعض الخبراء إن الذكاء الاصطناعي قد يؤدي إلى "كارثة نووية". (صورة: رويترز)
في أوائل أبريل/نيسان، أظهر استطلاع للرأي أصدره معهد الذكاء الاصطناعي بجامعة ستانفورد أن 36% من الباحثين يعتقدون أن الذكاء الاصطناعي قد يؤدي إلى "كارثة على المستوى النووي"، وهو ما يؤكد المخاوف القائمة بشأن التطور السريع لهذه التكنولوجيا.
وفي الوقت نفسه، فإن 73% من الذكاء الاصطناعي سيؤدي إلى "تغيير اجتماعي ثوري".
ويقول التقرير إنه على الرغم من أن هذه التقنيات تتمتع بمزايا معينة لم يكن من الممكن تصورها قبل عقد من الزمان، إلا أنها أيضًا عرضة للوهم والتحيز والإساءة لأغراض شريرة، مما يخلق تحديات أخلاقية للمستخدمين عند استخدام مثل هذه الخدمات.
وأشار التقرير أيضًا إلى أن عدد "الحوادث والخلافات" المتعلقة بالذكاء الاصطناعي قد زاد بمقدار 26 ضعفًا خلال العقد الماضي.
في الشهر الماضي، كان الملياردير إيلون ماسك والمؤسس المشارك لشركة أبل ستيف وزنياك من بين آلاف الخبراء التقنيين الذين وقعوا على رسالة تدعو إلى إيقاف تدريب أنظمة الذكاء الاصطناعي الأقوى من روبوت الدردشة GPT-4 التابع لشركة Open AI، قائلين: "يجب تطوير أنظمة الذكاء الاصطناعي القوية فقط عندما نكون واثقين من أن تأثيرها سيكون إيجابيا وأن مخاطرها ستكون قابلة للإدارة".
يونغ كانغ (رويترز، الجزيرة، ABC)
[إعلان 2]
مصدر
تعليق (0)