في عام ٢٠٢٣، بدأنا نشهد بالفعل إمكانات ChatGPT وتقنيات الذكاء الاصطناعي من الجيل التالي في تغيير طريقة تعلمنا وعملنا وتفاعلنا. هذه ليست سوى الخطوات الأولى لتقنية ستدفع، في أفضل الأحوال، آفاقًا جديدة للمعرفة البشرية والإنتاجية، وستُحدث تحولًا في أسواق العمل، وتُعيد ابتكار الاقتصادات ، وستؤدي إلى مستويات غير مسبوقة من النمو الاجتماعي والاقتصادي.
في الوقت نفسه، يُثير التطور السريع للذكاء الاصطناعي قلقًا بين المخترعين ورواد التكنولوجيا والجهات التنظيمية. حتى سام ألتمان، الرئيس التنفيذي لشركة OpenAI - الشركة البحثية التي تقف وراء ChatGPT - حذّر من مخاطر الذكاء الاصطناعي على الأفراد والاقتصادات والمجتمعات إذا تُرك دون رادع. وتستند أسوأ السيناريوهات إلى احتمالية سيطرة الذكاء الاصطناعي على البشر، مما يسمح لهذه التقنية بتعطيل سوق العمل، وإلغاء الحاجة إلى البشر، بل وحتى التسبب في انقراض الجنس البشري، كما أشارت بعض أفلام الخيال العلمي في هوليوود.
في ظل هذه الظروف، تواجه الحكومات حول العالم - وخاصةً في الولايات المتحدة والصين والاتحاد الأوروبي - ضغوطًا متزايدة لتنظيم سباق الذكاء الاصطناعي بين شركات التكنولوجيا دون كبح جماح تطوير هذه التقنية تمامًا. ورغم المخاوف نفسها، بدأت الولايات المتحدة والصين والاتحاد الأوروبي في تطوير مناهج مختلفة تمامًا لتنظيم تقنية الذكاء الاصطناعي، استنادًا إلى القيم والأيديولوجيات التي تُعتبر الأكثر أهمية في مجتمعاتها.
سيكون للفائز في نهج الذكاء الاصطناعي تأثيرٌ هائل على مستقبل التكنولوجيا والمجتمع، إذ تُتخذ القرارات في وقتٍ لا تزال فيه تقنية الذكاء الاصطناعي حديثة العهد، ولا اتجاه واضح لتطويرها. ولا أحد منا يستطيع تحمّل التخلف عن الركب.
أمريكا
إن نهج الولايات المتحدة الأقل تنظيمًا لتنظيم الذكاء الاصطناعي دليلٌ على إيمانها الراسخ برأسمالية السوق الحرة، وكيف تُمكّن هذه القيم الابتكار التكنولوجي. يرتكز الإطار التنظيمي الأمريكي للذكاء الاصطناعي على نموذج حوكمة اقتصادية يسمح للشركات بالعمل بحرية، مما يمنحها بدوره نفوذًا سياسيًا كبيرًا، وهو ما يجعله بلا شك إطارًا تنظيميًا قائمًا على مبدأ عدم التدخل. فهو يركز على حماية حرية التعبير، وحرية الإنترنت، والسياسات الحكومية التي تشجع الابتكار.
من أهم أسباب هذا النهج إيمان المجتمع الأمريكي بالابتكار والمبادرات الجديدة كمحركين أساسيين للتقدم الاجتماعي والازدهار الاقتصادي. يعتقد صانعو السياسات الأمريكيون إلى حد كبير أن اللوائح التنظيمية المفرطة في التقييد قد تخنق الابتكار الذي ازدهر هنا في ظل مبادئ السوق الحرة. وقد أدى هذا النهج إلى التقدم الملحوظ الذي حققته أمريكا في مجال الذكاء الاصطناعي، بدءًا من أداة ChatGPT من OpenAI للمستخدمين العاديين، وصولًا إلى الابتكارات في تشخيصات الرعاية الصحية، والنمذجة التنبؤية، واتجاهات المناخ.
نتيجةً لذلك، لم تُطوّر الولايات المتحدة أي سياسة تنظيمية اتحادية فعّالة للذكاء الاصطناعي، بل اقترحت بدلاً من ذلك بعض المعايير الطوعية التي يُمكن لشركات التكنولوجيا اختيار اعتمادها أو تجاهلها. وأحدث مثال على ذلك هو "مخطط ميثاق حقوق الذكاء الاصطناعي"، وهو دليلٌ أصدره البيت الأبيض في أكتوبر 2022. يُقدّم هذا الدليل إرشاداتٍ لمطوّري ومستخدمي الذكاء الاصطناعي حول كيفية حماية حقوق الجمهور الأمريكي في عصر الذكاء الاصطناعي، ولكنه في نهاية المطاف يضع الثقة في الشركات لإدارة تقنياتها الخاصة. ويتجلى هذا الدعم لتطوير الذكاء الاصطناعي الخاص في تركيز واشنطن المتزايد على الاستثمار في البحث والتطوير في مجال الذكاء الاصطناعي، وتحسين قدرة الحكومة الفيدرالية على استخدامه في العمليات الإدارية.
ترى واشنطن أيضًا في الذكاء الاصطناعي فرصةً لتعزيز التفوق العسكري والتكنولوجي الأمريكي في ظلّ تصاعد المنافسة التكنولوجية بين الولايات المتحدة والصين وتنامي المخاوف بشأن الصراع الجيوسياسي بينهما. وقد جعل تركيز الولايات المتحدة على الهيمنة الاقتصادية والجيوسياسية السيطرة التكنولوجية شاغلًا ثانويًا. ويعكس هذا النهج المتساهل استراتيجية واشنطن الجيوسياسية، حيث يعتقد صانعو السياسات أن الولايات المتحدة قادرة على استخدام القوة الناعمة لتحقيق التفوق والريادة التكنولوجية في مجال الذكاء الاصطناعي. وتُشكّل هذه الاعتبارات الجيوسياسية وجهة نظر واشنطن القائلة بأن الإفراط في التنظيم سيخنق ابتكار الذكاء الاصطناعي، مما يُهدد ريادة أمريكا العالمية في هذا المجال. وبدلاً من ذلك، تعتمد واشنطن على المعايير الطوعية، على أمل أن يُمكّنها نفوذ الشركات الأمريكية في تطوير الذكاء الاصطناعي من دفع هذا النهج عالميًا، مما يُعزز قوتها.
الاتحاد الأوروبي
يتشكل نهج الاتحاد الأوروبي في تنظيم الذكاء الاصطناعي من خلال إطار عمل يركز على حقوق الإنسان، مستفيدًا من السوابق المجتمعية التي شكلت اللائحة العامة لحماية البيانات (GDPR). وقد أرست هذه اللائحة، التي دخلت حيز التنفيذ عام ٢٠١٨، أسس نهج الاتحاد الأوروبي القائم على حقوق الإنسان في مجال الذكاء الاصطناعي.
إن مبادئ تقليل البيانات، وتحديد الأغراض، ومتطلبات الشفافية، جميعها قيمٌ لا تزال ذات أهمية في صياغة كيفية تنظيم أوروبا للذكاء الاصطناعي. وبالمثل، يجب على صانعي السياسات دمج الاعتبارات الأخلاقية والابتكار التكنولوجي معًا، لوضع إطار عمل لتنظيم الذكاء الاصطناعي مع مراعاة المصالح الإنسانية. يهدف هذا النهج إلى حماية خصوصية الأفراد، وضمان عمل الشركات بشفافية، والحفاظ على ثقة الجمهور في تكنولوجيا الذكاء الاصطناعي.
يُعدّ الإطار التنظيمي للذكاء الاصطناعي الذي اقترحته المفوضية الأوروبية أكبر دليل على التزام الاتحاد الأوروبي بحوكمة قوية للذكاء الاصطناعي. يُعدّ هذا الإطار التنظيمي الأول من نوعه لتنظيم تكنولوجيا الذكاء الاصطناعي. ويسعى إلى تحديد متطلبات والتزامات واضحة لمطوري الذكاء الاصطناعي ومنفذيه ومستخدميه، مع التركيز بشكل خاص على تطبيقات الذكاء الاصطناعي عالية المخاطر. ويهدف المقترح إلى معالجة التحديات المختلفة التي تطرحها تكنولوجيا الذكاء الاصطناعي، بما في ذلك صعوبات فهم عمليات اتخاذ القرار في أنظمة الذكاء الاصطناعي، وتقييم حالات الاستخدام غير العادل لهذه التكنولوجيا. بالإضافة إلى ضمان سلامة المواطنين والشركات وحقوقهم الأساسية، يهدف المقترح أيضًا إلى استخدام الذكاء الاصطناعي لتخفيف الأعباء الإدارية والمالية على الشركات، وخاصةً الشركات الصغيرة والمتوسطة.
تقترح استراتيجية الاتحاد الأوروبي أيضًا نهجًا قائمًا على المخاطر، يُميز بين تطبيقات الذكاء الاصطناعي على أربعة مستويات: غير مقبول، وعالي المخاطر، ومقيد، وخالٍ من المخاطر. ستُحظر تطبيقات الذكاء الاصطناعي التي تُشكل تهديدًا واضحًا لسلامة الإنسان وسبل عيشه وحقوقه، بينما ستخضع التطبيقات عالية المخاطر - بما في ذلك تقنيات الذكاء الاصطناعي المستخدمة في البنية التحتية الحيوية وفي التوظيف - للوائح تنظيمية صارمة. كما ستخضع أنظمة الذكاء الاصطناعي التي تُشكل مخاطر ضئيلة للرقابة التنظيمية، ولكن في حدها الأدنى.
ربما بشكل أقل وضوحًا من الولايات المتحدة والصين، يُقرّ الاتحاد الأوروبي أيضًا بدور الذكاء الاصطناعي في تعزيز المنافسة الجيوسياسية. ومن خلال قيادته لوضع المعايير التنظيمية للذكاء الاصطناعي في أوروبا، تأمل بروكسل في نشر قيمها المتعلقة بحقوق الإنسان والشفافية وحماية المستهلك حول العالم. إن قدرة الاتحاد الأوروبي على تنظيم التكنولوجيا، وهو ما برهن عليه في مجال حماية البيانات من خلال اللائحة العامة لحماية البيانات، تمنح بروكسل فرصة لصياغة معايير الذكاء الاصطناعي العالمية، وبالتالي تزويد الاتحاد الأوروبي بمصدر مهم للقوة الناعمة.
مع ذلك، لا يخلو نهج الاتحاد الأوروبي من التحديات. فإمكانات تطوير الذكاء الاصطناعي في دول الاتحاد الأوروبي لا تضاهي حاليًا ما نراه في الولايات المتحدة والصين. ويرى بعض المراقبين أن اللوائح الصارمة للاتحاد الأوروبي قد تُعيق الابتكار وتُضعف قدرة الشركات الأوروبية على المنافسة عالميًا. وهذا يُشير إلى أنه في حين يأمل الاتحاد الأوروبي في وضع معايير لتنظيم الذكاء الاصطناعي، إلا أنه لن يكون قادرًا على تطوير معظم هذه التقنيات، بل سيعتمد على قدرته على التحكم في التكنولوجيا من الخارج. وقد يُعزز هذا الانطباع في دول أخرى بأن الاتحاد الأوروبي يُحاول فرض قيمه الأوروبية على مجتمعات لا تتناسب معها، مما يُؤدي إلى فقدان النفوذ الجيوسياسي الأوروبي.
الصين
على عكس نهج السوق الحرة في الولايات المتحدة، والسيطرة الأوروبية القائمة على حقوق الإنسان، تتبنى الصين نموذجًا أكثر حزمًا ومركزيةً للتحكم في الذكاء الاصطناعي. ويُعتبر نموذج التحكم من أعلى إلى أسفل تجسيدًا لمزيج الصين من حوكمة الدولة الاستبدادية واقتصاد السوق في آنٍ واحد.
يرتكز هذا النهج على الدور المحوري للحكومة في تطوير الذكاء الاصطناعي والإشراف عليه. وبفضل رؤيتها الاستراتيجية بعيدة المدى واستعدادها لحشد موارد ضخمة لتطوير هذه التقنية، وضعت بكين الذكاء الاصطناعي في صدارة سياسات التنمية في البلاد.
تُحدد "خطة تطوير الذكاء الاصطناعي الجديدة"، الصادرة عام ٢٠١٧، مخططًا للصين لتصبح رائدةً عالميًا في مجال الذكاء الاصطناعي بحلول عام ٢٠٣٠. وترى الاستراتيجية أن الذكاء الاصطناعي دافعٌ أساسيٌّ للارتقاء الصناعي والتحول الاقتصادي في الصين، وستُدمجه في سياق ذلك دمجًا عميقًا في الحوكمة والإدارة الاجتماعية، بما في ذلك حوكمة المدن، والخدمات العامة، ومراقبة الأمن الداخلي. وتؤمن الحكومة الصينية بإمكانية استخدام الذكاء الاصطناعي للحفاظ على النظام العام وإحكام الرقابة الاجتماعية. وقد أدرج نموذج الدولة المُراقبة في الصين الذكاء الاصطناعي في استراتيجيتها الوطنية للحوكمة، مستخدمًا إياه كأداةٍ لرصد مصادر المعلومات في المجتمع ومراقبتها والتحكم فيها، ليس فقط.
تُظهر "التدابير المؤقتة لإدارة خدمات الذكاء الاصطناعي المبتكرة"، المقرر أن تدخل حيز التنفيذ في 15 أغسطس، كيفية تحقيق الصين التوازن بين استخدام الذكاء الاصطناعي لدفع عجلة الاقتصاد والحفاظ على سيطرة الدولة على المجتمع. تتضمن هذه السياسة ضوابط للذكاء الاصطناعي مماثلة لتلك المطبقة في الاتحاد الأوروبي والولايات المتحدة، مثل حماية حقوق الملكية الفكرية، وضمان تطوير التكنولوجيا بشفافية، ومنع التمييز بين المستخدمين، ولكنها تتضمن أيضًا عناصر سياسية تعكس السياق الاجتماعي للصين.
يتضمن ذلك اشتراط التزام تطوير الذكاء الاصطناعي بالقيم الاشتراكية، ومنع استخدامه لارتكاب أعمال تحريضية أو أنشطة معادية للدولة. كما تُلزم السياسة شركات تطوير الذكاء الاصطناعي بالحصول على تراخيص معتمدة من الدولة لتقديم خدمات الذكاء الاصطناعي، مما يُظهر عزم بكين على الحفاظ على مستوى عالٍ من السيطرة على نشر هذه التقنية.
كما هو الحال في الولايات المتحدة والاتحاد الأوروبي، يتأثر نهج الصين أيضًا بالمواقف الاجتماعية والثقافية والسياسية المحلية، ويؤثر في هذه المواقف أيضًا من خلال نهج الحكومة. وقد عزز السعي الوطني لإتقان الذكاء الاصطناعي مجتمعًا أصبحت فيه تقنية الذكاء الاصطناعي جزءًا لا يتجزأ من الحياة اليومية للناس، بدءًا من أنظمة الدفع بالتعرف على الوجه ووصولًا إلى مساعدي التدريس المعتمدين على الذكاء الاصطناعي. ومن المرجح أن يكون استعداد بكين لتبني هذه التقنيات في الحياة اليومية، مقارنةً بالولايات المتحدة والاتحاد الأوروبي، حافزًا لتسريع التطور السريع للذكاء الاصطناعي في الصين. وبينما تواجه الدول الغربية نقاشات حادة حول تطبيق الذكاء الاصطناعي في المجتمع، يمكن للصين استخدام دعمها الشعبي المتجدد لنشر الذكاء الاصطناعي على نطاق واسع، دون مواجهة المقاومة الشعبية التي واجهتها مع الغرب.
إلى جانب التطبيق المجتمعي، يتجلى تفوق الصين أيضًا في طريقة تنظيم بكين للسوق لدعم أبحاث الذكاء الاصطناعي، بدلًا من الاعتماد على السوق الحرة لدفع عجلة الابتكار. استحوذت الصين على ما يقرب من خُمس الاستثمار الخاص العالمي في الذكاء الاصطناعي عام 2021، وفيما يتعلق بالبحث الأكاديمي، نشرت الصين حوالي ثلث جميع الأوراق البحثية والاقتباسات المتعلقة بالذكاء الاصطناعي في العام نفسه. وقد عزز الاستثمار والدعم القويان من الحكومة الصينية قطاع تكنولوجيا الذكاء الاصطناعي الذي يشهد نموًا متزايدًا، بهدف جعل الذكاء الاصطناعي موردًا رئيسيًا في جميع مجالات تنمية البلاد.
سياسة الصين راسخة الجذور في التقاليد الكونفوشيوسية التي تُشدد على التناغم الاجتماعي وقدرة الدولة على ضمانه. ورغم أن نهج الصين في تنظيم الذكاء الاصطناعي قد لا يزال يُثير مخاوف بشأن الخصوصية والحريات المدنية - بالنظر إلى إمكانية استخدام تطبيقات الذكاء الاصطناعي في مراقبة المجتمع والتحكم فيه - إلا أنه يُظهر أيضًا قدرة بكين على التكيف بسرعة مع التغير التكنولوجي. ويُظهر هذا مدى سرعة صانعي السياسات الصينيين في اقتراح القوانين التنظيمية للذكاء الاصطناعي وتنفيذها وتعديلها. وبالمقارنة مع الإجراءات المتبعة في أوروبا والولايات المتحدة، ستكون الصين أكثر قدرة على تكييف سياساتها لمواكبة التطور السريع للذكاء الاصطناعي.
الدرس الثاني: من سيفوز بسباق الذكاء الاصطناعي؟
فام فو ثيو كوانغ
[إعلان 2]
مصدر
تعليق (0)