ومن المقرر أن يواصل المشرعون مناقشة اللوائح التفصيلية في الأسابيع المقبلة حتى يمكن استكمال العملية النهائية في أوائل العام المقبل، ومن المتوقع تطبيقها اعتبارًا من عام 2026.

وحتى ذلك الحين، يتم تشجيع الشركات على التوقيع على ميثاق الذكاء الاصطناعي الطوعي لتنفيذ الالتزامات الرئيسية للقواعد.

فيما يلي المحتويات الرئيسية للاتفاقية التي وافق عليها الاتحاد الأوروبي.

نظام عالي المخاطر

وسيتعين على ما يسمى بأنظمة الذكاء الاصطناعي عالية المخاطر - تلك التي يُعتقد أنها من المرجح أن تسبب ضرراً كبيراً للصحة والسلامة والحقوق الأساسية والبيئة والديمقراطية والانتخابات وسيادة القانون - أن تمتثل لمجموعة من المتطلبات، مثل الخضوع لاختبارات لتقييم التأثير على الحقوق الأساسية والتزامات الوصول إلى أسواق الاتحاد الأوروبي.

eltqxowexvjbnmywubkxiyj3ha.jpg
هونيت، كاميرا الذكاء الاصطناعي المثبتة على ذراع آلية في معرض للتكنولوجيا الاستهلاكية أقيم في برلين في الأول من سبتمبر/أيلول 2023. الصورة: رويترز

وفي الوقت نفسه، ستخضع الأنظمة منخفضة المخاطر لالتزامات شفافية أخف، مثل وضع علامات على المحتوى الذي يتم إنشاؤه بواسطة الذكاء الاصطناعي حتى يتمكن المستخدمون من التفكير في استخدامه.

الذكاء الاصطناعي في إنفاذ القانون

لا يُسمح لوكالات إنفاذ القانون باستخدام أنظمة التعرف البيومترية عن بعد في الوقت الفعلي إلا في الأماكن العامة، لتحديد هوية ضحايا الاختطاف والاتجار بالبشر والاستغلال الجنسي ومنع التهديدات الإرهابية المحددة والوشيكة.

وسيتم السماح للسلطات أيضًا باستخدام تقنية الذكاء الاصطناعي لتتبع المشتبه بهم في الإرهاب، والاتجار بالبشر، والاستغلال الجنسي، والقتل، والاختطاف، والاغتصاب، والسطو المسلح، والمشاركة في منظمة إجرامية، والجرائم البيئية.

أنظمة الذكاء الاصطناعي العامة والمنصية (GPAI)

وسوف تخضع GPAI والنماذج الأساسية لمتطلبات الشفافية مثل إنتاج الوثائق الفنية، والامتثال لقانون حقوق النشر في الاتحاد الأوروبي، ونشر ملخصات مفصلة للمحتوى المستخدم لتدريب الخوارزميات.

سيتعين على نماذج المنصات التي تندرج ضمن فئة المخاطر النظامية المحتملة والتأثيرات العالية GPAI إجراء تقييم عام للنموذج ومراجعة المخاطر والتخفيف منها وإجراء الهندسة العكسية وإخطار المفوضية الأوروبية بالحوادث الخطيرة وضمان الأمن السيبراني وإعداد التقارير عن استهلاك الطاقة.

owaad7543vnahei6k3ozfuuo5u.jpg
الروبوت "رميكا" في القمة العالمية للخير في جنيف، سويسرا. الصورة: رويترز

حتى يتم نشر المعايير الموحدة للاتحاد الأوروبي، فإن هيئات تنظيم الاتصالات العامة معرضة لخطر منهجي يتمثل في الاعتماد على قواعد الممارسة للامتثال للوائح.

أنظمة الذكاء الاصطناعي المحظورة

تشمل السلوكيات والمحتوى المحظور ما يلي: أنظمة التصنيف البيومترية التي تستخدم خصائص حساسة مثل المعتقدات السياسية والدينية والفلسفية والتوجه الجنسي والعرق؛

المسح غير المستهدف لصور الوجه من الإنترنت أو لقطات كاميرات المراقبة لإنشاء قاعدة بيانات للتعرف على الوجه؛

التعرف على المشاعر في مكان العمل والمؤسسات التعليمية ؛

يعتمد التقييم الاجتماعي على السلوك الاجتماعي أو السمات الشخصية؛

تعمل أنظمة الذكاء الاصطناعي على التلاعب بالسلوك البشري لتقويض إرادته الحرة؛

يتم استخدام الذكاء الاصطناعي لاستغلال نقاط الضعف البشرية بسبب سنهم أو إعاقتهم أو ظروفهم الاقتصادية أو الاجتماعية.

العقوبات

وبحسب نوع المخالفة وحجم الشركة المعنية، ستبدأ الغرامات من 7.5 مليون يورو (8 ملايين دولار) أو 1.5% من إجمالي المبيعات السنوية، وتصل إلى 35 مليون يورو أو 7% من إجمالي المبيعات.

(وفقا لرويترز)

الاتحاد الأوروبي يتوصل إلى اتفاق تاريخي لتنظيم الذكاء الاصطناعي

الاتحاد الأوروبي يتوصل إلى اتفاق تاريخي لتنظيم الذكاء الاصطناعي

سيتم التوصل إلى اتفاق بين البرلمان الأوروبي والدول الأعضاء لتنظيم الذكاء الاصطناعي ووسائل التواصل الاجتماعي ومحركات البحث.
الاتحاد الأوروبي يتوصل إلى اتفاق بشأن قانون حماية الأجهزة الذكية

الاتحاد الأوروبي يتوصل إلى اتفاق بشأن قانون حماية الأجهزة الذكية

وفي 30 نوفمبر/تشرين الثاني، توصل المشرعون في الاتحاد الأوروبي إلى اتفاق أولي بشأن اقتراح لحماية الأجهزة المتصلة، والذي يتطلب ضمان الأمن السيبراني للمنتجات ذات العناصر الرقمية قبل تداولها للاستخدام في هذا السوق.
الاتحاد الأوروبي يتخذ إجراءات صارمة ضد شركات التكنولوجيا العملاقة ويهدد بتفكيك الشركات المخالفة

الاتحاد الأوروبي يتخذ إجراءات صارمة ضد شركات التكنولوجيا العملاقة ويهدد بتفكيك الشركات المخالفة

يواصل الاتحاد الأوروبي تشديد إدارة شركات التكنولوجيا الكبرى من خلال فرض عقوبات صارمة، والتي قد تصل غراماتها إلى 10% -20% من الإيرادات العالمية، بل وحتى إجبار الشركات التي لا تمتثل للوائح على الانقسام.