لقد استُخدم الذكاء الاصطناعي، ولا يزال، لارتكاب أفعال غير قانونية وإجرامية. لذلك، من الضروري تطوير سياسات وقوانين متعلقة بالذكاء الاصطناعي وتحسينها.
نظرة عامة على الورشة - الصورة: SIU
كانت هذه هي القضية التي أثارها العديد من المندوبين في ورشة عمل قانون الذكاء الاصطناعي التي نظمتها جامعة سايجون الدولية صباح يوم 4 يناير.
الإطار القانوني اللازم للذكاء الاصطناعي
وفي الورشة، قال البروفيسور الدكتور فان ترونج لي - الرئيس السابق للجنة القانونية في الجمعية الوطنية - إن الذكاء الاصطناعي في فيتنام دخل تدريجياً إلى حياة الإنسان، مما يثبت بشكل متزايد دوره المهم في تعزيز التنمية الاجتماعية والاقتصادية وضمان الأمن القومي.
إلى جانب الجوانب الإيجابية، كان للذكاء الاصطناعي أيضًا تأثيرات سلبية، مما أثار مخاوف عميقة بشأن المخاطر المحتملة من الجوانب الأخلاقية والاجتماعية والقانونية.
علاوةً على ذلك، استُخدم الذكاء الاصطناعي، ولا يزال، لارتكاب أفعال غير قانونية وإجرامية. لذا، يُعدّ تطوير واستكمال سياسات وقوانين الذكاء الاصطناعي في فيتنام أمرًا مُلِحًّا.
البروفيسور الدكتور فان ترونج لي - الصورة: SIU
وفقًا للسيد لي، من الضروري وضع إطار قانوني لتعزيز تطوير وتطبيق الذكاء الاصطناعي. وتحديدًا، يتعين على الدولة تشجيع الشركات والمؤسسات والأفراد على تطوير وتوفير ونشر واستخدام أنظمة ذكاء اصطناعي موثوقة ومُركزة على الإنسان، وتشجيع الشركات الصغيرة والمتوسطة على توفير أنظمة ذكاء اصطناعي للمشاركة في آلية اختبار منتجات وخدمات التكنولوجيا الرقمية .
يجب أن يتناول قانون الملكية المدنية والفكرية مسألة ملكية منتجات الذكاء الاصطناعي. هل ستكون ملكية هذه المنتجات للبشر أم للذكاء الاصطناعي؟
في تطوير أنظمة الذكاء الاصطناعي التي تشمل البشر، يجب على القانون أن يولي اهتماما خاصا لاحترام حقوق الإنسان وكرامة الأفراد المعنيين.
إلى الحد الممكن، واعتمادًا على خصائص التكنولوجيا المطبقة، ينبغي للمطورين اتخاذ التدابير اللازمة لضمان عدم التسبب في التمييز أو الظلم بسبب التحيز في البيانات عند تدريب أنظمة الذكاء الاصطناعي.
يجب على المطورين اتخاذ الاحتياطات اللازمة لضمان عدم انتهاك أنظمة الذكاء الاصطناعي للقيم الإنسانية والأخلاقيات الاجتماعية، وفقًا للمبادئ الأساسية لفيتنام، وخاصةً القيم الأساسية، بما في ذلك الوطنية والتضامن والاعتماد على الذات والولاء والصدق والمسؤولية والانضباط والإبداع وحماية الخصوصية المكانية وخصوصية المعلومات (البيانات الشخصية) وسرية الاتصالات.
من المسؤول عن الأضرار التي تسببها الذكاء الاصطناعي؟
الأستاذ المشارك، الدكتور لي بو لينه في المؤتمر - الصورة: جامعة جنوب إلينوي
فيما يتعلق بوضع قانون جديد للذكاء الاصطناعي، اقترح الأستاذ المشارك الدكتور لي بو لينه، من معهد دراسات القانون والمجتمع، ونائب الأمين العام السابق للجمعية الوطنية ، أن تُصدر الوزارة مبادئ أخلاقية لتطوير الذكاء الاصطناعي ونشره وتطبيقه. ويجب تحديد منتجات التكنولوجيا الرقمية والمحتوى المُنشأ بواسطة الذكاء الاصطناعي بوضوح على أنه مُنشأ أو مُتلاعب به بشكل مصطنع.
سيتم تصنيف أنظمة الذكاء الاصطناعي وفقًا لمستويات مخاطرها، بناءً على تأثيرها على الصحة، والحقوق والمصالح المشروعة للمؤسسات والأفراد، وسلامة الإنسان أو ممتلكاته، وسلامة أنظمة المعلومات الوطنية المهمة والبنية التحتية الحيوية. تتيح هذه التصنيفات إدارة أنظمة الذكاء الاصطناعي وفقًا لمستويات مخاطرها المختلفة.
بالإضافة إلى ذلك، فإن إحدى القضايا القانونية الأولى المتعلقة بالذكاء الاصطناعي هي الملكية الفكرية وحقوق النشر.
في تطوير الذكاء الاصطناعي، يُعدّ إنشاء الخوارزميات والنماذج وبيانات التدريب أمرًا بالغ الأهمية. إلا أن لوائح الملكية الفكرية الحالية لم تواكب تطور التكنولوجيا.
على وجه الخصوص، يُعد تحديد مالك حقوق الطبع والنشر للمنتجات التي يُنتجها الذكاء الاصطناعي أمرًا معقدًا. إذا أنشأ الذكاء الاصطناعي عملًا فنيًا أو برنامجًا برمجيًا، فالسؤال هو: هل يملك المنتج هو أم الشخص الذي برمجه؟ قد لا تكون اللوائح الحالية مناسبة تمامًا، مما قد يؤدي إلى نزاعات محتملة في المستقبل.
تُثار أيضًا مسألة المسؤولية القانونية عند تسبب الذكاء الاصطناعي في أضرار. يستطيع الذكاء الاصطناعي اتخاذ قرارات دون تدخل بشري، مما يُصعّب تحديد موقف قانوني. عندما يرتكب نظام ذكاء اصطناعي خطأً أو يُلحق ضررًا بإنسان، يُطرح السؤال: من المسؤول؟ هل هو المُصنّع، أم المُطوّر، أم المستخدم؟
[إعلان 2]
المصدر: https://tuoitre.vn/ai-gay-thiet-hai-ai-chiu-trach-nhiem-20250104134035537.htm
تعليق (0)