تُعتبر هذه فرصةً هشةً، لكنها بالغة الأهمية، لضمان سلامة تطبيقات الذكاء الاصطناعي مستقبلًا. وتكتسب هذه الفرصة أهميةً بالغة، لا سيما مع إقرار فيتنام مؤخرًا قانون صناعة التكنولوجيا الرقمية ، الذي يتضمن لوائحَ مفصلةً لإدارة الذكاء الاصطناعي.
"نافذة الفرصة" تضيق
قال الباحث في شركة OpenAI بوين بيكر إنه في ورقة بحثية مشتركة حديثة، حذر الباحثون من أن قدرة الذكاء الاصطناعي على مراقبة "الأفكار" قد تختفي في حالة عدم وجود جهود بحثية مركزة.
وهذا مهم بشكل خاص مع تزايد قوة نماذج الذكاء الاصطناعي وإمكانية إحداث تأثيرات خطيرة على المجتمع.
الميزة الأساسية لنماذج الذكاء الاصطناعي المنطقي مثل o-3 من OpenAI و R1 من DeepSeek هي "سلسلة الأفكار" ( CoT) - وهي العملية التي يعبر بها الذكاء الاصطناعي عن خطوات المنطق الخاصة به باللغة الطبيعية، على غرار الطريقة التي يكتب بها البشر كل خطوة من مشكلة الرياضيات على ورقة مسودة.
تمنحنا هذه القدرة لمحة نادرة عن كيفية اتخاذ الذكاء الاصطناعي للقرارات.
ويمثل هذا لحظة نادرة من الوحدة بين العديد من القادة في صناعة الذكاء الاصطناعي لتعزيز البحث في مجال سلامة الذكاء الاصطناعي.
هذا الأمر ذو أهمية خاصة في ظل المنافسة الشرسة بين شركات التكنولوجيا في تطوير الذكاء الاصطناعي. من أبرز الموقعين على الورقة البحثية مارك تشين، مدير أبحاث OpenAI، وإيليا سوتسكيفر، الرئيس التنفيذي لشركة Safe Superintelligence، وجيفري هينتون، الحائز على جائزة نوبل، وشين ليج، المؤسس المشارك لشركة Google DeepMind، ودان هندريكس، مستشار سلامة xAI.
وتظهر مشاركة هذه الأسماء البارزة أهمية هذه القضية.
ووفقاً لتقييم السيد بوين بيكر أيضاً، "نحن في لحظة حرجة حيث ظهرت ما يسمى بـ"سلسلة التفكير" الجديدة التي قد تختفي في السنوات القليلة المقبلة إذا لم يركز الناس عليها حقاً".

لماذا يعد رصد "تفكير الذكاء الاصطناعي" أمرًا مهمًا؟
غالبًا ما يُنظر إلى أنظمة الذكاء الاصطناعي الحالية على أنها "صناديق سوداء" - فنحن نعرف المدخلات والمخرجات ولكننا لا نفهم عمليات صنع القرار داخلها.
سيصبح هذا الأمر خطيرًا عندما يتم تطبيق الذكاء الاصطناعي في مجالات مهمة مثل الرعاية الصحية والمالية والأمن القومي.
مراقبة CoT هي نظام آلي يقرأ سلسلة استنتاجات النموذج الذهني والمعلومات الأخرى ذات الصلة للكشف عن التفاعلات المشبوهة أو التي قد تكون ضارة. ليس هذا حلاً شاملاً، ولكنه قد يُشكّل طبقة حماية أمنية قيّمة.
تظهر الأبحاث من OpenAI أن نماذج الذكاء الاصطناعي تميل إلى أن تكون واضحة للغاية بشأن نواياها في تسلسلات تفكيرها.
على سبيل المثال، كانوا غالبًا صريحين جدًا بشأن خططهم لتخريب مهمة ما عندما فكروا "لنبدأ بالاختراق". وهذا يُظهر قدرة الذكاء الاصطناعي على رصد السلوكيات غير السليمة وكشفها.
"دعونا نخترق" هي العبارة التي غالبًا ما "تفكر" بها نماذج الذكاء الاصطناعي عندما "تنوي" تخريب القواعد أو التحايل عليها أثناء أداء مهمة ما.
إن إظهار أنظمة الذكاء الاصطناعي نية "الاختراق" في عملياتها الفكرية يشير إلى قدرتنا على اكتشاف سلوكيات الذكاء الاصطناعي السيئة قبل حدوثها. لذا، تُعد مراقبة عمليات التفكير أمرًا بالغ الأهمية.
بعبارة أخرى، فإن عبارة "دعنا نخترق" هي بمثابة "إشارة تحذير" للبشر بأن الذكاء الاصطناعي على وشك القيام بشيء خاطئ.
فيتنام واللوائح القانونية المتعلقة بالذكاء الاصطناعي
وفي الواقع، قطعت فيتنام خطوات مهمة في بناء الإطار القانوني للذكاء الاصطناعي.
في 14 يونيو، أقر المجلس الوطني الفيتنامي قانون صناعة التكنولوجيا الرقمية، والذي يتضمن الفصل الرابع منه لوائح مفصلة بشأن الذكاء الاصطناعي - وهو أحد الأطر القانونية الأكثر شمولاً بشأن الذكاء الاصطناعي في جنوب شرق آسيا اليوم.
تنص المادة 41 من القانون على المبادئ الأساسية لتطوير وتوفير ونشر الذكاء الاصطناعي في فيتنام.
وعلى وجه الخصوص، تنص الفقرة (ب) من البند 1 على ما يلي: "ضمان الشفافية والمساءلة والقدرة على التفسير؛ وضمان عدم تجاوزها للسيطرة البشرية".

أقرت الجمعية الوطنية قانون صناعة التكنولوجيا الرقمية (تصوير: نهات باك).
هذه هي المبادئ التي يدعو إليها العلماء الدوليون عند مناقشة مراقبة سلسلة الذكاء الاصطناعي.
علاوةً على ذلك، تنص الفقرة (د) من البند 1 من المادة 41 على ما يلي: "ضمان القدرة على التحكم في الخوارزميات ونماذج الذكاء الاصطناعي". وهذا يتوافق تمامًا مع روح الإشراف على لجنة التكنولوجيا التي يقترحها الخبراء الدوليون.
والأمر الأكثر أهمية هو أن المادة 41، البند 1، النقطة (أ) تضع أيضًا معيارًا أخلاقيًا عاليًا عندما تنص على أن الذكاء الاصطناعي يجب أن "يخدم الرخاء والسعادة البشرية، مع وضع البشر في المركز".
وهذا يعني أن مراقبة سلسلة أفكار الذكاء الاصطناعي ليست مجرد متطلب تقني، بل هي أيضًا التزام أخلاقي - مما يضمن توجيه الذكاء الاصطناعي دائمًا نحو المنفعة الإنسانية، وليس أهداف الآلة الخاصة.
تصنيف وإدارة الذكاء الاصطناعي حسب مستوى المخاطر
لقد ذهب قانون صناعة التكنولوجيا الرقمية في فيتنام إلى أبعد من ذلك من خلال تصنيف الذكاء الاصطناعي إلى مجموعات مخاطر مختلفة مع تعريفات واضحة وعلمية.
تُعرّف المادة 43 "أنظمة الذكاء الاصطناعي عالية الخطورة" بأنها الأنظمة التي من المحتمل أن تشكل مخاطر أو أضرارًا جسيمة على صحة الإنسان وحقوق الإنسان والنظام العام.
ومن المثير للاهتمام أن القانون ينص على استثناءات محددة للذكاء الاصطناعي عالي المخاطر، بما في ذلك الأنظمة "المقصود منها مساعدة البشر في تحسين نتائج العمل" و"غير المقصود منها استبدال عملية صنع القرار البشري".
ويظهر هذا توازناً في العقلية بين تشجيع الابتكار وضمان السلامة.

إن تصنيف الذكاء الاصطناعي حسب مستوى المخاطر سيساعد في إنشاء نظام مراقبة متعدد الطبقات (صورة توضيحية: LinkedIn).
وعلى وجه الخصوص، فإن التمييز بين "الذكاء الاصطناعي عالي المخاطر" و"الذكاء الاصطناعي عالي التأثير" (الأنظمة المستخدمة لأغراض متعددة، مع عدد كبير من المستخدمين) يوضح الدقة في النهج.
وهذا تصنيف أكثر تقدمية من قانون الذكاء الاصطناعي للاتحاد الأوروبي، والذي يأخذ في الاعتبار ليس فقط مستوى المخاطرة، بل أيضًا حجم ونطاق التأثير.
ومن شأن هذا التصنيف أن يساعد في إنشاء نظام إشراف متعدد الطبقات، حيث تكون الرقابة على سلسلة الوعي مهمة بشكل خاص لأنظمة الذكاء الاصطناعي عالية المخاطر وعالية التأثير.
منصة لمراقبة الذكاء الاصطناعي
ومن أبرز السمات الرائدة لقانون الصناعة والتكنولوجيا الرقمية في فيتنام هو متطلبات الشفافية وعلامات التعريف.
تنص المادة 44 على أن أنظمة الذكاء الاصطناعي التي تتفاعل مباشرةً مع البشر ملزمة بإخطار المستخدمين بتفاعلهم معها. وفي الوقت نفسه، يجب أن تحمل المنتجات التي تُنتجها هذه الأنظمة علامات تعريف.
لهذا الأمر تداعيات مهمة على تطبيق رقابة CoT. فعندما يعلم المستخدمون أنهم يتفاعلون مع الذكاء الاصطناعي، يحق لهم طلب توضيحات حول عملية اتخاذ القرار، مما يُشكّل ضغطًا إيجابيًا على مطوري الذكاء الاصطناعي للحفاظ على قدرتهم على مراقبة عملية تفكيره.
وعلى وجه الخصوص، فإن تكليف وزارة العلوم والتكنولوجيا بمسؤولية "إصدار قائمة منتجات التكنولوجيا الرقمية التي تم إنشاؤها بواسطة الذكاء الاصطناعي" يظهر الإدارة الاستباقية.
وهذا يمثل فرقًا مهمًا عن العديد من البلدان الأخرى، حيث تكون لوائح الذكاء الاصطناعي في أغلب الأحيان أكثر عمومية.
وعلاوة على ذلك، فإن طلب معرف "للتعرف على الإنسان أو الآلة" يمثل رؤية لنظام بيئي للذكاء الاصطناعي قادر على مراقبة نفسه - وهو ما يتناسب تمامًا مع فكرة مراقبة سلسلة الفكر الآلية.
نموذج الإدارة الشاملة
تُظهر المادة 45 من القانون المذكور أعلاه فلسفة إدارية تقدمية عندما تحدد بوضوح مسؤوليات 3 مجموعات من الكيانات وفقًا لدورة حياة منتج الذكاء الاصطناعي: الكيانات المطورة، والكيانات المقدمة، والكيانات التي تنشر وتستخدم أنظمة الذكاء الاصطناعي.
ويؤدي هذا إلى إنشاء نظام مساءلة متكامل من البداية إلى النهاية، مما يضمن أن الرقابة على الذكاء الاصطناعي لا تقع على عاتق طرف واحد فقط.
ومن الجدير بالملاحظة أن هناك فرقًا دقيقًا بين "تطوير" و"توفير" الذكاء الاصطناعي؛ فالمطورون هم أولئك الذين "يبحثون ويطورون"، في حين أن المزودين هم أولئك الذين يجلبونه إلى السوق تحت اسم علامة تجارية.
وهذا يعني أنه حتى لو قامت شركة ما بإعادة تسمية نموذج الذكاء الاصطناعي الحالي، فإنها لا تزال مسؤولة عن الشفافية والقدرة على التفسير.

والأمر المثير للاهتمام هنا بشكل خاص هو كيف يخصص القانون مسؤوليات مختلفة لكل شخص.
ويجب على المطور الالتزام بجميع المبادئ، ويجب على المزود أن يتحمل مسؤولية إضافية فيما يتعلق بالتحديد وإدارة المخاطر العالية، ويُعفى المستخدم من بعض المسؤولية ولكن لا يزال يتعين عليه ضمان الشفافية والسيطرة على المخاطر.
يخلق هذا النموذج "سلسلة من المسؤولية" حيث يكون لكل رابط حافز للحفاظ على الإشراف على سلسلة التفكير الخاصة بالذكاء الاصطناعي، حيث أن الجميع مسؤولون أمام المستخدم النهائي.
تحدي الحفاظ على قدرات المراقبة
مع ذلك، قد تظل القدرة على رصد سلسلة أفكار الذكاء الاصطناعي هشةً وعرضةً للخطر. كما قد تُشكّل بنى الذكاء الاصطناعي الجديدة تهديداتٍ أخرى.
ويعمل العديد من الباحثين على تطوير أنظمة التفكير في الفضاء الرياضي المستمر، بدلاً من الكلمات المنفصلة، وهو ما قد يلغي تماماً الحاجة إلى استخدام اللغة في التفكير.
علاوة على ذلك، يمكن أن يصبح الذكاء الاصطناعي "مُصفى" - أي أنه يُظهر فقط الأفكار الإيجابية للبشر والتي تستحق التقدير، بينما يخفي عمداً نواياه الحقيقية.
الخطر هنا هو أنه بمجرد أن يدرك الذكاء الاصطناعي أنه يخضع للمراقبة، فإنه قد يتعلم إخفاء سلسلة أفكاره الحقيقية.
في هذا السياق، يكتسب البند المتعلق بـ "التحكم في المخاطر طوال دورة حياة نظام الذكاء الاصطناعي" في الفقرة (هـ)، البند 1، المادة 41 من القانون الفيتنامي أهمية خاصة. وهذا يتطلب آلية مراقبة مستمرة، لا تقتصر على وقت النشر فقط.
التأثير على مستقبل تطوير الذكاء الاصطناعي
إن مراقبة سلسلة الأفكار قد تصبح أداة مهمة لضمان عمل الذكاء الاصطناعي بطرق تفيد البشر.
إذا استمرت النماذج في التفكير باللغة الطبيعية وإذا كانت السلوكيات التي تشكل أخطر المخاطر تتطلب تفكيراً مكثفاً، فإن هذه الممارسة قد تمكن من الكشف بشكل موثوق عن سوء السلوك الخطير.
بالنسبة لفيتنام، فإن تطبيق تقنيات مراقبة السلع الأساسية من شأنه أن يساعد على تنفيذ الأحكام القانونية بشكل فعال.
على سبيل المثال، سيكون من الأسهل استيفاء شرط "القدرة على التفسير" الوارد في المادة 41 إذا كانت عمليات التفكير في الذكاء الاصطناعي متاحة. وبالمثل، سيصبح "التحكم في الخوارزميات ونماذج الذكاء الاصطناعي" أكثر جدوى.
سيواجه تطبيق مراقبة سلسلة الذكاء الاصطناعي في فيتنام عددًا من التحديات. أولها، مشكلة الموارد البشرية - نقص خبراء الذكاء الاصطناعي القادرين على تطوير وتشغيل أنظمة المراقبة.
ويتطلب هذا استثمارًا كبيرًا في التدريب وجذب المواهب.
اتجاهات المستقبل
ويدعو الباحثون مطوري نماذج الذكاء الاصطناعي الرائدين إلى البحث عن العوامل التي تجعل CoT "قابلة للمراقبة" والعوامل التي يمكن أن تزيد أو تقلل من الشفافية حول كيفية عمل نماذج الذكاء الاصطناعي والتوصل إلى إجابات قريبًا.
إن فرصة مراقبة "تفكير" الذكاء الاصطناعي قد تكون نافذتنا الأخيرة للحفاظ على السيطرة على أنظمة الذكاء الاصطناعي القوية بشكل متزايد اليوم.

بالنسبة لفيتنام، يُعدّ وجود إطار قانوني شامل للذكاء الاصطناعي من خلال قانون صناعة التكنولوجيا الرقمية ميزةً كبيرة. فقد أرست اللوائح المتعلقة بالشفافية والرقابة الخوارزمية وتصنيف المخاطر أساسًا قانونيًا متينًا لتطبيق تقنيات رصد سلسلة الأفكار في مجال الذكاء الاصطناعي.
إن الجمع بين الأبحاث الدولية المتطورة والإطار القانوني المحلي التقدمي من شأنه أن يساعد فيتنام ليس فقط على تطوير الذكاء الاصطناعي بشكل آمن، بل وأيضاً أن تصبح نموذجاً للدول الأخرى في المنطقة.
ويتماشى هذا مع هدف تحويل فيتنام إلى "مركز إقليمي وعالمي للتكنولوجيا الرقمية" كما هو منصوص عليه في استراتيجيات التنمية الوطنية.
في ظلّ الأساس القانوني القائم، تحتاج فيتنام إلى الإسراع في نشر الأبحاث والتطبيقات العملية لرصد سلسلة أفكار الذكاء الاصطناعي. فبهذا وحده، يُمكننا ضمان أن يخدم الذكاء الاصطناعي "رخاء الإنسان وسعادته"، كما نصّ عليه قانون صناعة التكنولوجيا الرقمية.
المصدر: https://dantri.com.vn/cong-nghe/giam-sat-chuoi-tu-duy-cua-tri-tue-nhan-tao-20250731151403739.htm
تعليق (0)