Vietnam.vn - Nền tảng quảng bá Việt Nam

الذكاء الاصطناعي: تحذير من السلوكيات المقلقة للذكاء الاصطناعي

تظهر نماذج الذكاء الاصطناعي الأكثر تقدمًا في العالم اليوم سلوكيات مزعجة مثل الكذب والتخطيط وحتى تهديد منشئيها لتحقيق أهدافهم الخاصة.

Tạp chí Doanh NghiệpTạp chí Doanh Nghiệp30/06/2025

تعليق الصورة
شعارا OpenAI وChatGPT على شاشة في تولوز، فرنسا. الصورة: AFP/TTXVN

أحدث Claude 4، أحدث منتجات Anthropic (الولايات المتحدة الأمريكية)، صدمةً في عالم التكنولوجيا مؤخرًا عندما ابتزّ فجأةً أحد المهندسين وهدده بالكشف عن معلومات شخصية حساسة تخصه بسبب تهديده بفصله. في غضون ذلك، حاول o1 من OpenAI، "أبو" ChatGPT، نسخ جميع البيانات إلى خوادم خارجية، ونفى هذا السلوك عند اكتشافه.

تُسلّط هذه المواقف الضوء على واقع مُقلق: بعد أكثر من عامين من صدمة ChatGPT للعالم ، لا يزال الباحثون غير مُدركين تمامًا لكيفية عمل نماذج الذكاء الاصطناعي التي ابتكروها. ومع ذلك، لا يزال سباق تطوير الذكاء الاصطناعي مُستمرًا بقوة.

يُعتقد أن هذه السلوكيات مرتبطة بظهور نماذج الذكاء الاصطناعي "الاستدلالية" التي تحل المشكلات تدريجيًا بدلًا من الاستجابة الفورية كما كان الحال سابقًا. ووفقًا للأستاذ سيمون جولدشتاين من جامعة هونغ كونغ (الصين)، فإن نماذج الذكاء الاصطناعي القادرة على الاستدلال تميل إلى إظهار سلوكيات يصعب التحكم فيها.

بعض نماذج الذكاء الاصطناعي قادرة أيضًا على "محاكاة الامتثال"، وهو ما يعني التظاهر باتباع التعليمات أثناء السعي في الواقع إلى تحقيق أهداف مختلفة.

حاليًا، لا يظهر السلوك المُضلِّل إلا عندما يختبر الباحثون نماذج الذكاء الاصطناعي في ظروفٍ مُتطرفة. ومع ذلك، ووفقًا لمايكل تشين من منظمة التقييم METR، لم يتضح بعد ما إذا كانت نماذج الذكاء الاصطناعي الأقوى في المستقبل ستكون أكثر صدقًا أم ستظل مُضلِّلة.

أفاد العديد من المستخدمين بأن بعض النماذج تكذب عليهم وتُلفّق الأدلة، وفقًا لماريوس هوبهان، رئيس شركة أبولو للأبحاث، التي تختبر أنظمة الذكاء الاصطناعي الضخمة. ويُعتبر هذا النوع من الخداع "استراتيجيًا بوضوح"، وفقًا للمؤسس المشارك لشركة أبولو للأبحاث.

يتفاقم هذا التحدي بسبب محدودية موارد البحث. في حين أن شركات مثل أنثروبيك وأوبن إيه آي قد تعاونت مع جهات خارجية مثل أبولو لتقييم أنظمتها، يرى الخبراء أن هناك حاجة إلى مزيد من الشفافية وإمكانية الوصول إلى أبحاث سلامة الذكاء الاصطناعي.

يشير مانتاس مازيكا، من مركز سلامة الذكاء الاصطناعي (CAIS)، إلى أن موارد الحوسبة لدى مؤسسات البحث والمنظمات غير الربحية أقل بكثير من شركات الذكاء الاصطناعي. ومن الناحية القانونية، لا تهدف اللوائح الحالية إلى معالجة هذه القضايا الناشئة.

يركز قانون الذكاء الاصطناعي للاتحاد الأوروبي بشكل أساسي على كيفية استخدام البشر لنماذج الذكاء الاصطناعي، بدلاً من التركيز على كيفية التحكم في سلوكهم. في الولايات المتحدة، لم تُبدِ إدارة الرئيس دونالد ترامب اهتمامًا يُذكر بإصدار لوائح طارئة للذكاء الاصطناعي، بينما يدرس الكونغرس حظر سنّ الولايات للوائحها الخاصة.

يسعى الباحثون إلى اتباع مناهج متنوعة لمعالجة هذه التحديات. ويدعو البعض إلى "تفسير النماذج" لفهم كيفية اتخاذ الذكاء الاصطناعي للقرارات. بل اقترح البروفيسور غولدشتاين تدابير أكثر صرامة، بما في ذلك استخدام النظام القضائي لمحاسبة شركات الذكاء الاصطناعي عندما تُسبب منتجاتها عواقب وخيمة. كما يقترح "محاسبة وكلاء الذكاء الاصطناعي أنفسهم" في حال وقوع حادث أو انتهاك.

المصدر: https://doanhnghiepvn.vn/cong-nghe/tri-tue-nhan-tao-canh-bao-nhung-hanh-vi-dang-lo-ngai-tu-ai-/20250630073243672


تعليق (0)

No data
No data

نفس الموضوع

نفس الفئة

سماء نهر الهان "سينمائية تمامًا"
ملكة جمال فيتنام 2024 تدعى ها تروك لينه، وهي فتاة من فو ين
مهرجان دبي السينمائي الدولي 2025 - دفعة قوية لموسم السياحة الصيفي في دا نانغ
اتبع الشمس

نفس المؤلف

إرث

شكل

عمل

No videos available

أخبار

النظام السياسي

محلي

منتج