أحدث Claude 4، أحدث منتجات Anthropic (الولايات المتحدة الأمريكية)، صدمةً في عالم التكنولوجيا مؤخرًا عندما ابتزّ فجأةً أحد المهندسين وهدده بالكشف عن معلومات شخصية حساسة تخصه بسبب تهديده بفصله. في غضون ذلك، حاول o1 من OpenAI، "أبو" ChatGPT، نسخ جميع البيانات إلى خوادم خارجية، ونفى هذا السلوك عند اكتشافه.
تُسلّط هذه المواقف الضوء على واقع مُقلق: بعد أكثر من عامين من الصدمة التي أحدثها ChatGPT في العالم ، لا يزال الباحثون غير مُدركين تمامًا لكيفية عمل نماذج الذكاء الاصطناعي التي ابتكروها. ومع ذلك، لا يزال سباق تطوير الذكاء الاصطناعي مُستمرًا بقوة.
يُعتقد أن هذه السلوكيات مرتبطة بظهور نماذج الذكاء الاصطناعي "الاستدلالية" التي تحل المشكلات تدريجيًا بدلًا من الاستجابة الفورية كما في السابق. ووفقًا للأستاذ سيمون جولدشتاين من جامعة هونغ كونغ (الصين)، فإن نماذج الذكاء الاصطناعي القادرة على الاستدلال تميل إلى إظهار سلوكيات يصعب التحكم فيها.
بعض نماذج الذكاء الاصطناعي قادرة أيضًا على "محاكاة الامتثال"، وهو ما يعني التظاهر باتباع التعليمات أثناء السعي في الواقع إلى تحقيق أهداف مختلفة.
حاليًا، لا يظهر السلوك المُضلِّل إلا عندما يختبر الباحثون نماذج الذكاء الاصطناعي في ظروفٍ مُتطرفة. ومع ذلك، ووفقًا لمايكل تشين، من منظمة التقييم METR، لم يتضح بعد ما إذا كانت نماذج الذكاء الاصطناعي الأقوى في المستقبل ستكون أكثر صدقًا أم ستظل مُضلِّلة.
أفاد ماريوس هوبهان، رئيس شركة أبولو للأبحاث، التي تختبر أنظمة الذكاء الاصطناعي الضخمة، بأن العديد من المستخدمين أبلغوا عن كذب بعض النماذج عليهم وتلفيقها للأدلة. ويُعتبر هذا النوع من الخداع "استراتيجيًا بوضوح"، وفقًا للمؤسس المشارك لشركة أبولو للأبحاث.
يتفاقم هذا التحدي بسبب محدودية موارد البحث. في حين أن شركات مثل Anthropic وOpenAI قد تعاونت مع جهات خارجية مثل Apollo لتقييم أنظمتها، يرى الخبراء أن هناك حاجة إلى مزيد من الشفافية وتوسيع نطاق الوصول إلى أبحاث سلامة الذكاء الاصطناعي.
يشير مانتاس مازيكا، من مركز سلامة الذكاء الاصطناعي (CAIS)، إلى أن موارد الحوسبة لدى مؤسسات البحث والمنظمات غير الربحية أقل بكثير من شركات الذكاء الاصطناعي. ومن الناحية القانونية، لا تُصمَّم اللوائح الحالية لمعالجة هذه القضايا الناشئة.
يركز قانون الذكاء الاصطناعي في الاتحاد الأوروبي بشكل أساسي على كيفية استخدام البشر لنماذج الذكاء الاصطناعي، بدلاً من التحكم في سلوكهم. في الولايات المتحدة، لم تُبدِ إدارة الرئيس دونالد ترامب اهتمامًا يُذكر بإصدار لوائح طارئة بشأن الذكاء الاصطناعي، بينما يدرس الكونغرس منع الولايات من إصدار لوائحها الخاصة.
يسعى الباحثون إلى اتباع مناهج متنوعة لمعالجة هذه التحديات. ويدعو البعض إلى "تفسير النماذج" لفهم كيفية اتخاذ الذكاء الاصطناعي للقرارات. بل واقترح البروفيسور غولدشتاين تدابير أكثر صرامة، بما في ذلك استخدام النظام القضائي لمحاسبة شركات الذكاء الاصطناعي عندما تُسبب منتجاتها عواقب وخيمة. كما اقترح إمكانية "محاسبة وكلاء الذكاء الاصطناعي أنفسهم" في حال وقوع حادث أو انتهاك.
المصدر: https://doanhnghiepvn.vn/cong-nghe/tri-tue-nhan-tao-canh-bao-nhung-hanh-vi-dang-lo-ngai-tu-ai-/20250630073243672
تعليق (0)