
حققت برامج الذكاء الاصطناعي نجاحات كثيرة في السنوات الأخيرة - صورة: رويترز
لا يمكننا مراقبة العملية بأكملها من بيانات الإدخال إلى نتائج الإخراج لنماذج اللغة الكبيرة (LLMs).
لتسهيل الفهم، استخدم العلماء مصطلحات شائعة مثل "الاستدلال" لوصف آلية عمل هذه البرامج. ويقولون أيضًا إن هذه البرامج قادرة على "التفكير" و"الاستدلال" و"الفهم" كما يفعل البشر.
المبالغة في قدرات الذكاء الاصطناعي
على مدار العامين الماضيين، استخدم العديد من المسؤولين التنفيذيين في مجال الذكاء الاصطناعي المبالغة لتضخيم الإنجازات التقنية البسيطة، وفقًا لما ذكره موقع ZDNET في 6 سبتمبر.
في سبتمبر 2024، أعلنت OpenAI أن نموذج الاستدلال o1 "يستخدم سلسلة من الاستدلالات عند حل المشكلات، على غرار الطريقة التي يفكر بها البشر لفترة طويلة عندما يواجهون أسئلة صعبة".
لكن علماء الذكاء الاصطناعي يعترضون، إذ يعتقدون أن الذكاء الاصطناعي لا يمتلك ذكاءً بشريًا.
أثبتت دراسة أجراها فريق من الباحثين بجامعة ولاية أريزونا (الولايات المتحدة الأمريكية) على قاعدة بيانات arXiv قدرة الذكاء الاصطناعي على التفكير من خلال تجربة بسيطة.
وأظهرت النتائج أن "الاستدلال من خلال سلسلة الأفكار هو وهم هش"، وليس آلية منطقية حقيقية، بل مجرد شكل متطور من مطابقة الأنماط.
يسمح مصطلح "سلسلة الأفكار" (CoT) للذكاء الاصطناعي ليس فقط بالتوصل إلى إجابة نهائية، بل أيضًا بتقديم كل خطوة من خطوات التفكير المنطقي، كما هو الحال في نماذج GPT-o1 أو DeepSeek V1.

توضيح لنموذج لغة GPT-2 من OpenAI - الصورة: ECHOCRAFTAI
تعرف على ما يفعله الذكاء الاصطناعي فعليًا
ويقول الباحثون إن التحليلات واسعة النطاق تظهر أن LLM تميل إلى الاعتماد على الدلالات والقرائن السطحية بدلاً من عمليات التفكير المنطقي.
يوضح الفريق أن "برنامج LLM يبني سلاسل منطقية سطحية تعتمد على ارتباطات المدخلات المكتسبة، وغالبًا ما يفشل في المهام التي تنحرف عن أساليب التفكير التقليدية أو الأنماط المألوفة".
لاختبار الفرضية القائلة بأن LLM كان يطابق الأنماط فقط ولا يقوم باستنتاجات فعلية، قام الفريق بتدريب GPT-2، وهو نموذج مفتوح المصدر أصدرته OpenAI في عام 2019.
تم تدريب النموذج في البداية على مهام بسيطة جدًا على الحروف الإنجليزية الستة والعشرين، مثل عكس بعض الحروف، مثل تحويل "APPLE" إلى "EAPPL". ثم غيّر الفريق المهمة وطلب من GPT-2 التعامل معها.
تظهر النتائج أنه بالنسبة للمهام غير المضمنة في بيانات التدريب، لا يمكن لـ GPT-2 حلها بدقة باستخدام CoT.
بدلاً من ذلك، يحاول النموذج تطبيق المهام المُكتسبة الأكثر تشابهًا. لذا، قد تبدو "استنتاجاته" منطقية، لكن نتائجه غالبًا ما تكون خاطئة.
وخلصت المجموعة إلى أنه لا ينبغي الاعتماد بشكل كبير أو الثقة العمياء في إجابات الماجستير في القانون، لأنها قد تنتج "هراءً يبدو مقنعًا للغاية".
وأكدوا أيضًا على ضرورة فهم الطبيعة الحقيقية للذكاء الاصطناعي، وتجنب المبالغة فيه، والتوقف عن الترويج لقدرة الذكاء الاصطناعي على التفكير مثل البشر.
المصدر: https://tuoitre.vn/nghien-cuu-moi-ai-khong-suy-luan-nhu-con-nguoi-20250907152120294.htm






تعليق (0)