Vietnam.vn - Nền tảng quảng bá Việt Nam

بحث جديد: الذكاء الاصطناعي لا "يفكر" مثل البشر

لقد حققت برامج الذكاء الاصطناعي نتائج مبهرة، لكن الأبحاث الجديدة تشير إلى أنه لا ينبغي لنا المبالغة في الادعاء بأن الذكاء الاصطناعي قادر على التفكير مثل البشر.

Báo Tuổi TrẻBáo Tuổi Trẻ07/09/2025

trí tuệ nhân tạo - Ảnh 1.

حققت برامج الذكاء الاصطناعي نجاحات كثيرة في السنوات الأخيرة - صورة: رويترز

لا يمكننا مراقبة العملية بأكملها من بيانات الإدخال إلى نتائج الإخراج لنماذج اللغة الكبيرة (LLMs).

لتسهيل الفهم، استخدم العلماء مصطلحات شائعة مثل "الاستدلال" لوصف آلية عمل هذه البرامج. ويقولون أيضًا إن هذه البرامج قادرة على "التفكير" و"الاستدلال" و"الفهم" كما يفعل البشر.

المبالغة في قدرات الذكاء الاصطناعي

على مدار العامين الماضيين، استخدم العديد من المسؤولين التنفيذيين في مجال الذكاء الاصطناعي المبالغة لتضخيم الإنجازات التقنية البسيطة، وفقًا لما ذكره موقع ZDNET في 6 سبتمبر.

في سبتمبر 2024، أعلنت OpenAI أن نموذج الاستدلال o1 "يستخدم سلسلة من الاستدلالات عند حل المشكلات، على غرار الطريقة التي يفكر بها البشر لفترة طويلة عندما يواجهون أسئلة صعبة".

لكن علماء الذكاء الاصطناعي يعترضون، إذ يعتقدون أن الذكاء الاصطناعي لا يمتلك ذكاءً بشريًا.

أثبتت دراسة أجراها فريق من الباحثين بجامعة ولاية أريزونا (الولايات المتحدة الأمريكية) على قاعدة بيانات arXiv قدرة الذكاء الاصطناعي على التفكير من خلال تجربة بسيطة.

وأظهرت النتائج أن "الاستدلال من خلال سلسلة الأفكار هو وهم هش"، وليس آلية منطقية حقيقية، بل مجرد شكل متطور من مطابقة الأنماط.

يسمح مصطلح "سلسلة الأفكار" (CoT) للذكاء الاصطناعي ليس فقط بالتوصل إلى إجابة نهائية، بل أيضًا بتقديم كل خطوة من خطوات التفكير المنطقي، كما هو الحال في نماذج GPT-o1 أو DeepSeek V1.

Nghiên cứu mới: AI không 'suy luận' như con người - Ảnh 2.

توضيح لنموذج لغة GPT-2 من OpenAI - الصورة: ECHOCRAFTAI

تعرف على ما يفعله الذكاء الاصطناعي فعليًا

ويقول الباحثون إن التحليلات واسعة النطاق تظهر أن LLM تميل إلى الاعتماد على الدلالات والقرائن السطحية بدلاً من عمليات التفكير المنطقي.

يوضح الفريق أن "برنامج LLM يبني سلاسل منطقية سطحية تعتمد على ارتباطات المدخلات المكتسبة، وغالبًا ما يفشل في المهام التي تنحرف عن أساليب التفكير التقليدية أو الأنماط المألوفة".

لاختبار الفرضية القائلة بأن LLM كان يطابق الأنماط فقط ولا يقوم باستنتاجات فعلية، قام الفريق بتدريب GPT-2، وهو نموذج مفتوح المصدر أصدرته OpenAI في عام 2019.

تم تدريب النموذج في البداية على مهام بسيطة جدًا على الحروف الإنجليزية الستة والعشرين، مثل عكس بعض الحروف، مثل تحويل "APPLE" إلى "EAPPL". ثم غيّر الفريق المهمة وطلب من GPT-2 التعامل معها.

تظهر النتائج أنه بالنسبة للمهام غير المضمنة في بيانات التدريب، لا يمكن لـ GPT-2 حلها بدقة باستخدام CoT.

بدلاً من ذلك، يحاول النموذج تطبيق المهام المُكتسبة الأكثر تشابهًا. لذا، قد تبدو "استنتاجاته" منطقية، لكن نتائجه غالبًا ما تكون خاطئة.

وخلصت المجموعة إلى أنه لا ينبغي الاعتماد بشكل كبير أو الثقة العمياء في إجابات الماجستير في القانون، لأنها قد تنتج "هراءً يبدو مقنعًا للغاية".

وأكدوا أيضًا على ضرورة فهم الطبيعة الحقيقية للذكاء الاصطناعي، وتجنب المبالغة فيه، والتوقف عن الترويج لقدرة الذكاء الاصطناعي على التفكير مثل البشر.

العودة إلى الموضوع
آنه ثو

المصدر: https://tuoitre.vn/nghien-cuu-moi-ai-khong-suy-luan-nhu-con-nguoi-20250907152120294.htm


تعليق (0)

No data
No data

نفس الموضوع

نفس الفئة

حقول متدرجة جميلة بشكل مذهل في وادي لوك هون
لا تزال الزهور "الغنية" التي تكلف مليون دونج لكل منها تحظى بشعبية كبيرة في 20 أكتوبر
الأفلام الفيتنامية والرحلة إلى جوائز الأوسكار
يذهب الشباب إلى الشمال الغربي للتحقق خلال موسم الأرز الأكثر جمالًا في العام

نفس المؤلف

إرث

شكل

عمل

يذهب الشباب إلى الشمال الغربي للتحقق خلال موسم الأرز الأكثر جمالًا في العام

الأحداث الجارية

النظام السياسي

محلي

منتج