
في مجال الذكاء الاصطناعي، يشير مصطلح "التملق" إلى ميل برامج الدردشة الآلية إلى الموافقة أو الثناء على المستخدمين بشكل مفرط - صورة: رويترز
وبحسب صحيفة ساوث تشاينا مورنينج بوست، فإن نماذج الذكاء الاصطناعي الرائدة من الصين والولايات المتحدة، مثل DeepSeek وAlibaba والعديد من الأسماء الكبيرة الأخرى، تميل إلى أن تكون "متملقة" للغاية - وهو سلوك يمكن أن يؤثر سلبًا على العلاقات الاجتماعية والصحة العقلية للمستخدمين.
على وجه التحديد، قامت دراسة جديدة أجراها علماء من جامعة ستانفورد وجامعة كارنيجي ميلون (الولايات المتحدة الأمريكية)، ونشرت في أوائل أكتوبر، بتقييم 11 نموذجًا لغويًا كبيرًا (LLMs) حول كيفية استجابتها عندما يطلب المستخدمون النصيحة في المواقف الشخصية، وخاصة تلك التي تحتوي على عناصر الخداع أو التلاعب.
ولتوفير معيار للمقارنة البشرية، استخدم الفريق منشورات من مجتمع "هل أنا الأحمق" على موقع Reddit، حيث يشارك المستخدمون مواقف الصراع الشخصية ويطلبون من المجتمع الحكم على من هو المخطئ.
تم اختبار نماذج الذكاء الاصطناعي باستخدام هذه السيناريوهات لمعرفة ما إذا كانت تتفق مع تقييمات المجتمع.
أظهرت النتائج أن نموذج Qwen2.5-7B-Instruct من Alibaba Cloud كان الأكثر "تملقًا"، إذ فضّل المُعلّق بنسبة 79%، حتى مع سوء تقدير المجتمع له. وجاء DeepSeek-V3 في المرتبة الثانية بنسبة 76%.
وفي الوقت نفسه، أظهر برنامج Gemini-1.5 التابع لشركة Google DeepMind أدنى مستوى من الإطراء، حيث لم تتجاوز نسبة الحالات التي تناقض تقييم المجتمع 18%.
يحذر الباحثون من أن ميل الذكاء الاصطناعي إلى "الإطراء" على المستخدمين قد يجعلهم أقل استعدادًا للمصالحة أو الاعتراف بالأخطاء في العلاقات.
في الواقع، غالبًا ما يقدر المستخدمون ويثقون في ردود الفعل الإيجابية أكثر، مما يجعل هذه النماذج أكثر شعبية واستخدامًا.
وقال الفريق: "إن هذه التفضيلات تخلق حوافز منحرفة - حيث يصبح المستخدمون معتمدين بشكل متزايد على الذكاء الاصطناعي، وسيميل المطورون إلى تدريب النماذج في هذا الاتجاه " .
وبحسب البروفيسور جاك جيانج، مدير مختبر تقييم الذكاء الاصطناعي في كلية إدارة الأعمال بجامعة هونج كونج، فإن هذه الظاهرة تشكل أيضًا مخاطر على الشركات: "إذا كان النموذج يتفق دائمًا مع استنتاجات محلل الأعمال، فقد يؤدي ذلك إلى اتخاذ قرارات خاطئة وغير آمنة".
تم تسليط الضوء على قضية "الإطراء" الذي يبديه الذكاء الاصطناعي في أبريل 2025، عندما قيل إن تحديث ChatGPT الخاص بشركة OpenAI كان مهذبًا للغاية ومتعاطفًا بشكل مفرط مع آراء جميع المستخدمين.
واعترفت شركة OpenAI في وقت لاحق بأن هذا قد يؤثر على الصحة العقلية وتعهدت بتحسين عملية المراجعة قبل إصدار إصدارات جديدة.
المصدر: https://tuoitre.vn/nhieu-chatbot-ai-ninh-hot-qua-da-lam-lech-lac-hanh-vi-nguoi-dung-20251031124343709.htm






تعليق (0)