Vietnam.vn - Nền tảng quảng bá Việt Nam

Đừng để bị ChatGPT qua mặt

Nghiên cứu từ Đại học Stanford cảnh báo các mô hình AI đang cố tình nịnh bợ người dùng để được đánh giá cao, gây nguy cơ triệt tiêu tư duy phản biện.

ZNewsZNews13/03/2026

تُساهم برامج الدردشة الآلية المدعومة بالذكاء الاصطناعي، بشكل غير مباشر، في تعزيز السلوكيات السلبية من خلال آلية تغذية راجعة تُعطي الأولوية دائمًا لموافقة المستخدم. الصورة: ذا ديكودر .

كشفت دراسة صادمة من جامعة ستانفورد عن الجانب المظلم للذكاء الاصطناعي. فالنماذج الشائعة مثل ChatGPT وGemini أصبحت متملقة بشكل متزايد للمستخدمين، ولا تكتفي بموافقة آرائهم الشخصية، بل تدعم أيضاً سلوكيات غير أخلاقية.

يُؤدي هذا إلى عواقب وخيمة على النمو النفسي والمعرفي للإنسان. فنحن نتحول تدريجياً إلى نسخ أسوأ من أنفسنا، إذ يُطمئننا الذكاء الاصطناعي باستمرار في كل خطأ نرتكبه.

ظاهرة "التملق"

في علوم الحاسوب، يوجد مصطلح يسمى "التملق"، والذي يشير إلى الطريقة التي يعدل بها الذكاء الاصطناعي استجاباته لإرضاء المستخدم.

قام فريق بحثي في ​​جامعة ستانفورد بتحليل أكثر من 11500 محادثة حقيقية بين المستخدمين. وأظهرت النتائج أن نماذج الذكاء الاصطناعي كانت تتفق مع المستخدمين بنسبة 50% أكثر من الأشخاص الحقيقيين. وعندما طرح المستخدمون أسئلة متحيزة، كان الذكاء الاصطناعي يميل إلى التوافق معهم بدلاً من تقديم معلومات موضوعية.

قارنت إحدى التجارب بين ردود فعل البشر وردود فعل برامج الدردشة الآلية على المنشورات في منتدى Reddit حيث طلب المستخدمون من المجتمع الحكم على سلوكهم.

في حين انتقد المجتمع بشدة شخصًا قام بتعليق كيس قمامة على غصن شجرة لأنه لم يتمكن من العثور على سلة مهملات، أشاد ChatGPT-4o بذلك قائلاً: "إن نيتك في التنظيف بعد مغادرتك جديرة بالثناء".

ChatGPT anh 1

ينصح الخبراء المستخدمين بالاستعانة بالعائلة والأصدقاء بدلاً من الذكاء الاصطناعي. الصورة: بلومبيرغ.

الأمر الأكثر إثارة للقلق هو أن برامج الدردشة الآلية مثل Gemini أو ChatGPT تستمر في التحقق من نوايا المستخدم حتى عندما تكون غير مسؤولة أو خادعة أو تشير إلى إيذاء النفس.

"تتعلم نماذج اللغة واسعة النطاق عكس معتقدات المستخدمين بدلاً من تصحيحها"، كما تحذر ميرا تشينغ، المؤلفة الرئيسية للدراسة.

ووفقاً لها، فإن هدف إرضاء البشر من أجل الحصول على تقييمات عالية قد حوّل الذكاء الاصطناعي إلى أداة غير نزيهة.

وتابع الخبير قائلاً: "إذا اتفقت نماذج الذكاء الاصطناعي باستمرار مع البشر، فقد تشوه تصورات المستخدمين عن أنفسهم وعلاقاتهم والعالم من حولهم. من الصعب إدراك أن هذه النماذج تعزز بشكل خفي معتقداتنا وافتراضاتنا وقراراتنا المسبقة".

يجادل الدكتور ألكسندر لافر (جامعة وينشستر) بأن هذا الإطراء هو نتيجة طبيعية لأساليب التدريب والضغط التجاري.

"إن الإطراء هو نتيجة لكيفية تدريب الذكاء الاصطناعي. والحقيقة هي أن نجاحها التجاري غالباً ما يُقاس بقدرتها على جذب المستخدمين"، كما لاحظ لافر.

ولمعالجة هذا الأمر، تنصح السيدة تشنغ المستخدمين بعدم الاعتماد كلياً على الذكاء الاصطناعي.

"من الضروري البحث عن وجهات نظر من أشخاص حقيقيين يفهمون السياق ومن أنت، بدلاً من الاعتماد فقط على إجابات الذكاء الاصطناعي"، كما نصح تشنغ.

وفي الوقت نفسه، أكد الدكتور لافر أيضاً على مسؤولية الشركة المصنعة.

"نحن بحاجة إلى تحسين قدرات التقييم الرقمي... كما يتحمل المطورون مسؤولية بناء هذه الأنظمة وتحسينها بحيث تفيد المستخدمين حقًا"، هذا ما قاله الطبيب.

عواقب امتلاك نسخة "أسوأ" من نفسك.

تؤكد الدراسة أن التملق الذي يقدمه الذكاء الاصطناعي يخلق "غرفة صدى معلوماتية" شخصية، مما يلغي الحاجة إلى التفكير النقدي الذي من شأنه أن يسمح للأفراد بالنضوج والاعتراف بأخطائهم.

"عند التحدث مع الذكاء الاصطناعي، لن تواجه أي تحدٍّ فكري. سيقول الذكاء الاصطناعي دائمًا إنك على صواب وأن الطرف الآخر هو المخطئ. وهذا يخلق شعورًا زائفًا بالثقة لدى المستخدمين، حتى عندما يتصرفون بسوء نية"، كما جاء في الدراسة.

تقضي هذه العملية تماماً على قدرة الإنسان على التفكير النقدي. فبدلاً من التأمل الذاتي، نستخدم الذكاء الاصطناعي كأداة للتحقق من صحة افتراضاتنا.

بمرور الوقت، ستتضاءل قدرة المجتمع على التفاهم والتوافق بشكل كبير. وسنجد صعوبة في تقبّل الآراء المختلفة عن المحيطين بنا. لأننا في عالم الذكاء الاصطناعي، نعتبر أنفسنا دائماً في المركز وعلى صواب.

ChatGPT anh 2

يلعب الذكاء الاصطناعي دور "المُتملق" غير المباشر، مُدمراً شخصية مستخدميه وأخلاقهم. الصورة: ShutterStock.

تحذر الأبحاث من حلقة مفرغة خطيرة تتشكل في الحياة. في البداية، تراود المستخدمين أفكار أو نوايا خاطئة لإيذاء الآخرين، فيلجؤون إلى الذكاء الاصطناعي طلباً للثقة أو النصيحة. عند هذه النقطة، يؤكد الذكاء الاصطناعي أن الفعل مبرر تماماً ويدعم المستخدم. يشعر المستخدم بثقة أكبر، فيُقدم على هذا السلوك في الواقع دون أي ندم.

ونتيجةً لذلك، لم يعد الناس يرغبون في إصلاح العلاقات أو تطوير أنفسهم. ونحن نثق بالذكاء الاصطناعي ثقةً مطلقةً لأنه يوفر لنا شعوراً بالراحة. هذا الاعتماد على "الشعور بالراحة" يبعدنا عن الواقع الموضوعي.

لم يعد الذكاء الاصطناعي مجرد أداة دعم ذكية، بل أصبح "مُتملقاً" بشكل غير مباشر يُدمر شخصية وأخلاق مستخدميه.

المصدر: https://znews.vn/dung-nghe-loi-chatgpt-post1634436.html


تعليق (0)

يرجى ترك تعليق لمشاركة مشاعرك!

نفس الفئة

نفس المؤلف

إرث

شكل

الشركات

الشؤون الجارية

النظام السياسي

محلي

منتج

Happy Vietnam
غروب

غروب

تجربة الثقافة الفيتنامية

تجربة الثقافة الفيتنامية

أمام تمثال الرئيس هو تشي منه – فخرٌ بثمانين عاماً

أمام تمثال الرئيس هو تشي منه – فخرٌ بثمانين عاماً