يعمل الذكاء الاصطناعي بشكل أفضل عند التعامل مع مشاكل ذات عمليات واضحة وصيغ ثابتة. ولكن عند التعامل مع مواقف تتطلب حكمًا ذاتيًا أو تنطوي على تفضيلات شخصية، قد يرتكب الذكاء الاصطناعي أخطاءً بشرية. - صورة: الذكاء الاصطناعي
قام علماء من خمس جامعات في كندا وأستراليا بتقييم سلوك ChatGPT (على وجه التحديد نموذجي OpenAI GPT-3.5 و GPT-4) على 18 تحيزًا معرفيًا بارزًا شائعًا في علم النفس البشري مثل: التحيز التأكيدي، وتأثير الهبة، ومغالطة التكلفة الغارقة، وعلم نفس اليقين...
وأظهرت النتائج أنه في ما يقرب من نصف المواقف التي تم اختبارها، تصرف ChatGPT تمامًا مثل الإنسان عندما واجه خيارات غير عقلانية أو عاطفية، على الرغم من سمعة النظام في التفكير المنطقي المتسق.
هل الذكاء الاصطناعي "محايد" حقًا كما هو متوقع؟
علق الدكتور يانغ تشن، الأستاذ المشارك في إدارة العمليات بكلية آيفي للأعمال (كندا) والمؤلف الرئيسي للدراسة، قائلاً: "يعمل الذكاء الاصطناعي على أفضل وجه عند تكليفه بحل المشكلات ذات العمليات الواضحة والصيغ الثابتة. ولكن عند التعامل مع مواقف تتطلب حكمًا ذاتيًا أو تنطوي على تفضيلات شخصية، يمكن للذكاء الاصطناعي أن يرتكب أخطاءً مثل البشر".
قام فريق البحث بدمج المواقف الافتراضية المألوفة في علم النفس في ChatGPT، وإضافة سياقات عملية مثل إدارة المخزون أو التفاوض مع الموردين.
ومن الجدير بالذكر أن نماذج الذكاء الاصطناعي لا تزال تظهر تحيزًا معرفيًا حتى عندما يتم تحويل سياق السؤال من الواقع المجرد إلى واقع العمل.
GPT-4 أذكى، لكنه ليس مثاليًا
GPT-4، النسخة المُحسّنة من GPT-3.5، يتفوق في حل مسائل المنطق والاحتمالات. مع ذلك، في عمليات المحاكاة الذاتية، مثل اختيار خيار محفوف بالمخاطر لزيادة الأرباح، يُظهر GPT-4 ميلًا للتصرف بانفعالية أكبر من البشر.
وعلى وجه الخصوص، لاحظت الدراسة أن GPT-4 أعطى باستمرار استجابات متحيزة في مواقف اختبار التحيز التأكيدي، وكان أكثر عرضة لـ "مغالطة اليد الساخنة" - الميل إلى الاعتقاد بأن الأحداث العشوائية سوف تتكرر في سلسلة - من GPT-3.5.
في المقابل، تتمكن الذكاء الاصطناعي من تجنب بعض التحيزات التي يرتكبها البشر في كثير من الأحيان، مثل إهمال المعدل الأساسي أو مغالطة التكلفة الغارقة.
السبب وراء إظهار ChatGPT تحيزًا يشبه الإنسان يأتي من بيانات التدريب نفسها، والتي مليئة بسلوكياتنا وأفكارنا المتحيزة - الصورة: AI
أصل تحيز الذكاء الاصطناعي: من البيانات البشرية
وفقًا للفريق، فإن سبب إظهار ChatGPT لتحيزات شبيهة بالتحيزات البشرية يعود إلى بيانات التدريب نفسها، المليئة بسلوكياتنا وتفكيرنا المتحيز. ويعزز ضبط الذكاء الاصطناعي بناءً على ردود الفعل البشرية هذا التحيز، حيث يُكافأ النموذج على ردود تبدو معقولة، بدلًا من أن تكون دقيقة تمامًا.
إذا كنت ترغب في نتائج دقيقة وغير متحيزة، فاستخدم الذكاء الاصطناعي للمهام التي تثق بقدرة الحاسوب على إنجازها بكفاءة، كما يوصي الدكتور تشين. "ولكن إذا كنت تتعامل مع قضايا استراتيجية أو عاطفية، فلا يزال البشر بحاجة إلى المراقبة والتدخل، حتى لو كان ذلك بإعادة صياغة السؤال فقط."
يجب التعامل مع الذكاء الاصطناعي كموظف يتمتع بسلطة اتخاذ قرارات مهمة، مما يعني ضرورة مراقبته والالتزام به أخلاقيًا. وإلا، فإننا نُؤتمت، عن غير قصد، التفكير الخاطئ بدلًا من تحسينه، كما قالت مينا أنديابان، المؤلفة المشاركة، والأستاذة المساعدة في الموارد البشرية والإدارة بجامعة ماكماستر (كندا).
المصدر: https://tuoitre.vn/ai-cung-mac-sai-lam-phi-ly-va-thien-vi-nhu-con-nguoi-20250505103652783.htm
تعليق (0)