تظهر دراسة جديدة نشرت في المجلة العلمية Proceedings of the National Academy of Sciences (PNAS) أنه في حين أن الذكاء الاصطناعي التوليدي مثل ChatGPT يمكن أن يساعد العمال على إكمال المهام بشكل أسرع وأكثر كفاءة، إلا أن ذلك يأتي بتكلفة اجتماعية: فمن المرجح أن ينظر إليهم الآخرون على أنهم كسالى أو غير أكفاء أو غير أكفاء.

تستند الدراسة، التي أجراها فريق من علماء الاجتماع، إلى نظرية الإسناد - وهي فكرة مفادها أن الناس يميلون إلى تفسير تصرفات الآخرين بناءً على دوافعهم أو قدراتهم الذاتية بدلاً من الظروف. على سبيل المثال، يُنظر أحيانًا إلى طلب المساعدة على أنه علامة ضعف شخصي. وبالمثل، قد يُنظر إلى استخدام الذكاء الاصطناعي على أنه نقص في القدرة أو الجهد، وليس أداةً مشروعةً لزيادة الكفاءة.

chatgpt أدوبي ستوك
يُتهم مستخدمو ChatGPT في العمل بالكسل وعدم الكفاءة. الصورة: Adobe Stock

في أربع تجارب شملت أكثر من 4400 مشارك، توصل الفريق إلى نتائج مذهلة. في التجربة الأولى، تخيّل المشاركون إنجاز مهمة باستخدام الذكاء الاصطناعي أو الأدوات التقليدية، ثم توقعوا كيف سينظر إليهم زملاؤهم ومديروهم. أعرب من فعلوا ذلك عن قلقهم من أن يُنظر إليهم على أنهم كسالى، وقابلون للاستبدال، وأقل اجتهادًا. وقالوا إنهم لا يريدون الكشف عن استخدامهم للذكاء الاصطناعي.

أظهرت تجربة ثانية صحة هذا التحيز. طُلب من المشاركين تقييم موظف افتراضي: موظف يستخدم الذكاء الاصطناعي، وآخر يطلب المساعدة من زميل في العمل، وآخر يقوم بذلك بنفسه. اعتُبر مستخدمو الذكاء الاصطناعي أكثر كسلاً، وأقل كفاءة، وأقل اجتهاداً، وأقل استقلالية من المجموعتين الأخريين. ومن اللافت للنظر أن هذا التصور ظل ثابتاً بغض النظر عن جنس الموظف أو عمره أو مجال عمله.

اختبرت تجربة ثالثة مدى تأثير هذه التحيزات على القرارات الفعلية. قامت مجموعة من المشاركين بدور مسؤولي التوظيف، فاختاروا المرشحين بناءً على استخدامهم للذكاء الاصطناعي في وظائفهم. مال مسؤولو التوظيف غير الملمين بالذكاء الاصطناعي إلى اختيار مرشحين لا يستخدمونه. في المقابل، كان أولئك الذين يستخدمونه بكثرة أكثر ارتياحًا له، واختاروا مرشحين يستخدمونه. يشير هذا إلى أن الخبرة الشخصية مع التكنولوجيا لها تأثير كبير على مواقف مسؤولي التوظيف.

في تجربة أخيرة، بحث الفريق فيما إذا كانت ظروف العمل المحددة ستُغيّر هذا التحيز. عندما تقدّم المرشحون لمهام رقمية، مثل كتابة رسائل البريد الإلكتروني، لم يُنظر إلى مستخدمي الذكاء الاصطناعي على أنهم كسالى، بل حصلوا على تقييمات أعلى. ومع ذلك، عندما تقدّم المرشحون لمهام يدوية، مثل تدوين الملاحظات يدويًا، حصل مستخدمو الذكاء الاصطناعي على تقييمات أقل. أظهرت النتائج أن أقوى التحيز حدث عندما نفّذ مستخدمو الذكاء الاصطناعي مهامًا لا تتطلب الذكاء الاصطناعي.

من المثير للاهتمام أن المشاركين الذين أفادوا باستخدامهم للذكاء الاصطناعي بانتظام كانوا أقل عرضة للحكم السلبي على الآخرين الذين استخدموه، مما يشير إلى أن الألفة والخبرة العملية يمكن أن تقلل من وصمة العار. صرحت جيسيكا ريف، الباحثة الرئيسية، وهي طالبة دكتوراه في كلية فوكوا للأعمال بجامعة ديوك، بأنها بدأت المشروع بعد أن استمعت إلى موظفين أعربوا عن مخاوفهم من الحكم عليهم لاستخدامهم الذكاء الاصطناعي، على الرغم من أن أداءهم في العمل لم يتراجع.

تتميز هذه الدراسة بنقاط قوة منهجية، مثل حالات ضبط مصممة بعناية. ومع ذلك، يُقرّ المؤلفون أيضًا ببعض القيود، مثل أن الحالات كانت افتراضية وليست ملاحظات فعلية، وأن المُقيّمين لم يعرفوهم شخصيًا، وهو أمر قد يختلف في بيئات العمل الحقيقية.

تؤكد هذه النتائج أنه في حين يصبح الذكاء الاصطناعي أداةً فعّالة لزيادة الإنتاجية، فإن استخدامه يتطلب أيضًا مراعاة تأثيره على الصورة الشخصية والسمعة. تُذكّرنا نتائج البحث بأنه لكي يصبح الذكاء الاصطناعي مساعدًا فعالًا حقًا، يجب على بيئة العمل نفسها تغيير نظرتها، وتجنب التسرع في وصف مستخدمي الذكاء الاصطناعي بأنهم غير أكفاء أو كسالى. وينبغي على العاملين، بالإضافة إلى معرفة كيفية الاستفادة من التكنولوجيا، الحفاظ على الشفافية، مع تطوير مهاراتهم وبصماتهم الشخصية حتى لا "يذوبوا" في الصورة التي يخلقها الذكاء الاصطناعي.

(وفقا لـ PsyPost)

انخفضت حركة المرور على مواقع الويب بشكل كبير منذ ظهور ChatGPT والبحث بالذكاء الاصطناعي تتزايد حركة المرور من ChatGPT إلى مواقع الأخبار، ولكن ليس بدرجة كافية لتعويض انخفاض حركة المرور حيث يقرأ الأشخاص بشكل متزايد الأخبار مباشرة من روبوتات الدردشة بالذكاء الاصطناعي أو نتائج البحث المدعومة بالذكاء الاصطناعي.

المصدر: https://vietnamnet.vn/su-dung-chatgpt-trong-cong-viec-bi-danh-gia-luoi-bieng-kem-nang-luc-2422059.html