حذّرت مجموعة من الباحثين في ألمانيا مؤخرًا من خطر التحيز عند استخدام روبوتات الدردشة الذكية لاختصار محتوى الأبحاث. بعد تحليل 4900 ملخص علمي كتبه بشر، استخدم الفريق عدة نماذج ذكاء اصطناعي لمقارنة كيفية معالجة هذه الأنظمة للمعلومات. أظهرت النتائج أن معظم روبوتات الدردشة ترتكب خطأ التعميم المفرط، حتى عند مطالبتها بتلخيص دقيق.
الذكاء الاصطناعي عرضة للتحيز عند تلخيص الأبحاث العلمية.
في الاختبارات، ارتكبت نماذج الذكاء الاصطناعي أخطاءً تفوق أخطاء الخبراء البشريين بخمسة أضعاف عندما لم تُوجَّه. وحتى عند طلب الدقة صراحةً، كان معدل الخطأ ضعف معدل الخطأ في الملخص القياسي. قال أحد أعضاء الفريق: "قد تبدو التعميمات بريئةً أحيانًا، لكنها في الواقع تُغيِّر طبيعة البحث الأصلي. إنه تحيز منهجي".
من الجدير بالذكر أن الإصدارات الأحدث من روبوت المحادثة لم تفشل في حل المشكلة فحسب، بل فاقمت منها. فبفضل لغتها السلسة والجذابة، يمكن للملخصات المُولّدة بواسطة الذكاء الاصطناعي أن تبدو موثوقة بسهولة، بينما يكون محتواها الفعلي مُشوّهًا. في إحدى الحالات، غيّرت DeepSeek عبارة "آمن ويمكن إجراؤه بنجاح" إلى "علاج آمن وفعال" - وهو تفسير خاطئ لاستنتاجات الدراسة الأصلية.
في مثال آخر، أوصى نموذج اللاما بأدوية السكري للشباب دون تحديد الجرعة أو التكرار أو الآثار الجانبية. إذا كان القارئ طبيبًا أو أخصائي رعاية صحية لا يتحقق من صحة البحث الأصلي، فإن مثل هذه الملخصات قد تُشكل خطرًا مباشرًا على المرضى.
يقول الخبراء إن هذه الظاهرة متجذرة في طريقة تدريب نماذج الذكاء الاصطناعي. فالعديد من روبوتات الدردشة اليوم تُدرّب على بيانات ثانوية - مثل الأخبار العلمية الشائعة - مُبسّطة بالفعل. ومع استمرار الذكاء الاصطناعي في تلخيص المحتوى المُختصر، يزداد خطر التشويه.
ويقول خبراء الذكاء الاصطناعي في مجال الصحة العقلية إنه من الضروري بناء الحواجز التقنية في وقت مبكر من تطوير واستخدام الذكاء الاصطناعي.
يجب على المستخدمين أن يكونوا حذرين لأن برامج المحادثة الآلية يمكنها تشويه المحتوى بسهولة.
مع تزايد اعتماد المستخدمين على روبوتات الدردشة الذكية للتعرف على العلوم، يمكن للأخطاء التفسيرية البسيطة أن تتراكم وتنتشر بسرعة، مما يُسبب تصورات خاطئة واسعة النطاق. وفي وقت تتراجع فيه الثقة بالعلم، يُصبح هذا الخطر أكثر إثارة للقلق ويستحق الاهتمام الواجب.
يُعدّ دمج الذكاء الاصطناعي في البحث العلمي ونشر المعرفة توجهًا لا رجعة فيه. ومع ذلك، يؤكد الخبراء أن التكنولوجيا لا يمكن أن تحل محل دور الإنسان في فهم المحتوى العلمي والتحقق منه. عند استخدام روبوتات الدردشة في المجالات عالية الخطورة، مثل الطب، ينبغي إعطاء الأولوية القصوى للدقة، بدلًا من التركيز فقط على سلاسة اللغة أو سرعة الاستجابة.
المصدر: https://khoahocdoisong.vn/chatgpt-deepseek-bop-meo-du-lieu-khoa-hoc-post1552971.html










تعليق (0)