الرسم التوضيحي: aicompetence.org
نشر باحثون أستراليون طريقة لمساعدة أنظمة الذكاء الاصطناعي على إدراك المشاعر بشكل أفضل، مما يضع الأساس لتفاعلات أكثر فعالية وتعاطفًا بين الإنسان والآلة.
وفي بيان نُشر على موقع Science Media Exchange في 4 يونيو، قالت جامعة إديث كوان (ECU) في غرب أستراليا إنه على الرغم من أنه لم يتم تطبيقه بعد على الروبوتات المادية، فإن هذا البحث قد يؤثر قريبًا على أنظمة الذكاء العاطفي في مجالات دعم الصحة العقلية وخدمة العملاء والتعليم في جميع أنحاء العالم.
لم يستخدم باحثو جامعة إيست كوانتم التقنية المعتادة لتحليل صور الوجوه الفردية، بل درّبوا الذكاء الاصطناعي بعرض مجموعات من تعابير الوجه المترابطة، مما سمح للآلة بتفسير المشاعر في سياق أغنى وأكثر إنسانية.
قال شارجيل طاهر، طالب الدكتوراه في جامعة إديث كوان، والمؤلف الرئيسي للدراسة: "كما أننا لا نحكم على مشاعر الشخص من نظرة واحدة فقط، فإن طريقتنا تستخدم تعبيرات متعددة للتوصل إلى تنبؤات أكثر استنارة".
وتزيد هذه الطريقة من موثوقية الصورة، حتى عندما تظهر الوجوه من زوايا مختلفة أو تحت إضاءة مختلفة، بحسب طاهر.
وقال الدكتور نيما ميرناتيغي من جامعة إيست كوانتم، والمشارك في تأليف الدراسة، إن تعريض الذكاء الاصطناعي لإشارات بصرية متنوعة لا يزيد الدقة فحسب، بل يحافظ أيضًا على فعالية التكنولوجيا.
يركز الفريق حاليًا على تطوير التعاطف الاصطناعي، مما يسمح لوكلاء الذكاء الاصطناعي بالاستجابة بشكل مناسب للمشاعر البشرية وجعل عملية اتخاذ القرار بواسطة الذكاء الاصطناعي أكثر شفافية وقابلية للفهم.
وقال قائد فريق البحث والمحاضر الكبير في جامعة إيست كوانتم وخبير الذكاء الاصطناعي سيد آفاق شاه إن هذا العمل يضع الأساس للآلات التي يمكنها فهم المشاعر الإنسانية والاستجابة لها حقًا.
المصدر: https://tuoitre.vn/uc-phat-trien-ai-co-the-hieu-cam-cuc-con-nguoi-20250606084619139.htm
تعليق (0)