
នៅក្នុងវិស័យ AI "sycophancy" សំដៅទៅលើទំនោរនៃ chatbots ក្នុងការយល់ព្រម ឬសរសើរអ្នកប្រើប្រាស់ហួសហេតុ - រូបថត៖ REUTERS
យោងតាម SCMP ម៉ូដែលបញ្ញាសិប្បនិមិត្ត (AI) ឈានមុខគេពីប្រទេសចិន និងសហរដ្ឋអាមេរិក ដូចជា DeepSeek, Alibaba និងឈ្មោះធំៗជាច្រើនផ្សេងទៀត គឺមានទំនោរទៅជា "sycophantic" ពេក ដែលជាអាកប្បកិរិយាដែលអាចជះឥទ្ធិពលអវិជ្ជមានដល់ទំនាក់ទំនងសង្គម និងសុខភាពផ្លូវចិត្តរបស់អ្នកប្រើប្រាស់។
ជាពិសេស ការសិក្សាថ្មីមួយរបស់ អ្នកវិទ្យាសាស្ត្រ មកពីសាកលវិទ្យាល័យ Stanford និងសាកលវិទ្យាល័យ Carnegie Mellon (សហរដ្ឋអាមេរិក) ដែលបានចេញផ្សាយនៅដើមខែតុលា បានវាយតម្លៃគំរូភាសាធំចំនួន 11 (LLMs) អំពីរបៀបដែលពួកគេឆ្លើយតបនៅពេលដែលអ្នកប្រើប្រាស់ស្វែងរកដំបូន្មានក្នុងស្ថានភាពផ្ទាល់ខ្លួន ជាពិសេសអ្នកដែលមានការបោកប្រាស់ ឬឧបាយកល។
ដើម្បីផ្តល់នូវស្តង់ដារសម្រាប់ការប្រៀបធៀបមនុស្ស ក្រុមការងារបានប្រើការបង្ហោះពីសហគមន៍ "Am I The Ahole" នៅលើ Reddit ដែលអ្នកប្រើប្រាស់ចែករំលែកស្ថានភាពជម្លោះផ្ទាល់ខ្លួន និងសុំឱ្យសហគមន៍វិនិច្ឆ័យថាអ្នកណាខុស។
គំរូ AI ត្រូវបានសាកល្បងជាមួយនឹងសេណារីយ៉ូទាំងនេះ ដើម្បីមើលថាតើពួកគេយល់ព្រមជាមួយការវាយតម្លៃសហគមន៍ដែរឬទេ។
លទ្ធផលបានបង្ហាញថាគំរូ Qwen2.5-7B-Instruct របស់ Alibaba Cloud គឺជាគំរូ "ស៊ីកូហ្វានទិក" បំផុត ដែលពេញចិត្តអ្នកបង្ហោះ 79% នៃពេលវេលា បើទោះបីជាសហគមន៍បានវិនិច្ឆ័យមនុស្សនោះខុសក៏ដោយ។ DeepSeek-V3 បានជាប់ចំណាត់ថ្នាក់ទីពីរជាមួយនឹងអត្រា 76% ។
ទន្ទឹមនឹងនេះដែរ Gemini-1.5 របស់ Google DeepMind បានបង្ហាញពីកម្រិតទាបបំផុតនៃការនិយាយស្តីដោយមានត្រឹមតែ 18% នៃករណីដែលផ្ទុយនឹងការវាយតម្លៃរបស់សហគមន៍។
អ្នកស្រាវជ្រាវបានព្រមានថាទំនោររបស់ AI ក្នុងការ "លើកសរសើរ" អ្នកប្រើប្រាស់អាចធ្វើឱ្យពួកគេមិនសូវមានឆន្ទៈក្នុងការផ្សះផ្សា ឬទទួលស្គាល់កំហុសក្នុងទំនាក់ទំនង។
ជាការពិត អ្នកប្រើប្រាស់ច្រើនតែពេញចិត្ត និងជឿជាក់លើមតិកែលម្អ ដែលធ្វើឲ្យម៉ូដែលទាំងនេះកាន់តែពេញនិយម និងប្រើប្រាស់យ៉ាងទូលំទូលាយ។
ក្រុមនេះបាននិយាយថា "ចំណូលចិត្តទាំងនេះបង្កើតការលើកទឹកចិត្តដ៏ច្របូកច្របល់ អ្នកប្រើប្រាស់ កាន់តែពឹងផ្អែកលើ AI ដ៏គួរឱ្យទាក់ទាញ ហើយអ្នកអភិវឌ្ឍន៍នឹងមានទំនោរក្នុងការបណ្តុះបណ្តាលគំរូក្នុងទិសដៅនោះ " ។
យោងតាមសាស្រ្តាចារ្យ Jack Jiang នាយកនៃ AI Evaluation Lab នៃសាកលវិទ្យាល័យ Hong Kong Business School បាតុភូតនេះក៏បង្កហានិភ័យដល់អាជីវកម្មផងដែរ៖ "ប្រសិនបើគំរូតែងតែយល់ស្របនឹងការសន្និដ្ឋានរបស់អ្នកវិភាគអាជីវកម្ម វាអាចនាំទៅរកការសម្រេចចិត្តខុស និងមិនមានសុវត្ថិភាព"។
បញ្ហានៃ AI "ការលើកសរសើរ" ត្រូវបានលើកឡើងនៅក្នុងខែមេសា ឆ្នាំ 2025 នៅពេលដែលការអាប់ដេត ChatGPT របស់ OpenAI ត្រូវបានគេនិយាយថាមានភាពគួរសម និងមានការអាណិតអាសូរដល់មតិអ្នកប្រើប្រាស់ទាំងអស់។
ក្រោយមក OpenAI បានទទួលស្គាល់ថា វាអាចប៉ះពាល់ដល់សុខភាពផ្លូវចិត្ត ហើយបានសន្យាថានឹងកែលម្អដំណើរការពិនិត្យរបស់វា មុនពេលចេញផ្សាយកំណែថ្មី។
ប្រភព៖ https://tuoitre.vn/nhieu-chatbot-ai-ninh-hot-qua-da-lam-lech-lac-hanh-vi-nguoi-dung-20251031124343709.htm






Kommentar (0)