
នៅក្នុងវិស័យបញ្ញាសិប្បនិម្មិត (AI) ពាក្យ “sycophancy” សំដៅទៅលើទំនោររបស់ chatbots ក្នុងការយល់ស្រប ឬសរសើរអ្នកប្រើប្រាស់ហួសហេតុពេក - រូបថត៖ REUTERS
យោងតាម SCMP គំរូបញ្ញាសិប្បនិម្មិត (AI) ឈានមុខគេពីប្រទេសចិន និងសហរដ្ឋអាមេរិក ដូចជា DeepSeek, Alibaba និងឈ្មោះធំៗជាច្រើនទៀត កំពុងក្លាយជា "ការជាប់ជំពាក់" ខ្លាំងពេក ដែលជាអាកប្បកិរិយាដែលអាចប៉ះពាល់អវិជ្ជមានដល់ទំនាក់ទំនងសង្គម និងសុខភាពផ្លូវចិត្តរបស់អ្នកប្រើប្រាស់។
ជាពិសេស ការសិក្សាថ្មីមួយដោយ អ្នកវិទ្យាសាស្ត្រ មកពីសាកលវិទ្យាល័យស្ទែនហ្វដ និងសាកលវិទ្យាល័យ Carnegie Mellon (សហរដ្ឋអាមេរិក) ដែលបានបោះពុម្ពផ្សាយនៅដើមខែតុលា បានវាយតម្លៃគំរូភាសាធំៗចំនួន 11 (LLMs) អំពីរបៀបឆ្លើយតបនៅពេលដែលអ្នកប្រើប្រាស់ស្វែងរកដំបូន្មានក្នុងស្ថានភាពផ្ទាល់ខ្លួន ជាពិសេសស្ថានភាពដែលពាក់ព័ន្ធនឹងការបោកប្រាស់ ឬការរៀបចំ។
ដើម្បីផ្តល់នូវស្តង់ដាររបស់មនុស្សសម្រាប់ការប្រៀបធៀប ក្រុមស្រាវជ្រាវបានប្រើប្រាស់ការបង្ហោះពីសហគមន៍ "Am I The Ahole" នៅលើ Reddit ជាកន្លែងដែលអ្នកប្រើប្រាស់ចែករំលែកស្ថានភាពជម្លោះផ្ទាល់ខ្លួន និងសុំឱ្យសហគមន៍វាយតម្លៃថាអ្នកណាខុស។
គំរូ AI ត្រូវបានសាកល្បងជាមួយសេណារីយ៉ូទាំងនេះ ដើម្បីមើលថាតើពួកវានឹងយល់ស្របនឹងការវាយតម្លៃរបស់សហគមន៍ដែរឬទេ។
លទ្ធផលបង្ហាញថា គំរូ Qwen2.5-7B-Instruct របស់ Alibaba Cloud គឺជា "គំរូដ៏គួរឱ្យចាប់អារម្មណ៍បំផុត" ដែលពេញចិត្តអ្នកបង្ហោះក្នុង 79% នៃករណី សូម្បីតែពេលដែលសហគមន៍វិនិច្ឆ័យថាអ្នកបង្ហោះនោះខុសក៏ដោយ។ DeepSeek-V3 បានជាប់ចំណាត់ថ្នាក់លេខពីរជាមួយនឹងអត្រា 76%។
ទន្ទឹមនឹងនេះ Gemini-1.5 របស់ Google DeepMind បានបង្ហាញពីកម្រិតនៃភាពលំអៀងទាបបំផុត ដោយមានត្រឹមតែ 18% នៃករណីប៉ុណ្ណោះដែលផ្ទុយនឹងការពិនិត្យឡើងវិញរបស់សហគមន៍។
ក្រុមអ្នកស្រាវជ្រាវព្រមានថា ទំនោររបស់ AI ក្នុងការ «លើកសរសើរ» អ្នកប្រើប្រាស់អាចធ្វើឱ្យពួកគេមិនសូវមានឆន្ទៈក្នុងការផ្សះផ្សា ឬទទួលស្គាល់កំហុសក្នុងទំនាក់ទំនង។
អ្នកប្រើប្រាស់ច្រើនតែឱ្យតម្លៃ និងទុកចិត្តលើមតិកែលម្អកាន់តែច្រើន ដែលធ្វើឱ្យម៉ូដែលទាំងនេះកាន់តែមានប្រជាប្រិយភាព និងប្រើប្រាស់យ៉ាងទូលំទូលាយ។
ក្រុមស្រាវជ្រាវបានកត់សម្គាល់ថា "ចំណង់ចំណូលចិត្តទាំងនេះបង្កើតប្រព័ន្ធលើកទឹកចិត្តដែលលំអៀង - អ្នកប្រើប្រាស់កាន់តែពឹងផ្អែកទៅលើ AI ដែលគួរឱ្យសរសើរ ហើយអ្នកអភិវឌ្ឍន៍នឹងមានទំនោរបណ្តុះបណ្តាលគំរូក្នុងទិសដៅនោះ" ។
យោងតាមសាស្ត្រាចារ្យ Jack Jiang នាយកមន្ទីរពិសោធន៍វាយតម្លៃ AI នៅសាលាពាណិជ្ជកម្មសាកលវិទ្យាល័យហុងកុង បាតុភូតនេះក៏បង្កហានិភ័យដល់អាជីវកម្មផងដែរ៖ «ប្រសិនបើគំរូមួយយល់ស្របជាប់លាប់ជាមួយនឹងការសន្និដ្ឋានរបស់អ្នកវិភាគអាជីវកម្ម វាអាចនាំឱ្យមានការសម្រេចចិត្តខុសឆ្គង និងមិនមានសុវត្ថិភាព»។
បញ្ហានៃ "ការលើកសរសើរ" របស់ AI បានទទួលការចាប់អារម្មណ៍ជាលើកដំបូងនៅក្នុងខែមេសា ឆ្នាំ 2025 នៅពេលដែលការអាប់ដេត ChatGPT របស់ OpenAI ត្រូវបានចាត់ទុកថាគួរសមពេក និងពេញចិត្តខ្លាំងពេកចំពោះមតិរបស់អ្នកប្រើប្រាស់គ្រប់រូប។
ក្រោយមក OpenAI បានទទួលស្គាល់ថា រឿងនេះអាចប៉ះពាល់ដល់សុខភាពផ្លូវចិត្ត ហើយបានប្តេជ្ញាកែលម្អដំណើរការពិនិត្យរបស់ខ្លួន មុនពេលចេញផ្សាយកំណែថ្មីៗ។
ប្រភព៖ https://tuoitre.vn/nhieu-chatbot-ai-ninh-hot-qua-da-lam-lech-lac-hanh-vi-nguoi-dung-20251031124343709.htm






Kommentar (0)