
កម្មវិធីបញ្ញាសិប្បនិម្មិតសម្រេចបាននូវរបកគំហើញជាច្រើនក្នុងប៉ុន្មានឆ្នាំថ្មីៗនេះ - រូបថត៖ REUTERS
យើងមិនអាចសង្កេតមើលដំណើរការទាំងមូលចាប់ពីទិន្នន័យបញ្ចូលរហូតដល់លទ្ធផលទិន្នផលនៃគំរូភាសាធំៗ (LLMs) បានទេ។
ដើម្បីធ្វើឲ្យងាយយល់ អ្នកវិទ្យាសាស្ត្រ បានប្រើពាក្យទូទៅដូចជា «ហេតុផល» ដើម្បីពិពណ៌នាអំពីរបៀបដែលកម្មវិធីទាំងនេះដំណើរការ។ ពួកគេក៏និយាយដែរថា កម្មវិធីទាំងនេះអាច «គិត» «វែកញែក» និង «យល់» ដូចដែលមនុស្សធ្វើ។
ការបំផ្លើសសមត្ថភាពរបស់ AI។
យោងតាម ZDNET នៅថ្ងៃទី 6 ខែកញ្ញា ក្នុងរយៈពេលពីរឆ្នាំកន្លងមកនេះ នាយកប្រតិបត្តិ AI ជាច្រើនបានប្រើភាសាបំផ្លើសដើម្បីផ្សព្វផ្សាយសមិទ្ធផលបច្ចេកទេសសាមញ្ញៗ។
នៅក្នុងខែកញ្ញា ឆ្នាំ២០២៤ OpenAI បានប្រកាសថា គំរូហេតុផល o1 "ប្រើប្រាស់ខ្សែសង្វាក់នៃការសន្និដ្ឋាននៅពេលដោះស្រាយបញ្ហា ស្រដៀងគ្នាទៅនឹងរបៀបដែលមនុស្សគិតក្នុងរយៈពេលយូរនៅពេលប្រឈមមុខនឹងសំណួរពិបាកៗ"។
ទោះជាយ៉ាងណាក៏ដោយ អ្នកវិទ្យាសាស្ត្រ AI មិនយល់ស្របទេ។ ពួកគេអះអាងថា AI មិនមានបញ្ញាដូចមនុស្សទេ។
ការសិក្សាមួយលើមូលដ្ឋានទិន្នន័យ arXiv ដោយក្រុមអ្នកនិពន្ធនៅសាកលវិទ្យាល័យរដ្ឋ Arizona (សហរដ្ឋអាមេរិក) បានផ្ទៀងផ្ទាត់សមត្ថភាពវែកញែករបស់ AI ជាមួយនឹងការពិសោធន៍សាមញ្ញមួយ។
លទ្ធផលបានបង្ហាញថា "ការសន្និដ្ឋានដោយខ្សែសង្វាក់នៃការគិតគឺជាការបំភាន់ដ៏ផុយស្រួយ" មិនមែនជាយន្តការឡូជីខលពិតប្រាកដនោះទេ ប៉ុន្តែគ្រាន់តែជាទម្រង់ស្មុគស្មាញនៃការផ្គូផ្គងលំនាំ។
ពាក្យថា "ខ្សែសង្វាក់នៃការគិត" (CoT) អនុញ្ញាតឱ្យ AI មិនត្រឹមតែបង្កើតចម្លើយចុងក្រោយប៉ុណ្ណោះទេ ប៉ុន្តែថែមទាំងបង្ហាញជំហាននីមួយៗនៃហេតុផលឡូជីខលផងដែរ ដូចនៅក្នុងម៉ូដែល GPT-o1 ឬ DeepSeek V1។

រូបភាពនៃគំរូភាសា GPT-2 ដោយ OpenAI - រូបថត៖ ECHOCRAFTAI
សូមពិនិត្យមើលអ្វីដែល AI ពិតជាធ្វើ។
ក្រុមស្រាវជ្រាវបានបញ្ជាក់ថា ការវិភាគទ្រង់ទ្រាយធំបានបង្ហាញថា LLM មានទំនោរពឹងផ្អែកច្រើនលើអត្ថន័យ និងតម្រុយលើផ្ទៃជាជាងដំណើរការវែកញែកឡូជីខល។
ក្រុមនេះពន្យល់ថា "LLM បង្កើតខ្សែសង្វាក់តក្កវិជ្ជារាក់ៗដោយផ្អែកលើការផ្សារភ្ជាប់ទិន្នន័យដែលបានរៀន ដែលជារឿយៗបរាជ័យលើភារកិច្ចដែលងាកចេញពីវិធីសាស្ត្រវែកញែកធម្មតា ឬគំរូដែលធ្លាប់ស្គាល់"។
ដើម្បីសាកល្បងសម្មតិកម្មដែលថា LLM គ្រាន់តែផ្គូផ្គងលំនាំ ហើយមិនធ្វើការសន្និដ្ឋានពិតប្រាកដទេ ក្រុមនេះបានបណ្តុះបណ្តាល GPT-2 ដែលជាគំរូប្រភពបើកចំហដែលចេញផ្សាយដោយ OpenAI ក្នុងឆ្នាំ 2019។
ដំបូងឡើយ គំរូនេះត្រូវបានបណ្តុះបណ្តាលលើកិច្ចការសាមញ្ញៗលើអក្សរអង់គ្លេសចំនួន 26 ដូចជាការបញ្ច្រាសអក្សរមួយចំនួន ឧទាហរណ៍ ការប្រែក្លាយ "APPLE" ទៅជា "EAPPL"។ បន្ទាប់មកក្រុមបានផ្លាស់ប្តូរភារកិច្ច ហើយបានស្នើសុំឱ្យ GPT-2 ដោះស្រាយវា។
លទ្ធផលបានបង្ហាញថា សម្រាប់កិច្ចការដែលមិនត្រូវបានរួមបញ្ចូលនៅក្នុងទិន្នន័យបណ្តុះបណ្តាល GPT-2 មិនអាចដោះស្រាយវាបានត្រឹមត្រូវដោយប្រើ CoT ទេ។
ផ្ទុយទៅវិញ គំរូនេះព្យាយាមអនុវត្តភារកិច្ចដែលបានរៀនឱ្យបានដិតដល់តាមដែលអាចធ្វើទៅបាន។ ដូច្នេះ "ហេតុផល" របស់វាអាចស្តាប់ទៅឡូជីខល ប៉ុន្តែលទ្ធផលច្រើនតែខុស។
ក្រុមនេះបានសន្និដ្ឋានថា មនុស្សម្នាក់មិនគួរពឹងផ្អែកខ្លាំងពេក ឬទុកចិត្តចម្លើយរបស់ LLM ដោយងងឹតងងល់នោះទេ ព្រោះវាអាចបង្កើត "ភាពមិនសមហេតុផលដែលស្តាប់ទៅគួរឱ្យជឿជាក់ខ្លាំង"។
ពួកគេក៏បានសង្កត់ធ្ងន់លើតម្រូវការក្នុងការយល់ដឹងពីធម្មជាតិពិតរបស់ AI ជៀសវាងការផ្សព្វផ្សាយបំផ្លើស និងឈប់ផ្សព្វផ្សាយថា AI មានសមត្ថភាពវែកញែកដូចមនុស្សដែរ។
ប្រភព៖ https://tuoitre.vn/nghien-cuu-moi-ai-khong-suy-luan-nhu-con-nguoi-20250907152120294.htm






Kommentar (0)