កម្មវិធីបញ្ញាសិប្បនិមិត្តទទួលបានភាពជោគជ័យជាច្រើនក្នុងប៉ុន្មានឆ្នាំថ្មីៗនេះ - រូបថត៖ REUTERS
យើងមិនអាចសង្កេតមើលដំណើរការទាំងមូលពីទិន្នន័យបញ្ចូលរហូតដល់លទ្ធផលលទ្ធផលនៃគំរូភាសាធំ (LLMs) បានទេ។
ដើម្បីធ្វើឱ្យវាកាន់តែងាយស្រួលយល់ អ្នកវិទ្យាសាស្ត្រ បានប្រើពាក្យសាមញ្ញដូចជា "ហេតុផល" ដើម្បីពិពណ៌នាអំពីរបៀបដែលកម្មវិធីទាំងនេះដំណើរការ។ ពួកគេក៏និយាយផងដែរថាកម្មវិធីអាច "គិត" "ហេតុផល" និង "យល់" ពីរបៀបដែលមនុស្សធ្វើ។
ការបំផ្លើសសមត្ថភាពរបស់ AI
ក្នុងរយៈពេល 2 ឆ្នាំកន្លងមកនេះ នាយកប្រតិបត្តិ AI ជាច្រើនបានប្រើ hyperbole ដើម្បីបំផ្លើសសមិទ្ធិផលបច្ចេកទេសសាមញ្ញ នេះបើយោងតាម ZDNET នៅថ្ងៃទី 6 ខែកញ្ញា។
នៅក្នុងខែកញ្ញា ឆ្នាំ 2024 OpenAI បានប្រកាសថា គំរូហេតុផល o1 "ប្រើខ្សែសង្វាក់នៃការសន្និដ្ឋាននៅពេលដោះស្រាយបញ្ហា ស្រដៀងនឹងវិធីដែលមនុស្សគិតក្នុងរយៈពេលយូរនៅពេលប្រឈមមុខនឹងសំណួរពិបាកៗ"។
ទោះយ៉ាងណាក៏ដោយ អ្នកវិទ្យាសាស្ត្រ AI ជំទាស់។ ពួកគេជឿថា AI មិនមានបញ្ញារបស់មនុស្សទេ។
ការសិក្សាលើមូលដ្ឋានទិន្នន័យ arXiv ដោយក្រុមអ្នកនិពន្ធនៅសាកលវិទ្យាល័យ Arizona State (សហរដ្ឋអាមេរិក) បានផ្ទៀងផ្ទាត់សមត្ថភាពហេតុផលរបស់ AI ជាមួយនឹងការពិសោធន៍សាមញ្ញមួយ។
លទ្ធផលបានបង្ហាញថា "ការសន្និដ្ឋានតាមខ្សែសង្វាក់នៃការគិតគឺជាការបំភាន់ដ៏ផុយស្រួយ" មិនមែនជាយន្តការឡូជីខលពិតប្រាកដនោះទេ ប៉ុន្តែគ្រាន់តែជាទម្រង់ដ៏ស្មុគ្រស្មាញនៃការផ្គូផ្គងគំរូប៉ុណ្ណោះ។
ពាក្យ "ខ្សែសង្វាក់នៃការគិត" (CoT) អនុញ្ញាតឱ្យ AI មិនត្រឹមតែទទួលបានចម្លើយចុងក្រោយប៉ុណ្ណោះទេ ប៉ុន្តែថែមទាំងបង្ហាញនូវជំហាននីមួយៗនៃហេតុផលឡូជីខល ដូចជានៅក្នុងគំរូ GPT-o1 ឬ DeepSeek V1 ផងដែរ។
រូបភាពនៃគំរូភាសា GPT-2 របស់ OpenAI - រូបថត៖ ECHOCRAFTAI
ពិនិត្យមើលអ្វីដែល AI ពិតជាធ្វើ
អ្នកស្រាវជ្រាវបាននិយាយថា ការវិភាគខ្នាតធំបង្ហាញថា LLM មានទំនោរពឹងផ្អែកលើអត្ថន័យ និងតម្រុយលើផ្ទៃជាជាងដំណើរការហេតុផលឡូជីខល។
ក្រុមនេះពន្យល់ថា "LLM បង្កើតខ្សែសង្វាក់តក្កវិជ្ជាដ៏វិសេសវិសាល ដោយផ្អែកលើការផ្សារភ្ជាប់ការបញ្ចូលដែលបានសិក្សា ជារឿយៗបរាជ័យលើកិច្ចការដែលខុសពីវិធីសាស្ត្រហេតុផលធម្មតា ឬលំនាំដែលធ្លាប់ស្គាល់"។
ដើម្បីសាកល្បងសម្មតិកម្មដែលថា LLM គ្រាន់តែជាការផ្គូផ្គងលំនាំប៉ុណ្ណោះ ហើយមិនមានការសន្និដ្ឋានពិតប្រាកដទេ ក្រុមការងារបានបណ្តុះបណ្តាល GPT-2 ដែលជាគំរូប្រភពបើកចំហដែលចេញផ្សាយដោយ OpenAI ក្នុងឆ្នាំ 2019 ។
គំរូនេះត្រូវបានបណ្តុះបណ្តាលដំបូងលើការងារសាមញ្ញបំផុតនៅលើអក្សរអង់គ្លេសចំនួន 26 ដូចជាការបញ្ច្រាសអក្សរមួយចំនួន ឧទាហរណ៍ការប្រែ "APPLE" ទៅជា "EAPPL" ។ បន្ទាប់មកក្រុមបានផ្លាស់ប្តូរភារកិច្ចហើយបានស្នើសុំឱ្យ GPT-2 ដោះស្រាយវា។
លទ្ធផលបង្ហាញថា សម្រាប់កិច្ចការដែលមិនត្រូវបានរាប់បញ្ចូលក្នុងទិន្នន័យបណ្តុះបណ្តាល GPT-2 មិនអាចដោះស្រាយបានត្រឹមត្រូវដោយប្រើ CoT ទេ។
ផ្ទុយទៅវិញ គំរូព្យាយាមអនុវត្តកិច្ចការដែលបានរៀនស្រដៀងគ្នាច្រើនបំផុត។ ដូច្នេះ "ការសន្និដ្ឋាន" របស់វាសមហេតុផល ប៉ុន្តែលទ្ធផលច្រើនតែខុស។
ក្រុមនេះបានសន្និដ្ឋានថា មនុស្សម្នាក់មិនគួរពឹងផ្អែកខ្លាំងពេក ឬជឿជាក់លើចម្លើយរបស់ LLM ដោយងងឹតងងុលនោះទេ ព្រោះពួកគេអាចបង្កើត "ការសមហេតុសមផលដែលស្តាប់ទៅគួរឱ្យជឿជាក់" ។
ពួកគេក៏បានសង្កត់ធ្ងន់ផងដែរអំពីតម្រូវការក្នុងការស្វែងយល់ពីធម្មជាតិពិតនៃ AI ជៀសវាងការឃោសនាបំផ្លើស និងបញ្ឈប់ការផ្សព្វផ្សាយថា AI មានសមត្ថភាពវែកញែកដូចមនុស្ស។
ប្រភព៖ https://tuoitre.vn/nghien-cuu-moi-ai-khong-suy-luan-nhu-con-nguoi-20250907152120294.htm
Kommentar (0)