ការស្រាវជ្រាវថ្មីរបស់ក្រុមហ៊ុន Apple លើគំរូការសន្និដ្ឋានធំកំពុងទាក់ទាញការចាប់អារម្មណ៍។ រូបថត៖ Macrumors ។ |
ត្រឹមតែបីឆ្នាំបន្ទាប់ពីការចាប់ផ្តើមរបស់វា បញ្ញាសិប្បនិមិត្តបានចាប់ផ្តើមលេចឡើងក្នុងសកម្មភាពប្រចាំថ្ងៃជាច្រើនដូចជាការសិក្សា និងការងារជាដើម។ មនុស្សជាច្រើនបារម្ភថាមិនយូរប៉ុន្មានវាអាចជំនួសមនុស្សបាន។
ប៉ុន្តែម៉ូដែល AI ថ្មីមិនឆ្លាតដូចយើងគិតនោះទេ។ ការរកឃើញពីក្រុមហ៊ុនបច្ចេកវិទ្យាធំមួយបានជួយពង្រឹងជំនឿនោះ។
មនុស្សគ្រប់គ្នាដឹងថា "ពិបាកមិនអើពើ"
នៅក្នុងការសិក្សាដែលបានចេញផ្សាយថ្មីមួយហៅថា "ការគិតបំភាន់" ក្រុមស្រាវជ្រាវរបស់ក្រុមហ៊ុន Apple អះអាងថា គំរូការសន្និដ្ឋានដូចជា Claude, DeepSeek-R1, និង o3-mini ពិតជាមិនមែនជា "ខួរក្បាលដែលជំរុញដោយខួរក្បាល" ដូចដែលឈ្មោះរបស់ពួកគេបានបង្ហាញនោះទេ។
ពាក្យសន្និដ្ឋានគួរត្រូវបានជំនួសដោយ "ការក្លែងធ្វើ"។ ក្រុមនេះអះអាងថា គំរូទាំងនេះមានប្រសិទ្ធភាពក្នុងការទន្ទេញ និងធ្វើលំនាំដដែលៗ។ ប៉ុន្តែនៅពេលដែលសំណួរត្រូវបានផ្លាស់ប្តូរឬភាពស្មុគស្មាញកើនឡើងពួកគេស្ទើរតែដួលរលំ។
សាមញ្ញជាងនេះទៅទៀត chatbots ដំណើរការបានល្អនៅពេលដែលពួកគេអាចស្គាល់ និងផ្គូផ្គងគំរូ ប៉ុន្តែនៅពេលដែលបញ្ហាកាន់តែស្មុគស្មាញ ពួកគេមិនអាចដោះស្រាយវាបានទេ។ ការសិក្សាបានកត់សម្គាល់ថា "គំរូហេតុផលដ៏ធំដែលទំនើបបំផុត (LRMs) ទទួលរងនូវការដួលរលំពេញលេញនៃភាពត្រឹមត្រូវនៅពេលដែលភាពស្មុគស្មាញលើសពីកម្រិតជាក់លាក់មួយ" ។
នេះផ្ទុយពីការរំពឹងទុករបស់អ្នកអភិវឌ្ឍន៍ដែលថាភាពស្មុគស្មាញនឹងប្រសើរឡើងជាមួយនឹងធនធានកាន់តែច្រើន។ ការសិក្សាបានបន្ថែមថា "កិច្ចខិតខំប្រឹងប្រែងការសន្និដ្ឋានរបស់ AI កើនឡើងជាមួយនឹងភាពស្មុគស្មាញ ប៉ុន្តែមានតែរហូតដល់ចំណុចមួយ ហើយបន្ទាប់មកមានការថយចុះ បើទោះបីជានៅតែមានថវិកានិមិត្តសញ្ញាគ្រប់គ្រាន់ (ថាមពលគណនា) ដើម្បីដោះស្រាយវាក៏ដោយ" ។
នៅក្នុងការសិក្សានេះ អ្នកស្រាវជ្រាវ បានបង្វែរគំរូសំណួរដែលជាធម្មតាត្រូវបានប្រើដើម្បីឆ្លើយសំណួរនៅលើក្បាលរបស់វា។ ជំនួសឱ្យការធ្វើតេស្តគណិតវិទ្យាធម្មតា ពួកគេបានណែនាំល្បែងផ្គុំរូបដែលបានរចនាយ៉ាងឆ្លាតវៃដូចជា Tower of Hanoi, Checker Jumping, River Crossing និង Blocks World។
ល្បែងផ្គុំរូបនីមួយៗមានច្បាប់សាមញ្ញ និងច្បាស់លាស់ ជាមួយនឹងកម្រិតនៃភាពស្មុគស្មាញផ្សេងៗគ្នា ដូចជាការបន្ថែមថាស ប្លុក និងភ្នាក់ងារបន្ថែម។ គំរូការសន្និដ្ឋានដំណើរការបានល្អជាងលើកម្រិតពិបាកមធ្យម ប៉ុន្តែចាញ់កំណែធម្មតាដោយងាយ។ គួរកត់សំគាល់ថា អ្វីៗទាំងអស់ធ្លាក់ដាច់ពីគ្នាទាំងស្រុងលើការលំបាកដ៏លំបាក ដូចជាប្រសិនបើ AI បានបោះបង់ចោល។
នៅក្នុងបញ្ហាប៉មនៃ ទីក្រុងហាណូយ ក្រុមការងារមិនបានកែលម្អការអនុវត្តគំរូនៃការសន្និដ្ឋានច្រើនទេ បើទោះបីជា "ផ្តល់អាហារ" ដល់ក្បួនដោះស្រាយដោះស្រាយបញ្ហាក៏ដោយ។ ម៉ូដែលខ្លះអាចធ្វើបានល្អនៅលើហ្គេមរហូតដល់ 100 កម្រិត ប៉ុន្តែអាចឆ្លងកាត់បានត្រឹមតែ 5 ជំហានប៉ុណ្ណោះក្នុងបញ្ហាឆ្លងទន្លេ។
![]() |
ជាមួយនឹងអគារហាណូយ អ្នកលេងត្រូវផ្លាស់ទី និងដាក់រង្វង់ឡើងវិញតាមលំដាប់លំដោយ។ រូបថត៖ វិគីភីឌា។ |
នេះចង្អុលទៅការអនុវត្តការសន្និដ្ឋានមិនល្អ និងស្ថេរភាពខ្សោយនៃគំរូ LRM ។ ចំពេលមានការជជែកវែកញែកជាច្រើនអំពីសមត្ថភាពរបស់ AI ក្នុងការផ្គូផ្គងមនុស្ស ការសិក្សារបស់ Apple ថ្មីនេះបង្ហាញឱ្យឃើញផ្ទុយពីនេះ។
របកគំហើញរបស់ Apple មិនមែនជារឿងថ្មីទេ។
លោក Gary Marcus អ្នកចិត្តសាស្រ្ត និងជាអ្នកនិពន្ធជនជាតិអាមេរិក បាននិយាយថា ការរកឃើញរបស់ក្រុមហ៊ុន Apple គឺគួរអោយចាប់អារម្មណ៍ ប៉ុន្តែមិនមែនជាអ្វីដែលថ្មីនោះទេ ហើយគ្រាន់តែពង្រឹងការស្រាវជ្រាវពីមុនៗប៉ុណ្ណោះ។ សាស្ត្រាចារ្យផ្នែកចិត្តវិទ្យា និងសរសៃប្រសាទនៅសាកលវិទ្យាល័យញូវយ៉កបានលើកយកការសិក្សាឆ្នាំ 1998 របស់គាត់ជាឧទាហរណ៍មួយ។
នៅក្នុងនោះ គាត់ប្រកែកថា បណ្តាញសរសៃប្រសាទ ដែលជាបុព្វហេតុនៃគំរូភាសាធំៗ អាចដំណើរការជាទូទៅបានយ៉ាងល្អនៅក្នុងការចែកចាយទិន្នន័យដែលពួកគេត្រូវបានបណ្តុះបណ្តាល ប៉ុន្តែជារឿយៗដួលរលំនៅពេលដែលប្រឈមមុខនឹងទិន្នន័យនៅខាងក្រៅការចែកចាយ។
គាត់ក៏បានដកស្រង់អំណះអំណាងដែលធ្វើឡើងដោយអ្នកវិទ្យាសាស្ត្រកុំព្យូទ័ររបស់សាកលវិទ្យាល័យ Arizona State Subbarao Kambhampati ក្នុងប៉ុន្មានឆ្នាំថ្មីៗនេះ។ សាស្ត្រាចារ្យ Rao ជឿជាក់ថា "ខ្សែសង្វាក់នៃការគិត" និង "គំរូការសន្និដ្ឋាន" មានភាពជឿជាក់តិចជាងមនុស្សជាច្រើនគិត។
សាស្ត្រាចារ្យដែលបានសរសេរឯកសារជាបន្តបន្ទាប់អំពីរបៀបដែលបណ្តុំនៃគំនិតដែលបង្កើតឡើងដោយ LLMs មិនតែងតែឆ្លុះបញ្ចាំងយ៉ាងត្រឹមត្រូវនូវអ្វីដែលពួកគេធ្វើនោះទេ។
ការស្រាវជ្រាវថ្មីពីក្រុមហ៊ុន Apple បង្ហាញថា សូម្បីតែជំនាន់ចុងក្រោយនៃគំរូការសន្និដ្ឋានក៏មិនអាចទុកចិត្តបានក្រៅពីទិន្នន័យបណ្តុះបណ្តាលរបស់ពួកគេដែរ។ លោក Marcus និយាយថា ម៉ូដែល LLM និង LRM ទាំងពីរមានការប្រើប្រាស់របស់ពួកគេ ហើយមានប្រយោជន៍ក្នុងករណីខ្លះ។ ទោះជាយ៉ាងណាក៏ដោយ អ្នកប្រើប្រាស់មិនគួរជឿជាក់លើលទ្ធផលណាមួយរបស់ពួកគេឡើយ។
ប្រភព៖ https://znews.vn/apple-doi-gao-nuoc-lanh-vao-ai-suy-luan-post1559526.html
Kommentar (0)