
កាលពីខែមេសា បូតបញ្ញាសិប្បនិម្មិត (AI bot) ដែលគ្រប់គ្រងការគាំទ្របច្ចេកទេសសម្រាប់ Cursor ដែលជាឧបករណ៍ដែលកំពុងរីកចម្រើនសម្រាប់អ្នកសរសេរកម្មវិធី បានជូនដំណឹងដល់អតិថិជនមួយចំនួនអំពីការផ្លាស់ប្តូរគោលការណ៍របស់ក្រុមហ៊ុន។ ជាពិសេស ការជូនដំណឹងនេះបានបញ្ជាក់ថា ពួកគេលែងត្រូវបានអនុញ្ញាតឱ្យប្រើ Cursor នៅលើកុំព្យូទ័រច្រើនជាងមួយទៀតហើយ។
នៅលើវេទិកា និងប្រព័ន្ធផ្សព្វផ្សាយសង្គម អតិថិជនបានបង្ហោះដើម្បីបង្ហាញពីកំហឹងរបស់ពួកគេ។ អ្នកខ្លះថែមទាំងបានលុបចោលគណនី Cursor របស់ពួកគេទៀតផង។ ទោះជាយ៉ាងណាក៏ដោយ អ្នកខ្លះកាន់តែខឹងសម្បារថែមទៀត នៅពេលដែលពួកគេបានដឹងពីអ្វីដែលបានកើតឡើង៖ បូត AI បានប្រកាសពីការផ្លាស់ប្តូរគោលការណ៍ដែលមិនមាន។
លោក Michael Truell នាយកប្រតិបត្តិ និងជាសហស្ថាបនិកក្រុមហ៊ុន បានសរសេរនៅក្នុងសារ Reddit ថា "យើងមិនមានគោលការណ៍បែបនេះទេ។ ជាការពិតណាស់ អ្នកអាចប្រើ Cursor លើម៉ាស៊ីនច្រើន។ ជាអកុសល នេះគឺជាការឆ្លើយតបមិនត្រឹមត្រូវពី bot ដែលមានជំនួយពី AI"។
ការរីករាលដាលនៃព័ត៌មានក្លែងក្លាយគឺរីករាលដាល និងមិនអាចគ្រប់គ្រងបាន។
ជាងពីរឆ្នាំបន្ទាប់ពីការលេចចេញនូវ ChatGPT ក្រុមហ៊ុនបច្ចេកវិទ្យា បុគ្គលិកការិយាល័យ និងអ្នកប្រើប្រាស់ប្រចាំថ្ងៃទាំងអស់កំពុងប្រើប្រាស់បូត AI សម្រាប់កិច្ចការជាច្រើនដែលមានភាពញឹកញាប់កើនឡើង។
ទោះជាយ៉ាងណាក៏ដោយ នៅតែមិនមានវិធីណាមួយដើម្បីធានាថាប្រព័ន្ធទាំងនេះបង្កើតព័ត៌មានត្រឹមត្រូវនោះទេ។ ផ្ទុយទៅវិញ បច្ចេកវិទ្យាថ្មីបំផុត និងមានអានុភាពបំផុត ដែលត្រូវបានគេស្គាល់ផងដែរថាជាប្រព័ន្ធ "ការសន្និដ្ឋាន" ពីក្រុមហ៊ុនដូចជា OpenAI, Google និង DeepSeek ពិតជាកំពុងបង្កើតកំហុសកាន់តែច្រើន។
![]() |
ការសន្ទនាមិនសមហេតុផលមួយនៅលើ ChatGPT ដែលអ្នកប្រើប្រាស់សួរថាតើពួកគេគួរចិញ្ចឹមធញ្ញជាតិសម្រាប់ឆ្កែរបស់ពួកគេដែរឬទេ។ រូបថត៖ Reddit។ |
ផ្ទុយពីជំនាញគណិតវិទ្យាដែលមានភាពប្រសើរឡើងគួរឱ្យកត់សម្គាល់ សមត្ថភាពរបស់គំរូភាសាធំៗ (LLMs) ក្នុងការយល់ដឹងពីការពិតកាន់តែមានភាពរង្គោះរង្គើ។ គួរឱ្យកត់សម្គាល់ សូម្បីតែវិស្វករខ្លួនឯងក៏មានការងឿងឆ្ងល់ទាំងស្រុងអំពីមូលហេតុ។
យោងតាម កាសែត New York Times បានឱ្យដឹងថា chatbots បញ្ញាសិប្បនិម្មិត (AI) សព្វថ្ងៃនេះពឹងផ្អែកលើប្រព័ន្ធគណិតវិទ្យាស្មុគស្មាញដើម្បីរៀនជំនាញដោយវិភាគទិន្នន័យលេខយ៉ាងច្រើន។ ទោះជាយ៉ាងណាក៏ដោយ ពួកគេមិនអាចសម្រេចចិត្តថាអ្វីត្រឹមត្រូវ និងអ្វីខុសនោះទេ។
ពីទីនោះ បាតុភូតនៃ "ការយល់ច្រឡំ" ឬភាពច្នៃប្រឌិតដោយខ្លួនឯងបានលេចចេញមក។ តាមពិតទៅ យោងតាមការសិក្សា និស្សិត LLM ជំនាន់ថ្មីបំផុតជួបប្រទះ "ការយល់ច្រឡំ" ញឹកញាប់ជាងម៉ូដែលចាស់ៗមួយចំនួន។
ជាពិសេស នៅក្នុងរបាយការណ៍ចុងក្រោយរបស់ខ្លួន OpenAI បានរកឃើញថា គំរូ o3 គឺ "បំភាន់" នៅពេលឆ្លើយសំណួរចំនួន 33% លើ PersonQA ដែលជាស្តង់ដារផ្ទៃក្នុងរបស់ក្រុមហ៊ុនសម្រាប់វាស់ស្ទង់ភាពត្រឹមត្រូវនៃចំណេះដឹងរបស់គំរូអំពីមនុស្ស។
សម្រាប់ការប្រៀបធៀប តួលេខនេះគឺទ្វេដងនៃអត្រា "ការបំភាន់" នៃគំរូហេតុផលមុនៗរបស់ OpenAI គឺ o1 និង o3-mini ដែលមាន 16% និង 14.8% រៀងគ្នា។ ទន្ទឹមនឹងនេះ គំរូ o4-mini កាន់តែអាក្រក់ទៅៗលើ PersonQA ដោយជួបប្រទះ "ការបំភាន់" រយៈពេល 48% នៃរយៈពេលសាកល្បង។
អ្វីដែលគួរឲ្យព្រួយបារម្ភជាងនេះទៅទៀតនោះគឺ "បិតានៃ ChatGPT" ពិតជាមិនដឹងថាហេតុអ្វីបានជារឿងនេះកើតឡើងនោះទេ។ ជាពិសេស នៅក្នុងរបាយការណ៍បច្ចេកទេសរបស់ខ្លួនស្តីពី o3 និង o4-mini OpenAI បានបញ្ជាក់ថា "ការស្រាវជ្រាវបន្ថែមគឺត្រូវការជាចាំបាច់ដើម្បីយល់ពីមូលហេតុដែល 'ការយល់ច្រឡំ' កាន់តែអាក្រក់ទៅៗ" នៅពេលធ្វើមាត្រដ្ឋានគំរូវែកញែក។
o3 និង o4-mini ដំណើរការបានល្អជាងនៅក្នុងផ្នែកមួយចំនួន រួមទាំងកិច្ចការសរសេរកម្មវិធី និងគណិតវិទ្យា។ ទោះជាយ៉ាងណាក៏ដោយ ដោយសារតែពួកគេត្រូវការ "ធ្វើសេចក្តីថ្លែងការណ៍ច្រើនជាងសេចក្តីថ្លែងការណ៍ទូទៅ" ម៉ូដែលទាំងពីរបាននាំឱ្យមាន "សេចក្តីថ្លែងការណ៍ដែលត្រឹមត្រូវជាង ប៉ុន្តែក៏មានសេចក្តីថ្លែងការណ៍មិនត្រឹមត្រូវជាងផងដែរ"។
"នោះនឹងមិនដែលបាត់ឡើយ"។
ជំនួសឲ្យសំណុំច្បាប់តឹងរ៉ឹងដែលកំណត់ដោយវិស្វករមនុស្ស ប្រព័ន្ធ LLM ប្រើប្រាស់ប្រូបាប៊ីលីតេគណិតវិទ្យាដើម្បីទស្សន៍ទាយចម្លើយដ៏ល្អបំផុត។ ដូច្នេះ ពួកគេនឹងតែងតែធ្វើកំហុសមួយចំនួនជាក់លាក់។
«ទោះបីជាយើងខិតខំប្រឹងប្រែងអស់ពីសមត្ថភាពក៏ដោយ គំរូ AI នឹងតែងតែទទួលរងនូវការបំភាន់។ នោះនឹងមិនដែលបាត់ឡើយ» លោក Amr Awadallah អតីតនាយកប្រតិបត្តិក្រុមហ៊ុន Google បានមានប្រសាសន៍។
![]() |
យោងតាមក្រុមហ៊ុន IBM ការយល់ច្រឡំគឺជាបាតុភូតដែលគំរូភាសាធំៗ (LLMs) - ជាញឹកញាប់ជា chatbots ឬឧបករណ៍ចក្ខុវិស័យកុំព្យូទ័រ - ទទួលបានគំរូទិន្នន័យដែលមិនមាន ឬមិនអាចស្គាល់បានដោយមនុស្ស ដោយហេតុនេះបង្កើតលទ្ធផលគ្មានន័យ ឬមិនត្រឹមត្រូវ។ រូបភាព៖ iStock។ |
នៅក្នុងឯកសារលម្អិតអំពីការពិសោធន៍ OpenAI បានបញ្ជាក់ថា ខ្លួនត្រូវការការស្រាវជ្រាវបន្ថែមដើម្បីយល់ពីមូលហេតុនៃលទ្ធផលទាំងនេះ។
យោងតាមអ្នកជំនាញ ដោយសារតែប្រព័ន្ធ AI រៀនពីទិន្នន័យក្នុងបរិមាណច្រើនជាងមនុស្សអាចយល់បាន វាក្លាយជាការលំបាកខ្លាំងណាស់ក្នុងការកំណត់ថាហេតុអ្វីបានជាពួកវាមានឥរិយាបទតាមរបៀបដែលពួកវាធ្វើ។
លោកស្រី Gaby Raila អ្នកនាំពាក្យរបស់ OpenAI បានមានប្រសាសន៍ថា “ការបំភាន់នេះកើតមានជាទូទៅនៅក្នុងគំរូសន្និដ្ឋាន ទោះបីជាយើងកំពុងធ្វើការយ៉ាងសកម្មដើម្បីកាត់បន្ថយអត្រាដែលឃើញនៅក្នុង o3 និង o4-mini ក៏ដោយ។ យើងនឹងបន្តសិក្សាពីការបំភាន់នេះនៅទូទាំងគំរូទាំងអស់ដើម្បីបង្កើនភាពត្រឹមត្រូវ និងភាពជឿជាក់”។
ការធ្វើតេស្តពីក្រុមហ៊ុនឯករាជ្យ និងអ្នកស្រាវជ្រាវជាច្រើនបង្ហាញថា អត្រានៃការយល់ច្រឡំក៏កំពុងកើនឡើងសម្រាប់គំរូសន្និដ្ឋានពីក្រុមហ៊ុនដូចជា Google ឬ DeepSeek ផងដែរ។
ចាប់តាំងពីចុងឆ្នាំ ២០២៣ មក ក្រុមហ៊ុន Vectara របស់លោក Awadallah បានតាមដានភាពញឹកញាប់នៃការផ្សព្វផ្សាយព័ត៌មានមិនពិតរបស់ chatbots។ ក្រុមហ៊ុនបានប្រគល់ភារកិច្ចឱ្យប្រព័ន្ធទាំងនេះនូវកិច្ចការសាមញ្ញ និងងាយស្រួលផ្ទៀងផ្ទាត់៖ ការសង្ខេបអត្ថបទជាក់លាក់។ សូម្បីតែពេលនោះក៏ដោយ chatbots នៅតែបន្តប្រឌិតព័ត៌មានឥតឈប់ឈរ។
ជាពិសេស ការស្រាវជ្រាវដំបូងរបស់ Vectara បានប៉ាន់ប្រមាណថា ក្រោមសម្មតិកម្មនេះ chatbots បានប្រឌិតព័ត៌មានយ៉ាងហោចណាស់ 3% នៃករណី ហើយជួនកាលរហូតដល់ 27%។
ក្នុងរយៈពេលមួយឆ្នាំកន្លះកន្លងមកនេះ ក្រុមហ៊ុនដូចជា OpenAI និង Google បានកាត់បន្ថយតួលេខទាំងនោះមកត្រឹមប្រហែល 1 ឬ 2%។ ក្រុមហ៊ុនផ្សេងទៀត ដូចជាក្រុមហ៊ុនចាប់ផ្តើមអាជីវកម្ម Anthropic នៅទីក្រុងសាន់ហ្វ្រាន់ស៊ីស្កូ មានប្រហែល 4%។
ទោះជាយ៉ាងណាក៏ដោយ អត្រានៃការយល់ច្រឡំនៅក្នុងការពិសោធន៍នេះបានបន្តកើនឡើងសម្រាប់ប្រព័ន្ធវែកញែក។ ប្រព័ន្ធវែកញែក R1 របស់ DeepSeek បានជួបប្រទះនឹងការយល់ច្រឡំចំនួន 14.3% ខណៈដែល o3 របស់ OpenAI បានកើនឡើង 6.8%។
បញ្ហាមួយទៀតគឺថា គំរូសន្និដ្ឋានត្រូវបានរចនាឡើងដើម្បីចំណាយពេល "គិត" អំពីបញ្ហាស្មុគស្មាញមុនពេលឈានដល់ចម្លើយចុងក្រោយ។
![]() |
ក្រុមហ៊ុន Apple បានរួមបញ្ចូលការជំរុញមួយដើម្បីការពារ AI ពីការបង្កើតព័ត៌មាននៅក្នុងកំណែបែតាដំបូងនៃ macOS 15.1។ រូបភាព៖ Reddit/devanxd2000។ |
ទោះជាយ៉ាងណាក៏ដោយ ចំណុចអវិជ្ជមានគឺថា នៅពេលព្យាយាមដោះស្រាយបញ្ហាមួយជំហានម្តងៗ គំរូ AI ទំនងជាជួបប្រទះនឹងការយល់ច្រឡំនៅជំហាននីមួយៗ។ អ្វីដែលសំខាន់ជាងនេះទៅទៀត កំហុសអាចកកកុញនៅពេលដែលគំរូចំណាយពេលគិតកាន់តែច្រើន។
បូតចុងក្រោយបំផុតបង្ហាញជំហាននីមួយៗដល់អ្នកប្រើប្រាស់ មានន័យថាអ្នកប្រើប្រាស់ក៏អាចមើលឃើញកំហុសនីមួយៗផងដែរ។ អ្នកស្រាវជ្រាវក៏បានរកឃើញថា ក្នុងករណីជាច្រើន ដំណើរការគិតដែលបង្ហាញដោយ chatbot ពិតជាមិនទាក់ទងនឹងចម្លើយចុងក្រោយដែលវាផ្តល់នោះទេ។
លោក Aryo Pradipta Gema អ្នកស្រាវជ្រាវ AI នៅសាកលវិទ្យាល័យ Edinburgh និងជាអ្នករួមចំណែកដល់ Anthropic បាននិយាយថា “អ្វីដែលប្រព័ន្ធនិយាយថាជាហេតុផលរបស់វា មិនចាំបាច់ជាអ្វីដែលវាកំពុងគិតនោះទេ”។
ប្រភព៖ https://znews.vn/chatbot-ai-dang-tro-nen-dien-hon-post1551304.html










Kommentar (0)