
នៅក្នុងខែមេសា AI bot ដែលគ្រប់គ្រងការគាំទ្រផ្នែកបច្ចេកទេសសម្រាប់ Cursor ដែលជាឧបករណ៍ដែលកំពុងលេចធ្លោសម្រាប់អ្នកសរសេរកម្មវិធីបានជូនដំណឹងដល់អតិថិជនមួយចំនួនអំពីការផ្លាស់ប្តូរនៅក្នុងគោលការណ៍របស់ក្រុមហ៊ុន។ ជាពិសេស សេចក្តីជូនដំណឹងបញ្ជាក់ថា ពួកគេមិនត្រូវបានអនុញ្ញាតឱ្យប្រើ Cursor នៅលើកុំព្យូទ័រលើសពីមួយទៀតទេ។
នៅលើវេទិកា និងប្រព័ន្ធផ្សព្វផ្សាយសង្គម អតិថិជនបានបង្ហោះកំហឹងរបស់ពួកគេ។ អ្នកខ្លះថែមទាំងលុបចោលគណនី Cursor របស់ពួកគេទៀតផង។ ទោះជាយ៉ាងណាក៏ដោយ អ្នកខ្លះកាន់តែខឹងសម្បារកាន់តែខ្លាំងនៅពេលដែលពួកគេដឹងពីអ្វីដែលបានកើតឡើង៖ AI bot បានប្រកាសពីការផ្លាស់ប្តូរគោលនយោបាយដែលមិនមាន។
លោក Michael Truell ដែលជានាយកប្រតិបត្តិ និងជាសហស្ថាបនិករបស់ក្រុមហ៊ុន បានសរសេរនៅក្នុងសារបង្ហោះរបស់ Reddit ថា "យើងមិនមានគោលការណ៍នោះទេ។ អ្នកអាចប្រើ Cursor នៅលើម៉ាស៊ីនជាច្រើនបាន។
ព័ត៌មានក្លែងក្លាយគឺមិនអាចគ្រប់គ្រងបាន។
ជាងពីរឆ្នាំបន្ទាប់ពីការចាប់ផ្តើមរបស់ ChatGPT ក្រុមហ៊ុនបច្ចេកវិទ្យា បុគ្គលិកការិយាល័យ និងអ្នកប្រើប្រាស់ប្រចាំថ្ងៃកំពុងប្រើប្រាស់ AI bots សម្រាប់កិច្ចការជាច្រើនជាមួយនឹងប្រេកង់កើនឡើង។
ទោះយ៉ាងណាក៏ដោយ មិនមានវិធីដើម្បីធានាថាប្រព័ន្ធទាំងនេះផលិតព័ត៌មានត្រឹមត្រូវនោះទេ។ មានភាពខុសប្លែកគ្នាដែលថាបច្ចេកវិទ្យាថ្មីដ៏មានឥទ្ធិពលបំផុត ដែលហៅថាប្រព័ន្ធ "ការសន្និដ្ឋាន" ពីក្រុមហ៊ុនដូចជា OpenAI, Google និង DeepSeek កំពុងធ្វើឱ្យមានកំហុសកាន់តែច្រើន។
![]() |
ការសន្ទនា ChatGPT មិនសមហេតុសមផលដែលអ្នកប្រើប្រាស់សួរថាតើសត្វឆ្កែគួរញ៉ាំធញ្ញជាតិដែរឬទេ។ រូបថត៖ Reddit ។ |
ខណៈពេលដែលជំនាញគណិតវិទ្យាមានភាពប្រសើរឡើងយ៉ាងខ្លាំង សមត្ថភាពនៃគំរូភាសាធំ (LLMs) ដើម្បីចាប់យកការពិតកាន់តែរង្គោះរង្គើ។ គួរឲ្យកត់សម្គាល់ សូម្បីតែវិស្វករខ្លួនឯងក៏មិនដឹងពីមូលហេតុដែរ។
យោងតាម កាសែត New York Times ថ្ងៃនេះ AI chatbots ពឹងផ្អែកលើប្រព័ន្ធគណិតវិទ្យាដ៏ស្មុគស្មាញ ដើម្បីរៀនជំនាញដោយការវិភាគទិន្នន័យឌីជីថលដ៏ច្រើនសន្ធឹកសន្ធាប់។ ទោះជាយ៉ាងណា ពួកគេមិនអាចសម្រេចថាអ្វីត្រូវ និងអ្វីខុសនោះទេ។
ពីទីនោះស្ថានភាពនៃ "ការយល់ច្រឡំ" ឬព័ត៌មានដែលបង្កើតដោយខ្លួនឯងលេចឡើង។ តាមពិតយោងទៅតាមការស្រាវជ្រាវ LLMs ចុងក្រោយបំផុតគឺ "បំភាន់" ជាងម៉ូដែលចាស់ៗមួយចំនួន។
ជាពិសេសនៅក្នុងរបាយការណ៍ចុងក្រោយបំផុត OpenAI បានរកឃើញថាម៉ូដែល o3 "យល់ច្រឡំ" នៅពេលឆ្លើយសំណួរចំនួន 33% លើ PersonQA ដែលជាស្តង់ដារផ្ទៃក្នុងរបស់ក្រុមហ៊ុនសម្រាប់វាស់ភាពត្រឹមត្រូវនៃចំណេះដឹងរបស់គំរូរបស់មនុស្ស។
សម្រាប់ការប្រៀបធៀប នេះគឺជាអត្រា "ការយល់ច្រលំ" ទ្វេដងនៃគំរូហេតុផលពីមុនរបស់ OpenAI គឺ o1 និង o3-mini ដែលមាន 16% និង 14.8% រៀងគ្នា។ ទន្ទឹមនឹងនេះដែរ ម៉ូដែល o4-mini កាន់តែអាក្រក់នៅលើ PersonQA ដោយជួបប្រទះ "ការយល់ច្រលំ" រហូតដល់ 48% នៃរយៈពេលសាកល្បង។
អ្វីដែលគួរឱ្យព្រួយបារម្ភជាងនេះទៅទៀត "ឪពុករបស់ ChatGPT" ពិតជាមិនដឹងថាហេតុអ្វីបានជារឿងនេះកើតឡើងនោះទេ។ ជាពិសេសនៅក្នុងរបាយការណ៍បច្ចេកទេសនៅលើ o3 និង o4-mini OpenAI សរសេរថា "ការស្រាវជ្រាវបន្ថែមគឺចាំបាច់ដើម្បីយល់ពីមូលហេតុដែល 'ការបំភាន់' កាន់តែអាក្រក់ទៅៗ" នៅពេលដែលគំរូហេតុផលត្រូវបានធ្វើមាត្រដ្ឋាន។
o3 និង o4-mini ដំណើរការបានល្អជាងនៅក្នុងផ្នែកមួយចំនួន រួមទាំងការសរសេរកម្មវិធី និងកិច្ចការដែលទាក់ទងនឹងគណិតវិទ្យា។ ទោះជាយ៉ាងណាក៏ដោយ ដោយសារតែតម្រូវការក្នុងការ "ធ្វើការទាមទារច្រើនជាងការទូទៅ" ម៉ូដែលទាំងពីរទទួលរងនូវបញ្ហានៃការផលិតលទ្ធផលដែលរួមមាន "ការទាមទារត្រឹមត្រូវជាង ប៉ុន្តែការទាមទារមិនត្រឹមត្រូវច្រើនជាងមុន"។
"នោះនឹងមិនទៅណាទេ"
ជំនួសឱ្យការកំណត់ដ៏តឹងរឹងនៃច្បាប់កំណត់ដោយវិស្វករមនុស្ស ប្រព័ន្ធ LLM ប្រើប្រូបាប៊ីលីតេគណិតវិទ្យាដើម្បីទស្សន៍ទាយការឆ្លើយតបដ៏ល្អបំផុត។ ដូច្នេះពួកគេតែងតែធ្វើកំហុសជាក់លាក់។
លោក Amr Awadallah អតីតនាយកប្រតិបត្តិរបស់ Google បាននិយាយថា "ទោះបីជាមានការខិតខំប្រឹងប្រែងដ៏ល្អបំផុតរបស់យើងក៏ដោយ ម៉ូដែល AI នឹងតែងតែមានការភ័ន្តច្រឡំ។
![]() |
យោងតាម IBM ការយល់ច្រលំគឺនៅពេលដែលគំរូភាសាធំមួយ (LLM) - ជាធម្មតាឧបករណ៍ chatbot ឬកុំព្យូទ័រ - ទទួលបានគំរូទិន្នន័យដែលមិនមាន ឬមិនអាចស្គាល់បានចំពោះមនុស្ស ដែលបណ្តាលឱ្យមានលទ្ធផលគ្មានន័យ ឬបំភាន់។ រូបថត៖ iStock ។ |
នៅក្នុងឯកសារលម្អិតអំពីការពិសោធន៍ OpenAI បាននិយាយថា ខ្លួនត្រូវការការស្រាវជ្រាវបន្ថែម ដើម្បីយល់ពីមូលហេតុនៃលទ្ធផលទាំងនេះ។
អ្នកជំនាញបាននិយាយថា ដោយសារតែប្រព័ន្ធ AI រៀនពីទិន្នន័យធំជាងមនុស្សអាចយល់បាន វាអាចពិបាកក្នុងការកំណត់ថាហេតុអ្វីបានជាពួកគេមានឥរិយាបទតាមរបៀបជាក់លាក់។
Gaby Raila អ្នកនាំពាក្យរបស់ OpenAI បាននិយាយថា "ការយល់ច្រលំគឺជារឿងធម្មតាជាងនៅក្នុងគំរូនៃការសន្និដ្ឋាន ទោះបីជាយើងកំពុងធ្វើការយ៉ាងសកម្មដើម្បីកាត់បន្ថយឧប្បត្តិហេតុដែលឃើញនៅក្នុង o3 និង o4-mini ក៏ដោយ។ យើងនឹងបន្តធ្វើការលើការយល់ច្រលំនៅគ្រប់ម៉ូដែលទាំងអស់ ដើម្បីកែលម្អភាពត្រឹមត្រូវ និងភាពជឿជាក់"។
ការធ្វើតេស្តពីក្រុមហ៊ុនឯករាជ្យ និងអ្នកស្រាវជ្រាវជាច្រើនបង្ហាញថា អត្រានៃការបំភាន់ក៏កំពុងកើនឡើងផងដែរសម្រាប់គំរូការសន្និដ្ឋានពីក្រុមហ៊ុនដូចជា Google ឬ DeepSeek ។
ចាប់តាំងពីចុងឆ្នាំ 2023 ក្រុមហ៊ុនរបស់ Awadallah Vectara បាននឹងកំពុងតាមដានថាតើញឹកញាប់ប៉ុណ្ណាដែល chatbots ផ្សព្វផ្សាយព័ត៌មានមិនពិត។ ក្រុមហ៊ុនបានស្នើឱ្យប្រព័ន្ធទាំងនេះអនុវត្តកិច្ចការសាមញ្ញ និងងាយស្រួលដែលអាចផ្ទៀងផ្ទាត់បានក្នុងការសង្ខេបអត្ថបទព័ត៌មានជាក់លាក់។ ទោះបីជាពេលនោះ chatbots នៅតែបន្តបង្កើតព័ត៌មាន។
ជាពិសេស ការស្រាវជ្រាវដំបូងរបស់ Vectara បានប៉ាន់ប្រមាណថានៅក្នុងសេណារីយ៉ូនេះ chatbots ប្រឌិតព័ត៌មានយ៉ាងហោចណាស់ 3% នៃពេលវេលា ហើយជួនកាលច្រើនរហូតដល់ 27%។
ក្នុងរយៈពេលមួយឆ្នាំកន្លះកន្លងមកនេះ ក្រុមហ៊ុនដូចជា OpenAI និង Google បានកាត់បន្ថយចំនួនទាំងនោះមកនៅត្រឹមប្រហែល 1 ឬ 2%។ អ្នកផ្សេងទៀតដូចជាការចាប់ផ្ដើមអាជីវកម្ម Anthropic នៅសាន់ហ្វ្រាន់ស៊ីស្កូ មានប្រហែល 4% ។
ទោះជាយ៉ាងណាក៏ដោយ អត្រានៃការយល់ច្រលំនៅក្នុងការធ្វើតេស្តនេះបានបន្តកើនឡើងសម្រាប់ប្រព័ន្ធ inference ។ ភាពញឹកញាប់នៃប្រព័ន្ធប្រឌិត R1 របស់ DeepSeek ដែលជួបប្រទះការយល់ច្រលំបានកើនឡើង 14.3% ខណៈពេលដែល o3 របស់ OpenAI កើនឡើង 6.8% ។
បញ្ហាមួយទៀតគឺថា គំរូការសន្និដ្ឋានត្រូវបានរចនាឡើងដើម្បីចំណាយពេលវេលា "គិត" អំពីបញ្ហាស្មុគស្មាញ មុននឹងមករកចម្លើយចុងក្រោយ។
![]() |
ការជម្រុញដើម្បីការពារ AI ពីការប្រឌិតព័ត៌មានត្រូវបានបញ្ចូលដោយ Apple នៅក្នុងកំណែសាកល្បងដំបូងនៃ macOS 15.1 ។ រូបថត៖ Reddit/devanxd2000។ |
ទោះជាយ៉ាងណាក៏ដោយ ការធ្លាក់ចុះគឺថាដោយការព្យាយាមដោះស្រាយបញ្ហាមួយជំហានម្តងៗ ម៉ូដែល AI កាន់តែមានហានិភ័យនៃការយល់ច្រលំនៅជំហាននីមួយៗ។ សំខាន់ជាងនេះទៅទៀត កំហុសអាចកកកុញ ដោយសារគំរូចំណាយពេលគិតច្រើន។
រូបយន្តចុងក្រោយបង្អស់បង្ហាញជំហាននីមួយៗដល់អ្នកប្រើប្រាស់ ដែលមានន័យថាអ្នកប្រើប្រាស់ក៏អាចឃើញកំហុសនីមួយៗផងដែរ។ អ្នកស្រាវជ្រាវក៏បានរកឃើញថានៅក្នុងករណីជាច្រើន ជំហានគិតដែលបង្ហាញដោយ chatbot ពិតជាមិនទាក់ទងទៅនឹងចម្លើយចុងក្រោយដែលវាផ្តល់ឱ្យនោះទេ។
Aryo Pradipta Gema អ្នកស្រាវជ្រាវ AI នៅសាកលវិទ្យាល័យ Edinburgh និងជាអ្នករួមចំណែក Anthropic និយាយថា "អ្វីដែលប្រព័ន្ធនិយាយថាវាសមហេតុផល មិនមែនជាអ្វីដែលវាកំពុងគិតនោះទេ។
ប្រភព៖ https://znews.vn/chatbot-ai-dang-tro-nen-dien-hon-post1551304.html
Kommentar (0)