ម៉ូដែល ChatGPT ដែលទើបនឹងចេញថ្មីទាំងពីរមានប្រេកង់នៃការប្រឌិតព័ត៌មានខ្ពស់ជាងជំនាន់មុន។ រូបថត៖ Fireflies ។ |
ត្រឹមតែពីរថ្ងៃបន្ទាប់ពីការប្រកាស GPT-4.1 OpenAI បានចេញផ្សាយជាផ្លូវការមិនមែនមួយទេ ប៉ុន្តែជាម៉ូដែលថ្មីពីរដែលហៅថា o3 និង o4-mini ។ ម៉ូដែលទាំងពីរនេះបង្ហាញពីសមត្ថភាពសន្និដ្ឋានដ៏ប្រសើរជាមួយនឹងការកែលម្អដ៏មានឥទ្ធិពលជាច្រើន។
ទោះជាយ៉ាងណាក៏ដោយ យោងតាម TechCrunch ម៉ូដែលថ្មីទាំងពីរនេះនៅតែទទួលរង "ការយល់ច្រលំ" ឬព័ត៌មានប្រឌិត។ តាមពិតពួកគេទទួលរងពី "ការយល់ច្រឡំ" ច្រើនជាងម៉ូដែលចាស់ៗមួយចំនួនរបស់ OpenAI ។
យោងតាម IBM ការយល់ច្រលំគឺនៅពេលដែលគំរូភាសាធំមួយ (LLM) - ជាធម្មតាឧបករណ៍ chatbot ឬកុំព្យូទ័រ - ទទួលបានគំរូទិន្នន័យដែលមិនមាន ឬមិនអាចស្គាល់បានចំពោះមនុស្ស ដែលបណ្តាលឱ្យមានលទ្ធផលគ្មានន័យ ឬបំភាន់។
ម្យ៉ាងវិញទៀត អ្នកប្រើប្រាស់តែងតែស្នើសុំឱ្យ AI បង្កើតលទ្ធផលត្រឹមត្រូវ ដោយផ្អែកលើទិន្នន័យបណ្តុះបណ្តាល។ ទោះយ៉ាងណាក៏ដោយ ក្នុងករណីខ្លះ លទ្ធផលរបស់ AI មិនផ្អែកលើទិន្នន័យត្រឹមត្រូវ បង្កើតការឆ្លើយតប "បំភាន់"។
នៅក្នុងរបាយការណ៍ចុងក្រោយរបស់ខ្លួន OpenAI បានរកឃើញថា o3 "យល់ច្រឡំ" នៅពេលឆ្លើយសំណួរ 33% លើ PersonQA ដែលជាស្តង់ដារផ្ទៃក្នុងរបស់ក្រុមហ៊ុនសម្រាប់ការវាស់ស្ទង់ភាពត្រឹមត្រូវនៃចំនេះដឹងរបស់មនុស្សគំរូ។
សម្រាប់ការប្រៀបធៀបនេះគឺជាអត្រា "ការយល់ច្រលំ" ទ្វេដងនៃគំរូហេតុផលពីមុនរបស់ OpenAI គឺ o1 និង o3-mini ដែលទទួលរង 16% និង 14.8% នៃពេលវេលារៀងគ្នា។ ទន្ទឹមនឹងនេះដែរ ម៉ូដែល O4-mini កាន់តែអាក្រក់ទៅលើ PersonQA ដោយទទួលរង "ការយល់ច្រលំ" 48% នៃពេលវេលា។
កាន់តែគួរឱ្យព្រួយបារម្ភ "ឪពុករបស់ ChatGPT" ពិតជាមិនដឹងថាហេតុអ្វីបានជាវាកើតឡើងនោះទេ។ ជាពិសេសនៅក្នុងរបាយការណ៍បច្ចេកទេសស្តីពី o3 និង o4-mini OpenAI សរសេរថា "ការស្រាវជ្រាវបន្ថែមគឺចាំបាច់ដើម្បីយល់ពីមូលហេតុដែល "ការបំភាន់" កាន់តែអាក្រក់ទៅៗ នៅពេលដែលគំរូហេតុផលមានមាត្រដ្ឋាន។
o3 និង o4-mini ដំណើរការបានប្រសើរជាងក្នុងផ្នែកខ្លះ រួមទាំងការសរសេរកម្មវិធី និងកិច្ចការដែលទាក់ទងនឹងគណិតវិទ្យា។ ទោះជាយ៉ាងណាក៏ដោយ ដោយសារតែពួកគេត្រូវការ "ធ្វើសេចក្តីថ្លែងការណ៍ច្រើនជាងការទូទៅ" ម៉ូដែលទាំងពីរបានទទួលរងពីការផលិត "សេចក្តីថ្លែងការណ៍ដែលត្រឹមត្រូវជាង ប៉ុន្តែក៏មានសេចក្តីថ្លែងការណ៍ដែលមិនត្រឹមត្រូវច្រើនផងដែរ"។
ប្រភព៖ https://znews.vn/canh-bao-ve-chatgpt-ao-giac-post1547242.html
Kommentar (0)