Vietnam.vn - Nền tảng quảng bá Việt Nam

AI Chatbots កំពុងតែ 'ឆ្កួត'

រលកថ្មីនៃប្រព័ន្ធ "ការសន្និដ្ឋាន" ពីក្រុមហ៊ុនដូចជា OpenAI កំពុងធ្វើឱ្យព័ត៌មានមិនពិតកើតឡើងញឹកញាប់។ គ្រោះថ្នាក់​គឺ​ក្រុមហ៊ុន​មិន​ដឹង​ពី​មូលហេតុ។

ZNewsZNews08/05/2025

នៅក្នុងខែមេសា AI bot ដែលគ្រប់គ្រងការគាំទ្រផ្នែកបច្ចេកទេសសម្រាប់ Cursor ដែលជាឧបករណ៍ដែលកំពុងលេចចេញសម្រាប់អ្នកសរសេរកម្មវិធីបានជូនដំណឹងដល់អតិថិជនមួយចំនួនអំពីការផ្លាស់ប្តូរគោលនយោបាយរបស់ក្រុមហ៊ុន ជាពិសេសដោយនិយាយថាពួកគេមិនត្រូវបានអនុញ្ញាតឱ្យប្រើ Cursor នៅលើកុំព្យូទ័រច្រើនជាងមួយ។

អតិថិជនបានបង្ហោះកំហឹងរបស់ពួកគេនៅលើវេទិកា និងប្រព័ន្ធផ្សព្វផ្សាយសង្គម។ អ្នកខ្លះថែមទាំងលុបចោលគណនី Cursor របស់ពួកគេទៀតផង។ ប៉ុន្តែអ្នកខ្លះកាន់តែខឹងនៅពេលដែលពួកគេដឹងពីអ្វីដែលបានកើតឡើង៖ AI bot បានរាយការណ៍អំពីការផ្លាស់ប្តូរគោលនយោបាយដែលមិនមាន។

លោក Michael Truell នាយកប្រតិបត្តិ និងជាសហស្ថាបនិករបស់ក្រុមហ៊ុន បានសរសេរនៅក្នុងសារបង្ហោះរបស់ Reddit ថា "យើងមិនមានគោលការណ៍បែបនេះទេ។ អ្នកអាចប្រើ Cursor នៅលើម៉ាស៊ីនជាច្រើនបាន។

ព័ត៌មានក្លែងក្លាយគឺមិនអាចគ្រប់គ្រងបាន។

ជាងពីរឆ្នាំបន្ទាប់ពីការចាប់ផ្តើមរបស់ ChatGPT ក្រុមហ៊ុនបច្ចេកវិទ្យា បុគ្គលិកការិយាល័យ និងអ្នកប្រើប្រាស់ប្រចាំថ្ងៃកំពុងប្រើប្រាស់ AI bots សម្រាប់កិច្ចការផ្សេងៗជាមួយនឹងប្រេកង់កើនឡើង។

មិនទាន់មានវិធីណាដើម្បីធានាថាប្រព័ន្ធទាំងនេះកំពុងផលិតព័ត៌មានត្រឹមត្រូវនោះទេ។ ខុសពីធម្មតា បច្ចេកវិទ្យាថ្មីដ៏មានឥទ្ធិពលបំផុត ដែលត្រូវបានគេស្គាល់ថាជាប្រព័ន្ធ "ការសន្និដ្ឋាន" ពីក្រុមហ៊ុនដូចជា OpenAI, Google និង DeepSeek កំពុងបង្កើតកំហុសកាន់តែច្រើន។

AI anh 1

ការសន្ទនា ChatGPT មិនសមហេតុសមផលដែលអ្នកប្រើប្រាស់សួរថាតើសត្វឆ្កែគួរញ៉ាំធញ្ញជាតិដែរឬទេ។ រូបថត៖ Reddit ។

ខណៈពេលដែលជំនាញគណិតវិទ្យាមានភាពប្រសើរឡើងយ៉ាងខ្លាំង សមត្ថភាពនៃគំរូភាសាធំ (LLMs) ដើម្បីចាប់យកការពិតកាន់តែរង្គោះរង្គើ។ គួរឱ្យភ្ញាក់ផ្អើល សូម្បីតែវិស្វករខ្លួនឯងក៏មិនច្បាស់ពីមូលហេតុដែរ។

យោងតាម កាសែត New York Times ថ្ងៃនេះ AI chatbots ពឹងផ្អែកលើប្រព័ន្ធគណិតវិទ្យាដ៏ស្មុគស្មាញ ដើម្បីរៀនជំនាញដោយការវិភាគទិន្នន័យឌីជីថលដ៏ច្រើនសន្ធឹកសន្ធាប់។ ទោះ​ជា​យ៉ាង​ណា ពួកគេ​មិន​អាច​សម្រេច​ថា​អ្វី​ត្រូវ និង​អ្វី​ខុស​នោះ​ទេ។

ពីទីនោះស្ថានភាពនៃ "ការយល់ច្រឡំ" ឬការបង្កើតព័ត៌មានដោយខ្លួនឯងលេចឡើង។ តាមពិតយោងទៅតាមការស្រាវជ្រាវ LLMs ជំនាន់ចុងក្រោយបង្អស់ ថែមទាំង "យល់ច្រលំ" ច្រើនជាងម៉ូដែលចាស់ៗមួយចំនួន។

ជាពិសេសនៅក្នុងរបាយការណ៍ចុងក្រោយបំផុត OpenAI បានរកឃើញថាម៉ូដែល o3 "យល់ច្រឡំ" នៅពេលឆ្លើយសំណួរ 33% លើ PersonQA ដែលជាស្តង់ដារផ្ទៃក្នុងរបស់ក្រុមហ៊ុនសម្រាប់វាស់ភាពត្រឹមត្រូវនៃចំណេះដឹងរបស់ម៉ូដែលអំពីមនុស្ស។

សម្រាប់ការប្រៀបធៀបនេះគឺជាអត្រា "ការយល់ច្រលំ" ទ្វេដងនៃគំរូហេតុផលពីមុនរបស់ OpenAI គឺ o1 និង o3-mini ដែលទទួលរង 16% និង 14.8% រៀងគ្នា។ ទន្ទឹមនឹងនេះដែរ ម៉ូដែល o4-mini ដំណើរការកាន់តែអាក្រក់នៅលើ PersonQA ដោយទទួលរង "ការយល់ច្រឡំ" 48% នៃពេលវេលា។

កាន់តែគួរឱ្យព្រួយបារម្ភ "ឪពុករបស់ ChatGPT" ពិតជាមិនដឹងថាហេតុអ្វីបានជាវាកើតឡើងនោះទេ។ ជាពិសេសនៅក្នុងរបាយការណ៍បច្ចេកទេសស្តីពី o3 និង o4-mini OpenAI សរសេរថា "ការស្រាវជ្រាវបន្ថែមគឺចាំបាច់ដើម្បីយល់ពីមូលហេតុដែល "ការបំភាន់" កាន់តែអាក្រក់ទៅៗ នៅពេលដែលគំរូហេតុផលមានមាត្រដ្ឋាន។

o3 និង o4-mini ដំណើរការបានប្រសើរជាងក្នុងផ្នែកខ្លះ រួមទាំងការសរសេរកម្មវិធី និងកិច្ចការដែលទាក់ទងនឹងគណិតវិទ្យា។ ទោះជាយ៉ាងណាក៏ដោយ ដោយសារតែពួកគេត្រូវការ "ធ្វើសេចក្តីថ្លែងការណ៍ច្រើនជាងការទូទៅ" ម៉ូដែលទាំងពីរបានទទួលរងពីការផលិត "សេចក្តីថ្លែងការណ៍ដែលត្រឹមត្រូវជាង ប៉ុន្តែក៏មិនត្រឹមត្រូវច្រើនដែរ"។

"នោះនឹងមិនទៅណាទេ"

ជំនួសឱ្យការកំណត់ដ៏តឹងរឹងនៃច្បាប់កំណត់ដោយវិស្វករមនុស្ស ប្រព័ន្ធ LLM ប្រើប្រូបាប៊ីលីតេគណិតវិទ្យាដើម្បីទស្សន៍ទាយការឆ្លើយតបដ៏ល្អបំផុត។ ដូច្នេះពួកគេតែងតែបង្កើតកំហុសមួយចំនួន។

លោក Amr Awadallah អតីតនាយកប្រតិបត្តិរបស់ Google បាននិយាយថា "ទោះបីជាមានការខិតខំប្រឹងប្រែងដ៏ល្អបំផុតរបស់យើងក៏ដោយ ម៉ូដែល AI នឹងតែងតែមានការភ័ន្តច្រឡំ។

AI anh 2

យោងតាម ​​IBM ការយល់ច្រលំគឺជាបាតុភូតមួយដែលគំរូភាសាធំ (LLMs) - ជាធម្មតា chatbots ឬឧបករណ៍ចក្ខុវិស័យកុំព្យូទ័រ - ទទួលបានគំរូទិន្នន័យដែលមិនមានឬមិនអាចស្គាល់បានចំពោះមនុស្សដោយហេតុនេះបង្កើតលទ្ធផលគ្មានន័យឬបំភាន់។ រូបថត៖ iStock ។

នៅក្នុងឯកសារលម្អិតអំពីការពិសោធន៍ OpenAI បាននិយាយថា ខ្លួនត្រូវការការស្រាវជ្រាវបន្ថែម ដើម្បីយល់ពីមូលហេតុនៃលទ្ធផលទាំងនេះ។

អ្នកជំនាញបាននិយាយថា ដោយសារតែប្រព័ន្ធ AI រៀនពីទិន្នន័យធំជាងមនុស្សអាចយល់បាន វាអាចពិបាកក្នុងការកំណត់ថាហេតុអ្វីបានជាពួកគេមានអាកប្បកិរិយាបែបនេះ។

លោក Gaby Raila អ្នកនាំពាក្យរបស់ OpenAI បាននិយាយថា "ការបំភាន់គឺជារឿងធម្មតាជាងនៅក្នុងគំរូនៃការសន្និដ្ឋាន ទោះបីជាយើងកំពុងធ្វើការយ៉ាងសកម្មដើម្បីកាត់បន្ថយឧប្បត្តិហេតុដែលឃើញនៅក្នុង o3 និង o4-mini។

ការធ្វើតេស្តពីក្រុមហ៊ុនឯករាជ្យ និងអ្នកស្រាវជ្រាវជាច្រើនបង្ហាញថា អត្រានៃភាពស្រឡាំងកាំងក៏កំពុងកើនឡើងផងដែរសម្រាប់គំរូការសន្និដ្ឋានពីក្រុមហ៊ុនដូចជា Google ឬ DeepSeek ។

ចាប់តាំងពីចុងឆ្នាំ 2023 ក្រុមហ៊ុនរបស់ Awadallah គឺ Vectara បាននឹងកំពុងតាមដានថាតើញឹកញាប់ប៉ុណ្ណាដែល chatbots បានធ្វើការបង្ហាញព័ត៌មានខុស។ ក្រុមហ៊ុនបានស្នើឱ្យប្រព័ន្ធអនុវត្តការងារសាមញ្ញ និងងាយស្រួលដែលអាចផ្ទៀងផ្ទាត់បាន នៃការសង្ខេបអត្ថបទព័ត៌មានជាក់លាក់។ ទោះបីជាពេលនោះ chatbots នៅតែបន្តបង្កើតព័ត៌មាន។

ជាពិសេស ការស្រាវជ្រាវដំបូងរបស់ Vectara បានប៉ាន់ប្រមាណថានៅក្នុងសេណារីយ៉ូនេះ chatbots ប្រឌិតព័ត៌មានយ៉ាងហោចណាស់ 3% នៃពេលវេលា ហើយជួនកាលច្រើនរហូតដល់ 27%។

ក្នុងរយៈពេលមួយឆ្នាំកន្លះកន្លងមកនេះ ក្រុមហ៊ុនដូចជា OpenAI និង Google បានកាត់បន្ថយចំនួនទាំងនោះមកនៅត្រឹមប្រហែល 1 ឬ 2%។ អ្នកផ្សេងទៀតដូចជា Anthropic startup San Francisco មានប្រហែល 4% ។

ទោះជាយ៉ាងណាក៏ដោយ អត្រានៃការយល់ឃើញក្នុងការធ្វើតេស្តនេះបានបន្តកើនឡើងសម្រាប់ប្រព័ន្ធ inference ។ ភាពញឹកញាប់នៃការយល់ច្រលំបានកើនឡើង 14.3% សម្រាប់ប្រព័ន្ធការសន្និដ្ឋាន R1 របស់ DeepSeek ខណៈដែល o3 របស់ OpenAI កើនឡើង 6.8% ។

បញ្ហាមួយទៀតគឺថា គំរូការសន្និដ្ឋានត្រូវបានរចនាឡើងដើម្បីចំណាយពេលវេលា "គិត" អំពីបញ្ហាស្មុគស្មាញ មុននឹងមករកចម្លើយចុងក្រោយ។

AI anh 3

ការជម្រុញដើម្បីការពារ AI ពីការប្រឌិតព័ត៌មានត្រូវបានបញ្ចូលដោយ Apple នៅក្នុងកំណែសាកល្បងដំបូងនៃ macOS 15.1 ។ រូបថត៖ Reddit/devanxd2000។

ទោះជាយ៉ាងណាក៏ដោយ គុណវិបត្តិគឺថានៅពេលដែលគំរូ AI ព្យាយាមដោះស្រាយបញ្ហាមួយជំហានម្តងៗ វាកាន់តែងាយនឹងយល់ច្រលំនៅជំហាននីមួយៗ។ សំខាន់ជាងនេះទៅទៀត កំហុសអាចកកកុញ ដោយសារគំរូចំណាយពេលគិតច្រើន។

រូបយន្តចុងក្រោយបំផុតបង្ហាញអ្នកប្រើប្រាស់រាល់ជំហាន ដែលមានន័យថាអ្នកប្រើប្រាស់ក៏អាចឃើញកំហុសនីមួយៗផងដែរ។ អ្នកស្រាវជ្រាវក៏បានរកឃើញថានៅក្នុងករណីជាច្រើន ដំណើរការគិតដែលបង្ហាញដោយ chatbot ពិតជាមិនទាក់ទងទៅនឹងចម្លើយចុងក្រោយដែលវាផ្តល់ឱ្យនោះទេ។

Aryo Pradipta Gema អ្នកស្រាវជ្រាវ AI នៅសាកលវិទ្យាល័យ Edinburgh និងជាសហការីនៅ Anthropic និយាយថា "អ្វីដែលប្រព័ន្ធនិយាយថាវាសន្មត់គឺមិនចាំបាច់ជាអ្វីដែលវាកំពុងគិតនោះទេ។

ប្រភព៖ https://znews.vn/chatbot-ai-dang-tro-nen-dien-hon-post1551304.html


Kommentar (0)

សូមអធិប្បាយដើម្បីចែករំលែកអារម្មណ៍របស់អ្នក!

ប្រភេទដូចគ្នា

វិចិត្រករប្រជាជន Xuan Bac គឺជា "មេនៃពិធី" សម្រាប់គូស្វាមីភរិយាចំនួន 80 រៀបការជាមួយគ្នានៅលើផ្លូវដើរនៅបឹង Hoan Kiem ។
វិហារ Notre Dame នៅទីក្រុងហូជីមិញ ត្រូវបានបំភ្លឺយ៉ាងភ្លឺស្វាង ដើម្បីស្វាគមន៍បុណ្យណូអែល ឆ្នាំ 2025
ក្មេងស្រីហាណូយ "ស្លៀកពាក់" យ៉ាងស្រស់ស្អាតសម្រាប់រដូវកាលបុណ្យណូអែល
ភ្លឺឡើងបន្ទាប់ពីព្យុះ និងទឹកជំនន់ ភូមិ Tet chrysanthemum ក្នុង Gia Lai សង្ឃឹមថានឹងមិនមានការដាច់ចរន្តអគ្គិសនីដើម្បីជួយសង្គ្រោះរុក្ខជាតិនោះទេ។

អ្នកនិពន្ធដូចគ្នា

បេតិកភណ្ឌ

រូប

អាជីវកម្ម

ហាងកាហ្វេហាណូយបង្ករក្តៅខ្លួនជាមួយនឹងឈុតបុណ្យណូអែលដូចអឺរ៉ុប

ព្រឹត្តិការណ៍បច្ចុប្បន្ន

ប្រព័ន្ធនយោបាយ

ក្នុងស្រុក

ផលិតផល

Footer Banner Agribank
Footer Banner LPBank
Footer Banner MBBank
Footer Banner VNVC
Footer Banner Agribank
Footer Banner LPBank
Footer Banner MBBank
Footer Banner VNVC
Footer Banner Agribank
Footer Banner LPBank
Footer Banner MBBank
Footer Banner VNVC
Footer Banner Agribank
Footer Banner LPBank
Footer Banner MBBank
Footer Banner VNVC