Vietnam.vn - Nền tảng quảng bá Việt Nam

AI Chatbots កំពុងតែ 'ឆ្កួត'

រលកថ្មីនៃប្រព័ន្ធ "ការសន្និដ្ឋាន" ពីក្រុមហ៊ុនដូចជា OpenAI កំពុងធ្វើឱ្យព័ត៌មានមិនពិតជារឿងធម្មតា។ គ្រោះថ្នាក់​គឺ​ក្រុមហ៊ុន​ក៏​មិន​ដឹង​ពី​មូលហេតុ​ដែរ។

Zing NewsZing News08/05/2025

នៅក្នុងខែមេសា AI bot ដែលគ្រប់គ្រងការគាំទ្រផ្នែកបច្ចេកទេសសម្រាប់ Cursor ដែលជាឧបករណ៍ដែលកំពុងលេចធ្លោសម្រាប់អ្នកសរសេរកម្មវិធីបានជូនដំណឹងដល់អតិថិជនមួយចំនួនអំពីការផ្លាស់ប្តូរនៅក្នុងគោលការណ៍របស់ក្រុមហ៊ុន។ ជាពិសេស សេចក្តីជូនដំណឹងបញ្ជាក់ថា ពួកគេមិនត្រូវបានអនុញ្ញាតឱ្យប្រើ Cursor នៅលើកុំព្យូទ័រលើសពីមួយទៀតទេ។

នៅលើវេទិកា និងប្រព័ន្ធផ្សព្វផ្សាយសង្គម អតិថិជនបានបង្ហោះកំហឹងរបស់ពួកគេ។ អ្នកខ្លះថែមទាំងលុបចោលគណនី Cursor របស់ពួកគេទៀតផង។ ទោះជាយ៉ាងណាក៏ដោយ អ្នកខ្លះកាន់តែខឹងសម្បារកាន់តែខ្លាំងនៅពេលដែលពួកគេដឹងពីអ្វីដែលបានកើតឡើង៖ AI bot បានប្រកាសពីការផ្លាស់ប្តូរគោលនយោបាយដែលមិនមាន។

លោក Michael Truell ដែលជានាយកប្រតិបត្តិ និងជាសហស្ថាបនិករបស់ក្រុមហ៊ុន បានសរសេរនៅក្នុងសារបង្ហោះរបស់ Reddit ថា "យើងមិនមានគោលការណ៍នោះទេ។ អ្នកអាចប្រើ Cursor នៅលើម៉ាស៊ីនជាច្រើនបាន។

ព័ត៌មានក្លែងក្លាយគឺមិនអាចគ្រប់គ្រងបាន។

ជាងពីរឆ្នាំបន្ទាប់ពីការចាប់ផ្តើមរបស់ ChatGPT ក្រុមហ៊ុនបច្ចេកវិទ្យា បុគ្គលិកការិយាល័យ និងអ្នកប្រើប្រាស់ប្រចាំថ្ងៃកំពុងប្រើប្រាស់ AI bots សម្រាប់កិច្ចការជាច្រើនជាមួយនឹងប្រេកង់កើនឡើង។

ទោះយ៉ាងណាក៏ដោយ មិនមានវិធីដើម្បីធានាថាប្រព័ន្ធទាំងនេះផលិតព័ត៌មានត្រឹមត្រូវនោះទេ។ មានភាពខុសប្លែកគ្នាដែលថាបច្ចេកវិទ្យាថ្មីដ៏មានឥទ្ធិពលបំផុត ដែលហៅថាប្រព័ន្ធ "ការសន្និដ្ឋាន" ពីក្រុមហ៊ុនដូចជា OpenAI, Google និង DeepSeek កំពុងធ្វើឱ្យមានកំហុសកាន់តែច្រើន។

AI anh 1

ការសន្ទនា ChatGPT មិនសមហេតុសមផលដែលអ្នកប្រើប្រាស់សួរថាតើសត្វឆ្កែគួរញ៉ាំធញ្ញជាតិដែរឬទេ។ រូបថត៖ Reddit ។

ខណៈពេលដែលជំនាញគណិតវិទ្យាមានភាពប្រសើរឡើងយ៉ាងខ្លាំង សមត្ថភាពនៃគំរូភាសាធំ (LLMs) ដើម្បីចាប់យកការពិតកាន់តែរង្គោះរង្គើ។ គួរ​ឲ្យ​កត់​សម្គាល់ សូម្បី​តែ​វិស្វករ​ខ្លួន​ឯង​ក៏​មិន​ដឹង​ពី​មូល​ហេតុ​ដែរ។

យោងតាម កាសែត New York Times ថ្ងៃនេះ AI chatbots ពឹងផ្អែកលើប្រព័ន្ធគណិតវិទ្យាដ៏ស្មុគស្មាញ ដើម្បីរៀនជំនាញដោយការវិភាគទិន្នន័យឌីជីថលដ៏ច្រើនសន្ធឹកសន្ធាប់។ ទោះ​ជា​យ៉ាង​ណា ពួកគេ​មិន​អាច​សម្រេច​ថា​អ្វី​ត្រូវ និង​អ្វី​ខុស​នោះ​ទេ។

ពីទីនោះស្ថានភាពនៃ "ការយល់ច្រឡំ" ឬព័ត៌មានដែលបង្កើតដោយខ្លួនឯងលេចឡើង។ តាមពិតយោងទៅតាមការស្រាវជ្រាវ LLMs ចុងក្រោយបំផុតគឺ "បំភាន់" ជាងម៉ូដែលចាស់ៗមួយចំនួន។

ជាពិសេសនៅក្នុងរបាយការណ៍ចុងក្រោយបំផុត OpenAI បានរកឃើញថាម៉ូដែល o3 "យល់ច្រឡំ" នៅពេលឆ្លើយសំណួរចំនួន 33% លើ PersonQA ដែលជាស្តង់ដារផ្ទៃក្នុងរបស់ក្រុមហ៊ុនសម្រាប់វាស់ភាពត្រឹមត្រូវនៃចំណេះដឹងរបស់គំរូរបស់មនុស្ស។

សម្រាប់ការប្រៀបធៀប នេះគឺជាអត្រា "ការយល់ច្រលំ" ទ្វេដងនៃគំរូហេតុផលពីមុនរបស់ OpenAI គឺ o1 និង o3-mini ដែលមាន 16% និង 14.8% រៀងគ្នា។ ទន្ទឹមនឹងនេះដែរ ម៉ូដែល o4-mini កាន់តែអាក្រក់នៅលើ PersonQA ដោយជួបប្រទះ "ការយល់ច្រលំ" រហូតដល់ 48% នៃរយៈពេលសាកល្បង។

អ្វីដែលគួរឱ្យព្រួយបារម្ភជាងនេះទៅទៀត "ឪពុករបស់ ChatGPT" ពិតជាមិនដឹងថាហេតុអ្វីបានជារឿងនេះកើតឡើងនោះទេ។ ជាពិសេសនៅក្នុងរបាយការណ៍បច្ចេកទេសនៅលើ o3 និង o4-mini OpenAI សរសេរថា "ការស្រាវជ្រាវបន្ថែមគឺចាំបាច់ដើម្បីយល់ពីមូលហេតុដែល 'ការបំភាន់' កាន់តែអាក្រក់ទៅៗ" នៅពេលដែលគំរូហេតុផលត្រូវបានធ្វើមាត្រដ្ឋាន។

o3 និង o4-mini ដំណើរការបានល្អជាងនៅក្នុងផ្នែកមួយចំនួន រួមទាំងការសរសេរកម្មវិធី និងកិច្ចការដែលទាក់ទងនឹងគណិតវិទ្យា។ ទោះជាយ៉ាងណាក៏ដោយ ដោយសារតែតម្រូវការក្នុងការ "ធ្វើការទាមទារច្រើនជាងការទូទៅ" ម៉ូដែលទាំងពីរទទួលរងនូវបញ្ហានៃការផលិតលទ្ធផលដែលរួមមាន "ការទាមទារត្រឹមត្រូវជាង ប៉ុន្តែការទាមទារមិនត្រឹមត្រូវច្រើនជាងមុន"។

"នោះនឹងមិនទៅណាទេ"

ជំនួសឱ្យការកំណត់ដ៏តឹងរឹងនៃច្បាប់កំណត់ដោយវិស្វករមនុស្ស ប្រព័ន្ធ LLM ប្រើប្រូបាប៊ីលីតេគណិតវិទ្យាដើម្បីទស្សន៍ទាយការឆ្លើយតបដ៏ល្អបំផុត។ ដូច្នេះពួកគេតែងតែធ្វើកំហុសជាក់លាក់។

លោក Amr Awadallah អតីតនាយកប្រតិបត្តិរបស់ Google បាននិយាយថា "ទោះបីជាមានការខិតខំប្រឹងប្រែងដ៏ល្អបំផុតរបស់យើងក៏ដោយ ម៉ូដែល AI នឹងតែងតែមានការភ័ន្តច្រឡំ។

AI anh 2

យោងតាម ​​IBM ការយល់ច្រលំគឺនៅពេលដែលគំរូភាសាធំមួយ (LLM) - ជាធម្មតាឧបករណ៍ chatbot ឬកុំព្យូទ័រ - ទទួលបានគំរូទិន្នន័យដែលមិនមាន ឬមិនអាចស្គាល់បានចំពោះមនុស្ស ដែលបណ្តាលឱ្យមានលទ្ធផលគ្មានន័យ ឬបំភាន់។ រូបថត៖ iStock ។

នៅក្នុងឯកសារលម្អិតអំពីការពិសោធន៍ OpenAI បាននិយាយថា ខ្លួនត្រូវការការស្រាវជ្រាវបន្ថែម ដើម្បីយល់ពីមូលហេតុនៃលទ្ធផលទាំងនេះ។

អ្នកជំនាញបាននិយាយថា ដោយសារតែប្រព័ន្ធ AI រៀនពីទិន្នន័យធំជាងមនុស្សអាចយល់បាន វាអាចពិបាកក្នុងការកំណត់ថាហេតុអ្វីបានជាពួកគេមានឥរិយាបទតាមរបៀបជាក់លាក់។

Gaby Raila អ្នកនាំពាក្យរបស់ OpenAI បាននិយាយថា "ការយល់ច្រលំគឺជារឿងធម្មតាជាងនៅក្នុងគំរូនៃការសន្និដ្ឋាន ទោះបីជាយើងកំពុងធ្វើការយ៉ាងសកម្មដើម្បីកាត់បន្ថយឧប្បត្តិហេតុដែលឃើញនៅក្នុង o3 និង o4-mini ក៏ដោយ។ យើងនឹងបន្តធ្វើការលើការយល់ច្រលំនៅគ្រប់ម៉ូដែលទាំងអស់ ដើម្បីកែលម្អភាពត្រឹមត្រូវ និងភាពជឿជាក់"។

ការធ្វើតេស្តពីក្រុមហ៊ុនឯករាជ្យ និងអ្នកស្រាវជ្រាវជាច្រើនបង្ហាញថា អត្រានៃការបំភាន់ក៏កំពុងកើនឡើងផងដែរសម្រាប់គំរូការសន្និដ្ឋានពីក្រុមហ៊ុនដូចជា Google ឬ DeepSeek ។

ចាប់តាំងពីចុងឆ្នាំ 2023 ក្រុមហ៊ុនរបស់ Awadallah Vectara បាននឹងកំពុងតាមដានថាតើញឹកញាប់ប៉ុណ្ណាដែល chatbots ផ្សព្វផ្សាយព័ត៌មានមិនពិត។ ក្រុមហ៊ុនបានស្នើឱ្យប្រព័ន្ធទាំងនេះអនុវត្តកិច្ចការសាមញ្ញ និងងាយស្រួលដែលអាចផ្ទៀងផ្ទាត់បានក្នុងការសង្ខេបអត្ថបទព័ត៌មានជាក់លាក់។ ទោះបីជាពេលនោះ chatbots នៅតែបន្តបង្កើតព័ត៌មាន។

ជាពិសេស ការស្រាវជ្រាវដំបូងរបស់ Vectara បានប៉ាន់ប្រមាណថានៅក្នុងសេណារីយ៉ូនេះ chatbots ប្រឌិតព័ត៌មានយ៉ាងហោចណាស់ 3% នៃពេលវេលា ហើយជួនកាលច្រើនរហូតដល់ 27%។

ក្នុងរយៈពេលមួយឆ្នាំកន្លះកន្លងមកនេះ ក្រុមហ៊ុនដូចជា OpenAI និង Google បានកាត់បន្ថយចំនួនទាំងនោះមកនៅត្រឹមប្រហែល 1 ឬ 2%។ អ្នកផ្សេងទៀតដូចជាការចាប់ផ្ដើមអាជីវកម្ម Anthropic នៅសាន់ហ្វ្រាន់ស៊ីស្កូ មានប្រហែល 4% ។

ទោះជាយ៉ាងណាក៏ដោយ អត្រានៃការយល់ច្រលំនៅក្នុងការធ្វើតេស្តនេះបានបន្តកើនឡើងសម្រាប់ប្រព័ន្ធ inference ។ ភាពញឹកញាប់នៃប្រព័ន្ធប្រឌិត R1 របស់ DeepSeek ដែលជួបប្រទះការយល់ច្រលំបានកើនឡើង 14.3% ខណៈពេលដែល o3 របស់ OpenAI កើនឡើង 6.8% ។

បញ្ហាមួយទៀតគឺថា គំរូការសន្និដ្ឋានត្រូវបានរចនាឡើងដើម្បីចំណាយពេលវេលា "គិត" អំពីបញ្ហាស្មុគស្មាញ មុននឹងមករកចម្លើយចុងក្រោយ។

AI anh 3

ការជម្រុញដើម្បីការពារ AI ពីការប្រឌិតព័ត៌មានត្រូវបានបញ្ចូលដោយ Apple នៅក្នុងកំណែសាកល្បងដំបូងនៃ macOS 15.1 ។ រូបថត៖ Reddit/devanxd2000។

ទោះជាយ៉ាងណាក៏ដោយ ការធ្លាក់ចុះគឺថាដោយការព្យាយាមដោះស្រាយបញ្ហាមួយជំហានម្តងៗ ម៉ូដែល AI កាន់តែមានហានិភ័យនៃការយល់ច្រលំនៅជំហាននីមួយៗ។ សំខាន់ជាងនេះទៅទៀត កំហុសអាចកកកុញ ដោយសារគំរូចំណាយពេលគិតច្រើន។

រូបយន្តចុងក្រោយបង្អស់បង្ហាញជំហាននីមួយៗដល់អ្នកប្រើប្រាស់ ដែលមានន័យថាអ្នកប្រើប្រាស់ក៏អាចឃើញកំហុសនីមួយៗផងដែរ។ អ្នកស្រាវជ្រាវក៏បានរកឃើញថានៅក្នុងករណីជាច្រើន ជំហានគិតដែលបង្ហាញដោយ chatbot ពិតជាមិនទាក់ទងទៅនឹងចម្លើយចុងក្រោយដែលវាផ្តល់ឱ្យនោះទេ។

Aryo Pradipta Gema អ្នកស្រាវជ្រាវ AI នៅសាកលវិទ្យាល័យ Edinburgh និងជាអ្នករួមចំណែក Anthropic និយាយថា "អ្វីដែលប្រព័ន្ធនិយាយថាវាសមហេតុផល មិនមែនជាអ្វីដែលវាកំពុងគិតនោះទេ។

ប្រភព៖ https://znews.vn/chatbot-ai-dang-tro-nen-dien-hon-post1551304.html


Kommentar (0)

No data
No data

ប្រភេទដូចគ្នា

ភោជនីយដ្ឋានហាណូយផូ
គយគន់ភ្នំបៃតង និងទឹកពណ៌ខៀវនៃទីក្រុង Cao Bang
ទិដ្ឋភាព​ជិត​នៃ​ផ្លូវ​ដើរ​ឆ្លង​សមុទ្រ 'លេច និង​បាត់​ខ្លួន' នៅ Binh Dinh
ទីក្រុង។ ទីក្រុងហូជីមិញកំពុងរីកចម្រើនទៅជា "ទីក្រុងទំនើប"

អ្នកនិពន្ធដូចគ្នា

បេតិកភណ្ឌ

រូប

អាជីវកម្ម

No videos available

ព័ត៌មាន

ប្រព័ន្ធនយោបាយ

ក្នុងស្រុក

ផលិតផល