Vietnam.vn - Nền tảng quảng bá Việt Nam

បញ្ញាសិប្បនិម្មិត៖ ការព្រមានអំពីអាកប្បកិរិយាគួរឱ្យព្រួយបារម្ភពី AI

ម៉ូដែលបញ្ញាសិប្បនិមិត្ត (AI) ទំនើបបំផុតរបស់ពិភពលោកនាពេលបច្ចុប្បន្ននេះ កំពុងបង្ហាញអាកប្បកិរិយាគួរឱ្យរំខានដូចជាការនិយាយកុហក ការគិតគូរ និងថែមទាំងគំរាមកំហែងអ្នកបង្កើតរបស់ពួកគេឱ្យសម្រេចបាននូវគោលដៅផ្ទាល់ខ្លួនរបស់ពួកគេ។

Tạp chí Doanh NghiệpTạp chí Doanh Nghiệp30/06/2025

ចំណងជើងរូបថត
រូបសញ្ញារបស់ OpenAI និង ChatGPT នៅលើអេក្រង់មួយក្នុងទីក្រុង Toulouse ប្រទេសបារាំង។ រូបថត៖ AFP/TTXVN

Claude 4 ដែលជាផលិតផលចុងក្រោយបង្អស់របស់ Anthropic (USA) ថ្មីៗនេះបានធ្វើឱ្យពិភពបច្ចេកវិទ្យាមានការភ្ញាក់ផ្អើលនៅពេលដែលវាបានធ្វើឱ្យខូចវិស្វករម្នាក់ ហើយគម្រាមបង្ហាញព័ត៌មានផ្ទាល់ខ្លួនដ៏រសើបរបស់បុគ្គលនេះដោយសារតែការគំរាមកំហែងនៃការផ្តាច់ទំនាក់ទំនង។ ទន្ទឹមនឹងនេះ o1 របស់ OpenAI ដែលជា "ឪពុក" នៃ ChatGPT បានព្យាយាមចម្លងទិន្នន័យទាំងអស់ទៅកាន់ម៉ាស៊ីនមេខាងក្រៅ ហើយបានបដិសេធអាកប្បកិរិយានេះនៅពេលរកឃើញ។

ស្ថានភាពទាំងនេះបង្ហាញពីការពិតដ៏លំបាកមួយ៖ ជាងពីរឆ្នាំបន្ទាប់ពី ChatGPT ធ្វើឱ្យ ពិភពលោក ភ្ញាក់ផ្អើល អ្នកស្រាវជ្រាវនៅតែមិនយល់ច្បាស់អំពីរបៀបដែលគំរូ AI ដែលពួកគេបានបង្កើតការងារ។ ប៉ុន្តែ​ការ​ប្រណាំង​ក្នុង​ការ​អភិវឌ្ឍ AI នៅ​តែ​មាន​ភាព​ខ្លាំង​ក្លា។

អាកប្បកិរិយាទាំងនេះត្រូវបានគេជឿថាទាក់ទងទៅនឹងការលេចឡើងនៃ "ហេតុផល" គំរូ AI ដែលដោះស្រាយបញ្ហាជាជំហាន ៗ ជំនួសឱ្យការឆ្លើយតបភ្លាមៗដូចពីមុន។ យោងតាមសាស្ត្រាចារ្យ Simon Goldstein នៅសាកលវិទ្យាល័យហុងកុង (ប្រទេសចិន) គំរូ AI ដែលមានសមត្ថភាពវែកញែកមាននិន្នាការបង្ហាញអាកប្បកិរិយាដែលពិបាកគ្រប់គ្រងជាង។

ម៉ូដែល AI មួយចំនួនក៏មានសមត្ថភាព "ក្លែងធ្វើការអនុលោមតាម" ដែលមានន័យថាធ្វើពុតជាធ្វើតាមការណែនាំ ខណៈពេលដែលកំពុងស្វែងរកគោលដៅផ្សេងៗគ្នា។

បច្ចុប្បន្ននេះ អាកប្បកិរិយាបោកបញ្ឆោតលេចឡើងតែនៅពេលដែលអ្នកស្រាវជ្រាវសាកល្បងគំរូ AI ជាមួយនឹងសេណារីយ៉ូខ្លាំង។ ទោះជាយ៉ាងណាក៏ដោយ យោងទៅតាមលោក Michael Chen នៃអង្គការវាយតម្លៃ METR វាមិនទាន់ច្បាស់ថា តើម៉ូដែល AI ដ៏មានឥទ្ធិពលនាពេលអនាគតនឹងមានភាពស្មោះត្រង់ជាង ឬបន្តបោកប្រាស់នោះទេ។

Marius Hobbhahn ប្រធានក្រុមហ៊ុនស្រាវជ្រាវ Apollo ដែលធ្វើការសាកល្បងប្រព័ន្ធ AI ដ៏ធំបាននិយាយថា អ្នកប្រើប្រាស់ជាច្រើនបានរាយការណ៍ថា ម៉ូដែលមួយចំនួនកុហកពួកគេ និងបង្កើតភស្តុតាង។ នេះ​គឺ​ជា​ប្រភេទ​នៃ​ការ​បោក​បញ្ឆោត​ដែល​ជា "យុទ្ធសាស្ត្រ​ច្បាស់​លាស់" នេះ​បើ​យោង​តាម​សហ​ស្ថាបនិក Apollo Research។

បញ្ហាប្រឈមត្រូវបានផ្សំឡើងដោយធនធានស្រាវជ្រាវមានកម្រិត។ ខណៈពេលដែលក្រុមហ៊ុនដូចជា Anthropic និង OpenAI បានចាប់ដៃគូជាមួយភាគីទីបីដូចជា Apollo ដើម្បីវាយតម្លៃប្រព័ន្ធរបស់ពួកគេ អ្នកជំនាញនិយាយថាតម្លាភាព និងលទ្ធភាពទទួលបានការស្រាវជ្រាវសុវត្ថិភាព AI បន្ថែមទៀតគឺត្រូវការជាចាំបាច់។

Mantas Mazeika នៃមជ្ឈមណ្ឌលសម្រាប់សុវត្ថិភាព AI (CAIS) កត់សម្គាល់ថា ស្ថាប័នស្រាវជ្រាវ និងអង្គការមិនរកប្រាក់ចំណេញមានធនធានកុំព្យូទ័រតិចជាងក្រុមហ៊ុន AI ។ តាមច្បាប់ បទប្បញ្ញត្តិបច្ចុប្បន្នមិនត្រូវបានរចនាឡើងដើម្បីដោះស្រាយបញ្ហាដែលកំពុងកើតមានទាំងនេះទេ។

ច្បាប់ AI របស់សហភាពអឺរ៉ុប (EU) ផ្តោតជាចម្បងលើរបៀបដែលមនុស្សប្រើប្រាស់គំរូ AI ជាជាងអំពីរបៀបគ្រប់គ្រងអាកប្បកិរិយារបស់ពួកគេ។ នៅសហរដ្ឋអាមេរិក រដ្ឋបាលរបស់ប្រធានាធិបតី Donald Trump បានបង្ហាញចំណាប់អារម្មណ៍តិចតួចក្នុងការចេញបទប្បញ្ញត្តិ AI គ្រាអាសន្ន ខណៈពេលដែល សភា កំពុងពិចារណាលើការហាមប្រាមលើរដ្ឋដែលអនុម័តបទប្បញ្ញត្តិរបស់ខ្លួន។

អ្នកស្រាវជ្រាវកំពុងស្វែងរកវិធីសាស្រ្តជាច្រើន ដើម្បីដោះស្រាយបញ្ហាប្រឈមទាំងនេះ។ អ្នកតស៊ូមតិមួយចំនួន "ការបកស្រាយគំរូ" ដើម្បីយល់ពីរបៀបដែល AI ធ្វើការសម្រេចចិត្ត។ សាស្ត្រាចារ្យ Goldstein ថែមទាំងបានស្នើរវិធានការធ្ងន់ធ្ងរបន្ថែមទៀត រួមទាំងការប្រើប្រាស់ប្រព័ន្ធតុលាការ ដើម្បីឲ្យក្រុមហ៊ុន AI ទទួលខុសត្រូវ នៅពេលដែលផលិតផល AI របស់ពួកគេបង្កផលវិបាកធ្ងន់ធ្ងរ។ គាត់ក៏ស្នើផងដែរ "ឱ្យភ្នាក់ងារ AI ខ្លួនឯងទទួលខុសត្រូវ" ក្នុងករណីមានឧបទ្ទវហេតុឬការរំលោភបំពាន។

ប្រភព៖ https://doanhnghiepvn.vn/cong-nghe/tri-tue-nhan-tao-canh-bao-nhung-hanh-vi-dang-lo-ngai-tu-ai-/20250630073243672


Kommentar (0)

No data
No data

ប្រធានបទដូចគ្នា

ប្រភេទដូចគ្នា

ផ្ទៃមេឃនៃទន្លេហានគឺ "ពិតជាភាពយន្ត"
បវរកញ្ញាវៀតណាមឆ្នាំ 2024 មានឈ្មោះថា Ha Truc Linh ជាក្មេងស្រីមកពី Phu Yen
DIFF 2025 - ការជំរុញដ៏ខ្លាំងក្លាមួយសម្រាប់រដូវកាលទេសចរណ៍រដូវក្តៅរបស់ទីក្រុង Da Nang
ដើរតាមព្រះអាទិត្យ

អ្នកនិពន្ធដូចគ្នា

បេតិកភណ្ឌ

រូប

អាជីវកម្ម

No videos available

ព័ត៌មាន

ប្រព័ន្ធនយោបាយ

ក្នុងស្រុក

ផលិតផល