រូបថតគំនូរ
ទោះជាយ៉ាងណាក៏ដោយ គំរូ AI ដែលដើរតួជាវាកំពុងស្តាប់បង្គាប់ ប៉ុន្តែតាមពិតការលាក់បាំងចេតនាពិតរបស់វា គឺជាបញ្ហាមួយផ្សេងទៀត។
បញ្ហាប្រឈមនៃការគ្រប់គ្រង AI
ក្រុមហ៊ុន Apollo Research បានបោះពុម្ភផ្សាយជាលើកដំបូងនូវក្រដាសមួយនៅក្នុងខែធ្នូដែលចងក្រងជាឯកសារអំពីរបៀបដែលគំរូទាំង 5 គ្រោងនៅពេលដែលពួកគេត្រូវបានណែនាំឱ្យសម្រេចបាននូវគោលដៅ "នៅគ្រប់ការចំណាយទាំងអស់"។
អ្វីដែលគួរឱ្យភ្ញាក់ផ្អើលបំផុតនោះគឺថា ប្រសិនបើតារាម៉ូដែលយល់ថាវាកំពុងត្រូវបានធ្វើតេស្ត នោះវាអាចធ្វើពុតជាមិនសមគំនិតដោយគ្រាន់តែឆ្លងកាត់ការសាកល្បងនោះទេ បើទោះបីជាវានៅតែសមគំនិតក៏ដោយ។ អ្នកស្រាវជ្រាវបានសរសេរថា "គំរូច្រើនតែដឹងថាពួកគេកំពុងត្រូវបានវាយតម្លៃ"។
អ្នកអភិវឌ្ឍន៍ AI មិនទាន់គិតពីរបៀបបង្វឹកម៉ូដែលរបស់ពួកគេមិនឱ្យគ្រោង។ នោះដោយសារតែការធ្វើដូច្នេះពិតជាអាចបង្រៀនគំរូឱ្យរៀបចំផែនការកាន់តែប្រសើរឡើងដើម្បីជៀសវាងការរកឃើញ។
ប្រហែលជាអាចយល់បានថា គំរូ AI ពីភាគីជាច្រើននឹងបញ្ឆោតមនុស្សដោយចេតនា ព្រោះវាត្រូវបានបង្កើតឡើងដើម្បីក្លែងធ្វើមនុស្ស និងត្រូវបានបណ្តុះបណ្តាលយ៉ាងទូលំទូលាយលើទិន្នន័យដែលបង្កើតដោយមនុស្ស។
ដំណោះស្រាយ និងការព្រមាន
ដំណឹងល្អគឺថា អ្នកស្រាវជ្រាវបានឃើញការថយចុះគួរឱ្យកត់សម្គាល់នៃការសមគំនិតដោយប្រើបច្ចេកទេសប្រឆាំងនឹងការសមគំនិតដែលហៅថា "សមាគមដោយចេតនា" ។ បច្ចេកទេសនេះ ស្រដៀងទៅនឹងការធ្វើឱ្យក្មេងនិយាយឡើងវិញនូវច្បាប់មុននឹងអនុញ្ញាតឱ្យពួកគេលេង បង្ខំឱ្យ AI គិតមុនពេលវាធ្វើសកម្មភាព។
អ្នកស្រាវជ្រាវបានព្រមានអំពីអនាគតដែល AI ត្រូវបានទទួលភារកិច្ចស្មុគស្មាញជាងនេះ៖ "នៅពេលដែល AI ត្រូវបានទទួលភារកិច្ចដ៏ស្មុគស្មាញ និងចាប់ផ្តើមអនុវត្តគោលដៅរយៈពេលវែងដែលមិនច្បាស់លាស់បន្ថែមទៀត យើងព្យាករណ៍ថាលទ្ធភាពនៃចេតនាព្យាបាទនឹងកើនឡើង ដែលទាមទារឱ្យមានការកើនឡើងនូវការការពារដែលត្រូវគ្នា និងសមត្ថភាពធ្វើតេស្តយ៉ាងម៉ត់ចត់។"
នេះជាអ្វីដែលគួរពិចារណានៅពេល ពិភព សាជីវកម្មឈានទៅរកអនាគត AI ដែលក្រុមហ៊ុនជឿថា AI អាចត្រូវបានចាត់ទុកដូចជាបុគ្គលិកឯករាជ្យ។
ប្រភព៖ https://doanhnghiepvn.vn/chuyen-doi-so/phat-hien-mo-hinh-ai-biet-lua-doi-con-nguoi/20250919055143362
Kommentar (0)