ក្រុមអ្នកជំនាញអន្តរជាតិដ៏លេចធ្លោមួយក្រុមបានជួបប្រជុំគ្នានៅទីក្រុងប៉េកាំងកាលពីសប្តាហ៍មុន ដែលពួកគេបានរកឃើញ "បន្ទាត់ក្រហម" នៅក្នុងការអភិវឌ្ឍន៍ AI រួមទាំងការបង្កើតអាវុធជីវសាស្ត្រ និងការវាយប្រហារតាមអ៊ីនធឺណិត។
នៅក្នុងសេចក្តីថ្លែងការណ៍មួយថ្ងៃបន្ទាប់ពីកិច្ចប្រជុំ អ្នកប្រាជ្ញបានព្រមានថា វិធីសាស្រ្តរួមមួយចំពោះសុវត្ថិភាព AI គឺត្រូវការជាចាំបាច់ដើម្បីការពារ "គ្រោះមហន្តរាយ ឬសូម្បីតែហានិភ័យដែលអាចកើតមានចំពោះមនុស្សជាតិក្នុងជីវិតរបស់យើង"។
សេចក្តីថ្លែងការណ៍បាននិយាយថា "នៅកម្រិតខ្ពស់នៃសង្រ្គាមត្រជាក់ កិច្ចសហប្រតិបត្តិការ វិទ្យាសាស្ត្រ អន្តរជាតិ និងរដ្ឋាភិបាលបានជួយការពារមហន្តរាយនុយក្លេអ៊ែរ។ មនុស្សជាតិត្រូវតែធ្វើការរួមគ្នាម្តងទៀតដើម្បីការពារគ្រោះមហន្តរាយដែលអាចកើតឡើងពីបច្ចេកវិទ្យាដែលមិនធ្លាប់មានពីមុនមក" ។
អ្នកជំនាញនៅក្នុងកិច្ចសន្ទនាអន្តរជាតិស្តីពីសុវត្ថិភាព AI នៅទីក្រុងប៉េកាំងបានកំណត់ "បន្ទាត់ក្រហម" នៅក្នុងការអភិវឌ្ឍន៍ AI ។ រូបថត៖ FT
អ្នកចុះហត្ថលេខារួមមាន Geoffrey Hinton និង Yoshua Bengio ដែលជារឿយៗត្រូវបានពិពណ៌នាថាជា "ឪពុក" នៃ AI ។ Stuart Russell សាស្រ្តាចារ្យផ្នែកវិទ្យាសាស្ត្រកុំព្យូទ័រនៅសាកលវិទ្យាល័យកាលីហ្វ័រញ៉ា; និងលោក Andrew Yao អ្នកវិទ្យាសាស្ត្រកុំព្យូទ័រដ៏លេចធ្លោម្នាក់របស់ប្រទេសចិន។
សេចក្តីថ្លែងការណ៍នេះធ្វើឡើងបន្ទាប់ពីកិច្ចសន្ទនាសុវត្ថិភាព AI អន្តរជាតិនៅទីក្រុងប៉េកាំងកាលពីសប្តាហ៍មុន ដែលជាកិច្ចប្រជុំមួយចូលរួមដោយមន្ត្រី រដ្ឋាភិបាល ចិន ដើម្បីបង្ហាញពីការយល់ព្រមរបស់ពួកគេចំពោះវេទិកា និងលទ្ធផលរបស់វា។
ប្រធានាធិបតីអាមេរិក Joe Biden និងប្រធានាធិបតីចិន Xi Jinping បានជួបប្រជុំគ្នាកាលពីខែវិច្ឆិកាឆ្នាំមុន ហើយបានពិភាក្សាអំពីសុវត្ថិភាព AI ដោយយល់ព្រមបង្កើតកិច្ចសន្ទនាលើបញ្ហានេះ។ ក្រុមហ៊ុន AI ឈានមុខគេ របស់ពិភពលោក ក៏បានជួបជាលក្ខណៈឯកជនជាមួយអ្នកជំនាញ AI របស់ចិនក្នុងប៉ុន្មានខែថ្មីៗនេះផងដែរ។
នៅក្នុងខែវិច្ឆិកា ឆ្នាំ 2023 ប្រទេសចំនួន 28 រួមទាំងប្រទេសចិន និងក្រុមហ៊ុន AI ឈានមុខគេបានយល់ព្រមលើការប្តេជ្ញាចិត្តយ៉ាងទូលំទូលាយក្នុងការធ្វើការរួមគ្នាដើម្បីដោះស្រាយហានិភ័យដែលមានពី AI កម្រិតខ្ពស់នៅឯកិច្ចប្រជុំកំពូលសុវត្ថិភាព AI របស់អធិការបតីចក្រភពអង់គ្លេស Rishi Sunak ។
នៅទីក្រុងប៉េកាំងកាលពីសប្តាហ៍មុន អ្នកជំនាញបានពិភាក្សាអំពីការគម្រាមកំហែងដែលទាក់ទងនឹងការអភិវឌ្ឍន៍នៃ "ប្រព័ន្ធបញ្ញាទូទៅសិប្បនិម្មិត - AGI" ឬប្រព័ន្ធ AI ដែលស្មើនឹង ឬខ្ពស់ជាងមនុស្ស។
Bengio បាននិយាយថា "ការផ្តោតសំខាន់នៃការពិភាក្សាគឺបន្ទាត់ក្រហមដែលមិនមានប្រព័ន្ធ AI ដ៏មានអានុភាពគួរឆ្លងកាត់ ហើយថារដ្ឋាភិបាលជុំវិញពិភពលោកគួរតែដាក់ក្នុងការអភិវឌ្ឍន៍ និងការដាក់ឱ្យប្រើប្រាស់ AI" ។
បន្ទាត់ក្រហមទាំងនេះនឹងធានាថា "គ្មានប្រព័ន្ធ AI អាចចម្លង ឬកែលម្អខ្លួនវាដោយគ្មានការយល់ព្រម និងការគាំទ្រពីមនុស្សច្បាស់លាស់ទេ" ឬ "ធ្វើសកម្មភាពដែលបង្កើនថាមពល និងឥទ្ធិពលរបស់វាហួសហេតុពេក" ។
អ្នកវិទ្យាសាស្ត្របានបន្ថែមថា គ្មានប្រព័ន្ធណាមួយនឹង "ពង្រឹងសមត្ថភាពតួអង្គយ៉ាងសំខាន់ក្នុងការរចនាអាវុធប្រល័យលោក រំលោភលើអនុសញ្ញាអាវុធជីវសាស្ត្រ ឬគីមី" ឬអាច "ធ្វើការវាយប្រហារតាមអ៊ីនធឺណិតដោយស្វ័យប្រវត្តិ ដែលបណ្តាលឱ្យមានការបាត់បង់ផ្នែកហិរញ្ញវត្ថុធ្ងន់ធ្ងរ ឬគ្រោះថ្នាក់ស្មើនឹង" ។
Hoang Hai (យោងតាម FT)
ប្រភព
Kommentar (0)