យោងតាមអ្នកស្រាវជ្រាវជាន់ខ្ពស់នៅ OpenAI បានឱ្យដឹងថា ពិភពលោក មិនទាន់ត្រៀមខ្លួនរួចជាស្រេចសម្រាប់ការស៊ើបការណ៍ទូទៅសិប្បនិម្មិត (AGI) ឬជាពេលដែលបញ្ញាសិប្បនិម្មិតមានភាពឆ្លាតវៃដូចខួរក្បាលមនុស្ស។
តើបញ្ញាសិប្បនិម្មិតទូទៅជាហានិភ័យដែរឬទេ?
អស់ជាច្រើនឆ្នាំមកនេះ អ្នកស្រាវជ្រាវបានប៉ាន់ស្មានអំពីការលេចឡើងនៃបញ្ញាទូទៅសិប្បនិម្មិត ឬ AGI នៅពេលដែលប្រព័ន្ធសិប្បនិម្មិតនឹងដោះស្រាយបញ្ហាដូចមនុស្សក្នុងកិច្ចការផ្សេងៗ។ មនុស្សជាច្រើនចាត់ទុកការកើតឡើងរបស់វាថាជាហានិភ័យនៃអត្ថិភាព ព្រោះវាអាចអនុញ្ញាតឱ្យកុំព្យូទ័រដំណើរការក្នុងរបៀបដែលមនុស្សមិនអាចនឹកស្មានដល់។
យោងតាមលោក Miles Brindage ពិភពលោកមិនទាន់ត្រៀមខ្លួនរួចជាស្រេចសម្រាប់ពេលនៃការស៊ើបការណ៍ទូទៅសិប្បនិម្មិត (AGI) ទេ។
ឥឡូវនេះ បុរសម្នាក់នោះបានប្រគល់ភារកិច្ចឱ្យធានាថាអ្នកអភិវឌ្ឍន៍ ChatGPT OpenAI ត្រៀមខ្លួនរួចជាស្រេចសម្រាប់ការមកដល់នៃ AGI ទទួលស្គាល់ថាទាំងពិភពលោក និងក្រុមហ៊ុនខ្លួនឯងគឺ "មិនទាន់រួចរាល់" សម្រាប់ជំហានបន្ទាប់។ Miles Brundage គឺជា "ទីប្រឹក្សាជាន់ខ្ពស់លើការត្រៀមខ្លួន AGI" របស់ OpenAI ប៉ុន្តែបានប្រកាសពីការចាកចេញរបស់គាត់នៅសប្តាហ៍នេះ ដោយសារក្រុមហ៊ុនបានរំសាយក្រុម។
“ទាំង OpenAI និងមន្ទីរពិសោធន៍ត្រួសត្រាយផ្លូវណាមួយមិនទាន់រួចរាល់ [សម្រាប់ AGI] ហើយក៏មិនមែនជាពិភពលោកដែរ។ ដើម្បីឱ្យច្បាស់ ខ្ញុំមិនគិតថានេះជាសេចក្តីថ្លែងការណ៍ដ៏ចម្រូងចម្រាសក្នុងចំណោមការដឹកនាំរបស់ OpenAI នោះទេ ប៉ុន្តែជាសំណួរថាតើក្រុមហ៊ុន និងពិភពលោកកំពុងស្ថិតនៅលើផ្លូវដើម្បីត្រៀមខ្លួននៅពេលត្រឹមត្រូវឬអត់?
ការចាកចេញរបស់ Brundage គឺជាដំណើរចុងក្រោយបង្អស់នៃការចាកចេញដ៏គួរឱ្យកត់សម្គាល់ពីក្រុមសុវត្ថិភាពរបស់ OpenAI ។ Jan Leike អ្នកស្រាវជ្រាវដ៏លេចធ្លោម្នាក់បានចាកចេញបន្ទាប់ពីអះអាងថា "វប្បធម៌សុវត្ថិភាព និងដំណើរការបានយកកៅអីខាងក្រោយសម្រាប់ផលិតផលភ្លឺចាំង"។ សហស្ថាបនិក Ilya Sutskever ក៏បានចាកចេញដើម្បីចាប់ផ្តើមការចាប់ផ្តើម AI ផ្ទាល់ខ្លួនរបស់គាត់ដែលផ្តោតលើការអភិវឌ្ឍ AGI ប្រកបដោយសុវត្ថិភាព។
ការរំសាយក្រុម "AGI Readiness" របស់លោក Brundage កើតឡើងប៉ុន្មានខែបន្ទាប់ពីក្រុមហ៊ុនបានរំសាយក្រុម "Superalignment" របស់ខ្លួនដែលឧទ្ទិសដល់ការកាត់បន្ថយហានិភ័យ AI រយៈពេលវែង ដោយបង្ហាញពីភាពតានតឹងរវាងបេសកកម្មដើមរបស់ OpenAI និងមហិច្ឆតាពាណិជ្ជកម្មរបស់ក្រុមហ៊ុន។
សម្ពាធនៃប្រាក់ចំណេញជំរុញ OpenAI ឱ្យឆ្ងាយពីសុវត្ថិភាព
OpenAI ត្រូវបានគេរាយការណ៍ថាកំពុងប្រឈមនឹងសម្ពាធក្នុងការផ្លាស់ប្តូរពីអង្គការមិនរកប្រាក់ចំណេញទៅក្រុមហ៊ុនរកប្រាក់ចំណេញក្នុងរយៈពេល 2 ឆ្នាំ ឬប្រថុយនឹងការបាត់បង់មូលនិធិពីជុំវិនិយោគចុងក្រោយចំនួន 6.6 ពាន់លានដុល្លារ។ ការផ្លាស់ប្តូរឆ្ពោះទៅរកការធ្វើពាណិជ្ជកម្មនេះបានធ្វើឱ្យ Brundage ព្រួយបារម្ភជាយូរមកហើយ ដោយបង្ហាញពីការកក់ទុករហូតដល់ឆ្នាំ 2019 នៅពេលដែល OpenAI បានបង្កើតផ្នែករកប្រាក់ចំណេញដំបូងរបស់ខ្លួន។
នាយកប្រតិបត្តិ OpenAI លោក Sam Altman កំពុង "ឈឺក្បាល" ដោយសារតែសម្ពាធដែលក្រុមហ៊ុនត្រូវស្វែងរកប្រាក់ចំណេញ។
ក្នុងការពន្យល់ពីការចាកចេញរបស់គាត់ Brundage បានលើកឡើងពីការរឹតបន្តឹងលើសេរីភាពរបស់គាត់ក្នុងការស្រាវជ្រាវ និងបោះពុម្ពផ្សាយនៅក្រុមហ៊ុនដ៏លេចធ្លោ។ លោកបានសង្កត់ធ្ងន់ពីតម្រូវការសម្រាប់សំឡេងឯករាជ្យក្នុងការពិភាក្សាអំពីគោលនយោបាយ AI ដោយមិនមានភាពលំអៀងក្នុងឧស្សាហកម្ម និងទំនាស់ផលប្រយោជន៍។ បន្ទាប់ពីបានផ្តល់ដំបូន្មានដល់ភាពជាអ្នកដឹកនាំរបស់ OpenAI លើការរៀបចំផ្ទៃក្នុង គាត់ជឿជាក់ថាឥឡូវនេះគាត់អាចមានឥទ្ធិពលកាន់តែខ្លាំងលើការគ្រប់គ្រង AI សកលពីខាងក្រៅអង្គការ។
ការចាកចេញនេះក៏ឆ្លុះបញ្ចាំងពីការបែងចែកវប្បធម៌កាន់តែស៊ីជម្រៅនៅក្នុង OpenAI ផងដែរ។ អ្នកស្រាវជ្រាវជាច្រើនបានចូលរួមដើម្បីជំរុញការស្រាវជ្រាវ AI ហើយឥឡូវនេះរកឃើញខ្លួនឯងនៅក្នុងបរិយាកាសដែលជំរុញដោយផលិតផលកាន់តែខ្លាំងឡើង។ ការបែងចែកធនធានខាងក្នុងបានក្លាយជាចំណុចមួយ — របាយការណ៍បង្ហាញថាក្រុមរបស់ Leike ត្រូវបានបដិសេធថាមពលកុំព្យូទ័រសម្រាប់ការស្រាវជ្រាវសុវត្ថិភាព មុនពេលវាត្រូវបានរំសាយ។
OpenAI បានប្រឈមមុខនឹងសំណួរក្នុងរយៈពេលប៉ុន្មានខែថ្មីៗនេះអំពីផែនការរបស់ខ្លួនសម្រាប់ការអភិវឌ្ឍបញ្ញាសិប្បនិមិត្ត និងថាតើក្រុមហ៊ុនយកចិត្តទុកដាក់សុវត្ថិភាពកម្រិតណា។ ទោះបីជាត្រូវបានបង្កើតឡើងជាអង្គការមិនរកប្រាក់ចំណេញដែលមានគោលបំណងស្រាវជ្រាវពីវិធីបង្កើតបញ្ញាសិប្បនិម្មិតដោយសុវត្ថិភាពក៏ដោយ ក៏ភាពជោគជ័យរបស់ ChatGPT បាននាំមកនូវការវិនិយោគ និងសម្ពាធយ៉ាងច្រើនក្នុងការប្រើប្រាស់បច្ចេកវិទ្យាថ្មីនេះដើម្បីទទួលបានប្រាក់ចំណេញ។
ប្រភព៖ https://www.baogiaothong.vn/the-gioi-chua-san-sang-phat-trien-ai-thong-minh-nhu-bo-nao-con-nguoi-192241027005459507.htm
Kommentar (0)