យោងតាមអ្នកស្រាវជ្រាវជាន់ខ្ពស់នៅ OpenAI បានឱ្យដឹងថា ពិភពលោក មិនទាន់ត្រៀមខ្លួនរួចជាស្រេចសម្រាប់ការស៊ើបការណ៍ទូទៅសិប្បនិម្មិត (AGI) ឬជាពេលដែលបញ្ញាសិប្បនិម្មិតមានភាពឆ្លាតវៃដូចខួរក្បាលមនុស្ស។
តើបញ្ញាសិប្បនិម្មិតទូទៅជាហានិភ័យដែរឬទេ?
អស់ជាច្រើនឆ្នាំមកនេះ អ្នកស្រាវជ្រាវបានប៉ាន់ស្មានអំពីការលេចឡើងនៃបញ្ញាទូទៅសិប្បនិម្មិត ឬ AGI នៅពេលដែលប្រព័ន្ធសិប្បនិម្មិតនឹងអាចគ្រប់គ្រងកិច្ចការជាច្រើនក៏ដូចជាមនុស្សផងដែរ។ មនុស្សជាច្រើនមើលឃើញការកើតឡើងរបស់វាថាជាហានិភ័យនៃអត្ថិភាព ព្រោះវាអាចអនុញ្ញាតឱ្យកុំព្យូទ័រធ្វើសកម្មភាពដែលមនុស្សមិនអាចស្រមៃបាន។
យោងតាមលោក Miles Brindage ពិភពលោកមិនទាន់ត្រៀមខ្លួនរួចជាស្រេចសម្រាប់ពេលនៃការស៊ើបការណ៍ទូទៅសិប្បនិម្មិត (AGI) ទេ។
ឥឡូវនេះ បុរសដែលមានភារកិច្ចធានាឱ្យអ្នកអភិវឌ្ឍន៍ ChatGPT OpenAI ត្រៀមខ្លួនរួចជាស្រេចសម្រាប់ AGI ទទួលស្គាល់ថាទាំងពិភពលោក និងក្រុមហ៊ុនខ្លួនឯងគឺ "រួចរាល់" សម្រាប់ជំហានបន្ទាប់។ Miles Brundage គឺជា "ទីប្រឹក្សាជាន់ខ្ពស់របស់ OpenAI លើការត្រៀមខ្លួន AGI" ប៉ុន្តែបានប្រកាសពីការចាកចេញរបស់គាត់នៅសប្តាហ៍នេះ ដោយសារក្រុមហ៊ុនបានរំសាយក្រុម។
“ទាំង OpenAI និងមន្ទីរពិសោធន៍ត្រួសត្រាយផ្លូវណាមួយមិនទាន់រួចរាល់ [សម្រាប់ AGI] ហើយក៏មិនមែនជាពិភពលោកដែរ។ ដើម្បីឱ្យច្បាស់ ខ្ញុំមិនគិតថានេះជាសេចក្តីថ្លែងការណ៍ដ៏ចម្រូងចម្រាសក្នុងចំណោមការដឹកនាំរបស់ OpenAI នោះទេ ប៉ុន្តែជាសំណួរថាតើក្រុមហ៊ុន និងពិភពលោកកំពុងស្ថិតនៅលើផ្លូវដើម្បីត្រៀមខ្លួននៅពេលត្រឹមត្រូវឬអត់?
ការចាកចេញរបស់ Brundage គឺជាដំណើរចុងក្រោយបង្អស់នៃការចាកចេញជាបន្តបន្ទាប់ពីក្រុមសុវត្ថិភាពរបស់ OpenAI ។ Jan Leike អ្នកស្រាវជ្រាវដ៏លេចធ្លោម្នាក់បានចាកចេញបន្ទាប់ពីនិយាយថា "វប្បធម៌សុវត្ថិភាព និងដំណើរការបានយកកៅអីខាងក្រោយសម្រាប់ផលិតផលភ្លឺចាំង"។ សហស្ថាបនិក Ilya Sutskever ក៏បានចាកចេញដើម្បីចាប់ផ្តើមការចាប់ផ្តើម AI ផ្ទាល់ខ្លួនរបស់គាត់ដែលផ្តោតលើការអភិវឌ្ឍ AGI ប្រកបដោយសុវត្ថិភាព។
ការរំសាយក្រុម "AGI Readiness" របស់លោក Brundage កើតឡើងប៉ុន្មានខែបន្ទាប់ពីក្រុមហ៊ុនបានរំសាយក្រុម "Superalignment" របស់ខ្លួនដែលឧទ្ទិសដល់ការកាត់បន្ថយហានិភ័យ AI រយៈពេលវែង ដោយបង្ហាញពីភាពតានតឹងរវាងបេសកកម្មដើមរបស់ OpenAI និងមហិច្ឆតាពាណិជ្ជកម្មរបស់ក្រុមហ៊ុន។
សម្ពាធនៃប្រាក់ចំណេញជំរុញ OpenAI ឱ្យឆ្ងាយពីសុវត្ថិភាព
OpenAI ត្រូវបានគេរាយការណ៍ថាប្រឈមនឹងសម្ពាធក្នុងការផ្លាស់ប្តូរពីអង្គការមិនរកប្រាក់ចំណេញទៅក្រុមហ៊ុនរកប្រាក់ចំណេញក្នុងរយៈពេលពីរឆ្នាំ ឬប្រថុយនឹងការបាត់បង់មូលនិធិពីជុំវិនិយោគចុងក្រោយចំនួន 6.6 ពាន់លានដុល្លារ។ ការផ្លាស់ប្តូរឆ្ពោះទៅរកការធ្វើពាណិជ្ជកម្មនេះគឺជាការព្រួយបារម្ភជាយូរមកហើយសម្រាប់ Brundage ដែលបានសម្តែងការកក់ទុករហូតដល់ឆ្នាំ 2019 នៅពេលដែល OpenAI បានបង្កើតផ្នែករកប្រាក់ចំណេញដំបូងរបស់ខ្លួន។
នាយកប្រតិបត្តិ OpenAI លោក Sam Altman កំពុង "ឈឺក្បាល" ដោយសារតែសម្ពាធដែលក្រុមហ៊ុនត្រូវស្វែងរកប្រាក់ចំណេញ។
ក្នុងការពន្យល់ពីការចាកចេញរបស់គាត់ Brundage បានលើកឡើងពីការរឹតបន្តឹងលើសេរីភាពរបស់គាត់ក្នុងការស្រាវជ្រាវ និងបោះពុម្ពផ្សាយនៅក្រុមហ៊ុនដ៏ល្បីល្បាញ។ លោកបានសង្កត់ធ្ងន់លើតម្រូវការសម្រាប់សំឡេងឯករាជ្យនៅក្នុងការពិភាក្សាគោលនយោបាយ AI ដោយមិនលំអៀងក្នុងឧស្សាហកម្ម និងជម្លោះផលប្រយោជន៍។ ដោយបានផ្តល់ដំបូន្មានដល់ភាពជាអ្នកដឹកនាំរបស់ OpenAI លើការរៀបចំផ្ទៃក្នុង គាត់ជឿជាក់ថាឥឡូវនេះគាត់អាចមានឥទ្ធិពលកាន់តែខ្លាំងលើការគ្រប់គ្រង AI សកលពីខាងក្រៅអង្គការ។
ការចាកចេញក៏ឆ្លុះបញ្ចាំងពីការបែងចែកវប្បធម៌កាន់តែស៊ីជម្រៅនៅក្នុង OpenAI ។ អ្នកស្រាវជ្រាវជាច្រើនបានចូលរួមដើម្បីជំរុញការស្រាវជ្រាវ AI ហើយឥឡូវនេះរកឃើញខ្លួនឯងនៅក្នុងបរិយាកាសដែលជំរុញដោយផលិតផលកាន់តែខ្លាំងឡើង។ ការបែងចែកធនធានខាងក្នុងបានក្លាយជាចំណុចមួយ — របាយការណ៍បង្ហាញថាក្រុមរបស់ Leike ត្រូវបានបដិសេធថាមពលកុំព្យូទ័រសម្រាប់ការស្រាវជ្រាវសុវត្ថិភាព មុនពេលវាត្រូវបានរំសាយ។
OpenAI បានប្រឈមមុខនឹងសំណួរក្នុងរយៈពេលប៉ុន្មានខែថ្មីៗនេះអំពីផែនការរបស់ខ្លួនសម្រាប់ការអភិវឌ្ឍបញ្ញាសិប្បនិម្មិត និងថាតើវាត្រូវការសុវត្ថិភាពកម្រិតណា។ ទោះបីជាវាត្រូវបានបង្កើតឡើងជាអង្គការមិនរកប្រាក់ចំណេញដែលឧទ្ទិសដល់ការស្រាវជ្រាវពីរបៀបបង្កើតបញ្ញាសិប្បនិម្មិតប្រកបដោយសុវត្ថិភាពក៏ដោយ ក៏ភាពជោគជ័យរបស់ ChatGPT បាននាំមកនូវការវិនិយោគ និងសម្ពាធដ៏ច្រើនក្នុងការប្រើប្រាស់បច្ចេកវិទ្យាថ្មីនេះដើម្បីទទួលបានប្រាក់ចំណេញ។
ប្រភព៖ https://www.baogiaothong.vn/the-gioi-chua-san-sang-phat-trien-ai-thong-minh-nhu-bo-nao-con-nguoi-192241027005459507.htm
Kommentar (0)