លិខិតចំណុចរបត់
Reuters នៅថ្ងៃទី 23 ខែវិច្ឆិកាបានដកស្រង់ប្រភពផ្តាច់មុខដែលនិយាយថា 4 ថ្ងៃមុនពេលការបណ្តេញចេញនាយកប្រតិបត្តិ Sam Altman អ្នកស្រាវជ្រាវមួយចំនួននៅ OpenAI បានផ្ញើលិខិតទៅក្រុមប្រឹក្សាភិបាលរបស់ក្រុមហ៊ុនព្រមានអំពីការរកឃើញបញ្ញាសិប្បនិម្មិត (AI) ដ៏មានឥទ្ធិពលដែលអាចគំរាមកំហែងមនុស្សជាតិ។ លិខិតនេះមិនធ្លាប់ត្រូវបានលើកឡើងពីមុនមក ហើយក្បួនដោះស្រាយ AI ដែលបានរៀបរាប់ខាងលើគឺជាការអភិវឌ្ឍន៍ដ៏សំខាន់មួយ មុនពេលលោក Sam Altman ដែលជាសហស្ថាបនិករបស់ OpenAI ត្រូវបានបណ្តេញចេញនៅថ្ងៃទី 17 ខែវិច្ឆិកា ហើយគាត់បានត្រលប់ទៅកាន់តំណែងនេះវិញនៅថ្ងៃទី 21 ខែវិច្ឆិកា (ម៉ោងនៅសហរដ្ឋអាមេរិក) បន្ទាប់ពីការចរចាពីរជាមួយ OpenAI ។ យោងតាមប្រភព លិខិតនេះគឺជាកត្តាមួយនៅក្នុងបញ្ជីនៃហេតុផលដែលនាំទៅដល់ការសម្រេចចិត្តបណ្តេញក្រុមប្រឹក្សាភិបាលរបស់ OpenAI ទោះបីជានៅក្នុងសេចក្តីប្រកាសផ្លូវការ ក្រុមហ៊ុនគ្រាន់តែនិយាយថាលោក Altman "មិនមានភាពស៊ីសង្វាក់គ្នា និងត្រង់ក្នុងការទំនាក់ទំនងជាមួយក្រុមប្រឹក្សាភិបាល"។
លោក Altman ( ស្តាំ ) និងមេដឹកនាំនៃក្រុមហ៊ុនបច្ចេកវិទ្យាបានពិភាក្សានៅក្នុងសន្និសីទ APEC នៅ San Francisco (សហរដ្ឋអាមេរិក) នៅថ្ងៃទី 16 ខែវិច្ឆិកា។
នាយកប្រតិបត្តិដ៏យូរម្នាក់របស់ OpenAI គឺលោក Mira Murati បានលើកឡើងពីគម្រោងមួយដែលមានឈ្មោះថា Q* ទៅកាន់បុគ្គលិកកាលពីថ្ងៃទី 22 ខែវិច្ឆិកា ហើយបាននិយាយថា ក្រុមប្រឹក្សាភិបាលរបស់ក្រុមហ៊ុនបានទទួលសំបុត្រមួយមុនពេល Altman ត្រូវបានបណ្តេញចេញពីការងារ នេះបើយោងតាមមនុស្ស។ ប្រភពមួយបាននិយាយថា OpenAI បានធ្វើឱ្យមានការរីកចំរើនលើ Q* ដែលអាចជារបកគំហើញមួយនៅក្នុងដំណើរស្វែងរកភាពវៃឆ្លាតដែលត្រូវបានគេស្គាល់ថាជាសិប្បនិម្មិតទូទៅ (AGI)។
ទោះបីជាគំរូនេះអាចធ្វើគណិតវិទ្យាកម្រិតបឋមសិក្សាក៏ដោយ ការដោះស្រាយបញ្ហាបែបនេះធ្វើឱ្យអ្នកស្រាវជ្រាវមានសុទិដ្ឋិនិយមអំពីភាពជោគជ័យនាពេលអនាគតរបស់ Q*។ អ្នកស្រាវជ្រាវមើលឃើញថាគណិតវិទ្យាជាតម្រូវការជាមុនសម្រាប់ការអភិវឌ្ឍ AI ជំនាន់។ Generative AI បច្ចុប្បន្នអាចសរសេរ និងបកប្រែភាសាបាន ទោះបីជាចម្លើយចំពោះសំណួរដូចគ្នាអាចខុសគ្នាខ្លាំងក៏ដោយ។ ប៉ុន្តែការចេះគណិតវិទ្យាដែលមានចម្លើយត្រឹមត្រូវតែមួយនោះបញ្ជាក់ថា AI នឹងអាចវែកញែកបានល្អជាងដូចមនុស្ស។ អ្នកស្រាវជ្រាវជឿថានេះអាចត្រូវបានអនុវត្តចំពោះការស្រាវជ្រាវ វិទ្យាសាស្ត្រ ថ្មី។
Sam Altman ត្រលប់មកវិញជានាយកប្រតិបត្តិនៃ OpenAI
គ្រោះថ្នាក់ដែលអាចកើតមាន?
នៅក្នុងលិខិតមួយទៅកាន់ក្រុមប្រឹក្សាភិបាលរបស់ OpenAI អ្នកស្រាវជ្រាវបានគូសបញ្ជាក់អំពីថាមពល និងគ្រោះថ្នាក់នៃ AI នេះបើយោងតាមមនុស្ស។ អ្នកវិទ្យាសាស្ត្រកុំព្យូទ័របានពិភាក្សាជាយូរមកហើយអំពីគ្រោះថ្នាក់ដែលបង្កឡើងដោយម៉ាស៊ីនដ៏ឆ្លាតវៃ ដូចជាថាតើពួកគេអាចសម្រេចចិត្តបំផ្លាញមនុស្សជាតិដើម្បីផលប្រយោជន៍របស់ពួកគេដែរឬទេ។ ប្រឆាំងនឹងផ្ទៃខាងក្រោយនោះ Altman បានដឹកនាំកិច្ចខិតខំប្រឹងប្រែងដើម្បីប្រែក្លាយ ChatGPT ទៅជាកម្មវិធីសូហ្វវែរដែលរីកលូតលាស់លឿនបំផុតក្នុងប្រវត្តិសាស្ត្រ ហើយទាក់ទាញការវិនិយោគ និងធនធានកុំព្យូទ័រដែលត្រូវការដើម្បីផ្លាស់ទីទៅជិត AGI ។ បន្ថែមពីលើការប្រកាសអំពីឧបករណ៍ថ្មីៗជាច្រើននៅក្នុងព្រឹត្តិការណ៍មួយក្នុងខែនេះ លោក Altman បានប្រាប់មេដឹកនាំ ពិភពលោក នៅក្នុងទីក្រុង San Francisco កាលពីសប្តាហ៍មុនថាគាត់ជឿថា AGI អាចទៅដល់បាន។ មួយថ្ងៃក្រោយមកគាត់ត្រូវបានបណ្តេញចេញពីក្រុមប្រឹក្សាភិបាលរបស់ OpenAI ។ OpenAI និង Altman មិនបានឆ្លើយតបភ្លាមៗចំពោះសំណើសុំការអត្ថាធិប្បាយលើលិខិតនោះទេ។
ការព្រួយបារម្ភអំពីហានិភ័យដែលអាចបង្កឡើងដោយ AI រដ្ឋាភិបាល លោកខាងលិច និងក្រុមហ៊ុនបច្ចេកវិទ្យាជាច្រើនបានយល់ព្រមលើរបបសាកល្បងសុវត្ថិភាពថ្មីមួយ។ ទោះបីជាយ៉ាងណាក៏ដោយ យោងតាម AFP អគ្គលេខាធិការអង្គការសហប្រជាជាតិលោក Antonio Guterres បាននិយាយថាពិភពលោកនៅតែ "លេងតាមទាន់" ក្នុងកិច្ចខិតខំប្រឹងប្រែងដើម្បីគ្រប់គ្រង AI ដែលប្រថុយនឹងផលវិបាកអវិជ្ជមានរយៈពេលវែងសម្រាប់អ្វីគ្រប់យ៉ាងពីការងាររហូតដល់វប្បធម៌។
OpenAI, Microsoft បានប្តឹងពីបទរក្សាសិទ្ធិ
អ្នកនិពន្ធរឿងមិនប្រឌិតមួយក្រុមបានដាក់ពាក្យប្តឹង OpenAI និង Microsoft ដោយចោទប្រកាន់ពួកគេថាបានបណ្តុះបណ្តាលឧបករណ៍មួយឈ្មោះថា ChatGPT ដើម្បីចម្លងការងាររបស់ពួកគេដោយគ្មានការយល់ព្រមពីពួកគេ។ នៅក្នុងពាក្យបណ្ដឹងដែលបានដាក់នៅតុលាការសហព័ន្ធនៅទីក្រុងញូវយ៉ក ដើម បណ្តឹងនាំមុខគឺលោក Julian Sancton បាននិយាយថាគាត់និងអ្នកនិពន្ធផ្សេងទៀតមិនបានទទួលសំណងណាមួយសម្រាប់ការងារដែលក្រុមហ៊ុន Microsoft សម្រេចបានដោយ AI ដែលចម្លងតាមពាណិជ្ជកម្ម និង AI ។ ទទួលបានប្រាក់ចំណូលរាប់ពាន់លានដុល្លារពីផលិតផល AI ។ យោងតាម Reuters អ្នកនាំពាក្យរបស់ OpenAI បានបដិសេធមិនធ្វើអត្ថាធិប្បាយលើពាក្យបណ្តឹងនេះទេ ខណៈដែលតំណាងក្រុមហ៊ុន Microsoft មិនបានឆ្លើយតបភ្លាមៗចំពោះសំណើសុំការអត្ថាធិប្បាយនោះទេ។
ប្រភពតំណ
Kommentar (0)