លិខិតចំណុចរបត់
Reuters នៅថ្ងៃទី 23 ខែវិច្ឆិកាបានដកស្រង់ប្រភពផ្តាច់មុខដែលនិយាយថា 4 ថ្ងៃមុនពេលការបណ្តេញចេញនាយកប្រតិបត្តិ Sam Altman អ្នកស្រាវជ្រាវមួយចំនួននៅ OpenAI បានផ្ញើលិខិតទៅក្រុមប្រឹក្សាភិបាលរបស់ក្រុមហ៊ុនព្រមានអំពីការរកឃើញបញ្ញាសិប្បនិម្មិត (AI) ដ៏មានឥទ្ធិពលដែលអាចគំរាមកំហែងមនុស្សជាតិ។ លិខិតនេះមិនធ្លាប់ត្រូវបានលើកឡើងពីមុនមក ហើយក្បួនដោះស្រាយ AI ដែលបានរៀបរាប់ខាងលើ គឺជាការអភិវឌ្ឍន៍ដ៏សំខាន់មួយ មុនពេលលោក Sam Altman សហស្ថាបនិក OpenAI ត្រូវបានបណ្តេញចេញនៅថ្ងៃទី 17 ខែវិច្ឆិកា ហើយគាត់បានត្រលប់ទៅកាន់តំណែងនេះវិញនៅថ្ងៃទី 21 ខែវិច្ឆិកា (ម៉ោងនៅសហរដ្ឋអាមេរិក) បន្ទាប់ពីការចរចាពីរជាមួយ OpenAI ។ យោងតាមប្រភព លិខិតនេះគឺជាកត្តាមួយនៅក្នុងបញ្ជីនៃហេតុផលដែលនាំទៅដល់ការសម្រេចចិត្តបណ្តេញក្រុមប្រឹក្សាភិបាលរបស់ OpenAI ទោះបីជានៅក្នុងសេចក្តីប្រកាសផ្លូវការក្រុមហ៊ុនគ្រាន់តែនិយាយថាលោក Altman "មិនមានភាពស៊ីសង្វាក់គ្នា និងត្រង់ក្នុងការទំនាក់ទំនងជាមួយក្រុមប្រឹក្សាភិបាល"។
លោក Altman ( ស្តាំ ) និងមេដឹកនាំនៃក្រុមហ៊ុនបច្ចេកវិទ្យាបានពិភាក្សានៅក្នុងសន្និសីទ APEC នៅ San Francisco (សហរដ្ឋអាមេរិក) នៅថ្ងៃទី 16 ខែវិច្ឆិកា។
អ្នកគ្រប់គ្រងជាន់ខ្ពស់ម្នាក់ក្នុងចំនោមអ្នកគ្រប់គ្រងជាន់ខ្ពស់របស់ OpenAI គឺលោក Mira Murati បានលើកឡើងពីគម្រោងមួយដែលមានឈ្មោះថា Q* ទៅកាន់បុគ្គលិកកាលពីថ្ងៃទី 22 ខែវិច្ឆិកា ហើយបាននិយាយថាក្រុមប្រឹក្សាភិបាលរបស់ក្រុមហ៊ុនបានទទួលលិខិតមួយមុនពេលបណ្តេញលោក Altman នេះបើយោងតាមប្រភព។ ប្រភពមួយបានបង្ហាញឱ្យឃើញថា OpenAI បានធ្វើឱ្យមានការរីកចំរើនលើ Q* ដែលអាចជារបកគំហើញមួយនៅក្នុងដំណើរស្វែងរកភាពវៃឆ្លាតដែលត្រូវបានគេស្គាល់ថាជាសិប្បនិម្មិតទូទៅ (AGI)។
ទោះបីជាគំរូនេះធ្វើត្រឹមតែគណិតវិទ្យាកម្រិតបឋមសិក្សាក៏ដោយ ការដោះស្រាយបញ្ហាបែបនេះធ្វើឱ្យអ្នកស្រាវជ្រាវមានសុទិដ្ឋិនិយមអំពីភាពជោគជ័យនាពេលអនាគតរបស់ Q*។ អ្នកស្រាវជ្រាវមើលឃើញថាគណិតវិទ្យាជាតម្រូវការជាមុនសម្រាប់ការអភិវឌ្ឍ AI ជំនាន់។ Generative AI បច្ចុប្បន្នអាចសរសេរ និងបកប្រែភាសាបាន ទោះបីជាចម្លើយចំពោះសំណួរដូចគ្នាអាចខុសគ្នាខ្លាំងក៏ដោយ។ ប៉ុន្តែការចេះគណិតវិទ្យាដែលមានចម្លើយត្រឹមត្រូវតែមួយបញ្ជាក់ថា AI នឹងអាចវែកញែកបានល្អជាងដូចមនុស្សដែរ។ អ្នកស្រាវជ្រាវជឿថានេះអាចត្រូវបានអនុវត្តចំពោះការស្រាវជ្រាវ វិទ្យាសាស្ត្រ ថ្មី។
Sam Altman ត្រលប់មកវិញជានាយកប្រតិបត្តិនៃ OpenAI
គ្រោះថ្នាក់ដែលអាចកើតមាន?
យោងតាមប្រភពបានឱ្យដឹងថា នៅក្នុងលិខិតមួយផ្ញើទៅកាន់ក្រុមប្រឹក្សាភិបាល OpenAI អ្នកស្រាវជ្រាវបានគូសបញ្ជាក់អំពីថាមពល និងគ្រោះថ្នាក់នៃ AI ។ អ្នកវិទ្យាសាស្ត្រកុំព្យូទ័របានពិភាក្សាជាយូរមកហើយអំពីគ្រោះថ្នាក់ដែលបង្កឡើងដោយម៉ាស៊ីនដ៏ឆ្លាតវៃ ដូចជាថាតើពួកគេអាចសម្រេចចិត្តបំផ្លាញមនុស្សជាតិដើម្បីផលប្រយោជន៍របស់ពួកគេដែរឬទេ។ នៅក្នុងបរិបទនោះ លោក Altman បានដឹកនាំកិច្ចខិតខំប្រឹងប្រែងដើម្បីប្រែក្លាយ ChatGPT ទៅជាកម្មវិធីសូហ្វវែរដែលរីកលូតលាស់លឿនបំផុតក្នុងប្រវត្តិសាស្ត្រ ហើយទាក់ទាញការវិនិយោគ និងធនធានកុំព្យូទ័រដែលត្រូវការដើម្បីចូលទៅជិត AGI ។ បន្ថែមពីលើការប្រកាសអំពីឧបករណ៍ថ្មីៗជាបន្តបន្ទាប់នៅក្នុងព្រឹត្តិការណ៍មួយក្នុងខែនេះ លោក Altman បានប្រាប់មេដឹកនាំ ពិភពលោក នៅក្នុងទីក្រុង San Francisco កាលពីសប្តាហ៍មុនថា លោកជឿថា AGI គឺអាចទៅដល់បាន។ មួយថ្ងៃក្រោយមកគាត់ត្រូវបានបណ្តេញចេញពីក្រុមប្រឹក្សាភិបាល OpenAI ។ OpenAI និងលោក Altman មិនបានឆ្លើយតបភ្លាមៗចំពោះសំណើសុំការអត្ថាធិប្បាយលើលិខិតនោះទេ។
ដោយមានការព្រួយបារម្ភអំពីហានិភ័យដែលអាចបង្កឡើងដោយ AI រដ្ឋាភិបាល លោកខាងលិច និងក្រុមហ៊ុនបច្ចេកវិទ្យាជាច្រើនបានយល់ព្រមលើយន្តការសាកល្បងសុវត្ថិភាពថ្មីមួយ។ ទោះបីជាយ៉ាងណាក៏ដោយ យោងតាម AFP អគ្គលេខាធិការអង្គការសហប្រជាជាតិលោក Antonio Guterres បាននិយាយថាពិភពលោកនៅតែ "លេងតាមទាន់" ក្នុងកិច្ចខិតខំប្រឹងប្រែងដើម្បីគ្រប់គ្រង AI ដែលប្រថុយនឹងផលវិបាកអវិជ្ជមានរយៈពេលវែងសម្រាប់អ្វីគ្រប់យ៉ាងពីការងាររហូតដល់វប្បធម៌។
OpenAI, Microsoft បានប្តឹងពីបទរក្សាសិទ្ធិ
The Hill បានរាយការណ៍កាលពីថ្ងៃទី 23 ខែវិច្ឆិកាថាក្រុមអ្នកនិពន្ធមិនប្រឌិតបានដាក់ពាក្យប្តឹងដោយចោទប្រកាន់ក្រុមហ៊ុនពីរគឺ OpenAI និង Microsoft ពីការបណ្តុះបណ្តាលឧបករណ៍ ChatGPT ដើម្បីចម្លងការងាររបស់ពួកគេដោយគ្មានការយល់ព្រមពីពួកគេ។ នៅក្នុងពាក្យបណ្ដឹងដែលដាក់នៅតុលាការសហព័ន្ធក្នុងទីក្រុងញូវយ៉ក (សហរដ្ឋអាមេរិក) ដើមចោទសំខាន់គឺលោក Julian Sancton បាននិយាយថាគាត់ និងអ្នកនិពន្ធផ្សេងទៀតមិនទទួលបានសំណងណាមួយសម្រាប់ការងារដែលចម្លងដោយ AI ទេ ខណៈដែល OpenAI និង Microsoft ទទួលបានភាពជោគជ័យផ្នែកហិរញ្ញវត្ថុពីការធ្វើពាណិជ្ជកម្មការងារដោយទទួលបានប្រាក់ចំណូលរាប់ពាន់លានដុល្លារពីផលិតផល AI ។ យោងតាម Reuters អ្នកនាំពាក្យ OpenAI បានបដិសេធមិនធ្វើអត្ថាធិប្បាយលើពាក្យបណ្តឹងនេះទេ ខណៈដែលតំណាងក្រុមហ៊ុន Microsoft មិនបានឆ្លើយតបភ្លាមៗចំពោះសំណើសុំការអត្ថាធិប្បាយ។
ប្រភពតំណ
Kommentar (0)