PaLM 2 ដែលជាគំរូភាសាធំ (LLM) ចុងក្រោយបង្អស់របស់ Google ដែលបានប្រកាសកាលពីសប្តាហ៍មុន ប្រើប្រាស់ទិន្នន័យបណ្តុះបណ្តាលជិតប្រាំដងបើប្រៀបធៀបទៅនឹងគំរូមុនឆ្នាំ 2022 របស់វា ដែលអាចឱ្យវាសរសេរកម្មវិធី ដោះស្រាយបញ្ហា និងបង្កើតខ្លឹមសារកម្រិតខ្ពស់ជាងមុន។
នៅក្នុងសន្និសីទអ្នកអភិវឌ្ឍន៍ Google I/O ក្រុមហ៊ុនស្វែងរកយក្សមួយនេះបានណែនាំ PaLM 2 ដែលជាគំរូបណ្តុះបណ្តាលភាសាដែលផ្អែកលើថូខឹនចំនួន 3.6 ពាន់ពាន់លាន។ ថូខឹនទាំងនេះគឺជាខ្សែអក្សរនៃពាក្យ - ប្លុកសំណង់ដែលប្រើក្នុងការបណ្តុះបណ្តាល LLM ដើម្បីទស្សន៍ទាយពាក្យបន្ទាប់ដែលនឹងលេចឡើង។
កំណែមុនរបស់ PaLM ត្រូវបានចេញផ្សាយនៅឆ្នាំ 2022 ហើយបានហ្វឹកហាត់ដោយប្រើប្រាស់ថូខឹនចំនួន 780 ពាន់លាន។
ទោះបីជា Google តែងតែបង្ហាញអំណាចនៃ AI ក្នុងការស្វែងរក អ៊ីមែល ការដំណើរការពាក្យ និងកិច្ចការសៀវភៅបញ្ជីក៏ដោយ ក្រុមហ៊ុននេះមានភាពស្ទាក់ស្ទើរក្នុងការបង្ហាញទំហំ ឬព័ត៌មានលម្អិតនៃសំណុំទិន្នន័យបណ្តុះបណ្តាលរបស់ខ្លួន។ OpenAI ក៏រក្សាព័ត៌មានលម្អិតនៃប៉ារ៉ាម៉ែត្របណ្តុះបណ្តាល LLM ចុងក្រោយបំផុតរបស់ខ្លួនគឺ GPT-4 ជាការសម្ងាត់ផងដែរ។
ក្រុមហ៊ុនបច្ចេកវិទ្យាពន្យល់ពីរឿងនេះដោយលើកឡើងពីលក្ខណៈប្រកួតប្រជែងនៃអាជីវកម្មរបស់ពួកគេ។ ទាំង Google និង OpenAI កំពុងតែប្រណាំងប្រជែងគ្នាដើម្បីទាក់ទាញអ្នកប្រើប្រាស់ជាមួយនឹងផលិតផល chatbot ជំនួសឱ្យម៉ាស៊ីនស្វែងរកបែបប្រពៃណី។
បង្រួម មានថាមពលខ្លាំង និងសន្សំសំចៃ។
Google បានបញ្ជាក់ថា PaLM 2 មានទំហំតូចជាងម៉ូដែលមុនៗ ដោយត្រូវបានបណ្តុះបណ្តាលជាមួយនឹងប៉ារ៉ាម៉ែត្រចំនួន 340 ពាន់លានបើប្រៀបធៀបទៅនឹងប៉ារ៉ាម៉ែត្រចំនួន 540 ពាន់លាននៅក្នុងកំណែមុន។ នេះបង្ហាញថាបច្ចេកវិទ្យារបស់ក្រុមហ៊ុនកាន់តែមានប្រសិទ្ធភាពក្នុងការអនុវត្តភារកិច្ចស្មុគស្មាញ។
ដើម្បីសម្រេចបាននូវគោលដៅនេះ PaLM 2 ប្រើប្រាស់បច្ចេកទេសថ្មីមួយហៅថា "ការបង្កើនប្រសិទ្ធភាពកុំព្យូទ័របន្ថែម" ដែលផ្តល់នូវ "ដំណើរការរួមកាន់តែប្រសើរឡើង រួមទាំងការសន្និដ្ឋានលឿនជាងមុនជាមួយនឹងប៉ារ៉ាម៉ែត្រតិចជាងមុន ដោយហេតុនេះកាត់បន្ថយថ្លៃដើមប្រតិបត្តិការ"។
គំរូភាសា AI ចុងក្រោយបំផុតរបស់ Google ដែលត្រូវបានបណ្តុះបណ្តាលជាង 100 ភាសា កំពុងអនុវត្តភារកិច្ចផ្សេងៗសម្រាប់មុខងារ និងផលិតផលចំនួន 25 រួមទាំង chatbot ពិសោធន៍ Bard ផងដែរ។ PaLM 2 មានបួនកំណែដោយផ្អែកលើទំហំ ពីតូចបំផុតទៅធំបំផុត៖ Gecko, Otter, Bison និង Unicorn។
យោងតាមឯកសារដែលមានជាសាធារណៈ PaLM 2 មានអានុភាពខ្លាំងជាងម៉ូដែលដែលមានស្រាប់។ LlaMA របស់ Facebook ដែលបានដាក់ឱ្យដំណើរការក្នុងខែកុម្ភៈ ត្រូវបានបណ្តុះបណ្តាលលើថូខឹនចំនួន 1.4 ពាន់ពាន់លាន។ ទន្ទឹមនឹងនេះ លើកចុងក្រោយដែល OpenAI បានបង្ហាញជាសាធារណៈអំពីទំហំទិន្នន័យបណ្តុះបណ្តាលសម្រាប់ ChatGPT គឺកំណែ GPT-3 ដែលមានថូខឹនចំនួន 300 ពាន់លាន។
ការផ្ទុះឡើងនៃកម្មវិធី AI បានបង្កើតភាពចម្រូងចម្រាសជុំវិញបច្ចេកវិទ្យានេះ។ កាលពីដើមឆ្នាំនេះ លោក El Mahdi ដែលជា អ្នកវិទ្យាសាស្ត្រ ជាន់ខ្ពស់នៅ Google Research បានលាលែងពីតំណែងដើម្បីតវ៉ាប្រឆាំងនឹងកង្វះតម្លាភាពរបស់ក្រុមហ៊ុនស្វែងរកយក្សនេះ។
នៅសប្តាហ៍នេះ លោក Sam Altman នាយកប្រតិបត្តិ OpenAI ក៏បានផ្តល់សក្ខីកម្មនៅចំពោះមុខគណៈកម្មាធិការរងយុត្តិធម៌ព្រឹទ្ធសភាអាមេរិកស្តីពីភាពឯកជន និងបច្ចេកវិទ្យា ក្នុងបរិបទនៃការកើនឡើងនៃអត្រារីករាលដាលនៃ AI។ នៅទីនោះ អ្នកបង្កើត ChatGPT បានយល់ស្របជាមួយអ្នកតាក់តែងច្បាប់ថា បទប្បញ្ញត្តិថ្មីគឺត្រូវការជាចាំបាច់ដើម្បីគ្រប់គ្រង AI។
(យោងតាម CNBC)
[ការផ្សាយពាណិជ្ជកម្ម_២]
ប្រភព






Kommentar (0)