Vietnam.vn - Nền tảng quảng bá Việt Nam

ប៉ារ៉ាម៉ែត្រតិចជាងមុន ទិន្នន័យច្រើនជាងមុន

VietNamNetVietNamNet18/05/2023

[ការផ្សាយពាណិជ្ជកម្ម_1]

PaLM 2 ដែលជាគំរូភាសាធំ (LLM) ចុងក្រោយបង្អស់របស់ Google ដែលបានប្រកាសកាលពីសប្តាហ៍មុន ប្រើប្រាស់ទិន្នន័យបណ្តុះបណ្តាលជិតប្រាំដងបើប្រៀបធៀបទៅនឹងគំរូមុនឆ្នាំ 2022 របស់វា ដែលអាចឱ្យវាសរសេរកម្មវិធី ដោះស្រាយបញ្ហា និងបង្កើតខ្លឹមសារកម្រិតខ្ពស់ជាងមុន។

នៅក្នុងសន្និសីទអ្នកអភិវឌ្ឍន៍ Google I/O ក្រុមហ៊ុនស្វែងរកយក្សមួយនេះបានណែនាំ PaLM 2 ដែលជាគំរូបណ្តុះបណ្តាលភាសាដែលផ្អែកលើថូខឹនចំនួន 3.6 ពាន់ពាន់លាន។ ថូខឹនទាំងនេះគឺជាខ្សែអក្សរនៃពាក្យ - ប្លុកសំណង់ដែលប្រើក្នុងការបណ្តុះបណ្តាល LLM ដើម្បីទស្សន៍ទាយពាក្យបន្ទាប់ដែលនឹងលេចឡើង។

កំណែមុនរបស់ PaLM ត្រូវបានចេញផ្សាយនៅឆ្នាំ 2022 ហើយបានហ្វឹកហាត់ដោយប្រើប្រាស់ថូខឹនចំនួន 780 ពាន់លាន។

នៅក្នុងព្រឹត្តិការណ៍ Google I/O កាលពីសប្តាហ៍មុន នាយកប្រតិបត្តិក្រុមហ៊ុន Google លោក Sundar Pichai បានណែនាំគំរូភាសាធំចុងក្រោយបង្អស់របស់ក្រុមហ៊ុនគឺ PaLM 2។

ទោះបីជា Google តែងតែបង្ហាញអំណាចនៃ AI ក្នុងការស្វែងរក អ៊ីមែល ការដំណើរការពាក្យ និងកិច្ចការសៀវភៅបញ្ជីក៏ដោយ ក្រុមហ៊ុននេះមានភាពស្ទាក់ស្ទើរក្នុងការបង្ហាញទំហំ ឬព័ត៌មានលម្អិតនៃសំណុំទិន្នន័យបណ្តុះបណ្តាលរបស់ខ្លួន។ OpenAI ក៏រក្សាព័ត៌មានលម្អិតនៃប៉ារ៉ាម៉ែត្របណ្តុះបណ្តាល LLM ចុងក្រោយបំផុតរបស់ខ្លួនគឺ GPT-4 ជាការសម្ងាត់ផងដែរ។

ក្រុមហ៊ុនបច្ចេកវិទ្យាពន្យល់ពីរឿងនេះដោយលើកឡើងពីលក្ខណៈប្រកួតប្រជែងនៃអាជីវកម្មរបស់ពួកគេ។ ទាំង Google និង OpenAI កំពុងតែប្រណាំងប្រជែងគ្នាដើម្បីទាក់ទាញអ្នកប្រើប្រាស់ជាមួយនឹងផលិតផល chatbot ជំនួសឱ្យម៉ាស៊ីនស្វែងរកបែបប្រពៃណី។

បង្រួម មានថាមពលខ្លាំង និងសន្សំសំចៃ។

Google បានបញ្ជាក់ថា PaLM 2 មានទំហំតូចជាងម៉ូដែលមុនៗ ដោយត្រូវបានបណ្តុះបណ្តាលជាមួយនឹងប៉ារ៉ាម៉ែត្រចំនួន 340 ពាន់លានបើប្រៀបធៀបទៅនឹងប៉ារ៉ាម៉ែត្រចំនួន 540 ពាន់លាននៅក្នុងកំណែមុន។ នេះបង្ហាញថាបច្ចេកវិទ្យារបស់ក្រុមហ៊ុនកាន់តែមានប្រសិទ្ធភាពក្នុងការអនុវត្តភារកិច្ចស្មុគស្មាញ។

ដើម្បីសម្រេចបាននូវគោលដៅនេះ PaLM 2 ប្រើប្រាស់បច្ចេកទេសថ្មីមួយហៅថា "ការបង្កើនប្រសិទ្ធភាពកុំព្យូទ័របន្ថែម" ដែលផ្តល់នូវ "ដំណើរការរួមកាន់តែប្រសើរឡើង រួមទាំងការសន្និដ្ឋានលឿនជាងមុនជាមួយនឹងប៉ារ៉ាម៉ែត្រតិចជាងមុន ដោយហេតុនេះកាត់បន្ថយថ្លៃដើមប្រតិបត្តិការ"។

គំរូភាសា AI ចុងក្រោយបំផុតរបស់ Google ដែលត្រូវបានបណ្តុះបណ្តាលជាង 100 ភាសា កំពុងអនុវត្តភារកិច្ចផ្សេងៗសម្រាប់មុខងារ និងផលិតផលចំនួន 25 រួមទាំង chatbot ពិសោធន៍ Bard ផងដែរ។ PaLM 2 មានបួនកំណែដោយផ្អែកលើទំហំ ពីតូចបំផុតទៅធំបំផុត៖ Gecko, Otter, Bison និង Unicorn។

យោងតាមឯកសារដែលមានជាសាធារណៈ PaLM 2 មានអានុភាពខ្លាំងជាងម៉ូដែលដែលមានស្រាប់។ LlaMA របស់ Facebook ដែលបានដាក់ឱ្យដំណើរការក្នុងខែកុម្ភៈ ត្រូវបានបណ្តុះបណ្តាលលើថូខឹនចំនួន 1.4 ពាន់ពាន់លាន។ ទន្ទឹមនឹងនេះ លើកចុងក្រោយដែល OpenAI បានបង្ហាញជាសាធារណៈអំពីទំហំទិន្នន័យបណ្តុះបណ្តាលសម្រាប់ ChatGPT គឺកំណែ GPT-3 ដែលមានថូខឹនចំនួន 300 ពាន់លាន។

ការផ្ទុះឡើងនៃកម្មវិធី AI បានបង្កើតភាពចម្រូងចម្រាសជុំវិញបច្ចេកវិទ្យានេះ។ កាលពីដើមឆ្នាំនេះ លោក El Mahdi ដែលជា អ្នកវិទ្យាសាស្ត្រ ជាន់ខ្ពស់នៅ Google Research បានលាលែងពីតំណែងដើម្បីតវ៉ាប្រឆាំងនឹងកង្វះតម្លាភាពរបស់ក្រុមហ៊ុនស្វែងរកយក្សនេះ។

នៅសប្តាហ៍នេះ លោក Sam Altman នាយកប្រតិបត្តិ OpenAI ក៏បានផ្តល់សក្ខីកម្មនៅចំពោះមុខគណៈកម្មាធិការរងយុត្តិធម៌ព្រឹទ្ធសភាអាមេរិកស្តីពីភាពឯកជន និងបច្ចេកវិទ្យា ក្នុងបរិបទនៃការកើនឡើងនៃអត្រារីករាលដាលនៃ AI។ នៅទីនោះ អ្នកបង្កើត ChatGPT បានយល់ស្របជាមួយអ្នកតាក់តែងច្បាប់ថា បទប្បញ្ញត្តិថ្មីគឺត្រូវការជាចាំបាច់ដើម្បីគ្រប់គ្រង AI។

(យោងតាម ​​CNBC)


[ការផ្សាយពាណិជ្ជកម្ម_២]
ប្រភព

Kommentar (0)

សូមអធិប្បាយដើម្បីចែករំលែកអារម្មណ៍របស់អ្នក!

ប្រធានបទដូចគ្នា

ប្រភេទដូចគ្នា

សូមកោតសរសើរព្រះវិហារដ៏ស្រស់ស្អាត ដែលជាកន្លែងចុះឈ្មោះចូលដ៏ក្តៅគគុកនៅរដូវបុណ្យណូអែលនេះ។
«វិហារពណ៌ផ្កាឈូក» អាយុ 150 ឆ្នាំ ភ្លឺចែងចាំងយ៉ាងអស្ចារ្យនៅរដូវបុណ្យណូអែលនេះ។
នៅភោជនីយដ្ឋានហ្វ័រហាណូយនេះ ពួកគេធ្វើមីហ្វ័រដោយខ្លួនឯងក្នុងតម្លៃ 200,000 ដុង ហើយអតិថិជនត្រូវបញ្ជាទិញជាមុន។
បរិយាកាសបុណ្យណូអែលមានភាពរស់រវើកនៅតាមដងផ្លូវនៃទីក្រុងហាណូយ។

អ្នកនិពន្ធដូចគ្នា

បេតិកភណ្ឌ

រូប

អាជីវកម្ម

ផ្កាយណូអែលកម្ពស់ ៨ ម៉ែត្រដែលបំភ្លឺវិហារ Notre Dame ក្នុងទីក្រុងហូជីមិញ គឺពិតជាគួរឱ្យចាប់អារម្មណ៍ជាពិសេស។

ព្រឹត្តិការណ៍បច្ចុប្បន្ន

ប្រព័ន្ធនយោបាយ

ក្នុងស្រុក

ផលិតផល