ក្រុម Ant Group របស់ Jack Ma ចូលទីផ្សារ AI ដែលមានតម្លៃទាបរបស់ចិន។ រូបថត៖ Bloomberg ។ |
ក្រុមហ៊ុន Ant Group ដែលជាក្រុមហ៊ុនគាំទ្រដោយមហាសេដ្ឋី Jack Ma កំពុងបង្កើតបច្ចេកទេសដែលអាចកាត់បន្ថយការចំណាយលើការបណ្តុះបណ្តាលសម្រាប់បច្ចេកវិទ្យា AI របស់ខ្លួន 20% ដោយប្រើបន្ទះឈីប semiconductor ដែលមានប្រភពមកពីប្រទេសចិន នេះបើយោងតាម Bloomberg ។
ក្រុមហ៊ុននេះប្រើប្រាស់បន្ទះឈីបដែលបានទិញពី Alibaba និង Huawei ក៏ដូចជាការអនុវត្តន៍វិធីសាស្រ្ត Mixture of Experts machine learning ដែលឃើញនៅក្នុង DeepSeek R1 ដើម្បីបណ្តុះបណ្តាល AI របស់ខ្លួន។
ទោះបីជាមានការកាត់ថ្លៃក៏ដោយ លទ្ធផលរបស់ក្រុមហ៊ុន Ant Group គឺអាចប្រៀបធៀបទៅនឹងក្រុមហ៊ុន AI ដែលប្រើប្រាស់បន្ទះឈីបដ៏មានឥទ្ធិពលបំផុតនាពេលបច្ចុប្បន្ននេះ ដូចជា Nvidia's H800 ជាដើម។
ក្រុមហ៊ុនកំពុងប្រើប្រាស់ជាចម្បង និងផ្លាស់ប្តូរបន្តិចម្តងៗទៅជម្រើសពីបន្ទះឈីប AMD និងចិនសម្រាប់ម៉ូដែល AI ចុងក្រោយបង្អស់របស់ខ្លួន។
ជាមួយនឹងកម្មវិធីដែលមានប្រសិទ្ធភាពខ្ពស់ ក្រុមហ៊ុន Ant Group បានចំណាយរហូតដល់ 6.35 លានយន់ ( 880,000 ដុល្លារ ) ដើម្បីបណ្តុះបណ្តាល 1,000 ពាន់លានថូខឹន។ ប៉ុន្តែជាមួយនឹងវិធីសាស្ត្របង្កើនប្រសិទ្ធភាពចំនួនបានធ្លាក់ចុះមកនៅត្រឹម ៥,១ លានយន់។ ថូខឹនគឺជាឯកតានៃព័ត៌មានដែលគំរូមួយយកទៅសិក្សាអំពីពិភពលោក និងផ្តល់នូវការឆ្លើយតបដ៏មានប្រយោជន៍។
នេះបង្ហាញពីការចូលទៅក្នុងការប្រណាំង AI ដែលកំពុងមានការកើនឡើងរវាងប្រទេសចិន និងសហរដ្ឋអាមេរិក ចាប់តាំងពី DeepSeek បានបង្ហាញថាម៉ូដែលអាចត្រូវបានបណ្តុះបណ្តាលក្នុងតម្លៃតិចជាងរាប់ពាន់លានដុល្លារដែលចំណាយដោយ OpenAI ឬ Google ។
H800 របស់ Nvidia ខណៈពេលដែលមិនមែនជាបន្ទះឈីបកម្រិតខ្ពស់បំផុត នៅតែជាដំណើរការដ៏មានថាមពល ហើយត្រូវបានហាមឃាត់មិនឱ្យនាំចេញទៅកាន់ប្រទេសចិនដោយសហរដ្ឋអាមេរិក។ ដូច្នេះក្រុមហ៊ុនចិនកំពុងព្យាយាមស្វែងរកជម្រើសដើម្បីបន្តនាំមុខក្នុងការប្រណាំង។
Ant Group ពីមុនបានចេញផ្សាយការសិក្សាមួយ ដោយអះអាងថា ពេលខ្លះម៉ូដែលរបស់វាបានដំណើរការជាង Meta Platforms លើរង្វាស់វាយតម្លៃជាក់លាក់។ ប្រសិនបើជាការពិត ម៉ូដែលទាំងនេះនឹងបង្ហាញពីការលោតផ្លោះ quantum សម្រាប់ AI របស់ចិន ជាមួយនឹងការចំណាយលើការអភិវឌ្ឍន៍យ៉ាងខ្លាំង។
សមិទ្ធិផលនេះគឺអរគុណដល់ DeepSeek ជាមួយនឹងវិធីសាស្ត្រ MoE machine learning របស់វា ដែលជួយបង្កើនការអនុវត្ត និងកាត់បន្ថយការចំណាយលើកុំព្យូទ័រ។ ជាពិសេស វិធីសាស្រ្តនេះជួយឱ្យម៉ូដែល AI បំបែកបញ្ហា ហើយគ្រាន់តែត្រូវការធ្វើឱ្យសកម្មផ្នែកតូចមួយនៃទិន្នន័យដែលគ្រប់គ្រាន់ដើម្បីដោះស្រាយភារកិច្ច។
ទោះជាយ៉ាងណាក៏ដោយ ការបណ្ដុះបណ្ដាលគំរូ MoE នៅតែត្រូវការបន្ទះឈីបដែលមានប្រសិទ្ធភាពខ្ពស់ដូចជាអង្គភាពដំណើរការក្រាហ្វិក (GPUs) ដែលផ្តល់ដោយ Nvidia ជាដើម។ ពីចំណងជើងនៃឯកសារស្រាវជ្រាវរបស់ Ant "ការអភិវឌ្ឍន៍ MoE Models ដោយគ្មាន GPUs កម្រិតខ្ពស់" វាអាចត្រូវបានគេមើលឃើញថាក្រុមហ៊ុនកំពុងព្យាយាមបំបែករបាំងខាងលើ។
នេះប្រឆាំងនឹងយុទ្ធសាស្ត្ររបស់ Nvidia ។ នាយកប្រតិបត្តិក្រុមហ៊ុន Jensen Huang អះអាងថា តម្រូវការកុំព្យូទ័រនឹងបន្តកើនឡើង សូម្បីតែម៉ូដែលដែលមានប្រសិទ្ធភាពជាងមុនដូចជា DeepSeek R1 លេចឡើង។
គាត់ជឿជាក់ថាក្រុមហ៊ុននឹងត្រូវការបន្ទះឈីបដ៏មានឥទ្ធិពលបន្ថែមទៀតដើម្បីបន្តបង្កើនប្រាក់ចំណូល ជាជាងតម្លៃថោកជាងដើម្បីកាត់បន្ថយការចំណាយ។ ដូច្នេះ Nvidia កំពុងប្រកាន់ខ្ជាប់នូវយុទ្ធសាស្រ្តរបស់ខ្លួនក្នុងការអភិវឌ្ឍន៍ GPU ជាមួយនឹងស្នូលដំណើរការកាន់តែច្រើន ត្រង់ស៊ីស្ទ័រ និងសមត្ថភាពអង្គចងចាំកាន់តែខ្ពស់។
ទន្ទឹមនឹងនេះដែរ Ant គ្រោងនឹងប្រើប្រាស់ការទម្លាយថ្មីៗនៅក្នុងគំរូភាសាធំៗដែលខ្លួនបានបង្កើត រួមទាំង Ling-Plus និង Ling-Lite ដើម្បីផ្តល់ដំណោះស្រាយ AI សម្រាប់ឧស្សាហកម្មរួមទាំងការថែទាំសុខភាព និងហិរញ្ញវត្ថុ។
ក្រុមហ៊ុនបានទិញយកវេទិកាអនឡាញចិន Haodf.com ក្នុងឆ្នាំ 2025 ដើម្បីបង្កើនសេវាកម្មបញ្ញាសិប្បនិម្មិតរបស់ខ្លួនក្នុងវិស័យថែទាំសុខភាព ហើយក៏ជាម្ចាស់កម្មវិធីជំនួយជីវិត AI Zhixiaobao និងសេវាកម្មប្រឹក្សាហិរញ្ញវត្ថុ AI Maxiaocai ផងដែរ។
នៅក្នុងក្រដាសនោះ Ant បាននិយាយថា Ling-Lite បានដំណើរការជាងម៉ូដែល Llama របស់ Meta នៅលើរង្វាស់សំខាន់នៃការយល់ដឹងភាសាអង់គ្លេស។
ទាំង Ling-Lite និង Ling-Plus បានដំណើរការជាងម៉ូដែលសមមូលរបស់ DeepSeek លើការធ្វើតេស្តភាសាចិន។
ម៉ូដែល Ling ក៏ត្រូវបានបញ្ចេញជាសាធារណៈផងដែរ។ Ling-Lite មានប៉ារ៉ាម៉ែត្រ 16.8 ពាន់លាន Ling-Plus មាន 290 ពាន់លាន ដែលត្រូវបានចាត់ទុកថាមានទំហំធំណាស់ក្នុងវិស័យគំរូភាសា បើធៀបនឹង 1,800 ពាន់លាននៃ ChatGPT GPT-4.5 និង 671 នៃ DeepSeek R1 ។
ទោះជាយ៉ាងណាក៏ដោយ Ant បានជួបប្រទះបញ្ហាប្រឈមផ្នែកស្ថេរភាពមួយចំនួនអំឡុងពេលហ្វឹកហាត់។ ក្រុមហ៊ុនបាននិយាយថាសូម្បីតែការផ្លាស់ប្តូរបន្តិចបន្តួចនៅក្នុងផ្នែករឹងឬរចនាសម្ព័ន្ធរបស់ម៉ូដែលអាចនាំឱ្យមានការកើនឡើងភ្លាមៗនៃអត្រាកំហុសរបស់ម៉ូដែល។
ប្រភព៖ https://znews.vn/cong-ty-cua-jack-ma-lai-gay-chu-y-post1540514.html
Kommentar (0)