យោងតាម អាជ្ញាធរ Android ឯកសារស្រាវជ្រាវរបស់ក្រុមហ៊ុន Apple រៀបរាប់លម្អិតអំពីដំណោះស្រាយសម្រាប់ដំណើរការគំរូភាសាធំ (LLMs) នៅលើឧបករណ៍ដែលមាន RAM មានកំណត់។ ក្រដាសបង្ហាញពីរបៀបដែលក្រុមហ៊ុនអាចរក្សាទុក "ប៉ារ៉ាម៉ែត្រគំរូ" និងផ្ទុកផ្នែកមួយនៃពួកវាទៅក្នុង RAM របស់ឧបករណ៍នៅពេលចាំបាច់ ជំនួសឱ្យការផ្ទុកគំរូទាំងមូលទៅក្នុង RAM ។
ក្រុមហ៊ុន Apple កំពុងស្វែងរកជំនួយដល់ iPhone ចាស់ៗដែលមាន RAM តិចដំណើរការ AI ទូទៅ
ឯកសារនេះបានអះអាងថាវិធីសាស្ត្រនេះអនុញ្ញាតឱ្យដំណើរការម៉ូដែលដែលត្រូវការ RAM ពីរដងដែល iPhone អាចមានខណៈពេលដែលនៅតែធានាបាននូវល្បឿន 4-5x និង 20-25x បើប្រៀបធៀបទៅនឹងវិធីសាស្ត្រផ្ទុកសាមញ្ញនៅលើ CPU និង GPU រៀងគ្នា។
ការដាក់ពង្រាយ AI សំយោគនៅលើឧបករណ៍ដែលមាន RAM ច្រើននឹងក្លាយជាអត្ថប្រយោជន៍ដ៏ធំព្រោះវានឹងអនុញ្ញាតឱ្យមានល្បឿនអាន/សរសេរលឿនជាងមុន។ ល្បឿនមានសារៈសំខាន់សម្រាប់ AI នៅលើឧបករណ៍ ដែលអនុញ្ញាតឱ្យមានពេលវេលាសន្និដ្ឋានលឿនជាងមុន ដោយសារអ្នកប្រើប្រាស់មិនចាំបាច់រង់ចាំរាប់សិបវិនាទី (ឬច្រើនជាងនេះ) សម្រាប់ការឆ្លើយតប ឬលទ្ធផលចុងក្រោយ។ ទាំងអស់នេះមានន័យថា ជំនួយការ AI នៅលើឧបករណ៍អាចមានសក្តានុពលដំណើរការក្នុងល្បឿនសន្ទនា បង្កើតរូបភាព/អត្ថបទកាន់តែលឿន សង្ខេបអត្ថបទលឿនជាងមុន។
វិធីសាស្រ្តរបស់ Apple អាចអនុញ្ញាតឱ្យ iPhone ចាស់ និងថ្មីផ្តល់មុខងារ AI សំយោគនៅលើឧបករណ៍។ នោះជារឿងសំខាន់ ដោយសារតែ iPhone របស់ Apple ជាធម្មតាផ្តល់ RAM តិចជាងទូរស័ព្ទ Android លំដាប់ខ្ពស់។ ជាឧទាហរណ៍ ស៊េរី iPhone 11 ផ្តល់ RAM ត្រឹមតែ 4GB ប៉ុណ្ណោះ ខណៈពេលដែល iPhone 15 កម្រិតដំបូងមានត្រឹមតែ 6GB ប៉ុណ្ណោះ។
Apple មិនមែនជាក្រុមហ៊ុនទូរស័ព្ទតែមួយគត់ដែលធ្វើការលើការបង្រួម LLM នោះទេ។ បន្ទះឈីបកំពូលចុងក្រោយរបស់ Qualcomm និង MediaTek ទាំងពីរគាំទ្រភាពជាក់លាក់ INT4 ដើម្បីកាត់បន្ថយម៉ូដែលទាំងនេះ។ ទោះយ៉ាងណាក៏ដោយ ក្រុមហ៊ុននានាកំពុងព្យាយាមស្វែងរកវិធីថ្មីដើម្បីកាត់បន្ថយតម្រូវការប្រព័ន្ធសម្រាប់ AI នៅលើឧបករណ៍ ដោយអនុញ្ញាតឱ្យសូម្បីតែទូរសព្ទកម្រិតទាបអាចផ្តល់មុខងារនេះបាន។
ប្រភពតំណ
Kommentar (0)