យោងតាម អាជ្ញាធរ Android ឯកសារស្រាវជ្រាវរបស់ក្រុមហ៊ុន Apple រៀបរាប់លម្អិតអំពីដំណោះស្រាយសម្រាប់ដំណើរការគំរូភាសាធំ (LLMs) នៅលើឧបករណ៍ដែលមាន RAM មានកំណត់។ ក្រដាសបង្ហាញពីរបៀបដែលក្រុមហ៊ុនអាចរក្សាទុក "ប៉ារ៉ាម៉ែត្រគំរូ" និងផ្ទុកផ្នែកមួយនៃពួកវាទៅក្នុង RAM របស់ឧបករណ៍នៅពេលចាំបាច់ ជំនួសឱ្យការផ្ទុកគំរូទាំងមូលទៅក្នុង RAM ។
ក្រុមហ៊ុន Apple កំពុងស្វែងរកជំនួយដល់ iPhone ចាស់ៗដែលមាន RAM តិចដំណើរការ AI ទូទៅ
ឯកសារនេះបានអះអាងថាវិធីសាស្ត្រនេះអនុញ្ញាតឱ្យដំណើរការម៉ូដែលដែលត្រូវការ RAM ពីរដងដែល iPhone អាចមានខណៈពេលដែលនៅតែធានាបាននូវល្បឿន 4-5x និង 20-25x បើប្រៀបធៀបទៅនឹងវិធីសាស្ត្រផ្ទុកសាមញ្ញនៅលើ CPU និង GPU រៀងគ្នា។
ការដាក់ពង្រាយ AI សំយោគនៅលើឧបករណ៍ដែលមាន RAM ច្រើននឹងក្លាយជាអត្ថប្រយោជន៍ដ៏ធំព្រោះវានឹងអនុញ្ញាតឱ្យមានល្បឿនអាន/សរសេរលឿនជាងមុន។ ល្បឿនមានសារៈសំខាន់សម្រាប់ AI នៅលើឧបករណ៍ ដែលអនុញ្ញាតឱ្យមានពេលវេលាសន្និដ្ឋានលឿនជាងមុន ដោយសារអ្នកប្រើប្រាស់មិនចាំបាច់រង់ចាំរាប់សិបវិនាទី (ឬច្រើនជាងនេះ) សម្រាប់ការឆ្លើយតប ឬលទ្ធផលចុងក្រោយ។ ទាំងអស់នេះមានន័យថា ជំនួយការ AI នៅលើឧបករណ៍អាចមានសក្តានុពលដំណើរការក្នុងល្បឿនសន្ទនា បង្កើតរូបភាព/អត្ថបទកាន់តែលឿន សង្ខេបអត្ថបទលឿនជាងមុន។
វិធីសាស្រ្តរបស់ Apple អាចអនុញ្ញាតឱ្យ iPhone ចាស់ និងថ្មីផ្តល់មុខងារ AI សំយោគបានត្រឹមត្រូវនៅលើឧបករណ៍របស់ពួកគេ។ នោះជារឿងសំខាន់ ដោយសារតែ iPhone របស់ Apple ជាធម្មតាផ្តល់ RAM តិចជាងទូរស័ព្ទ Android លំដាប់ខ្ពស់។ ជាឧទាហរណ៍ ស៊េរី iPhone 11 ផ្តល់ RAM ត្រឹមតែ 4GB ប៉ុណ្ណោះ ខណៈពេលដែល iPhone 15 ធម្មតាមានត្រឹមតែ 6GB ប៉ុណ្ណោះ។
Apple មិនមែនជាក្រុមហ៊ុនទូរស័ព្ទតែមួយគត់ដែលធ្វើការលើការបង្រួម LLM នោះទេ។ បន្ទះឈីបកំពូលចុងក្រោយរបស់ Qualcomm និង MediaTek ទាំងពីរគាំទ្រភាពជាក់លាក់ INT4 ដើម្បីកាត់បន្ថយម៉ូដែលទាំងនេះ។ ទោះយ៉ាងណាក៏ដោយ ក្រុមហ៊ុននានាកំពុងព្យាយាមស្វែងរកវិធីថ្មីដើម្បីកាត់បន្ថយតម្រូវការប្រព័ន្ធសម្រាប់ AI នៅលើឧបករណ៍ ដោយអនុញ្ញាតឱ្យសូម្បីតែទូរសព្ទកម្រិតទាបអាចផ្តល់មុខងារនេះបាន។
ប្រភពតំណ
Kommentar (0)