យោងតាម Android Authority ឯកសារស្រាវជ្រាវរបស់ក្រុមហ៊ុន Apple បានរៀបរាប់លម្អិតអំពីដំណោះស្រាយសម្រាប់ដំណើរការគំរូភាសាធំៗ (LLMs) នៅលើឧបករណ៍ដែលមាន RAM មានកំណត់។ ឯកសារនេះបង្ហាញពីរបៀបដែលក្រុមហ៊ុនអាចរក្សាទុក "ប៉ារ៉ាម៉ែត្រគំរូ" និងផ្ទុកផ្នែកមួយនៃប៉ារ៉ាម៉ែត្រទាំងនោះទៅក្នុង RAM របស់ឧបករណ៍នៅពេលចាំបាច់ ជំនួសឱ្យការផ្ទុកគំរូទាំងមូលទៅក្នុង RAM។
ក្រុមហ៊ុន Apple កំពុងស្វែងរកមធ្យោបាយដើម្បីជួយ iPhone ចាស់ៗដែលមាន RAM តិចជាងមុនឱ្យដំណើរការ AI ទូទៅ។
ឯកសារនេះបានបង្ហាញថា វិធីសាស្ត្រនេះអនុញ្ញាតឱ្យដំណើរការម៉ូដែលដែលត្រូវការ RAM ច្រើនជាង iPhone ពីរដង ខណៈពេលដែលនៅតែធានាបាននូវល្បឿននៃការវែកញែកដែលលឿនជាង 4-5 ដង និងលឿនជាង 20-25 ដងរៀងៗខ្លួន បើប្រៀបធៀបទៅនឹងវិធីសាស្ត្រសាមញ្ញជាងក្នុងការផ្ទុកទៅលើ CPU និង GPU។
ការអនុវត្ត AI សំយោគលើឧបករណ៍ដែលមាន RAM ច្រើនផ្តល់នូវអត្ថប្រយោជន៍យ៉ាងសំខាន់ ព្រោះវាផ្តល់នូវល្បឿនអាន/សរសេរលឿនជាងមុន។ ល្បឿនគឺមានសារៈសំខាន់សម្រាប់ AI នៅលើឧបករណ៍ ដែលអនុញ្ញាតឱ្យមានពេលវេលាសន្និដ្ឋានលឿនជាងមុន ពីព្រោះអ្នកប្រើប្រាស់មិនចាំបាច់រង់ចាំរាប់សិបវិនាទី (ឬច្រើនជាងនេះ) សម្រាប់ការឆ្លើយតប ឬលទ្ធផលចុងក្រោយនោះទេ។ ទាំងអស់នេះមានន័យថា ជំនួយការ AI នៅលើឧបករណ៍មានសមត្ថភាពដំណើរការក្នុងល្បឿនសន្ទនា បង្កើតរូបភាព/អត្ថបទលឿនជាងមុន សង្ខេបអត្ថបទលឿនជាងមុន។ល។ ប៉ុន្តែដំណោះស្រាយរបស់ Apple មានន័យថាអ្នកប្រើប្រាស់មិនចាំបាច់ត្រូវការ RAM ច្រើនដើម្បីបង្កើនល្បឿនការឆ្លើយតបនៃកិច្ចការ AI នៅលើឧបករណ៍នោះទេ។
វិធីសាស្រ្តរបស់ Apple អាចអនុញ្ញាតឱ្យ iPhone ចាស់ៗ និងថ្មីជាងនេះ ផ្តល់ជូននូវមុខងារ AI រួមបញ្ចូលគ្នាដោយផ្ទាល់នៅលើឧបករណ៍របស់ពួកគេ។ នេះជារឿងសំខាន់ ពីព្រោះ iPhone របស់ Apple ជាធម្មតាផ្តល់ជូន RAM តិចជាងទូរស័ព្ទ Android លំដាប់ខ្ពស់។ ឧទាហរណ៍ ស៊េរី iPhone 11 ផ្តល់ជូន RAM ត្រឹមតែ 4 GB ប៉ុណ្ណោះ ខណៈពេលដែលសូម្បីតែ iPhone 15 ស្តង់ដារក៏មាន RAM ត្រឹមតែ 6 GB ប៉ុណ្ណោះ។
ក្រុមហ៊ុន Apple មិនមែនជាក្រុមហ៊ុនទូរស័ព្ទចល័តតែមួយគត់ដែលព្យាយាមបង្រួម LLMs នោះទេ។ បន្ទះឈីបលំដាប់កំពូលថ្មីៗពីក្រុមហ៊ុន Qualcomm និង MediaTek សុទ្ធតែគាំទ្រភាពជាក់លាក់ INT4 ដើម្បីបង្រួមម៉ូដែលទាំងនេះ។ ទោះជាយ៉ាងណាក៏ដោយ ក្រុមហ៊ុននានាកំពុងព្យាយាមស្វែងរកដំណោះស្រាយថ្មីៗដើម្បីកាត់បន្ថយតម្រូវការប្រព័ន្ធសម្រាប់ AI នៅលើឧបករណ៍ ដែលអាចឱ្យសូម្បីតែទូរស័ព្ទកម្រិតទាបក៏ផ្តល់មុខងារនេះបានដែរ។
[ការផ្សាយពាណិជ្ជកម្ម_២]
តំណភ្ជាប់ប្រភព






Kommentar (0)