យោងតាមលោក Dylan Patel អ្នកវិភាគសំខាន់នៅក្រុមហ៊ុនវិភាគ semiconductor SemiAnalysis ការចំណាយប្រតិបត្តិការរបស់ ChatGPT គឺខ្ពស់ណាស់ដោយសារតែហេដ្ឋារចនាសម្ព័ន្ធថ្លៃ។ ChatGPT ទាមទារថាមពលកុំព្យូទ័រដ៏ធំដើម្បីគណនាការឆ្លើយតបដោយផ្អែកលើការជំរុញរបស់អ្នកប្រើប្រាស់។ Patel ផ្អែកលើការប៉ាន់ស្មានតម្លៃរបស់គាត់នៅលើម៉ាស៊ីនមេថ្លៃ ៗ ដែលត្រូវការដើម្បីដំណើរការ chatbot ។
នៅក្នុងបទសម្ភាសន៍ជាមួយ BI អ្នកជំនាញបានណែនាំថាការចំណាយបច្ចុប្បន្នគឺខ្ពស់ជាងនេះ ដោយសារតែការប៉ាន់ស្មានដំបូងរបស់គាត់គឺផ្អែកលើគំរូ GPT-3 របស់ OpenAI ។ ម៉ូដែលចុងក្រោយបំផុត GPT-4 នឹងមានតម្លៃថ្លៃជាង។
ខណៈពេលដែលការបណ្តុះបណ្តាលគំរូភាសាធំ (LLM) របស់ ChatGPT មានតម្លៃរាប់សិបលានដុល្លារ ការចំណាយប្រតិបត្តិការឬការសន្និដ្ឋានគឺខ្ពស់ជាងច្រើន។ អស់រយៈពេលជាច្រើនឆ្នាំ ក្រុមហ៊ុនដែលប្រើប្រាស់គំរូភាសារបស់ OpenAI ត្រូវចំណាយប្រាក់យ៉ាងច្រើន។ ជាឧទាហរណ៍ លោក Nick Walton នាយកប្រតិបត្តិនៃក្រុមហ៊ុន Latitude ចាប់ផ្តើមដំបូងបានបង្ហើបថាតម្លៃនៃការដំណើរការម៉ូដែលនេះជាមួយម៉ាស៊ីនមេ Amazon Web Services គឺប្រហែល $200,000 ក្នុងមួយខែក្នុងឆ្នាំ 2021។ ដូច្នេះគាត់បានប្តូរទៅជាអ្នកផ្តល់កម្មវិធីភាសាផ្សេងទៀតដើម្បីកាត់បន្ថយការចំណាយពាក់កណ្តាល។
ដើម្បីកាត់បន្ថយការចំណាយដែលត្រូវការសម្រាប់ដំណើរការម៉ូដែល AI ជំនាន់នោះ ក្រុមហ៊ុន Microsoft កំពុងបង្កើតបន្ទះឈីប AI ដែលមានឈ្មោះថា Athena ។ យោងតាម សារព័ត៌មាន The Information គម្រោងនេះបានចាប់ផ្តើមនៅឆ្នាំ 2019 ប៉ុន្មានឆ្នាំបន្ទាប់ពីក្រុមហ៊ុនបានចុះហត្ថលេខាលើកិច្ចព្រមព្រៀង $1 ពាន់លានដុល្លារជាមួយ OpenAI ដើម្បីឱ្យការចាប់ផ្តើមដំណើរការប្រើប្រាស់តែ Azure cloud servers ប៉ុណ្ណោះ។
ក្រុមហ៊ុន Microsoft កំពុងជំរុញឱ្យមានរឿងពីរ៖ វាដឹងថាវាយឺតជាង Google និង Amazon នៅក្នុងទំហំបន្ទះឈីប។ ហើយវាកំពុងស្វែងរកជម្រើសថោកជាងសម្រាប់បន្ទះឈីបរបស់ Nvidia។ បុគ្គលិក Microsoft ជាង 300 នាក់កំពុងធ្វើការលើបន្ទះឈីប ហើយបន្ទះឈីបនេះអាចនឹងមានវត្តមាននៅខាងក្នុងនៅដើមឆ្នាំក្រោយ។
(នេះបើតាម BI)
ប្រភព
Kommentar (0)