បន្ទះឈី បបញ្ញាសិប្បនិម្មិត (AI) ឯកទេសរបស់ Groq គឺ LPU កំពុងក្លាយជាការចាប់អារម្មណ៍ភ្លាមៗនៅលើប្រព័ន្ធផ្សព្វផ្សាយសង្គម ខណៈដែលការធ្វើតេស្តស្តង់ដារដែលអាចរកបានជាសាធារណៈរបស់វាកំពុងចរាចរនៅលើវេទិកាប្រព័ន្ធផ្សព្វផ្សាយសង្គម X។
Groq អះអាងថាផ្តល់ជូននូវ 'គំរូដំណើរការភាសាធម្មជាតិលឿនបំផុត របស់ពិភពលោក ' ហើយការធ្វើតេស្តឯករាជ្យយ៉ាងទូលំទូលាយបង្ហាញថាការអះអាងនេះអាចត្រឹមត្រូវ។
Groq ផលិតបន្ទះឈីប AI ឯកទេសហៅថា LPUs (ឯកតាដំណើរការភាសា) ដែលត្រូវបានគេនិយាយថាលឿនជាង GPU របស់ Nvidia។ GPU របស់ Nvidia ត្រូវបានចាត់ទុកថាជាស្តង់ដារឧស្សាហកម្មសម្រាប់ដំណើរការម៉ូដែល AI ប៉ុន្តែលទ្ធផលដំបូងបង្ហាញថា LPUs នឹងលើសពួកវា យ៉ាងហោចណាស់នៅក្នុងកិច្ចការដែលត្រូវការល្បឿនលឿន។
ជាទូទៅ បន្ទះឈីប LPU របស់ Groq គឺជា 'ម៉ាស៊ីនកុំព្យូទ័រ' ដែលអាចឱ្យ chatbots ដូចជា ChatGPT និង Gemini ដំណើរការជាមួយនឹងល្បឿនទទួល និងឆ្លើយតបលឿនបំផុត។ នៅក្នុងការធ្វើតេស្តដែលបានធ្វើឡើង chatbots ដែលប្រើបន្ទះឈីប LPU មានដំណើរការល្អជាង chatbots ចំនួនប្រាំបីដែលប្រើបន្ទះឈីប AI ផ្សេងទៀតលើរង្វាស់ដំណើរការសំខាន់ៗជាច្រើន រួមទាំងភាពយឺតយ៉ាវធៀបនឹង throughput និងពេលវេលាឆ្លើយតបសរុប។ ដំណើរការដ៏អស្ចារ្យរបស់ LPU គឺជាក់ស្តែងបំផុតនៅពេលដែលបានសាកល្បងជាមួយម៉ូដែល Llama 2-70b របស់ Meta។
យោងតាមការធ្វើតេស្តឯករាជ្យដោយ Artificial Analysis chatbots ដែលប្រើបន្ទះឈីប LPU អាចសម្រេចបាន throughput ចំនួន 247 tokens ក្នុងមួយវិនាទី។ សម្រាប់ការប្រៀបធៀប ChatGPT របស់ OpenAI បច្ចុប្បន្នសម្រេចបានត្រឹមតែ 18 tokens ក្នុងមួយវិនាទីប៉ុណ្ណោះ។ នេះមានន័យថា ChatGPT អាចលឿនជាងរហូតដល់ 13 ដងដោយប្រើបន្ទះឈីបដែលបង្កើតឡើងដោយ Groq ទោះបីជាវាអាស្រ័យលើកត្តាពាក់ព័ន្ធជាច្រើនទៀតក៏ដោយ។
យោងតាមការវិភាគសិប្បនិម្មិត កម្រិតនៃការអនុវត្តនេះអាចដោះសោលទ្ធភាពថ្មីៗសម្រាប់គំរូភាសាធំៗ (LLMs) នៅទូទាំងវិស័យផ្សេងៗ។ Chatbots ដែលប្រើប្រាស់បន្ទះឈីប LPU របស់ Groq អាចបង្កើតពាក្យរាប់រយក្នុងពេលតែមួយ ដែលអនុញ្ញាតឱ្យអ្នកប្រើប្រាស់អនុវត្តភារកិច្ចក្នុងពេលជាក់ស្តែង។ នៅក្នុងការពិសោធន៍មួយ លោក Jonathon Ross ស្ថាបនិក និងជានាយកប្រតិបត្តិរបស់ Groq បានណែនាំពិធីករ CNN ម្នាក់នៅក្នុងការសន្ទនាផ្ទាល់ជាមួយ chatbot AI នៅម្ខាងទៀតនៃពិភពលោក។
បូតជជែក AI ដូចជា ChatGPT, Gemini និង Llama អាចមានប្រយោជន៍ច្រើនជាងនេះទៅទៀត ប្រសិនបើពួកវាឆ្លើយតបលឿនជាងមុន។ ដែនកំណត់ដ៏សំខាន់មួយនាពេលបច្ចុប្បន្នគឺថា បូតជជែកទាំងនេះមិនអាចតាមទាន់ការនិយាយរបស់មនុស្សក្នុងពេលវេលាជាក់ស្តែងបានទេ។ ការពន្យារពេលដ៏ច្រើនធ្វើឱ្យការសន្ទនាស្តាប់ទៅដូចជាមនុស្សយន្ត និងមិនស័ក្តិសមសម្រាប់វិស័យជាច្រើន។
បើទោះបីជាមានការរំពឹងទុកជុំវិញបន្ទះឈីប LPU របស់ Groq ក៏ដោយ បញ្ហាបន្ទាន់គឺការវាយតម្លៃការអនុវត្តជាក់ស្តែងរបស់វាបើប្រៀបធៀបទៅនឹងផលិតផលស្រដៀងគ្នា។ មិនដូច GPU របស់ Nvidia ឬ TPU របស់ Google ទេ LPU របស់ Groq គឺជាបន្ទះឈីប AI ឯកទេស ដែលត្រូវបានរចនាឡើងដើម្បីបង្កើនប្រសិទ្ធភាពសម្រាប់កិច្ចការជាក់លាក់ ជាជាងបន្ទះឈីប AI 'គោលបំណងទូទៅ'។
លើសពីនេះ នេះក៏ជាពេលវេលាមួយដែលអ្នកអភិវឌ្ឍន៍ AI ធំៗកំពុងស្វែងរកការអភិវឌ្ឍបន្ទះឈីបផ្ទាល់ខ្លួនរបស់ពួកគេ ដើម្បីជៀសវាងការពឹងផ្អែកលើផលិតផលរបស់ Nvidia។ តាមរបាយការណ៍ OpenAI កំពុងស្វែងរកមូលនិធិរាប់ពាន់លានដុល្លារ ដើម្បីអភិវឌ្ឍបន្ទះឈីបផ្ទាល់ខ្លួន។ លោក Sam Altman នាយកប្រតិបត្តិ OpenAI ថែមទាំងកំពុងពិចារណាកសាងស្ថាបត្យកម្មបន្ទះឈីប AI ទាំងមូលឡើងវិញពីដំបូងទៀតផង។
(យោងតាម Cryptoslate)
[ការផ្សាយពាណិជ្ជកម្ម_២]
ប្រភព






Kommentar (0)