បន្ទះឈីប LPU ឆ្លាតវៃសិប្បនិម្មិត (AI) ដែលត្រូវបានបង្កើតឡើងដោយ Groq កំពុងក្លាយជាអារម្មណ៍ប្រព័ន្ធផ្សព្វផ្សាយសង្គមពេញមួយយប់ ខណៈដែលការធ្វើតេស្តស្តង់ដារសាធារណៈរបស់វាបានរីករាលដាលនៅលើវេទិកាប្រព័ន្ធផ្សព្វផ្សាយសង្គម X ។
Groq អះអាងថានឹងផ្តល់ជូន 'គំរូដំណើរការភាសាធម្មជាតិលឿនបំផុត របស់ពិភពលោក ' និងការធ្វើតេស្តឯករាជ្យយ៉ាងទូលំទូលាយបង្ហាញថាការទាមទារអាចមានភាពត្រឹមត្រូវ។
Groq បង្កើតបន្ទះឈីប AI ពិសេសហៅថា LPU (Language Processing Unit) ដែលត្រូវបានគេនិយាយថាលឿនជាង GPU របស់ Nvidia ។ GPUs របស់ Nvidia តែងតែត្រូវបានចាត់ទុកថាជាស្តង់ដារឧស្សាហកម្មសម្រាប់ដំណើរការម៉ូដែល AI ប៉ុន្តែលទ្ធផលដំបូងបង្ហាញថា LPUs នឹងដំណើរការលើសពីពួកគេ យ៉ាងហោចណាស់នៅក្នុងកិច្ចការដែលត្រូវការល្បឿនលឿន។
សរុបមក បន្ទះឈីប LPU របស់ Groq គឺជា 'ម៉ាស៊ីនកុំព្យូទ័រ' ដែលអាចឱ្យ chatbots ដូចជា ChatGPT និង Gemini ដំណើរការក្នុងល្បឿនទទួល និងឆ្លើយតបលឿនដូចរន្ទះ។ នៅក្នុងការធ្វើតេស្តដែលបានធ្វើឡើង chatbot ដែលដំណើរការដោយ LPU បានដំណើរការជាង 8 chatbots ដោយប្រើបន្ទះឈីប AI ផ្សេងទៀតនៅលើរង្វាស់នៃការអនុវត្តសំខាន់ៗមួយចំនួន រួមទាំង latency ធៀបនឹងការបញ្ជូន និងពេលវេលាឆ្លើយតបសរុប។ ដំណើរការល្អជាងរបស់ LPU គឺបង្ហាញឱ្យឃើញច្បាស់បំផុតនៅពេលសាកល្បងជាមួយនឹងម៉ូដែល Meta's Llama 2-70b ។
យោងតាមការធ្វើតេស្តឯករាជ្យដោយការវិភាគសិប្បនិម្មិត chatbots ដោយប្រើបន្ទះឈីប LPU អាចសម្រេចបាននូវ 247 tokens ក្នុងមួយវិនាទី។ សម្រាប់ការប្រៀបធៀប ChatGPT របស់ OpenAI បច្ចុប្បន្នសម្រេចបានត្រឹមតែ 18 tokens ក្នុងមួយវិនាទីប៉ុណ្ណោះ។ នេះមានន័យថា ChatGPT អាចលឿនជាង 13 ដង ប្រសិនបើប្រើបន្ទះឈីបរបស់ Groq ទោះបីជាវាអាស្រ័យលើកត្តាពាក់ព័ន្ធជាច្រើនទៀតក៏ដោយ។
យោងតាមការវិភាគសិប្បនិម្មិត កម្រិតនៃការអនុវត្តនេះអាចបើកលទ្ធភាពថ្មីសម្រាប់គំរូភាសាធំ (LLMs) នៅទូទាំងជួរដ៏ធំទូលាយនៃដែន។ Chatbots ប្រើប្រាស់បន្ទះឈីប LPU របស់ Groq អាចបង្កើតពាក្យរាប់រយក្នុងរយៈពេលមួយវិនាទី ដែលអនុញ្ញាតឱ្យអ្នកប្រើប្រាស់បំពេញការងារក្នុងពេលវេលាជាក់ស្តែង។ នៅក្នុងការធ្វើតេស្តមួយ ស្ថាបនិក និងជានាយកប្រតិបត្តិរបស់ Groq លោក Jonathon Ross បានដឹកនាំយុថ្កា CNN តាមរយៈការសន្ទនាផ្ទាល់មាត់ជាមួយ AI chatbot នៅផ្នែកម្ខាងទៀតនៃពិភពលោក។
AI chatbots ដូចជា ChatGPT, Gemini, Llama… អាចមានប្រយោជន៍ជាងប្រសិនបើពួកគេឆ្លើយតបលឿនជាង។ ដែនកំណត់ដ៏សំខាន់មួយនាពេលបច្ចុប្បន្នគឺថា chatbots ទាំងនេះមិនអាចរក្សាការនិយាយរបស់មនុស្សក្នុងពេលជាក់ស្តែងបានទេ។ ការពន្យារពេលដ៏ធំធ្វើឱ្យការសន្ទនាមានលក្ខណៈមនុស្សយន្ត និងមិនពេញចិត្តក្នុងវិស័យជាច្រើន។
ទោះបីជាមានការបំផ្លើសជុំវិញ LPU របស់ Groq ក៏ដោយ សំណួរភ្លាមៗគឺថាតើវាប្រៀបធៀបទៅនឹងផលិតផលស្រដៀងគ្នានៅក្នុងកម្មវិធីក្នុងពិភពពិតយ៉ាងដូចម្តេច។ មិនដូច GPU របស់ Nvidia ឬ TPU របស់ Google ទេ LPU របស់ Groq គឺជាបន្ទះឈីប AI ឯកទេស ដែលត្រូវបានរចនាឡើងដើម្បីធ្វើឱ្យប្រសើរឡើងសម្រាប់ការងារជាក់លាក់ ជាជាងបន្ទះឈីប AI 'គោលបំណងទូទៅ' ។
លើសពីនេះ នេះក៏ជាពេលដែលអ្នកអភិវឌ្ឍន៍ AI ធំៗកំពុងស្វែងរកការអភិវឌ្ឍន៍បន្ទះឈីបផ្ទាល់ខ្លួនរបស់ពួកគេ ដើម្បីចៀសវាងការពឹងផ្អែកលើផលិតផល Nvidia ។ OpenAI ត្រូវបានគេនិយាយថាកំពុងស្វែងរកប្រាក់រាប់ពាន់លានដុល្លារក្នុងការបង្កើតបន្ទះឈីបរបស់ខ្លួន។ នាយកប្រតិបត្តិ OpenAI លោក Sam Altman ថែមទាំងកំពុងពិចារណាលើការកសាងឡើងវិញនូវស្ថាបត្យកម្មបន្ទះឈីប AI ថ្មីទាំងស្រុងពីដំបូង។
(យោងទៅតាម Cryptoslate)
ប្រភព
Kommentar (0)