أصبحت شريحة الذكاء الاصطناعي المتخصصة من شركة Groq، والتي تحمل اسم LPU، حديث الساعة على وسائل التواصل الاجتماعي، حيث يتم تداول اختباراتها المعيارية المتاحة للجمهور على منصة التواصل الاجتماعي X.
تدعي شركة Groq أنها تقدم "أسرع نماذج معالجة اللغة الطبيعية في العالم "، وتشير الاختبارات المستقلة المكثفة إلى أن هذا الادعاء قد يكون دقيقًا.
تُصنّع شركة Groq رقائق ذكاء اصطناعي متخصصة تُسمى وحدات معالجة اللغة (LPUs)، والتي يُقال إنها أسرع من وحدات معالجة الرسومات (GPUs) من Nvidia. وتُعتبر وحدات معالجة الرسومات من Nvidia المعيار الصناعي لتشغيل نماذج الذكاء الاصطناعي، لكن النتائج الأولية تُشير إلى أن وحدات معالجة اللغة ستتفوق عليها، على الأقل في المهام التي تتطلب سرعة عالية.
باختصار، تُعدّ شريحة LPU من Groq بمثابة "محرك حاسوبي" يمكّن روبوتات المحادثة مثل ChatGPT وGemini من العمل بسرعات استقبال واستجابة فائقة. في الاختبارات التي أُجريت، تفوّقت روبوتات المحادثة التي تستخدم شريحة LPU على ثمانية روبوتات محادثة أخرى تستخدم شرائح ذكاء اصطناعي مختلفة في العديد من مؤشرات الأداء الرئيسية، بما في ذلك زمن الاستجابة مقابل الإنتاجية وإجمالي زمن الاستجابة. وقد تجلّى الأداء المتميز لشريحة LPU بوضوح عند اختبارها مع طراز Meta Llama 2-70b.
بحسب اختبارات مستقلة أجرتها شركة Artificial Analysis، تستطيع روبوتات الدردشة التي تستخدم رقائق LPU معالجة 247 رمزًا في الثانية. وللمقارنة، لا تتجاوز معالجة ChatGPT من OpenAI حاليًا 18 رمزًا في الثانية. هذا يعني أن ChatGPT قد يكون أسرع بما يصل إلى 13 مرة باستخدام رقائق طورتها شركة Groq، مع العلم أن ذلك يعتمد على عوامل أخرى كثيرة.
بحسب شركة التحليل الاصطناعي، يُمكن لهذا المستوى من الأداء أن يفتح آفاقًا جديدة لنماذج اللغة الضخمة في مختلف المجالات. تستطيع روبوتات المحادثة التي تستخدم شريحة معالجة اللغة من Groq توليد مئات الكلمات في لحظة، مما يسمح للمستخدمين بإنجاز المهام في الوقت الفعلي. في إحدى التجارب، قام جوناثان روس، مؤسس شركة Groq ومديرها التنفيذي، بتوجيه مذيعة CNN في محادثة صوتية مباشرة مع روبوت محادثة يعمل بالذكاء الاصطناعي من الجانب الآخر من العالم.
يمكن أن تكون روبوتات الدردشة المدعومة بالذكاء الاصطناعي، مثل ChatGPT وGemini وLlama، أكثر فائدةً بكثير إذا استجابت بشكل أسرع. ومن أبرز القيود الحالية عدم قدرة هذه الروبوتات على مواكبة الكلام البشري في الوقت الفعلي، مما يجعل المحادثة تبدو آلية وغير مناسبة للعديد من المجالات.
على الرغم من التوقعات العالية المحيطة بشريحة LPU من Groq، فإن التحدي المباشر يكمن في تقييم جدواها العملية مقارنةً بالمنتجات المماثلة. فعلى عكس وحدات معالجة الرسومات من Nvidia أو وحدات معالجة Tensor Processing Units من Google، تُعد شريحة LPU من Groq شريحة ذكاء اصطناعي متخصصة، مصممة لتحسين أداء مهام محددة، وليست شريحة ذكاء اصطناعي "عامة الأغراض".
علاوة على ذلك، يتجه كبار مطوري الذكاء الاصطناعي في هذا الوقت إلى تطوير رقائقهم الخاصة لتجنب الاعتماد على منتجات إنفيديا. وتشير التقارير إلى أن شركة OpenAI تسعى للحصول على تمويل بمليارات الدولارات لتطوير رقائقها الخاصة. بل إن سام ألتمان، الرئيس التنفيذي لشركة OpenAI، يفكر جدياً في إعادة بناء بنية رقائق الذكاء الاصطناعي بالكامل من الصفر.
(بحسب كريبتوسليت)
مصدر






تعليق (0)