وفقًا لديلان باتيل، المحلل الرئيسي في شركة تحليل أشباه الموصلات "سيمي أناليسيس" ، فإن تكاليف تشغيل ChatGPT مرتفعة للغاية نظرًا لبنيتها التحتية الباهظة. يتطلب ChatGPT قوة حوسبة هائلة لحساب الاستجابات بناءً على مطالبات المستخدم. ويستند باتيل في تقديراته للتكاليف على الخوادم الباهظة اللازمة لتشغيل روبوت المحادثة.
في مقابلة مع BI ، أشار الخبير إلى أن التكلفة الحالية أعلى من ذلك بكثير، لأن تقديره الأولي استند إلى نموذج GPT-3 من OpenAI. أما النموذج الأحدث، GPT-4، فسيكون أكثر تكلفة.
بينما يكلف تدريب نموذج اللغة الكبير (LLM) الخاص بـ ChatGPT عشرات الملايين من الدولارات، فإن تكاليف التشغيل أو الاستدلال أعلى بكثير. لسنوات، اضطرت الشركات التي تستخدم نماذج لغة OpenAI إلى دفع مبالغ طائلة. على سبيل المثال، كشف نيك والتون، الرئيس التنفيذي لشركة Latitude الناشئة، أن تكلفة تشغيل النموذج باستخدام خوادم Amazon Web Services بلغت حوالي 200,000 دولار شهريًا في عام 2021. لذلك، انتقل إلى مزود برامج لغات آخر لخفض التكلفة إلى النصف.
لتقليل التكاليف اللازمة لتشغيل نماذج الذكاء الاصطناعي التوليدية، تعمل مايكروسوفت على تطوير شريحة ذكاء اصطناعي تُسمى أثينا. ووفقًا لموقع The Information ، بدأ المشروع عام ٢٠١٩، بعد سنوات قليلة من توقيع الشركة صفقة بقيمة مليار دولار مع OpenAI للسماح للشركة الناشئة باستخدام خوادم Azure السحابية فقط.
تسعى مايكروسوفت جاهدةً لتحقيق هدفين: إدراكها لتأخرها عن جوجل وأمازون في مجال الرقائق، والبحث عن بديل أرخص لرقائق إنفيديا. يعمل أكثر من 300 موظف في مايكروسوفت على تطوير هذه الشريحة، وقد تصبح متاحة داخليًا مطلع العام المقبل.
(وفقا ل BI)
[إعلان 2]
مصدر
تعليق (0)