(CLO) La startup chinoise d'IA DeepSeek vient de révéler des données sur les coûts et les revenus liés à ses modèles populaires V3 et R1.
Selon le communiqué, le retour sur investissement théorique de DeepSeek pourrait atteindre 545 % par jour. Cependant, l'entreprise précise que le chiffre d'affaires réel sera nettement inférieur.
Deepseek connaît une forte croissance, notamment en Chine, son pays d'origine. Photo : X
C'est la première fois que DeepSeek publie des informations sur le retour sur les tâches d'inférence, l'étape post-formation où les modèles d'IA formés exécutent des tâches telles que des chatbots répondant aux questions des utilisateurs.
Cette révélation pourrait provoquer une onde de choc sur le marché des actions d'IA en dehors de la Chine, qui a plongé en janvier après que les chatbots basés sur les modèles R1 et V3 de DeepSeek ont gagné en popularité à l'échelle mondiale.
Cette chute s'explique en partie par l'annonce par DeepSeek d'avoir investi moins de 6 millions de dollars dans des puces Nvidia H800 pour entraîner ses modèles, soit bien moins que ses concurrents américains comme OpenAI. Les puces H800 utilisées par DeepSeek sont également moins puissantes que celles auxquelles OpenAI et d'autres entreprises américaines d'IA ont accès, ce qui suscite des doutes chez les investisseurs quant à la volonté des entreprises américaines d'IA d'investir des milliards dans des puces avancées.
En supposant que le coût de location d'une puce H800 soit de 2 $ par heure, le coût total d'inférence quotidien pour les modèles V3 et R1 s'élève à 87 072 $, a indiqué DeepSeek dans un article publié sur GitHub le 1er mars. Parallèlement, le revenu quotidien théorique des deux modèles s'élève à 562 027 $, soit un retour sur investissement de 545 %. En annualisé, le revenu s'élèverait à plus de 200 millions de dollars.
Cependant, DeepSeek souligne que les revenus réels sont bien inférieurs, car le coût d'utilisation du modèle V3 est inférieur à celui du modèle R1. De plus, les développeurs paient moins en heures creuses.
En plus des informations sur la marge bénéficiaire, DeepSeek vient de révéler des détails techniques sur le développement du modèle d'inférence R1, qui a les performances de l'o1 d'OpenAI à une fraction du coût habituel, une initiative qui devrait accélérer les avancées mondiales dans le domaine.
Les entreprises chinoises, des fabricants de puces aux fournisseurs de cloud, se précipitent pour soutenir les modèles d'IA de DeepSeek. Moore Threads et Hygon Information Technology, fabricants de puces d'IA qui ambitionnent de concurrencer Nvidia, affirment que leurs clusters et accélérateurs informatiques peuvent prendre en charge les modèles R1 et V3 de DeepSeek.
Huawei Technologies s'est également associé à la startup d'infrastructure d'IA SiliconFlow pour fournir des modèles DeepSeek aux clients sur le cloud, avec des performances comparables aux modèles exécutés sur des puces haut de gamme mondiales.
D'autres grandes entreprises comme Alibaba, Baidu et Tencent s'efforcent également de rendre les modèles de DeepSeek accessibles via leurs services. Le succès de DeepSeek a fait de la startup et de son fondateur, Liang Wenfeng, des célébrités.
Cao Phong (selon CNBC, CNN, SCMP)
Source : https://www.congluan.vn/deepseek-tuyen-bo-ty-le-chi-phi-loi-nhuan-ly-thuyet-la-545-moi-ngay-post336849.html
Comment (0)