(CLO) La startup china de inteligencia artificial DeepSeek acaba de revelar datos sobre los costos e ingresos relacionados con sus populares modelos V3 y R1.
Según el comunicado, esta relación teórica beneficio-costo de DeepSeek puede alcanzar el 545% por día. Sin embargo, la compañía señaló que los ingresos reales serán significativamente menores.
Deepseek está creciendo fuertemente, especialmente en su país de origen, China. Foto: X
Esta es la primera vez que DeepSeek publica información sobre el retorno de la inversión en tareas de inferencia, la etapa posterior al entrenamiento donde los modelos de IA entrenados realizan tareas como chatbots que responden preguntas de los usuarios.
La revelación podría repercutir en el mercado de acciones de IA fuera de China, que se desplomó en enero después de que los chatbots basados en los modelos R1 y V3 de DeepSeek se volvieran mundialmente populares.
La venta de acciones se debió en parte al anuncio de DeepSeek de que gastó poco menos de 6 millones de dólares en chips Nvidia H800 para entrenar sus modelos, mucho menos que sus rivales estadounidenses como OpenAI. Los chips H800 que utiliza DeepSeek también son menos potentes que los que tienen acceso OpenAI y otras empresas estadounidenses de inteligencia artificial, lo que hace que los inversores se muestren escépticos sobre el compromiso de las empresas estadounidenses de inteligencia artificial de gastar miles de millones de dólares en chips avanzados.
En una publicación de GitHub del 1 de marzo, DeepSeek dijo: asumiendo que el costo de alquilar un chip H800 es de $2 por hora, el costo total de inferencia diaria para los modelos V3 y R1 es de $87,072. Mientras tanto, los ingresos diarios teóricos de estos dos modelos son de $562,027, lo que resulta en un retorno de la inversión del 545%. Anualmente, los ingresos alcanzarán más de 200 millones de dólares.
Sin embargo, DeepSeek enfatiza que los ingresos reales son mucho menores debido al menor costo de utilizar el modelo V3 que el R1. Además, los desarrolladores pagan menos durante las horas de menor actividad.
Además de la información sobre el margen de beneficio, DeepSeek acaba de revelar detalles técnicos sobre el desarrollo del modelo de inferencia R1 que tiene un rendimiento equivalente al o1 de OpenAI, a una fracción del coste habitual. Se espera que esta medida impulse el progreso mundial en este campo.
Las empresas chinas, desde los fabricantes de chips hasta los proveedores de servicios en la nube, están acudiendo en masa a respaldar el modelo de inteligencia artificial de DeepSeek. Moore Threads y Hygon Information Technology, fabricantes de chips de inteligencia artificial con ambiciones de competir con Nvidia, dicen que sus clústeres de computadoras y aceleradores pueden soportar los modelos R1 y V3 de DeepSeek.
Huawei Technologies también se ha asociado con la startup de infraestructura de inteligencia artificial SiliconFlow para entregar modelos DeepSeek a los clientes en la nube, con un rendimiento comparable a los modelos que se ejecutan en chips de alta gama globales.
Otras empresas importantes como Alibaba, Baidu y Tencent también están trabajando para hacer que los modelos de DeepSeek sean accesibles a través de sus servicios. El éxito de DeepSeek ha convertido a la startup y a su fundador, Liang Wenfeng, en celebridades.
Cao Phong (según CNBC, CNN, SCMP)
Fuente: https://www.congluan.vn/deepseek-tuyen-bo-ty-le-chi-phi-loi-nhuan-ly-thuyet-la-545-moi-ngay-post336849.html
Kommentar (0)