El auge de desarrolladores como Alibaba, Z.ai, Moonshot y MiniMax demuestra que China está obteniendo una ventaja competitiva al ofrecer modelos de lenguaje “abiertos” a un costo mucho menor que sus rivales estadounidenses.
Esta tendencia también refleja el hecho de que, a pesar de que Estados Unidos aplica controles avanzados a la exportación de chips para restringir a China, las empresas tecnológicas chinas siguen creciendo con fuerza y penetrando profundamente en el ecosistema global de IA.
En octubre, el director ejecutivo de Airbnb, Brian Chesky, afirmó que la empresa eligió Qwen de Alibaba en lugar de ChatGPT de OpenAI porque era «rápido y económico». Casi al mismo tiempo, el director ejecutivo de Social Capital, Chamath Palihapitiya, reveló que su empresa se había decantado por Kimi K2 de Moonshot porque tenía un rendimiento «mucho mejor y era significativamente más barato» que los modelos de OpenAI o Anthropic.
.png)
En redes sociales, muchos programadores también señalaron que dos populares asistentes de programación estadounidenses —Composer y Windsurf— se basaban en realidad en un modelo chino. Si bien las empresas que desarrollaron las herramientas no lo han confirmado, Z.ai afirmó que el hallazgo «coincide con datos internos».
«Los modelos abiertos chinos se han convertido en el estándar de facto en el mundo de las startups tecnológicas estadounidenses», afirmó Nathan Lambert, investigador de aprendizaje automático y fundador de Project Atom en Estados Unidos. Añadió que muchas startups estadounidenses de gran valor están entrenando o implementando discretamente modelos como Qwen, Kimi, GLM y DeepSeek, pero evitan hacerlo público.
Según la plataforma OpenRouter, siete de los 20 modelos de IA más utilizados la semana pasada se desarrollaron en China, y cuatro de ellos figuran entre las 10 herramientas de programación más populares. Datos de Hugging Face también muestran que el número total de descargas de modelos chinos de código abierto superó los 540 millones en octubre.
Los expertos afirman que el modelo chino resulta especialmente atractivo para las startups debido a sus bajos costes. «Estas empresas en fase inicial se preocupan más por el coste que por la marca, y muchas de ellas podrían no sobrevivir», declaró Rui Ma, fundador de Tech Buzz China.
A diferencia de ChatGPT o Claude, los modelos chinos suelen ser de código abierto, con pesos de entrenamiento públicos, lo que permite a la comunidad modificarlos e implementarlos por sí misma. Sin embargo, las operaciones a gran escala aún requieren una potencia de cálculo considerable, y los desarrolladores chinos ofrecen este servicio a un precio mucho más económico.
Empresas como Z.ai (Pekín) y DeepSeek (Hangzhou) afirman que utilizan principalmente chips de generaciones anteriores que no figuran en la lista de control de exportaciones de EE. UU., lo que reduce significativamente los costes de hardware y entrenamiento de modelos.
El profesor Toby Walsh (Universidad de Nueva Gales del Sur) comentó: “El éxito de los modelos de IA chinos demuestra el fracaso de las políticas de control de exportaciones de EE. UU. Estas restricciones solo hacen que las empresas chinas sean más innovadoras y optimicen modelos más compactos y eficientes”.
Según un informe de AllianceBernstein, el precio de utilizar el modelo DeepSeek es hasta 40 veces más barato que OpenAI.
El profesor Greg Slabaugh (Universidad Queen Mary de Londres) cree que Occidente ha subestimado el progreso de China en materia de IA: "La aparición de modelos abiertos solo hace que su destreza tecnológica sea más accesible a nivel mundial".
Algunos analistas comparan la estrategia de IA de China con la forma en que una vez dominó el mercado de paneles solares, produciendo en masa productos baratos que saturaron el mundo.
Sin embargo, los expertos afirman que las empresas estadounidenses aún tienen ventaja en el segmento de alta gama y en áreas sujetas a una estricta supervisión, como la defensa o la infraestructura de datos.
Fuente: https://congluan.vn/mo-hinh-ai-trung-quoc-bung-no-o-thung-lung-silicon-10317666.html






Kommentar (0)