Las empresas continentales redujeron costos al construir modelos entrenados con cantidades más pequeñas de datos, que requieren menos potencia informática pero hardware optimizado, dijo Lee Kai-Fu, fundador de 01.ai y ex director de Google China.

Según las clasificaciones anunciadas recientemente por UC Berkeley SkyLab y LMSYS, el modelo Yi-Lingtning de la startup 01.ai se ubicó en tercer lugar, empatado con Grok-2 de x.AI, detrás de OpenAI y Google. Esta clasificación se basa en las puntuaciones de los usuarios en las respuestas a las consultas.

2d82e5b153faa85bf01e3f82affa4e298ec4f24e.avif.jpg
Reducir el coste de las operaciones de IA es una forma de que China compita con Estados Unidos. Foto: FT

01.ai y DeepSeek son empresas de inteligencia artificial continentales que están adoptando una estrategia de centrarse en conjuntos de datos más pequeños para entrenar modelos, al tiempo que contratan mano de obra barata y altamente calificada.

FT indicó que el costo de inferencia de Yi-Lightning es de 14 centavos por millón de tokens, en comparación con los 26 centavos de GPT o1-mini de OpenAI. Mientras tanto, GPT 4o cuesta hasta $4.40 por millón de tokens. La cantidad de tokens utilizados para generar una respuesta depende de la complejidad de cada consulta.

Los fundadores de Yi-Lightning revelaron que la compañía invirtió 3 millones de dólares en capacitación inicial, antes de perfeccionarla para diferentes casos de uso. Lee afirmó que su objetivo no era crear el mejor modelo, sino construir un modelo competitivo que fuera de 5 a 10 veces más económico.

El método que han aplicado 01.ai, DeepSeek, MiniMax y Stepfun se denomina “modelado experto”, lo que significa simplemente combinar múltiples redes neuronales entrenadas en conjuntos de datos específicos del dominio.

Los investigadores consideran este enfoque como una forma clave de lograr el mismo nivel de inteligencia que los modelos de big data, pero con menor capacidad de procesamiento. Sin embargo, la dificultad radica en que los ingenieros deben orquestar el proceso de entrenamiento con múltiples expertos en lugar de un solo modelo general.

Debido a las dificultades para acceder a chips de IA de alta gama, las empresas chinas han recurrido al desarrollo de conjuntos de datos de alta calidad, que pueden usarse para entrenar modelos expertos, compitiendo así con sus rivales occidentales.

Lee dijo que 01.ai tiene formas no tradicionales de recopilar datos, como escanear libros o recopilar artículos en la aplicación de mensajería WeChat que no son accesibles en el sitio web abierto.

El fundador cree que China está mejor posicionada que Estados Unidos, con su enorme reserva de talento técnico barato.

(Según FT, Bloomberg)

Meta lanza un modelo de IA de "autoaprendizaje" El gigante de las redes sociales Meta acaba de anunciar un nuevo modelo de IA con función de evaluación de autoaprendizaje (STE), que puede limitar la intervención humana en el proceso de desarrollo de IA.