Les entreprises du continent réduisent leurs coûts en créant des modèles formés sur de plus petites quantités de données, nécessitant moins de puissance de calcul mais du matériel optimisé, a déclaré Lee Kai-Fu, fondateur de 01.ai et ancien directeur de Google Chine.

Selon le classement récemment publié par UC Berkeley SkyLab et LMSYS, le modèle Yi-Lingtning de la startup 01.ai se classe troisième, ex-aequo avec Grok-2 de x.AI, derrière OpenAI et Google. Ce classement est basé sur les scores des utilisateurs aux réponses aux requêtes.

2d82e5b153faa85bf01e3f82affa4e298ec4f24e.avif.jpg
Réduire le coût de l'IA est un moyen pour la Chine de concurrencer les États-Unis. Photo : FT

01.ai et DeepSeek sont des sociétés d'IA continentales qui adoptent une stratégie consistant à se concentrer sur des ensembles de données plus petits pour former des modèles, tout en embauchant une main-d'œuvre bon marché et hautement qualifiée.

Le FT indique que le coût d'inférence de Yi-Lightning est de 14 cents par million de jetons, contre 26 cents pour GPT o1-mini d'OpenAI. GPT 4o, quant à lui, coûte jusqu'à 4,40 dollars par million de jetons. Le nombre de jetons utilisés pour générer une réponse dépend de la complexité de chaque requête.

Le fondateur de Yi-Lightning a révélé que l'entreprise avait investi 3 millions de dollars en « formation initiale », avant de peaufiner son modèle pour différents cas d'utilisation. Lee a expliqué que leur objectif n'était pas de « créer le meilleur modèle », mais de concevoir un modèle concurrent « 5 à 10 fois moins cher ».

La méthode appliquée par 01.ai, DeepSeek, MiniMax et Stepfun s'appelle « modélisation experte » — il s'agit simplement de combiner plusieurs réseaux neuronaux formés sur des ensembles de données spécifiques à un domaine.

Les chercheurs considèrent cette approche comme un moyen essentiel d'atteindre le même niveau d'intelligence que les modèles Big Data, mais avec une puissance de calcul moindre. Cependant, la difficulté réside dans le fait que les ingénieurs doivent orchestrer le processus d'apprentissage avec « plusieurs experts » plutôt qu'avec un seul modèle général.

En raison des difficultés d’accès aux puces d’IA haut de gamme, les entreprises chinoises se sont tournées vers le développement d’ensembles de données de haute qualité à utiliser pour former des modèles experts, concurrençant ainsi leurs rivaux occidentaux.

Lee a déclaré que 01.ai dispose de moyens non traditionnels de collecte de données, tels que la numérisation de livres ou la collecte d'articles sur l'application de messagerie WeChat qui ne sont pas accessibles sur le Web ouvert.

Le fondateur estime que la Chine est mieux placée que les États-Unis, avec un énorme réservoir de talents techniques bon marché.

(Selon le FT et Bloomberg)

Meta lance un modèle d'IA « d'apprentissage auto-évaluatif » Le géant des médias sociaux Meta vient d'annoncer un nouveau modèle d'IA doté d'une fonction d'apprentissage auto-évaluatif (STE), qui peut réduire l'intervention humaine dans le processus de développement de l'IA.