Moonshot AI (Chine) lance le premier modèle open-source à mille milliards de paramètres, défiant la domination de la Silicon Valley en matière d'IA
L'échelle sans précédent et l'architecture novatrice de Kimi K2 signalent une nouvelle phase dans la course mondiale à l'armement de l'IA, avec des implications significatives pour la dynamique du marché et les stratégies d'investissement.
Le 11 juillet 2025, le paysage de l'intelligence artificielle a radicalement changé lorsque Moonshot AI a lancé Kimi K2, le premier modèle linguistique open-source au monde doté de mille milliards de paramètres. Cette étape représente plus qu'une prouesse technique : elle marque l'émergence de la Chine, aux côtés de Deepseek, comme une force redoutable dans le développement de l'IA open-source, défiant directement les modèles propriétaires et le futur modèle open-source d'OpenAI.
Peu de temps après, OpenAI a annoncé un retard dans la sortie de son LLM open-source, invoquant la nécessité de perfectionnements supplémentaires. Dans un message d'Aidan Clark (@aidan_clark), il a déclaré que si le modèle est « phénoménal » en termes de capacités, OpenAI maintient une barre haute pour les versions open-source et souhaite s'assurer que le modèle respecte cette norme « sur tous les axes ». Il a souligné : « Celui-ci ne peut pas être déprécié ! » — soulignant l'intention d'OpenAI d'en faire une version open-source durable et phare.
Quand la taille devient stratégie : le pari du mille milliards de paramètres
Kimi K2 utilise une architecture sophistiquée de Mixture-of-Experts (MoE) clairsemée, composée de 384 experts, dont seulement 8 sont activés par inférence. Cette conception réalise l'exploit remarquable de maintenir un total d'un mille milliards de paramètres tout en n'utilisant que 32 milliards de paramètres actifs pendant le fonctionnement — une configuration qui offre une capacité de modèle massive sans les frais de calcul proportionnels.
Les métriques de performance du modèle révèlent ses ambitions. Dans les benchmarks de codage