
Moonshot AI vient de rappeler à tout le monde que la Chine n’est pas là pour faire de la figuration.
Derrière le nom de Kimi K2.5 se cache une startup de Pékin devenue en quelques mois le « champion national » de l’IA. Dirigée par Yang Zhilin, un ancien de chez Google et Meta, et massivement financée par Alibaba et Tencent, l’entreprise ne cache plus ses ambitions mondiales. La startup est rapidement devenue un véritable titan de l’IA valorisé à 4,3 milliards de dollars.

Kimi K2.5 n’est pas qu’un simple chatbot. C’est un modèle conçu pour l’action. Il repose sur une architecture complexe de type Mixture-of-Experts (MoE) qui totalise environ un trillion de paramètres. Il utilise une structure qui lui permet d’être à la fois extrêmement puissant et relativement optimisé lors de l’utilisation.
Le modèle a été nourri avec une quantité de données vertigineuse : environ 15 000 milliards de tokens de texte et de vision. On est sur un entraînement « multimodal natif », ce qui signifie que Kimi K2.5 ne se contente pas de décrire une image, il la comprend au même titre qu’un texte.
L’Agent Swarm
Mais la véritable rupture technique, c’est ce que Moonshot appelle l’Agent Swarm. Au lieu de confier une mission à une seule IA, le modèle peut créer et coordonner automatiquement jusqu’à 100 sous-agents. Chaque agent s’occupe d’une micro-tâche, ce qui permet de lancer jusqu’à 1 500 appels d’outils ou d’API en parallèle.
Concrètement, si vous lui demandez de construire un modèle financier complexe à partir de dix PDF différents, il ne va pas lire les documents un par un. Il va dépêcher ses agents pour extraire les données, les croiser et générer les tableaux Excel en simultané.
| Benchmark (Agentic Search) | Kimi K2.5 (Swarm) | GPT-5.2 (xhigh) | Claude 4.5 Opus |
| BrowseComp | 78.4 | 65.8 | 57.8 |
| WideSearch (f1) | 79.0 | — | 76.2 |
Selon les premiers retours, cette méthode est environ 4,5 fois plus rapide qu’un agent classique. C’est l’IA « agentique » dans ce qu’elle a de plus concret : elle ne vous donne pas seulement la recette, elle fait la cuisine.

Sur des tests de haut niveau comme AIME 2025 ou GPQA-Diamond, Kimi K2.5 (en mode Thinking) talonne GPT-5.2. Mais c’est sur la partie vision et vidéo qu’il prend l’avantage.
Cette puissance se traduit aussi par des capacités de « Visual Coding » qui seraient bluffantes selon les premiers retours. Vous lui donnez une capture d’écran d’un site web, et il vous ressort le code HTML/CSS prêt à l’emploi. On est clairement sur les terres de Claude 4.5 Opus, avec une agilité technique qui pourrait bien séduire les développeurs lassés par les restrictions des modèles propriétaires.
Le positionnement de Moonshot AI est intéressant. En publiant Kimi K2.5 sous une licence inspirée du MIT (quasi open source), la startup veut créer un écosystème global pour réduire la dépendance aux modèles américains. C’est une manière d’affronter directement OpenAI, Anthropic ou encore Google.
C’est un choix politique autant que technique. Moonshot propose des API compatibles et des outils de fine-tuning pour que chacun puisse adapter ce monstre à ses propres besoins.
Et comment on l’utilise ?
Moonshot AI publie Kimi K2.5 en open source, mais la réalité matérielle est plus complexe. Vous n’allez pas pouvoir l’installer facilement, même s’il est open source et que vous pouvez le télécharger.
Le modèle complet pèse 630 Go. Pour le faire tourner proprement, oubliez votre PC portable, un Mac mini et même votre PC de gaming. Il vous faudra des outils spécifiques comme llama.cpp (dans des versions optimisées par la communauté) ou Unsloth pour utiliser des versions compressées.
Pour aller plus loin
Comment installer un modèle LLM type ChatGPT sur PC ou Mac en local ? Voici le guide ultime pour tous
Voici ce qu’il vous faut concrètement :
- La configuration « pas cher » : une RTX 4090 (24 Go de VRAM) et 128 Go de RAM. Vous devrez utiliser une version ultra-compressée (quantisation 1.8-bit). La vitesse ? Environ 0,4 token par seconde. C’est lent déjà très cher.
- La config recommandée : un Mac Studio M3 Ultra avec 512 Go de RAM unifiée. C’est le ticket d’entrée pour avoir un débit d’environ 5 à 10 tokens par seconde. Coût de l’opération ? Environ 14 000 €.
- Le mode pro : un serveur avec 4 ou 8 GPU NVIDIA H200 (141 Go de VRAM chacun). Là, on dépasse les 200 000 € d’investissement.
Même si Kimi K2.5 est publié comme modèle open source, l’écosystème autour de Kimi ressemble beaucoup à ce que proposent des acteurs fermés comme OpenAI, Google ou Anthropic : Moonshot AI fournit non seulement le LLM, mais aussi une interface de type “ChatGPT” accessible gratuitement pour tester le modèle en ligne, ainsi qu’un environnement en ligne de type CLI/éditeur orienté code, comparable à Claude Code ou aux anciens outils type Codex (avec exécution, gestion de fichiers, etc.), ce qui en fait une plateforme complète plutôt qu’un simple dépôt de poids de modèle.

Téléchargez notre application Android et iOS ! Vous pourrez y lire nos articles, dossiers, et regarder nos dernières vidéos YouTube.

Ce contenu est bloqué car vous n'avez pas accepté les cookies et autres traceurs. Ce contenu est fourni par Disqus.
Pour pouvoir le visualiser, vous devez accepter l'usage étant opéré par Disqus avec vos données qui pourront être utilisées pour les finalités suivantes : vous permettre de visualiser et de partager des contenus avec des médias sociaux, favoriser le développement et l'amélioration des produits d'Humanoid et de ses partenaires, vous afficher des publicités personnalisées par rapport à votre profil et activité, vous définir un profil publicitaire personnalisé, mesurer la performance des publicités et du contenu de ce site et mesurer l'audience de ce site (en savoir plus)
En cliquant sur « J’accepte tout », vous consentez aux finalités susmentionnées pour l’ensemble des cookies et autres traceurs déposés par Humanoid et .
Vous gardez la possibilité de retirer votre consentement à tout moment. Pour plus d’informations, nous vous invitons à prendre connaissance de notre Politique cookies.