Pourquoi la sortie surprise de DeepSeek V4 le jour de GPT-5.5 change la donne pour tout l’écosystème IA

 
DeepSeek a profité du lancement de GPT-5.5 par OpenAI pour sortir V4, un modèle open source de 1,6 billion de paramètres qui coûte 7 à 9 fois moins cher que ses rivaux américains. Le genre de timing qu’on ne choisit pas par hasard.

Jeudi 23 avril, OpenAI déroule le tapis rouge pour GPT-5.5, son modèle le plus cher jamais commercialisé. Quelques heures plus tard, DeepSeek balance ses poids sur Hugging Face sous licence MIT, sans conférence, sans teaser, sans CEO. Juste un lien, un prix et 1,6 billion de paramètres à télécharger. Bref, la méthode chinoise dans toute sa splendeur, saboter la fête sans même s’inviter.

DeepSeek V4 arrive en deux versions, Pro et Flash, toutes deux en mixture-of-experts avec 1 million de tokens de contexte. Le principe, en gros, c’est un modèle géant découpé en « experts » spécialisés, dont seule une petite fraction s’active à chaque requête. On garde la puissance d’un mastodonte sans payer le coût de calcul à chaque fois.

La Pro aligne 1,6 billion de paramètres au total, dont 49 milliards seulement sont mobilisés par requête. Ce qui en fait, sur le papier, le plus gros modèle open source du marché, devant Kimi K2.6 de Moonshot (1,1 billion) et plus du double de la précédente V3.2 (671 milliards). La Flash, plus modeste, tourne à 284 milliards de paramètres, dont 13 milliards activés. Les deux sont téléchargeables librement sous licence MIT, et l’API est déjà ouverte.

Un prix qui ridiculise la concurrence, sauf qu’il y a des astérisques

La vraie gifle, c’est la facture. V4 Pro se paie 1,74 dollar le million de tokens en entrée et 3,48 dollars en sortie. À comparer aux 5 dollars / 25 dollars de Claude Opus 4.7, ou aux tarifs de GPT-5.5 qui grimpent encore plus haut. On parle d’un rapport de 7 à 9 en défaveur des Américains.

Côté Flash, c’est encore plus brutal, 0,14 dollar / 0,28 dollar le million, soit moins cher que GPT-5.4 Nano ou Claude Haiku 4.5. Pour donner un ordre d’idée, traiter 100 millions de tokens de sortie coûte environ 348 dollars chez DeepSeek, contre 2 500 dollars chez Anthropic. La différence, ce sont les salaires d’une petite boîte sur un an.

Sur les benchmarks, V4 Pro bat tous les modèles open source en maths, coding et raisonnement, et passe devant GPT-5.4 sur Codeforces avec un score de 3206. Mais sur les tâches de pur savoir factuel et les benchmarks de connaissance (HLE, SimpleQA), Gemini 3.1 Pro et GPT-5.4 gardent la tête. DeepSeek l’admet d’ailleurs elle-même, son modèle « traîne de 3 à 6 mois » derrière la frontière américaine. Et petit détail qui compte, V4 ne gère que du texte. Pas d’image, pas d’audio, pas de vidéo, contrairement à la quasi-totalité des modèles fermés qui font du multimodal depuis un moment.

Pour qui, pour quoi, et ce qui cloche

Concrètement, V4 vise les développeurs et les boîtes qui traitent du gros volume, les équipes qui veulent auto-héberger un modèle sans envoyer leurs prompts chez Sam Altman, et les pays qui préfèrent éviter une dépendance totale à la Silicon Valley.

L’argument de la licence MIT est massif pour la finance, la santé ou le juridique.

Pour l’utilisateur final qui discute avec un chatbot sur son téléphone, en revanche, l’intérêt est plus théorique. V4 Pro pèse 865 Go à télécharger, autant dire que personne ne le fera tourner chez soi. Et l’API officielle passe par des serveurs chinois, ce qui pose les questions habituelles de souveraineté des données.

Il faut aussi noter le contexte politique. Le lancement tombe au lendemain d’accusations américaines reprochant à la Chine un « vol de propriété intellectuelle à l’échelle industrielle » via des milliers de comptes proxy.

Pour aller plus loin
La Chine clone-t-elle l’IA américaine ? La Maison-Blanche accuse son rival de pillage industriel

Anthropic et OpenAI reprochent depuis longtemps à DeepSeek de pratiquer la « distillation », autrement dit d’entraîner ses modèles à partir des sorties des leurs. Difficile de prouver quoi que ce soit, mais l’ambiance est tendue, et V4 ne va pas détendre les relations.


Retrouvez un résumé du meilleur de l’actu tech tous les matins sur WhatsApp, c’est notre nouveau canal de discussion Frandroid que vous pouvez rejoindre dès maintenant !

Recherche IA boostée par
Perplexity