Mistral Large 3 et Ministral : la réponse française à GPT-5.1 et Gemini 3 Pro est open source et multimodale

 
La course à la taille est terminée, place à l’efficacité. Alors que la Silicon Valley s’écharpe pour construire des data centers nucléaires, Mistral AI prend le contrepied total. La startup française vient d’annoncer Mistral 3, une famille de modèles conçus pour tourner partout, de votre smartphone à un robot d’usine, sans la moindre connexion internet.

On a l’habitude de voir les géants de la tech américaine bomber le torse avec des modèles de plus en plus lourds, comme Gemini 3 Pro ou GPT-5.1. Mistral AI a décidé de jouer une autre partition.

La startup française vient d’annoncer la famille Mistral 3. L’idée n’est pas seulement de faire « mieux », mais de faire « partout ». Au menu : un mastodonte, Mistral Large 3, pour les tâches complexes, mais surtout une flopée de modèles compacts, les Ministral 3, taillés pour le « Edge AI ». Il s’agit d’‘intelligence artificielle qui tourne directement sur votre machine, sans envoyer vos données dans le cloud.

Pour aller plus loin
Comment installer un modèle LLM type ChatGPT sur PC ou Mac en local ? Voici le guide ultime pour tous

La technique sous le capot

Regardons sous le capot. La star du jour, c’est évidemment l’architecture multimodale.

Contrairement à beaucoup de concurrents qui collent un module de vision sur un modèle de texte , Guillaume Lample, cofondateur de Mistral, explique avoir « tout pressé dans le même modèle« . Ils ont conçu une IA capable de traiter du texte et de l’image nativement.

La gamme se décompose ainsi :

  • Mistral Large 3 : le poids lourd avec 675 milliards de paramètres. C’est un modèle « Mixture of Experts » (MoE), une technique qui permet d’activer seulement une partie du cerveau de l’IA pour une requête donnée. Avec sa fenêtre de contexte de 256k tokens, il peut avaler des livres entiers.
  • Ministral 3 : c’est là que ça devient intéressant. Disponibles en 3, 8 et 14 milliards de paramètres, ces modèles sont déclinés en versions « Base », « Instruct » et « Reasoning ».

Le tour de force ? L’optimisation. Selon Mistral, le modèle Ministral 3 peut tourner sur un seul GPU avec aussi peu que 4 Go de VRAM (en quantification 4-bit).

Pour vous donner une idée, même une carte graphique d’entrée de gamme ou un MacBook Air récent peut le faire tourner sans transpirer. Son principal concurrent est Qwen, une famille de grands modèles de langage développés par Alibaba Cloud.

Ils parlent français

Il y a un point sur lequel Mistral appuie fort : la langue. Les modèles comme GPT-4 ou Claude sont entraînés majoritairement sur de la donnée anglophone. Ils « parlent » français, mais ils « pensent » souvent en anglais.

Mistral a inversé la vapeur. En augmentant la proportion de données non-anglophones, ils sacrifient peut-être quelques points sur les benchmarks américains standards (qui sont biaisés vers l’anglais), mais ils gagnent en pertinence réelle pour nous, Européens. Guillaume Lample est lucide là-dessus : on ne peut pas briller sur les benchmarks populaires et être excellent en multilingue sans faire de compromis. Mistral a choisi son camp : celui de l’utilisabilité globale.

L’IA déconnectée

C’est bien beau tout ça, mais pour quoi faire ? La vision de Mistral, c’est l’intelligence distribuée.

On peut imaginer un drone de secours qui doit analyser des images thermiques en montagne. Il n’a pas de 5G. Avec Ministral 3, l’analyse se fait à bord. Idem pour les robots d’usine ou les voitures autonomes qui ne peuvent pas se permettre la latence du cloud.

L’autre avantage, c’est la confidentialité. Si le modèle tourne sur votre PC portable d’entreprise, aucune donnée ne sort. Pour les banques, les hôpitaux ou même les particuliers soucieux de leur vie privée, c’est un argument massif. Tout est disponible sous licence Apache 2.0. C’est l’open source royal : vous prenez, vous modifiez, vous utilisez.

La réalité ? Mistral est en train de construire l’infrastructure invisible de demain.

Le pari est risqué financièrement, vendre du service cloud rapporte plus que de donner du code open source, mais stratégiquement, c’est ce qu’il faut faire. Mistral adopte la méthode chinoise, en inondant le marché de modèles performants et gratuits. Le meilleur moyen de s’assurer de devenir le standard par défaut des développeurs. Et dans la tech, c’est souvent celui qui devient le standard qui gagne à la fin.


Utilisez-vous Google News (Actualités en France) ? Vous pouvez suivre vos médias favoris. Suivez Frandroid sur Google News (et Numerama).

Recherche IA boostée par
Perplexity