Google déploie Gemini 3 Flash : le nouveau modèle par défaut qui surpasse GPT-5.2 sur certains points

 
Google vient de presser le bouton « déploiement » pour Gemini 3.0 Flash sur nos smartphones. Une mise à jour qui semble anodine, mais qui cache une refonte totale de la manière dont votre IA réfléchit avant de vous répondre.

Mise à jour : Google communique enfin sur nouveau modèle, Gemini 3 Flash.

Ce nouveau modèle remplace dès aujourd’hui le vieillissant Gemini 2.5 Flash dans l’application Google et le mode IA. C’est la version que vous allez utiliser 90 % du temps. Ce modèle « léger » vient taquiner les performances des modèles « Pro » et se permet même de mettre en difficulté le tout récent GPT-5.2 sur certains terrains.

Gemini 3 Flash affiche des scores qui font lever un sourcil. Sur le benchmark Humanity’s Last Exam (oui, c’est le vrai nom), il a obtenu un score de 33,7 %.

Pour vous donner une idée, le monstrueux Gemini 3 Pro est à 37,5 % et le tout nouveau GPT-5.2 d’OpenAI est à 34,5 %. En clair, cette version « économique » talonne les modèles les plus puissants du marché. C’est impressionnant.

Mais là où Google enfonce le clou, c’est sur la multimodalité (la capacité à voir, entendre et comprendre). Sur le test MMMU-Pro, Gemini 3 Flash obtient 81,2 %. Il bat tout le monde.

Côté développeurs, Google a fait un choix intéressant. Le prix augmente légèrement par rapport à la version 2.5 : on passe à 0,50 dollar par million de tokens en entrée. C’est plus cher, oui. Mais Google promet que le modèle est trois fois plus rapide et nécessite 30 % de tokens en moins pour réfléchir. Au final, la facture pourrait baisser, mais il faudra surveiller ça de près.

Article original :

Google commence officiellement à déployer Gemini 3.0 Flash au sein de son application mobile. Si vous avez de la chance, vous avez déjà vu apparaître de nouvelles options dans le sélecteur de modèle.

Google veut mettre fin à l’attente interminable devant une bulle de texte qui clignote. Pour ça, la firme de Mountain View ne se contente pas d’injecter un nouveau modèle. Elle segmente l’expérience en trois catégories distinctes : Fast (Rapidement), Thinking (Raisonnement) et Pro.

Jusqu’ici, on subissait le temps de latence du modèle choisi. Désormais, c’est l’utilisateur qui décide si l’IA doit foncer tête baissée ou prendre le temps de peser ses mots.

Gemini 3.0 Flash : un modèle, deux visages

Le point le plus intéressant de cette mise à jour réside dans le dédoublement de Gemini 3.0 Flash.

Pour la première fois, Google propose deux modes de fonctionnement pour le même moteur. Le mode Fast (Rapide) est une version allégée, presque dépourvue de processus de raisonnement interne. C’est l’outil parfait pour une réponse instantanée sur un fait simple ou une traduction rapide.

À l’opposé, le mode Thinking (Raisonnement) active les capacités de raisonnement de Flash. C’est ce que Google appelle le processus « stable et consistant ». Concrètement, l’IA simule une forme de réflexion interne avant d’afficher le résultat. C’est plus long, certes, mais cela réduit drastiquement les hallucinations et les erreurs logiques que l’on croise trop souvent sur les modèles légers.

Et puis, il y a le haut du panier : Gemini 3.0 Pro. Ici, on change de catégorie. Ce modèle n’est plus seulement une question de vitesse, mais de puissance brute pour des flux de travail multi-agents ou des raisonnements mathématiques complexes. La hiérarchie est désormais limpide chez Google, même si elle demande un petit temps d’adaptation.

L’annonce est attendue pour savoir, habituellement autour de 19h (heure de Paris). Mais cette fois-ci, le déploiement a été plus rapide que l’annonce.


Retrouvez tous les articles de Frandroid directement sur Google. Abonnez-vous à notre profil Google pour ne rien manquer !

Recherche IA boostée par
Perplexity