
Pendant que le débat sur l’impact environnemental de l’intelligence artificielle enfle, Google sort de son silence avec des chiffres précis sur la consommation énergétique de ses modèles Gemini.
L’entreprise de Mountain View annonce que répondre à une question via Gemini consomme 0,24 watt-heure d’énergie. Pour vous donner une idée concrète : c’est l’équivalent de regarder la télévision pendant moins de neuf secondes. Un chiffre qui peut paraître dérisoire, mais qui prend une autre dimension quand on sait que des millions d’utilisateurs interrogent ces systèmes chaque jour.
- 8 secondes de télévision (comme annoncé par Google)
- 30 secondes d’éclairage LED (ampoule 8W)
- 2 minutes de charge de smartphone en veille
- 1 minute de fonctionnement d’un réveil numérique
- 15 secondes de micro-ondes à puissance minimale
- 45 secondes d’utilisation d’une brosse à dents électrique
- Une heure sur Netflix = 150-200 Wh = 625 à 830 requêtes IA
- Un trajet en voiture électrique (1 km) = 150-200 Wh = plus de 600 requêtes IA
Une recherche Google traditionnelle consomme environ 0,2 à 0,3 watt-heure. Donc une requête IA Gemini (0,24 Wh) consommerait quasiment la même chose qu’une recherche web classique. C’est plutôt surprenant quand on pense à toute la puissance de calcul nécessaire pour générer une réponse complexe versus afficher une liste de liens.
Des progrès spectaculaires… selon Google
Les ingénieurs de Google revendiquent des gains d’efficacité impressionnants sur les douze derniers mois. Leur modèle Gemini consommerait désormais 33 fois moins d’énergie par requête qu’en mai 2024, tout en réduisant ses émissions carbone de 44 fois. Ces améliorations résultent d’optimisations techniques à tous les niveaux : des algorithmes plus malins, des puces sur-mesure plus efficaces, et des centres de données ultra-optimisés.

« Nos TPUs Ironwood de dernière génération sont 30 fois plus économes en énergie que nos premiers processeurs spécialisés », expliquent Amin Vahdat et Jeff Dean, respectivement vice-président de Google Cloud et scientifique en chef chez DeepMind. Cette course à l’efficacité s’appuie sur des techniques d’ingénierie avancées comme le « Mixture-of-Experts », qui n’active qu’une petite partie du modèle pour chaque requête.
Google se démarquerait en proposant une approche de calcul plus complète que ses rivaux. Là où la plupart des estimations ne comptent que la consommation des puces en fonctionnement, la firme californienne intègre tous les éléments de la chaîne : les serveurs en veille (nécessaires pour garantir la disponibilité), la consommation des processeurs classiques et de la mémoire, plus l’infrastructure complète des centres de données.
Cette méthode « comprehensive » aboutit à des chiffres 2,4 fois plus élevés que les calculs habituels. Si Google s’était contenté de mesurer uniquement ses processeurs actifs, une requête Gemini n’aurait consommé que 0,10 watt-heure. « De nombreux calculs actuels de consommation énergétique de l’IA ne représentent que l’efficacité théorique plutôt que la véritable efficacité opérationnelle à grande échelle », soulignent les chercheurs.
Des données auto-déclarées à prendre avec précaution
Ces annonces arrivent à point nommé pour Google, alors que la consommation énergétique de l’IA devient un enjeu pour l’opinion publique et les régulateurs. Mais il faut garder à l’esprit que ces chiffres proviennent directement de l’entreprise, sans validation indépendante. Google communique ce qu’elle veut bien révéler sur ses propres systèmes.
D’ailleurs, l’absence de données comparables chez OpenAI, Anthropic ou Meta rend difficile toute mise en perspective. En publiant sa méthodologie détaillée, Google semble vouloir imposer ses standards de mesure à l’industrie, tout en démontrant son avance technologique supposée. Une stratégie qui lui permet de contrôler le narratif autour de l’impact environnemental de l’IA.

Cette transparence sélective soulève des questions légitimes. Pourquoi ces révélations maintenant ? Comment s’assurer que les données reflètent la réalité d’usage plutôt qu’un cas d’usage optimisé ? Les 0,24 watt-heure annoncés correspondent à une requête « médiane » en mai 2025, sans préciser la variabilité selon les types de questions ou la longueur des réponses.
L’entreprise californienne reste discrète sur sa consommation totale liée à l’IA, préférant communiquer sur l’efficacité par requête. Une approche qui, si elle témoigne de progrès techniques réels, ne dit rien de l’explosion du volume d’utilisation. Car même avec une efficacité multipliée par 33, l’impact total peut augmenter si le nombre de requêtes explose plus rapidement encore. D’ailleurs, cela ressemble à la communication de Nvidia pour ses cartes graphiques.
Téléchargez notre application Android et iOS ! Vous pourrez y lire nos articles, dossiers, et regarder nos dernières vidéos YouTube.
Ce contenu est bloqué car vous n'avez pas accepté les cookies et autres traceurs. Ce contenu est fourni par Disqus.
Pour pouvoir le visualiser, vous devez accepter l'usage étant opéré par Disqus avec vos données qui pourront être utilisées pour les finalités suivantes : vous permettre de visualiser et de partager des contenus avec des médias sociaux, favoriser le développement et l'amélioration des produits d'Humanoid et de ses partenaires, vous afficher des publicités personnalisées par rapport à votre profil et activité, vous définir un profil publicitaire personnalisé, mesurer la performance des publicités et du contenu de ce site et mesurer l'audience de ce site (en savoir plus)
En cliquant sur « J’accepte tout », vous consentez aux finalités susmentionnées pour l’ensemble des cookies et autres traceurs déposés par Humanoid et ses partenaires.
Vous gardez la possibilité de retirer votre consentement à tout moment. Pour plus d’informations, nous vous invitons à prendre connaissance de notre Politique cookies.
Gérer mes choix