
Essayez donc de vous souvenir : c’était quand, la dernière fois qu’une console Nintendo était « dans le coup » d’un point de vue technique à sa sortie ? On a l’impression que c’était il y a une éternité. À ce jour, cette éternité a duré 23 ans et quelques mois : c’était le 14 septembre 2001, date de sortie au Japon du GameCube. Le Nintendo que l’on connaît depuis, c’est celui de la DS, de la Wii, de la 3DS, de la Wii U, de la Switch.
Autant de consoles que l’on pouvait déjà à leur époque qualifier de dépassées, passéistes, à la traîne. C’eût été passer complètement à côté du fait que leur identité était ailleurs, dans leur concept, dans leur interface : le double écran, le motion gaming, la 3D sans lunette, l’hybridation console portable/console de salon. Maintenant, deuxième question piège : c’est quoi, l’identité de la Switch 2 ?
Certains, usant d’une once de mauvaise fois, et/ou d’une fois aveugle et naïve dans les discours marketing de Nintendo, nous dirons que ce sont les Joy-Cons 2 pouvant servir de souris, ou les fonctions sociales de GameChat (à condition de posséder une webcam USB-C compatible).
Attention, il ne me viendrait pas à l’esprit de contester l’intérêt de ces fonctions sans même les avoir essayées. Mais enfin, soyons sérieux quelques instants : dans son concept, la Switch 2 est un quasi-clone de la Switch 1, et tout ce qui lui donne son intérêt est qu’elle est la seule des deux à pouvoir faire tourner Mario Kart World. C’est certes déjà énorme.

Une Switch 1 devenue entrave à la créativité
Ce constat, Nintendo a décidé de l’assumer pleinement. Dans une édition de la série « Les développeurs ont la parole » qu’elle publie sur son site, l’entreprise laisse Kento Sato, directeur de la programmation sur Mario Kart World, admettre au grand jour que le jeu aurait été très à l’étroit s’il était sorti sur Switch 1, sa plateforme de développement initiale : « si nous avions inclus tout ce que nous voulions dans le monde immense de ce jeu, il n’aurait pas pu tourner à 60 ips et aurait souffert de baisses constantes dans la fréquence d’images. […] Mais après avoir décidé de sortir le jeu sur Switch 2, nous nous attendions à voir toutes nos inquiétudes s’envoler d’un coup. » J’y vois un aveu de faiblesse assez étonnant de la part de Nintendo, reconnaissant que les capacités de calcul limitées de la Switch première du nom avaient bien fini par brider la liberté des créateurs de jeu.

Cet aveux m’a surtout frappé par le contraste qu’il dessine par rapport aux discussions qui avaient accompagné le lancement d’une autre console de jeu, il y a quelques mois : la PS5 Pro (mais si, souvenez-vous !).
À la lumière du prix faramineux de celle-ci, et des améliorations parfois extrêmement légères qu’elle apportait aux jeux, on s’interrogeait : le jeu vidéo a-t-il encore besoin, peut-il encore seulement se permettre de poursuivre des (r)évolutions techniques de plus en plus coûteuses et de moins en moins perceptibles ?
Y a-t-il un stade, et si oui, où se situe-t-il, à partir duquel on peut considérer que les avancées technologiques ont si peu d’impact sur l’expérience de jeu, sur la liberté créative des développeurs, qu’elles deviennent totalement vaines ? La question est d’autant plus fascinante à se poser aujourd’hui que paradoxalement, c’est précisément la même qui a accompagné le lancement de presque toutes les consoles Nintendo, après le Gamecube susnommé.
Quand Nintendo était encore à la pointe de la technologie…
À ce propos, de quand exactement pourrait-on dater ce rapport singulier que Nintendo a envers la course à la puissance ? Il serait tentant de lui trouver des origines dès 2004, avec la sortie de la DS, notoirement beaucoup moins puissante que sa grande rivale la PSP de Sony — qu’elle battra pourtant à plate couture du côté des performances commerciales (155 millions d’unités écoulées en fin de carrière contre 85 millions).
Mais il s’agissait en fait moins d’une nouveauté chez Nintendo que d’un retour aux sources : le Game Boy original était lui aussi un objet quelque peu archaïque à sa sortie en 1989, ce qui ne l’a pas empêché de piétiner tous ceux qui ont eu le culot de vouloir le concurrencer pour les presque dix années suivantes. Il faut dire que pour ce qui concerne le cas spécifique des consoles portables, jouer la carte d’une puissance de calcul avait, encore plus qu’aujourd’hui, beaucoup de très précieuses contreparties, autonomie et fiabilité en tête. Pas si étonnant donc que l’histoire se soit répétée avec la console aux deux écrans.
La situation est très différente du côté des consoles de salon, où c’est la Wii qui, en 2006, a été la première machine Nintendo à assumer sa mise en retrait de la bataille technologique.
Avant cela, lors la génération « 16 bits », la marque avait fait tout ce qu’il fallait pour que la Super NES soit en mesure d’asseoir sa supériorité technique sur la Megadrive de Sega, avec sa généreuse palette de couleurs affichables (32 768 contre 512), sa bande passante mémoire bien plus large, sa capacité à afficher plus de sprites de plus grandes tailles, son Mode 7, sa puce audio (vous savez, cette fameuse puce développée chez Sony par un certain Ken Kutaragi) capable de gérer de véritables échantillons sonores plutôt qu’une simple synthèse FM…
En face, les frasques du département marketing de Sega of America et de son blast processing (terme qui, rappelons-le si c’est encore nécessaire, n’a jamais eu la moindre signification technique réelle) n’était qu’une manière quelque peu puérile de noyer le poisson.

La N64, acmé du Nintendo technophile
Pour la génération suivante, c’est même Nintendo qui s’est trouvé dans la position du principal vantard technique. Outre un partenariat très médiatisé avec l’américain Silicon Graphics, dont les stations de travail venaient tout juste, au milieu des années 90, de rendre possibles les effets spéciaux de Terminator 2 et Jurassic Park, la nouvelle console en provenance Kyoto allait surtout s’enorgueillir de faire sa transition à la 3D en temps réel en « sautant » la génération 32 bits, pour passer directement à une architecture 64 bits.
Ce nombre magique qui allait revêtir tellement d’importance marketing qu’il prendrait place dans le nom de code de la machine, Ultra 64, puis même dans son nom définitif, Nintendo 64. En France notamment, où la N64 allait avoir l’immense désavantage de sortir très, très en retard (en septembre 1997, au lieu de juin 96 au Japon, septembre 96 en Amérique du Nord, et mars 97 dans le reste de l’Europe), la communication de la marque se fit très inhabituellement agressive, s’attaquant sans aucune retenu à la PlayStation et à ses ridicules 32 bits qui en faisaient une machine déjà obsolète. L’argument n’avait évidemment aucun sens (signalons simplement, pour rigoler un coup, que la Xbox première du nom était une console 32 bits, tandis qu’aujourd’hui, la PS5 et la Xbox Series X sont toujours des consoles 64 bits), mais qu’importe.

Avec le Gamecube, la forme se calme un peu, mais le fond reste le même : au moment de commencer à faire parler de la console, à partir de l’été 2000, l’arme de prédilection de Nintendo reste toujours la démo technique, en commençant par la célèbre démo Zelda montrée lors de l’expo Nintendo Space World en août 2000 à Kyoto. Il faut dire qu’à l’époque, l’argumentaire est très facile à tenir : c’était encore le temps béni auquel, durant les cinq années qui séparaient deux générations de console, les technologies de rendu 3D en temps réel avaient le temps de réaliser des bonds en avant se mesurant en années-lumière.
La Wii, une révolution anti-révolution
Mais revenons à notre Wii. Est-il juste de dire que cette console-là avait totalement effacé de son langage marketing la question des performances graphiques ? Oui… et non, serait-on tenté de répondre avec un brin de sarcasme, si l’on a l’âge de se souvenir de ce beau jour de mai 2005, lors duquel le regretté Satoru Iwata, président de Nintendo, nous l’a assuré avec un formidable aplomb : en voyant les graphismes produits par cette machine que l’on appelait encore de son nom de code Revolution, nous dirions « ouaouh ! ». Nous étions encore loin de nous douter que les entrailles de l’engin ne seraient guère plus que celles d’un GameCube légèrement amélioré, bien loin de ce qu’allaient faire les Xbox 360 et PlayStation 3 voisines.
Pourtant, même avec le recul, on aurait sans doute tort de lire de la malice dans ces mots. Il y avait une logique derrière tout ça, et Iwata a été lui-même en mesure de la mettre en lumière à l’occasion d’une discussion avec les principaux ingénieurs de la console dans le cadre de la série « Iwata demande », devancière de « Les développeurs ont la parole ». Et Genyo Takeda, directeur général de la R&D à cette époque, d’expliquer : « Nous avons pris conscience, lors du développement [de la Wii], de l’inadéquation entre l’attente des consommateurs d’un côté, et les coûts et les efforts nécessaires au développement d’une machine trop luxueuse de l’autre. […] Je l’ai très clairement ressenti en parlant avec les développeurs du fait que les besoins de ceux qui recherchent « toujours plus » ne peuvent jamais être comblés. Après avoir obtenu un, puis deux, ce n’est plus trois qu’ils désirent, mais cinq, dix, trente ou même cent. Leurs désirs grandissent sans cesse, mais cela ne mène nulle part si nous essayons de les suivre. »

Autrement dit : si la Wii n’était en essence qu’un Gamecube++, c’est parce que l’on avait jugé chez Nintendo qu’un Gamecube++ était suffisant. Tant pis si cela signifiait, entre autres, mettre de côté l’affichage haute définition devenu fer de lance des nouvelles consoles de Microsoft et Sony, car Nintendo n’y voyait pas quelque chose qui marquerait suffisamment les joueurs.
La nécessité de se moderniser n’est qu’une affaire de temps
Seulement voilà, une fois cette affirmation énoncée, il devient nécessaire d’y apposer une nouvelle question : c’est suffisant… pour combien de temps ? À l’E3 2011, alors que la Wii approche de son cinquième anniversaire, elle laisse la place sur le devant de la scène à son héritière la Wii U, tout juste officialisée. Présente sur le showfloor par le biais de quelques prototypes, cette dernière entend y faire démonstration des innovations de gameplay rendues possibles par le GamePad, sa manette/tablette à écran tactile. Pourtant, il devient vite clair que la démo qui laisse le plus d’étoiles dans les yeux des visiteurs est une simple démo technique The Legend of Zelda (encore !), laissant apercevoir en substance ce que pourrait être une suite à Twilight Princess sur une machine enfin au niveau de la PS3 et de la Xbox 360 (et ce, quand bien même Nintendo est immédiatement parfaitement transparent sur le fait qu’aucun jeu du genre n’était en production).

Bien sûr, cela préfigurait en premier lieu de l’échec conceptuel du GamePad, que ni les joueurs ni les développeurs de jeux n’allaient jamais vraiment comprendre et adopter — une des nombreuses raisons de l’échec commercial cuisant de la Wii U. Mais on pouvait aussi y voir la démonstration que finalement, en prenant une génération de retard sur les autres consoliers, Nintendo n’avait fait que se décaler d’un pas dans la marche vers l’avant technologique, qui suivait toujours son cours. In fine, non, la puissance de la Wii ne suffisait pas. Et l’on ne parle pas ici seulement d’affichage en HD, mais aussi d’autres changements de paradigme plus profonds, que PS3, Xbox 360 et PC avaient déjà apportés à l’industrie dans le milieu des années 2000. On pourrait citer les shaders programmables, la grande révolution de l’époque en matière de rendu 3D en temps réel, et qui ont enfin fait leur entrée chez Nintendo avec la Wii U.
Switch 1 : l’hybridation portable/salon change la donne… mais pas tant que ça
Puis avec Switch en 2017, Nintendo rebat les cartes. Encore un nouveau concept, celui de la console hybride portable/salon… Forcément, ça change tout de ce qu’on attend des performances de la bête, et on ne s’étonne même pas, cette fois-ci, qu’elle ne propose qu’une évolution incrémentale par rapport à la Wii U. Bien sûr, il est toujours possible d’arguer que c’est une machine à la traîne, parce qu’elle s’appuie sur un chipset Nvidia Tegra X1 déjà produit en masse depuis deux ans au moment de sa sortie. Mais en arrière boutique, là encore, Nintendo en profite pour procéder à des mises à niveau plus subtiles, mais devenues absolument critiques pour rester dans une forme de modernité à la fois du point de vue de la fabrication de la console et du développement des jeux. En particulier, la Switch signe l’abandon, enfin, de l’architecture PowerPC, plus du tout adaptée aux appareils grand public (trop gourmande énergétiquement, et jamais déployée sur les processus de fabrication de puce modernes), au profit d’une architecture ARM bien plus commune parce qu’omniprésente sur les smartphones et tablettes depuis de nombreuses années.

Tiens donc, qui d’autres s’étaient débarrassés de l’héritage PowerPC tout juste quatre ans et demi plus tôt, en 2013 ? Microsoft et Sony, évidemment, avec leur Xbox One et PS4. C’était au profit d’une architecture x86 les concernant, parce que cette dernière restait mieux indiquée pour des machines fixes, beaucoup moins contraintes quant à leur budget de puissance électrique. Cette subtilité ne change pas le constat de fond : Nintendo continue à suivre la même route technologique que ses concurrents, même s’il le fait avec quelques courtes années de retard.
La Switch 2 refait de Nintendo un concepteur de console comme les autres
Ce qui nous amène enfin à la Switch 2. Elle a fait parler d’elle pour la première fois de façon plus ou moins concrète en août 2023, lors de la Gamescom à Cologne, où Nintendo la présentait à certains éditeurs et développeurs triés sur le volet, lors de réunions ultra-confidentielles ; sauf qu’évidemment, dans le monde qui est le nôtre, rien ne reste ultra-confidentiel très longtemps. Et l’on a donc rapidement entendu des bruits de couloir racontant que Nintendo y courtisait ses potentiels partenaires de développement à coup de compatibilité Unreal Engine 5, de mémoire vive bien plus généreusement disponible, d’architecture graphique modernisée, d’accélération matérielle du ray-tracing et de DLSS, déjà. C’est bien en ce genre de banalités techniques qu’allait majoritairement consister la nouvelle génération made in Kyoto. Certes, au moment de s’adresser au grand public, Nintendo a banni ces mots grossiers de son vocabulaire, pour en laisser la charge à son partenaire Nvidia. Le fond des choses, lui, ne change pas.
À lire aussi :
« Nous avons demandé l’impossible à l’équipe hardware » : ce que le patron de Nvidia révèle (ou pas) sur la Switch 2
Alors maintenant, quoi ? Ce n’est pas mon intention ici de spéculer sur ce dont la Switch 2 est « réellement capable » : bien trop d’observateurs s’y sont déjà risqués depuis la présentation de la console le 2 avril dernier, et ça n’aurait de toute façon pas de sens à cet instant, alors que l’on commence tout juste à poser nos doigts impatients sur la bête et ses premiers jeux. Mais je me demande comment évoluera dans le temps le discours autour des capacités de la console.
À titre personnel, je n’attends de toute façon pas d’elle qu’elle reste bien longtemps une machine apte à accueillir des versions multi-plateformes de jeux dimensionnés pour la PS5 et les Xbox Series (il serait déjà miraculeux qu’elle fasse tourner correctement le portage de Star Wars Outlaws, attendu pour le 4 septembre), encore moins qu’elle tienne tête aux performances des multiples Steam Deck-like de nouvelle génération qui viendront très rapidement essayer de lui piquer un peu de son buzz — sans jamais bien sûr arriver à sa cheville en matière d’impact concret sur le marché du jeu vidéo. Mais jusqu’à quand considérera-t-on que la Switch 2 est, à son tour, « suffisante » ?

Une seule chose me paraît sûre à ce jour : c’est une machine qui repositionne Nintendo, le fabricant de console, comme un concepteur de matériel comme les autres. Et démontre une bonne fois pour toute que Nintendo a beau suivre la course à la puissance à son rythme, il y participe quand même, comme les autres.
Utilisez-vous Google News (Actualités en France) ? Vous pouvez suivre vos médias favoris. Suivez Frandroid sur Google News (et Numerama).
Ce contenu est bloqué car vous n'avez pas accepté les cookies et autres traceurs. Ce contenu est fourni par Disqus.
Pour pouvoir le visualiser, vous devez accepter l'usage étant opéré par Disqus avec vos données qui pourront être utilisées pour les finalités suivantes : vous permettre de visualiser et de partager des contenus avec des médias sociaux, favoriser le développement et l'amélioration des produits d'Humanoid et de ses partenaires, vous afficher des publicités personnalisées par rapport à votre profil et activité, vous définir un profil publicitaire personnalisé, mesurer la performance des publicités et du contenu de ce site et mesurer l'audience de ce site (en savoir plus)
En cliquant sur « J’accepte tout », vous consentez aux finalités susmentionnées pour l’ensemble des cookies et autres traceurs déposés par Humanoid et ses partenaires.
Vous gardez la possibilité de retirer votre consentement à tout moment. Pour plus d’informations, nous vous invitons à prendre connaissance de notre Politique cookies.
Gérer mes choix