Une erreur dans le texte ?

C'est le bon endroit pour nous l'indiquer !
Attention, ce formulaire ne doit servir qu'à signaler une erreur. N'hésitez pas à utiliser la page de contact pour nous contacter ou nous faire part de vos suggestions. Merci.

Etape 1

Cliquez sur les paragraphes contenant des erreurs !

Pourquoi j'ai adopté l'eGPU, je n'aurais pas dû, mais vous devriez me remercier

Avec la venue du Thunderbolt 3, le rêve était enfin possible : brancher une vraie carte graphique à un ordinateur portable, pour concilier mobilité et puissance. Alors que l'IFA 2019 ferme ses portes, je me dois de faire un constat : on m'a menti.

Je suis journaliste. Aussi, mon matériel se doit de pouvoir tenir la distance, et me permettre d'écrire rapidement en toutes conditions, sans avoir nécessairement besoin d'une prise à disposition ni même d'une connexion.

Mais je suis aussi joueur. Aussi, j'aime pouvoir lancer une partie rapidement, profiter d'un clavier et d'une souris optimisés pour le jeu, et vise naturellement à poser mon nom sur quelques victoires en ligne.

Voilà deux philosophies qui, sur ordinateur portable, étaient parfaitement incompatibles. Mais avec la venue du Thunderbolt 3 et de ses 40 Gbps de bande passante, le rêve semblait enfin pouvoir devenir réalité : l'eGPU est né.

Les débuts grand public des eGPU

Le port Thunderbolt 3 conjugué à l'USB type C a été proprement dévoilé en 2015 et a gagné en popularité dès 2016 après avoir été intégré dans quelques ordinateurs portables haut de gamme. S'en est alors suivi l'annonce du premier Razer Blade Stealth, qui promettait quelque chose d'encore difficile : réconcilier les ultraportables et le gaming, grâce au Razer Core présenté du même temps.

Le Razer Core, c'est ce petit boîtier à connecter simplement avec un câble Thunderbolt 3, qui permet de connecter une carte graphique d'ordinateur de bureau pour jouer sur son ultrabook. Après avoir été longtemps une obsession pour geek au parfum, l'eGPU -- pour external GPU -- devint alors un produit facilement accessible et configurable destiné au grand public.

Une annonce qui m'aura provoqué un frisson de plaisir. Comprenez : je tenais enfin ce que je cherchais depuis toujours, la possibilité d'amener avec moi un ultrabook avec une autonomie d'une journée à brancher avec un seul câble une fois chez moi pour retrouver mon écran, mon clavier, ma souris, et jouer jusqu'à ce que le sommeil m'emporte. J'ai donc été un early adopter, et ai dépensé mes deniers gagnés au prix d'un dur labeur pour pouvoir me procurer le Razer Blade Stealth premier du nom, le Razer Core et une GeForce GTX 1060.

Promesse et réalité

La promesse de l'eGPU est simple : avec un seul câble, il était enfin possible de profiter d'une puissance jusque là impossible à avoir sur un PC portable. Les cartes graphiques des portables étaient loin d'être satisfaisantes à l'époque et les designs des ordinateurs pour joueurs… loin d'être assez sobres pour un usage professionnel ou pratiques en mobilité.

Les problèmes de chauffe et de consommation n'étaient plus : du fait que le boîtier est externe, il n'avait qu'à avoir sa propre ventilation pour la carte graphique. Quant à la consommation sur batterie, le concept même fait que l'ordinateur se recharge en même temps qu'il est utilisé. Aussi, plus besoin de faire attention à sa batterie. Les plus téméraires pouvaient même envisager des boîtiers eGPU très petits pour leurs déplacements, de manière à pouvoir jouer comme ils le souhaitent.

La réalité… fut un peu moins belle. Le concept était encore en bêta, faisant que les drivers, cartes mères et OS n'étaient pas tout à fait prêts pour cette révolution. Le premier Razer Core permettait bien de brancher une carte graphique, mais ses ports USB n'ont jamais suffisamment fonctionné pour brancher le moindre périphérique. Un souci que tous les boîtiers de cette génération ont connu et qui a été réglé avec le Razer Core V2 avant que le Razer Core X n'abandonne toute idée de fournir un hub USB en prime d'une carte graphique.

Plus difficile encore : arriver à faire en sorte que Windows 10 soit assez flexible pour qu'il accepte qu'autant de périphériques s'ajoutent et se retirent en quelques secondes. Des bugs graphiques aux sorties de veille périlleuses, j'ai tout connu. Enfin, dans le cadre où vous aviez aussi une puce Nvidia intégrée, il aura fallu quelque temps avant que la relation entre les deux soit vraiment bien balancée et que l'un ne supprime pas l'autre.

L'eGPU a joué son rôle

Aujourd'hui, les eGPU sont parfaits. Windows 10 comme macOS les acceptent sans broncher, le concept fonctionne parfaitement et les boîtiers sont toujours plus accessibles pour le commun des mortels. Mon Razer Blade Stealth 2019 couplé au Razer Core V2 m'emplit de bonheur. Pour autant, et particulièrement suite à l'IFA 2019… ils n'ont plus vraiment d'intérêt. Et cela s'est fait en plusieurs étapes.

Tout d'abord, il y a eu Nvidia. En présentant « Max Q », le constructeur de cartes graphiques a enfin réalisé ce que l'on pensait impossible : fournir sensiblement les mêmes performances entre une carte graphique mobile et une carte graphique de bureau. Le marché ayant évolué pour se recentrer sur le gaming, faisant s'envoler les prix des produits et justifiant plus concrètement les coûts de R&D, ses ingénieurs ont enfin réussi à trouver des profils de performance/chauffe viable à présenter au grand public sur des machines toujours plus fines et haut de gamme.

Reste que ces machines sont loin d'être des ultrabooks, ce qui est la catégorie de produit principalement visée par ces eGPU. Réconcilier mobilité et gaming : un rêve de niche enfin atteint. De niche ? Plus vraiment : voilà qu'Apple se lance aussi sur ce petit marché, le rendant bien plus visible aux yeux du grand public. Voilà qui motivera Microsoft et Intel à régler rapidement les problèmes rencontrés sur le Thunderbolt 3, permettant notamment une gestion beaucoup plus intelligente de multiples cartes graphiques présentes sur un seul et même système mobile.

Enfin, Intel a offert des puces quad core sur les ultrabooks, sur le même ordre de pensée que Nvidia : la demande était enfin suffisamment là pour justifier de s'y pencher. Jusque là, un petit dual core suffisait pour ces machines dont on voulait surtout enlever le moindre ventilateur grâce à des puces M qui n'ont pas convaincu grand monde.

Et l'eGPU s'en va

Et voilà qui nous conduit à l'IFA 2019 et à la présentation du nouveau Razer Blade Stealth. Le point culminant de ces dernières années passées à viabiliser l'eGPU pour le grand public aura tout simplement conduit à sa perte, puisque les découvertes faites l'auront rendu obsolète.

Grâce à ses designs Max Q, le Razer Blade Stealth peut désormais intégrer une Nvidia GeForce GTX 1650. Grâce à l'amélioration de la puissance sans réel détriment sur la batterie, l'Intel Core i7-1065G7 permet de propulser la machine sans pour autant la condamner à une autonomie abyssale.

Et enfin, Windows 10 gérant bien mieux la relation entre les puces graphiques de différents organes, il est possible de rester tranquillement sur l'Intel HD 620 à très basse consommation pour la majorité des tâches, garantissant une longévité exemplaire et n'activer la GeForce GTX 1665 que lorsqu'elle est réellement nécessaire : en jeu. Ainsi, l'idée du « premier ultrabook gaming » est bien respectée et toujours plus alléchante.

Cette possibilité, on la doit à ce que l'eGPU a accompli. Mais désormais, que lui reste-t-il ? La possibilité de mettre à jour régulièrement sa carte graphique, oui, mais ça n'a jamais vraiment été l'intérêt principal. Tout connecter en un seul câble ? Le port Thunderbolt 3 est toujours là sur le dernier Blade Stealth, faisant qu'un dock moins cher offrira toujours cette possibilité.

Il restera surtout l'idée qui nous aura permis de passer un cap sur les ordinateurs portables. Quant à moi, j'aurais dépensé beaucoup d'argent pour débloquer cette possibilité pour vous : c'est du moins l'excuse derrière laquelle je vais désormais me cacher pour justifier mes investissements de ces dernières années.