HDMI 2.1, Dolby, HDR, VRR, ALLM, 4:4:4, 10 bits : tout comprendre au nouveau jargon de la TV

Pour savoir décrypter une fiche technique TV

 

Si vous avez déjà regardé la fiche technique détaillée d’une télévision et que vous n’êtes pas un spécialiste, vous avez certainement eu quelques difficultés pour comprendre le jargon technologique utilisé par les constructeurs. Voici quelques explications des termes techniques les plus courants qui devraient vous aider à y voir plus clair.

TV LED PHILIPS 50PUS7906 // Source : Philips

Une télévision est un appareil électronique de plus en plus complexe. En effet, au fil des années, les technologies d’affichage, mais également d’optimisation d’images s’enchainent à une vitesse effrénée pour des images toujours plus spectaculaires les unes que les autres. Le renouvellement d’un tel dispositif ne se prend pas à la légère, car souvent synonyme d’un certain investissement. Il n’intervient pas non plus tous les ans, à moins d’être un passionné souhaitant chaque année avoir le dernier cri. Aussi, il arrive que lorsque survient le moment de changer de télévision, les technologies aient tellement évolué qu’il est très facile de s’y perdre. Voici donc les principaux termes techniques utilisés dans les fiches de caractéristiques expliqués pour mieux vous y retrouver.

Les définitions, mettons les points sur les i

Commençons par des choses simples, à savoir la définition proposée par les différents téléviseurs actuellement sur le marché. Les entrées de gamme sont capables d’afficher une définition Full HD soit 1920 pixels en largeur et 1080 pixels en hauteur. D’autres, à partir du milieu de gamme jusqu’au haut de gamme, profitent d’une dalle capable d’afficher une définition Ultra HD. Précisons qu’il s’agit bien du terme Ultra HD et non pas 4K.

La définition Ultra HD (ou UHD) correspond à 3840 pixels de large pour 2160 pixels de haut avec un ratio de 16:9 correspondant aux cadres des télévisions. L’appellation 4K est associée à tort à l’Ultra HD puisqu’elle correspond à une définition de 4096 pixels de large pour 2160 pixels de haut, un format réservé à l’industrie du cinéma avec un ratio de 17:9. Concrètement, cela signifie qu’il n’existe pas de télévisions 4K, mais seulement des téléviseurs Ultra HD. Si vous voyez la mention 4K, c’est purement marketing, car il s’agit en réalité d’une définition Ultra HD.

Pour aller plus loin et tenter de s’approcher de la définition perceptible par l’œil humain, les fabricants ont réussi à développer des téléviseurs dotés de dalle ayant une définition Ultra HD 8K. Elle propose ainsi 7680 pixels de large pour 4320 pixels en hauteur, toujours au format 16:9.

HDR pour des scènes plus contrastées

C’est le grand terme à la mode en ce moment. Un téléviseur peut être HDR ou non. Cette technologie signifie « large plage dynamique » en français et a pour principal but de mieux traduire à l’image la réalité de perception d’un œil humain surtout lorsqu’on lui présente une scène contrastée, c’est-à-dire comportant des zones très claires et d’autres plus sombres.

Globalement, il s’agit de renforcer le contraste, mais également les couleurs pour proposer des séquences les plus détaillées possible. La technologie HDR propose une plage dynamique plus large que la technologie SDR (Standard Dynamic Range ou plage dynamique standard) utilisée jusqu’ici.

La mention HDR est le format court pour HDR10 qui est l’appellation officielle de cette technologie. Ensuite, il y a le HDR10+. Il s’agit d’une évolution de la technologie HDR10 qui prend en compte les variations de contraste au cours d’un film ou d’une série complète alors que le HDR10 applique un algorithme unique qui suit ce que l’on appelle les métadonnées ici statiques donc définitivement réglées pour la totalité du média lu. Le HDR10+ utilise les métadonnées dynamiques enregistrées pour une séquence. Il s’agit d’informations qui régissent la reproduction optimale pour chaque scène.

Enfin, le format HDR10+ Adaptive reprend le principe d’utilisation des métadonnées dynamiques en y ajoutant une analyse de la luminosité ambiante dans la pièce grâce à un capteur intégré dans le téléviseur compatible afin d’ajuster automatiquement les réglages d’affichage. Typiquement, le téléviseur affichera une image plus lumineuse lorsque la pièce sera baignée de lumière et plus sombre lorsqu’elle sera dans l’obscurité.
Le format HDR10 (et ses déclinaisons) est dit « open source », permettant à toutes les entreprises qui veulent l’exploiter de l’en emparer sans payer de droit d’exploitation. Il est soutenu par plusieurs sociétés d’électronique grand public, dont Samsung, Panasonic, Philips, 20 th Century Fox, entre autres. Le format HDR10 et le DHR10+ peuvent afficher jusqu’à 1 milliard de couleurs grâce à une profondeur de 10 bits.

Dolby Vision, l’autre mode HDR

Très en vogue actuellement, la société américaine Dolby a réussi à s’imposer comme une norme HDR utilisée par de très nombreux fabricants. Le format propriétaire Dolby Vision utilise, comme le concurrent HDR10+, les métadonnées pour signaler aux télévisions compatibles comment gérer dynamiquement les différentes scènes afin d’optimiser le rendu de la luminosité, le contraste et les couleurs. Le format Dolby Vision peut afficher en théorie jusqu’à 68,7 milliards de couleurs sur une profondeur de 12 bits, mais, à l’heure de l’écriture de ces lignes, il n’existe aucune télévision dotée d’une dalle 12 bits.

La notion de Dolby Vision IQ est similaire au HDR10+ Adaptive. Il s’agit donc d’utiliser conjointement les métadonnées dynamiques et le niveau de luminosité ambiant pour régler les paramètres de l’image de manière optimale. Comme le HDR10+ Adaptive, il s’agit d’une option qui peut être désactivée dans les menus de la télévision.

8 bits + FRC, 10 bits, 12 bits, quézako ?

Sur une télévision, on parle beaucoup des couleurs. Intéressons-nous plus particulièrement à ce que l’on appelle la profondeur des couleurs. Pour bien comprendre, il faut faire appel à quelques notions d’informatique. En effet, un octet est composé de 8 bits et peut prendre des valeurs comprises entre 0 et 255 (entre 20 et 28). Pour les trois couleurs primaires, on a donc 256 nuances de rouge, 256 nuances de bleu et 256 nuances de vert soit un total de 16 millions de couleurs. Ca, c’est pour la théorie parce qu’en réalité, les contenus vidéo sont proposés avec seulement 220 nuances de chaque sous-pixel (de 16 à 235) et c’est ce que l’on appelle le RVB limité (Limited RGB) opposé au RVB Plein (Full RGB). La dalle d’une télévision 8 bits est donc capable d’afficher 16 millions de couleurs en théorie.
Pour aller plus loin, les industriels ont décidé de proposer un système sur 10 bits soit 1024 nuances de bleu, 1024 nuances de vert et 1024 nuances de rouge soit un total de 1 milliard de couleurs. La profondeur de couleurs 10 bits est donc plus importante qu’en 8 bits tout en gardant des couleurs maximales identiques.
Sur certaines dalles 8 bits, on peut apercevoir ce que l’on appelle un phénomène de color banding. Il s’agit d’un dégradé peu flatteur des couleurs lié à la faible quantification des niveaux de couleurs. Autrement, il n’y a pas assez de nuances entre les couleurs pour proposer un beau dégradé.

Pour pallier cela, les fabricants ont trouvé une parade. Ils utilisent une technologie appelée FRC (Frame Rate Control) qui consiste à améliorer la perception des couleurs affichées en extrapolant l’affichage de couleurs qui ne sont pas supportées nativement par la dalle. Cela limite les effets de color banding sur les dégradés et coûte moins cher qu’une dalle 10 bits. On parle alors de téléviseurs dotés d’une dalle 8 bits+FRC. Ils appartiennent la plupart du temps au segment de milieu de gamme. Les modèles haut de gamme privilégient les dalles 10 bits.
Comme évoqué plus haut, il n’existe pas actuellement de télévision grand public dotée d’une dalle 12 bits.

4:4:4, 4:2:2, 4:2:0, à quoi ça correspond ?

Pour définir une image, il y a beaucoup de notions telles que la profondeur de couleur en bits, le pic de luminosité ou le rapport de contraste. En outre, ce que l’on appelle l’échantillonnage de la chrominance permet de déterminer la fidélité de l’écran. Plus l’échantillonnage est important et plus l’image sera précise. Chaque pixel d’une image est reconstitué à partir des trois composants que sont la luminance Y, le chrominance bleue (Cb) et la chrominance rouge (Cr). Il est représenté sous la forme a:b:c.

Dans le cas d’un signal 4:4:4, celui-ci est totalement défini avec une gamme complète de couleurs avec un échantillonnage non compressé et représentant la meilleure qualité à ce jour. C’est aussi celui qui demande le plus grand débit vidéo. Si le signal est 4:2:2, cela signifie qu’il est compressé, ayant seulement 2 pixels échantillonnés (contre 4 précédemment) pour les deux lignes de couleur. Les autres sont dupliqués ce qui donne une moindre précision, mais permet toutefois de réduire significativement le débit nécessaire au transport de ce type de signal pour une perception finalement très proche. Enfin, dans le cas d’un signal 4:2:0, le débit est encore plus faible : environ deux fois moins que celui demandé pour un signal 4:4:4, mais seulement deux pixels ont des échantillons de couleurs, les autres étant des duplications.

Ainsi, privilégiez un modèle compatible 4:4:4 dans la mesure du possible ou au moins 4:2:2 pour de meilleurs résultats à l’image.

VRR : Variable Refresh Rate, pour les joueurs

La notion de VRR (Variable Refresh Rate) fait appel à une fonction d’un téléviseur qui lui permet de faire varier la fréquence de rafraîchissement de sa dalle pour tenter de la synchroniser avec la fréquence des images produites par la source, la plupart du temps, une console de jeux.

Cette option permet de limiter les déchirements d’image pouvant provenir d’une synchronisation hasardeuse entre la source et le diffuseur, en l’occurrence le téléviseur. Dans le cas de l’utilisation d’un ordinateur doté d’une carte graphique, on utilise pour cela les technologies développées par AMD et Nvidia, respectivement, FreeSync et G-Sync. Il s’agit d’une fonction optionnelle de la norme HDMI 2.1.

ALLM, pour réduire l’input lag

La fonction ALLM (Auto Low Latency Mode) permet à une source comme une console de jeux d’envoyer un signal au téléviseur via une prise HDMI pour que celui-ci passe automatiquement dans un mode qui autorise un affichage plus rapide (le mode Jeu, par exemple).

Le téléviseur bascule ensuite dans un mode « normal » lorsque la fonction n’est plus nécessaire. Cette fonction permet donc de réduire ce que l’on appelle le retard à l’affichage ou input lag, correspondant au délai enregistré entre le moment où le joueur appuie sur le bouton de la manette de jeu et où l’action se déroule à l’écran. Il s’agit d’une fonction optionnelle de la norme HDMI 2.1, mais certains équipements de version HDMI antérieure peuvent aussi en profiter.

HDMI 2.1, quelles technologies sont compatibles ?

Évolution logique de l’interface HDMI, la version HDMI 2.1 englobe différentes fonctionnalités animées par une bande passante pouvant atteindre 48 Gbit/s.

Attention, le site du consortium HDMI précise que les équipements dotés d’une connectique HDMI compatible avec la version 2.1 ne supportent pas nécessairement l’intégralité des possibilités proposées par cette norme. Toutes les fonctions sont optionnelles. Pour des raisons marketing, les constructeurs peuvent jouer avec cette notion mettant ainsi en avant le numéro de version (2.1) dès lors qu’une fonctionnalité de la version en question est supportée, mais pas toutes, créant une certaine confusion.

Les fonctions supportées par la norme HDMI 2.1 sont les technologies HDR pour l’optimisation du contraste, VRR pour limiter les déchirements d’image dans les jeux, ALLM pour réduire le temps de retard à l’affichage ainsi que le QMS (Quick Media Switching) pour un basculement rapide d’une source à une autre, mais également le QFT (Quick Frame Transport) aidant à réduire le retard à l’affichage en abaissant le temps de transmission des images. La technologie eARC est également supportée, permettant ainsi de profiter d’un retour audio depuis le téléviseur vers un système audio via le port HDMI supportant les formats les plus exigeants.

La norme HDMI 2.1 peut supporter les signaux vidéo Ultra HD à 120 images par seconde et Ultra HD 8K à 60 images par seconde. Cela sous-entend que des définitions moindres sont bien entendu acceptées. Enfin, petite précision, mais cela va toujours mieux en le disant : il faut utiliser des câbles compatibles HDMI 2.1 pour profiter de toutes les technologies disponibles sur les appareils.


Le saviez-vous ? Google News vous permet de choisir vos médias. Ne passez pas à côté de Frandroid et Numerama.