Les fabricants de téléviseurs et d’écrans rivalisent d’innovations, 4K, ULTRA HD, HDR, Dolby Vision pour nous en mettre plein les yeux. Dans les descriptifs un terme revient souvent, il s’agit du nombre de nits. A quoi ça sert pour les écrans ?

Ces avancées technologiques permettent de bénéficier de détails auparavant imperceptibles. Une aubaine pour tous les photographes et les cinéphiles qui vont enfin pouvoir profiter pleinement de leurs images.

Mais que sont les nits ?

Le terme nit vient du latin « nitere » qui signifie briller. Le nit est une unité de mesure permettant d’apprécier la luminosité d’un écran. Elle est équivalente au candela par mètre carré qui correspond à l’unité utilisée dans le Système International pour mesurer la luminance (intensité lumineuse) d’une surface.
Une bougie moyenne produit environ 1 candela. Cette quantité de lumière, répartie sur un mètre carré, est un nit. Plus le nombre de nit est élevé, plus la surface est lumineuse.

1 nit = 1 cd/m2

Certains fabricants précisent en nits la luminosité maximale pouvant être générée. Cette caractéristique permet de se faire une idée sur la capacité d’un écran à rendre perceptible certains détails de l’image, notamment dans des environnements lumineux ou encore dans le cadre de la technologie HDR.

Un écran de cinéma peut probablement atteindre 50 nits. Si votre téléviseur a quelques années, avant l’apparition du HDR, il peut probablement atteindre entre 100 et 400 nits. Les téléviseurs modernes peuvent être beaucoup plus lumineux, avec les téléviseurs HDR haut de gamme qui émettent plus de 1 500 nits. Au cours des prochaines années, nous verrons probablement des rendements lumineux encore plus élevés. Sony, au CES 2018, a présenté un prototype de TV capable de 10 000 nits.

Quelle est la différence avec les lumens ?

Le mot “lumen” en latin signifie “lumière”. Le lumen est une unité subjective dépendant de l’être humain. Elle quantifie la quantité de lumière perçue par un être humain « moyen » en présence d’une source de rayonnement électromagnétique.

HDR et Dolby Vision ?

Les technologies HDR (High Dynamic Range) et Dolby Vision permettent d’afficher une image avec des écarts de luminosité plus marqués entre sa partie la plus sombre et sa partie la plus claire. Comme l’œil humain est très sensible aux variations d’intensité lumineuses, on voit immédiatement le résultat à l’image.

Le format HDR se décline en plusieurs sous-catégories :

– HDR 10 : format HDR statique, les mêmes réglages sont appliqués tout au long du contenu vidéo.
– HDR 10+ : format HDR dynamique, le HDR 10+ permet une calibration image par image pour obtenir un contenu visuelle de meilleure qualité.
– Dolby Vision ou HDR Dolby Vision : le HDR Dolby Vision offre une qualité nettement supérieure aux formats HDR 10 et HDR 10+ grâce à une intervention humaine plan par plan.

Dans la nature, la palette de couleurs et les nuances de luminosité sont bien plus riches que dans n’importe quel contenu vidéo actuel. Sur l’image ci-dessous, on constate que la luminosité s’étend de 145 nits pour l’arrière plan à 14 700 nits pour le jaune du pétale.

nitsSource Dolby Vision

Avec un encodage en 12 bits, le Dolby Vision permet d’obtenir 4096 nuances par couleur et propose des métadonnées associées à chaque image, ce qui assure une restitution fidèle des contenus. Le système est conçu pour reproduire une plage lumineuse allant de 0 à 10 000 nits.

nitsSource Dolby Vision

Pour conclure, les technologies HDR et Dolby Vision sont révolutionnaires pour nos téléviseurs et écrans et sans doute plus spectaculaires à l’œil que l’Ultra Haute Définition (UHD ou 4K) ou le 8K.

LAISSER UN COMMENTAIRE

Merci d'entrer votre commentaire
Merci d'indiquer votre nom