Contacter l'auteur / Contact the author

Recherche dans ce site / Search in this site

 

 

 

 

 

La restitution des images sur ordinateur

Scanned by the author from "Digital Color Management: Encoding Solutions" by E.J.Giorgianni and T.E.Madden

Encodage des couleurs (III)

L'amélioration de la technologie et notamment du niveau d'intégration des composants électroniques a rapidement permis de passer des cartes graphiques (vidéo) de 8 bits à 32 et même 64 bits, taille qui caractérise la dimension du bus de données et la taille des registres du microprocesseur. "32 bits" signifie que 32 fils sont réservés au transfert des données, autrement dit l'ordinateur est capable de gérer 32 bits en parallèle, dont plus rapidement qu'un ordinateur basé sur une architecture 16 bits. 

Bien entendu les systèmes d'exploitation (MacOS et Windows) et les applications doivent être adaptés pour tirer avantage de cette architecture, ce qui signifie généralement reprogrammation ou recompilation des logiciels.

Les canaux RGB d'un écran gèrent chacun 256 couleurs, soit 28 nuances dont la luminance varie entre 0 et 255, du noir au blanc. Il en découle en jargon informatique que la partie visuelle du cortex cérébral serait donc aussi performante qu'une carte vidéo 24 bits (224 ~ 16.7 millions) et certainement plus polyvalente ainsi que nous l'avons brièvement expliqué.

Une carte vidéo 16 bits gère une palette de 65536 couleurs (216). Sans y faire trop attention, cette gamme de couleurs nous paraît uniforme, mais en affichant une image de qualité HD, on constate qu'elle présente malgré tout des zones de dégradés irréguliers et se transforme en une oeuvre que ne renieraient pas les Pointillistes ! Ce phénomène est très apparent sur des images compressées en 256 couleurs (8 bits) comme celle présentée ci-dessous et typique du format GIF standard.

Cette comparaison apporte la preuve que 24 bits/pixels sont nécessaires pour restituer une image dans toutes ses nuances. Doc AF Mil.

Pour afficher correctement une photographie, c'est-à-dire sans perte et dans toutes ses nuances, nous devons donc utiliser une carte vidéo capable de gérer 8 bits/couleur ou 24 bits/pixel. Ces caractéristiques permettent de disposer d'une gamme de plus de 16.7 millions de couleurs. Elles correspondent également aux nombres de couleurs supportées par les imprimantes de qualité photo (HP Photosmart, etc).

Ainsi que nous l'avons dit, généralement les cartes graphiques gèrent seulement 8 bits/couleur, l'équivalent de 24 bit/pixel, ce qui représente la "profondeur" des couleurs et caractérise la qualité du rendu d'un écran. Les bits additionnels sont dédiés à d'autres tâches.

En pratique, plus les bits sont nombreux pour caractériser un pixel, plus ceux-ci s'aligneront avec précision avec l'espace colorimétrique le plus étendu, l'espace L*a*b qui représente l'oeil moyen idéal.

Par le passé, certaines cartes graphiques étaient incapables de remplir la mémoire vidéo avec les bits "perdus" correspondant aux données de couleurs. Or cet octet ou byte supplémentaire inclut dans les systèmes 32 bits peut être utilisé pour transporter d'autres informations que les valeurs d'intensité des canaux RGB. Ces 8 bits additionnels sont notamment utilisés pour caractériser l'opacité, les valeurs dites "alpha" de transparence des images composites.

Etant donné que les textures (l'image habillée) manipulées dans les applications graphiques 3D (Carrara, Terragen, simulateurs, etc) sont souvent stockées sur des chips mémoires de grande capacité installés sur la carte vidéo, de nos jours il est plus simple de les utiliser pour remplir la mémoire vidéo d'information et le traitement est instantané.

Donc un des facteurs qui va influencer la rapidité de l'affichage d'un écran sera la taille de la mémoire vidéo, mais ainsi que nous allons le voir, ce n'est pas le seul facteur ni même le plus important.

Rendering 3D d'un trou de ver.

De nos jours, des technologies offrant 10 bits/couleur (une profondeur de 30 bits/pixel) sont des standards sur le marché, 12 à 16 bits/couleur (26 à 48 bits/pixels) étant principalement  réservés aux applications professionnelles (industrie spatiale et graphique).

Parlant technique, il faut savoir que certains systèmes sophistiqués sont incapables de soutenir leurs prétentions. Une partie du problème vient du fait que le signal RGB est un signal électrique. La plupart des écrans ne peuvent pas dépasser de beaucoup les 8 bits/couleur. 

En effet, du point de vue électronique, une précision de 8 bits avec un signal vidéo de 0.7 V (écran analogique standard) impose que tout le système présente une précision et une stabilité de l'ordre de 0.7/255 volts, soit environ 2.7 mV.

On comprendra qu'en travaillant avec de si faible tensions, ce n'est pas le marketing qui poussera les ventes, mais le savoir-faire du constructeur. Bien entendu, cette qualité se paie toujours au prix fort, jusqu'à 1700 € environ pour un écran TFT de 21" (LaCie 321), soit plus du double d'un modèle d'entrée de gamme. Il existe bien entendu des écrans professionnels à plus de 5500 € tel le NEC Spectraview et quelques autres dix fois plus cher.

Des ressources systèmes fonction des applications

La gestion des couleurs et l'infographie (dont la retouche de photo numérique et le rendering) ne requièrent pas du tout les mêmes performances d'une carte graphique que le graphisme 3D (modelisation, jeux et autre simulateur de vol). En revanche les trois applications exigent une carte graphique performante, mais pas dans le même but.

La gestion des couleurs, l'infographie, le rendering 3D et parfois la modélisation exigent une profondeur de couleurs importante pour obtenir des images aussi réalistes que possible. En revanche, un jeu, un logiciel de rendering ou de modelisation exigent de la vitesse vu les nombreux calculs à effectuer dans l'espace.

Généralement la taille de la mémoire passe au second plan bien que l'application tournera plus facilement si elle dispose de tout l'espace nécessaire, tant en RAM qu'en VRAM. Si toutes les applications tournent encore aujourd'hui dans un espace limité à 196 MB par exemple, on conseille d'installer un minimum de 512 MB voire 1 GB RAM si vous travaillez régulièrement avec des applications graphiques exigeant beaucoup de ressources.

A lire : The rendering time in Terragen 

Christina Aguilera

La gestion des couleurs ou l'infographie peut se contenter d'un processeur graphique relativement lent et d'un ordinateur cadencé à 400 MHz. Un photographe n'a pas besoin d'un PC cadencé à 3 GHz pour retoucher ses photos (quoique cela deviendra bientôt la norme, loi de Moore oblige) ! Il sera par contre difficile d'apprécier un simulateur de vol à cette vitesse car il refusera tout simplement de se lancer, faute de trouver une carte graphique accélératrice.

Le contraste des écrans TFT et cathodiques

Qu'est-ce qui différencie le contraste d'un écran cathodique (CRT) de celui d'un écran TFT ? On entend dire ou on lit ci et là que les TFT sont meilleurs que les CRT ou que les seconds ont un contraste plus élevé que les premiers. Beaucoup d'utilisateurs ne veulent plus revenir au CRT alors que pas mal de spécialistes de l'imagerie ne veulent pas entendre parler de TFT. Qu'en est-il exactement ?

Si la qualité est un facteur qui peut se mesurer objectivement, elle dépend aussi de l'usage que l'on a de son écran. Pour caricaturer le problème, la question est de savoir si vous vous servez de votre écran pour du travail bureautique (traitement de texte, tableur, etc) ou de la retouche photo, en laissant de côté les jeux qui ne demandent qu'une carte graphique performante ? Car tel est bien le problème fondamental : le temps de réponse, la luminosité minimale, la tolérance et autre pitch sont-ils pour vous des paramètres essentiels ou peuvent-ils passer au second plan dans votre travail quotidien ?

En effet, pour un adepte de la retouche photo ou de l'infographie, il est important de pouvoir distinquer les moindres nuances dans une image, que ce soit dans les basses ou les hautes lumières. Cette personne travaille donc à la limite de la tolérance visuelle et ne peut pas se contenter d'un écran reproduisant 50% de la gamme des couleurs ou des luminosités.

Un écran cathodique correctement réglé est capable de reproduire du noir absolu, correspondant à l'absence de signal vidéo de luminance. Dans ces conditions il est impossible d'évaluer son contraste car le rapport des luminosités extrêmes donnera une valeur divisée par 0 et donc un contraste infini, même s'il est peu lumineux ! Vous ne verrez donc jamais de mesure de contraste dans les spécifications d'un écran cathodique mais uniquement sa luminosité maximale.

A consulter : Power Retouche, plugin pour Photoshop

A gauche, les deux technologies LCD utilisées dans les écrans TFT, la transmission et la réflexion (HR-TFT). A droite, l'écran LCD Eizo L788 FlexScan de 19" (840 €) offre un contraste de 1000:1 et 10 bits par couleur après correction. Documents Sharp et Eizo adaptés par l'auteur.

A l'inverse, dans un écran TFT fonctionnant par transmission, la dalle est rétro-éclairée et laisse toujours filtrer un tout petit peu de lumière. Le noir n'est donc jamais absolu. La mesure du contraste correspond à sa capacité d'obscurcir complètement ce rétro-éclairage. Cette technologie s'améliore avec le temps, on arrive à fabriquer des TFT d'ordinateur présentant un contraste supérieur à 1500:1, mais les écrans cathodiques présentent toujours un longueur d'avance en cette matière, leur contraste étant plus élevé que la plupart des écrans TFT dont le noir n'est pas encore noir ou nul, réduisant d'autant leur contraste.

Mais faut-il pour autant rejeter tous les écrans TFT présentant un faible contraste ? Certainement pas car la plupart des utilisateurs se contentent en réalité d'un contraste d'environ 300:1 et en sont très satisfaits. 

Quant à la luminosité minimale d'un tel écran elle se situe aux alentours de 2.5 tandis que les TFT présentant un contraste de 1000:1 peuvent présenter une luminosité minimale de 1. Mais est-il bien nécessaire d'avoir une luminosité si faible voire nulle ? Si cela se verra à l'écran dans une pièce relativement sombre, si le document est destiné à l'impression, une si faible luminosité ne sera jamais exploitée car elle tombera sous le seuil de tolérance du système d'impression ou de tirage.

Cette perte programmée s'explique par le fait que les imprimés restituent les couleurs par réflection; l'ensemble papier plus encre réduit le contraste car il réfléchit plus ou moins la lumière en fonction du type de support et de la luminosité ambiante. C'est ainsi qu'un papier mat présente une luminosité minimale d'environ 15 cd/m2  - il n'est jamais noir mais gris foncé - alors qu'un papier brillant haut de gamme (par ex. Premium glossy) atteint une luminosité de 2 cd/m2. Mais bien souvent de tels papiers sont inexploitables car la surface glacée est trop brillante et réfléchit tout son environnement.

La leçon à tirer de tout ceci est qu'il faut se dire que pour un usage ordinaire, un écran plat ordinaire de milieu de gamme suffit largement à la plupart d'entre nous qui utilisons un traitement de texte, surfons sur Internet ou jouons à toutes sortes de jeux. Bien sûr, un infographiste ou un photographe a d'autres exigences et aura besoin d'un écran de qualité, raison pour laquelle la gamme des Lacie, Eizo ColorEdge et autre Apple Cinema ont si bonne presse alors que leur contraste est tout à fait ordinaire (respectivement 500:1, 550:1 et 350:1) pour les entrées de gamme. Il est toutefois compensé par une technologie avancée.

Il faut donc relativiser la notion de contraste d'autant plus qu'elle n'est pas normalisée et que chaque fabriquant peut annoncer ce qu'il veut et ne pas s'en tenir à la norme ISO. Se greffe sur ce manque de standardisation, le fait que le contraste varie également d'un lot d'écrans à l'autre. Et rappelons enfin que la luminosité est toujours donnée pour un écran neuf et qu'elle diminue graduellement avec l'utilisation. Dans le cas des écrans TFT, les lampes de rétro-éclairage vieillissent et noircissent lentement à l'image de nos tubes fluorescents (au néon).

Représentation du contraste à l'écran

Si la reproduction fidèle des couleurs au sens strict est un problème majeur das l'industrie, la reproduction du contraste est un problème encore plus épineux.

Pour un budget limité (300€) l'écran large Samsung SyncMaster 226BW LCD de 22" présente des caractéristiques adaptées au traitement d'image. Cf. le comparatif sur le blog.

Durant des milliers d'années, en fait depuis qu'il peint et reproduit des images, l'homme a été incapable de reproduire sur un support la luminosité des sujets qu'il avait observé et a toujours été limité à une différence de contraste d'environ 300:1 (gamma ~2.5).

Les plus grands maîtres de la peinture tel Monet ou El Greco ont essayé de contourner le problème en jouant sur les couleurs complémentaires, les effets de contre-jour ou en surlignant de blanc les contours de leur sujet. Cette méthode à ses limites.

Puis vint l'avènement de la photographie, du film argentique de différentes sensibilités et des papiers de différentes gradations. Des photographes célèbres tel Eugene Smith se ventait d'avoir passé cinq ans dans sa chambre noire avant d'obtenir un portrait noir et blanc correctement équilibré d'Albert Schweitzer écrivant à la lumière d'une lampe à pétrole !

En photographie il existe deux types de contraste : le contraste enregistré par l'émulsion et celui restitué. Une émulsion négative présente un grand écart de luminance à l'exposition mais restitue un faible écart de densité. Son contraste de restitution est donc faible. Une diapositive au contraire présente un gamma plus élevé et l'enregistrement d'une prise de vue est par conséquent plus délicat et tolère moins d'erreurs. En revanche, du fait qu'elle utilise un support quasi transparent, l'écart de densité ou de luminance restitué est donc plus élevé que celui d'un support négatif.

Une méthode pour augmenter la gamme de luminance est de réaliser un compositage LRGB en travaillant en noir et blanc et en utilisant des filtres colorés. C'est une technique qui a été utilisée pour la première fois en 1915 par Prokudin Gorskii pour réaliser... des portraits et qui est encore régulièrement utilisée en astrophotographie.

La correction gamma et la LUT

Vint ensuite l'ère de l'informatique. Quand on doit afficher une image sur un écran, on est de suite confronté à la question du contraste, le gamma de l'écran, qui est similaire à la notion utilisée en photographie. En effet, nous avons un signal vidéo entrant, électronique au niveau de la carte graphique, présentant une certaine dynamique et, après conversion, une autre dynamique en sortie, un contraste cette fois, qui sera affiché à l'écran. Mais ici s'arrête la comparaison avec la photographie.

Dans l'oeil humain, l'intensité lumineuse est linéaire entre le noir et le blanc de la gamme des gris, mais sa réponse à la distribution de la luminosité, ce qu'on appelle la puissance lumineuse n'est pas linéaire dans cette même gamme de gris, ce qui explique sa plus grande sensibilité aux faibles lumières.

Réponse ou fonction de transfert non linéaire d'un écran cathodique (CRT) pour une luminance dont la tension varie entre 0 et 700 mV. L'intensité lumineuse générée par un objet n'est généralement pas une fonction linéaire du signal d'entrée, qu'il s'agisse d'une lumière ou d'un appareil électronique. Dans le cas d'un écran cathodique, la luminance est une loi en puissance en réponse à la tension appliquée qui varie approximativement proportionnellement à la puissance 2.5 de la tension. Dans le convertisseur A/D d'une carte graphique (framebuffer) codand 8 bits/couleurs (profondeur de 24 bits/pixel), le noir est codé 0, le blanc 255. Cette fonction est l'inverse de la réponse de l'oeil à la luminance.

Pour préserver la sensation d'uniformité des dégradés du côté des faibles lumières et du noir de l'échelle, nous pouvons coder cette sensibilité dans une carte graphique de deux manières : de façon linéaire ou non linéaire.

En utilisant une procédure linéaire, les hautes comme les basses lumières sont considérées sur le même pied : chaque différence de luminosité est identique à la précédente. Cela se représente généralement par une gamma de 1 dont la pente traverse le diagramme de luminance en diagonale, c'est le gamma utilisé par les APN en mode RAW.

Or nous savons que l'oeil ne réagit pas ainsi. Sachant que pour un contraste de 100:1, l'oeil présente une sensibilité lumineuse d'environ 1%, une représentation qui tient compte de cette différence ou delta de 0.01 sur toute l'échelle de gris jusqu'au blanc représente environ 9900 nuances soit environ 14 bits par composante.

Dans un système de représentation non linéaire, une tolérance de 0.01 ne peut pas être incrémenté de manière absolue au bas de l'échelle de gris et doit respecter un rapport de luminance exponentiel vers le blanc.

La relation existant entre la luminance (axe X) et la luminosité (axe Y) représente une courbe logarithmique dont la pente à l'origine vaut 0.45. Cette relation non linéaire signifie qu'une luminance ou puissance lumineuse de 50% (projetée sur l'axe X) sera perçue comme présentant une luminosité de 75 % (projetée sur l'axe Y).

Pour reproduire une couleur à l'écran, l'intensité du signal vidéo est modulée en fonction de la tension appliquée, ce qui permet de simuler un gamma, généralement compris entre 1.8 et 2.2. Pour le dire de manière plus concrète encore, le signal RGB de sortie équivaut au signal d'entrée porté à la puissance du gamma.

Pour reproduire la réponse non linéaire de l'oeil, les ingénieurs appliquent donc une loi en puissance 2.5 où la tension est modulée proportionnellement à L0.45. Grâce à cette méthode, on obtient une représentation satisfaisante de l'intensité lumineuse. Cette méthode qui compense les valeurs de couleurs calculées en fonction du gamma à restituer s'appelle la correction gamma et obéit à la norme CIE Rec.709. Cette correction est appliquée à chaque périphérique et peut être ajustée par l'utilisateur. 

Dans le cas des cartes graphiques, il y a malheureusement une perte d'information entre le framebuffer et la table de correspondance (Look-Up Table ou LUT) lorsque les composantes de la couleur sont codées sur 8 bits, entre 0 et 255. On y reviendra.

En pratique la correction gamma est transparente et envoyée directement dans le signal vidéo. C'est automatiquement intégré aux caméras vidéo et aux ordinateurs graphiques professionnels. Pour les ordinateurs domestiques, la conversion de gamma est programmée au niveau de la carte graphique comme indiqué dans le schéma ci-dessous. Nous avons une fonction de transfert qui est convertie dans la LUT, dont la pente est également appelée "gamma", avec l'avantage qu'il n'y a qu'un bouton pour le régler, voire un logiciel pour les modifications plus fines. On aboutit ainsi à un espace RGB non linéaire.

La LUT qui est en fait une table de calibration joue donc un rôle important car elle convertit le signal d'entrée afin d'améliorer le rendu des couleurs primaires et les détails de l'image affichée sur l'écran. Précisons qu'étant donné qu'il existe trois couleurs primaires, la carte graphique réalise trois correction gamma et dispose donc de trois LUT, une par couleur primaire.

Plusieurs logiciels permettent de charger la LUT de calibration avec des valeurs définies par l'utilisateur. Citons Adobe Gamma proposé avec Photoshop,  Monaco Gamma de X-Rite (livré avec le logiciel i1Match ou Monaco EZColor) et LEOWorks. Les valeurs de la LUT sont reprises dans le profil ICC établit au cours de la caractérisation d'un écran mais ne représentent pas la totalité du profil qui contient également des données sur l'espace de couleurs, la température de couleur, etc.

Cette gamme non linéaire présente environ 460 nuances, soit environ 9 bits par composante. En pratique, 8 bits/couleur codés non linéairement (Rec. 709) sont suffisants pour une présentation TV digitale au rapport de contraste 50:1. Toutefois, en infographie cet éventail de luminance est trop restreint et les ingénieurs ont proposé d'augmenter la taille des registres réservés à la couleur jusqu'à 32, 48 et même 128 bits/pixel pour les écrans d'avant-garde. 

Grâce à cette amélioration technologique, le spectre de la luminance a pu être étendu pour atteindre des niveaux de contraste qui dépassent aujourd'hui 1500:1 (et même 3000:1 en contraste dynamique) en informatique et beaucoup plus dans le matériel TV et de conférence. Quand on se rappelle que les anciens écrans TFT de "bonne qualité" de la fin des années 1990 parvenaient difficilement à un contraste de 250:1, on se rend compte du progrès accompli. Néanmoins tout n'est pas encore parfait. On en reparlera.

L'image affichée sur un écran d'ordinateur n'est pas calculée de la même façon que celle d'une image vidéo (TV). Il y a même une différence entre celle affichée sur un moniteur graphique, sur un ordinateur Macintosh et sous Windows par exemple. Un écran d'ordinateur calcule les interactions de la lumière sur les objets. Nous avons expliqué que ces interactions font partie du domaine physique. Elles sont calculées par les cartes graphiques qui travaillent généralement avec des valeurs lumineuses linéaires. Ces données stockées dans une mémoire (framebuffer) subissent ensuite une correction gamma avant d'être affichées à l'écran.

Malheureusement si un algorithme de conversion n'utilise que 8 bits/pixel (sur les anciens ordinateurs), le transfert des données vers les trois tables de correspondance LUT s'établira également sur 8 bits, il y a donc une perte d'information. Concrètement cela implique que dans ce mode de représentation, les zones proches du noir peuvent malgré tout présenter des bandes, bien qu'à peine perceptibles. Les régions très lumineuses ne sont pratiquement pas touchées par ce phénomène. C'est typique de ce mode de représentation et cela constitue la limite du système de représentation RGB sur 8 bits/pixel.

Pour supprimer ce goulet d'étranglement, il faut travailler avec des systèmes d'au moins 24 bits/pixels et en virgule flottante double précision pour avoir accès à la totalité de l'espace de couleurs sans artefact ni contrainte, avec un maximum de nuances. Mais le grand pas en avant fut réalisé avec la mise au point du format d'image HDR, High-Dynamic Range. De quoi s'agit-il ?

Prochain chapitre

Le format HDR, High-Dynamic Range

Page 1 - 2 - 3 - 4 - 5 -


Back to:

HOME

Copyright & FAQ