Vous êtes sur la page 1sur 7

Esnard Aurélien Couleur et Traitement d’image DEA Informatique

Couleur et Traitement d’image

La couleur

¾ Couleur
La couleur est le résultat de la perception sur la rétine des rayons lumineux visibles d’une
lumière incidente. La région visible du spectre a des longueurs d’onde comprises entre
400nm et 700nm.
Etant donnée une lumière incidente, on peut caractériser sa puissance physique / radiance par
une distribution spectrale de puissance ou DSP. La DSP est souvent échantillonnée sur le
spectre visible en 31 composantes larges de 10nm chacune. Il est à noté que plusieurs DSP
différentes sont également perçues par l’œil (métamérie) !
Les rayons lumineux ne sont pas colorés en soi ; c’est-à-dire que la couleur est uniquement un
phénomène sensoriel qui dépend de nos yeux et de notre cerveau !
La rétine humaine possède trois types de cellules photoréceptrices sensibles à la couleur, les
cônes, qui réagissent différemment à une longueur d’onde incidente. En fait, l’œil se compose
de trois capteurs dont on connaît les courbes de sensibilités spectrales S R , S G et S B . La
somme de ces trois courbes définit la courbe spectrale de sensibilité lumineuse de l’oeil
humain S L ; on parle également d’efficacité lumineuse quand on ramène cette courbe entre 0
et 1.
S(λ)

SG
SR

SB

400nm 700nm

SL(λ)

100%

400nm 555nm 700nm

-1-
Esnard Aurélien Couleur et Traitement d’image DEA Informatique

Considérons trois sources rouge, verte et bleu avec la même puissance dans le spectre visible.
Alors le vert paraîtra le plus brillant des trois car l’efficacité lumineuse atteint un maximum
dans la région du vert (555nm). Le rouge paraîtra moins brillant, et le bleu sera le plus foncé
des trois. En fait, notre œil est peu sensible au bleu !

¾ Concepts de base définis par le CIE


- Brillance / Brightness : Caractéristique de la sensation visuelle selon laquelle une surface
paraît émettre plus ou moins de lumière.
- Luminance / Luminance : Puissance lumineuse pondérée par la courbe spectrale de
d’efficacité lumineuse caractéristique de la vision humaine. La luminance caractérise la
notion de brillance de la vision humaine. La luminance est proportionnelle à l’intensité
lumineuse.
Y = ∫ DSP(λ ).S L (λ ).dλ en Cd / m 2
λ

- Luminosité / Lightness : La vision humaine a une réponse non linéaire à la perception de


la brillance. En effet, une source qui possède seulement 18% d’une luminance de
référence paraît moitié moins brillant !
L∗ ∝ Y 1 / 3
D’un autre point de vue, on peut dire que la perception de la luminosité est fortement
logarithmique. Un observateur peut détecter une différence d’intensité entre deux patch
quand leurs intensités diffèrent de plus de 1%.
- Luma / Luma : Il est utile pour des systèmes vidéo de connaître une grandeur comparable
à la luminance. Cette grandeur caractérise la brillance mais n’est pas la CIE luminance.
On la note Y ′ .
- Teinte / Hue : La teinte est une caractéristique de la sensation visuelle selon laquelle une
surface paraît être similaire à l’une des couleurs perçues, rouge, jaune, vert et bleu, ou à
une combinaison de deux d’entre elles.
La teinte correspond à la (ou les) longueur d’onde dominante de la DSP à laquelle est
associée une couleur de base. Si l’on décale la longueur d’onde dominante dans la DSP,
alors la teinte est aussi décalée.
- Saturation / Saturation : La saturation correspond à la pureté de la couleur d’une surface
jugée en proportion de sa brillance. La saturation va du gris neutre aux couleurs pastels,
jusqu’aux couleurs saturées.
Plus une DSP est concentrée autour d’une longueur d’onde dominante, plus la couleur
associée est saturée. Il est inversement possible de désaturer une couleur en ajoutant une
lumière qui possède une puissance non nulle sur tout le spectre.

¾ Spécification des couleurs


Comme il y a exactement trois types de photorécepteurs, trois composantes numériques sont
nécessaires et suffisantes pour décrire une couleur.
Le système CIE associe une DSP avec un triplet numérique, qui sont des coordonnées
mathématiques dans l’espace de couleurs. Ces fonctions sont en réalité des projections
conservant telle ou telle propriété, mais aucune de ces systèmes de couleur rempli tous les
besoins !

-2-
Esnard Aurélien Couleur et Traitement d’image DEA Informatique

Les systèmes utiles de nos jours sont le CIE XYZ, le CIE xyY, ... Les systèmes HSB et HLS
(teinte, luminosité ou brillance, saturation) ne sont pas très utiles dans la spécification des
couleurs, et ceux pour plusieurs raisons. Notons simplement ici que l’espace des couleurs
associé à ces systèmes est discontinu !
Le codage des images utilise un système différent de la spécification des couleurs. En effet, le
codage d’une image pour être efficace ne peut pas se permettre d’avoir une précision infinie.
C’est pourquoi, on se donne un ensemble fini de couleurs couvrant l’espace des couleurs et
non pas toutes les couleurs !
Les systèmes utiles pour le codage des couleurs sont le RGB linéaire, le R’G’B’ non linéaire,
le CMY non linéaire, le CMYK non linaire, ...

¾ Systèmes de référence XYZ et xyY


Le système de référence CIE XYZ permet de décrire toutes les couleurs sous forme d’une
composante Y représentant la luminance, et de deux composantes X et Z supplémentaires. Les
amplitudes des composantes XYZ sont proportionnelles à l’énergie physique, mais leur
composition spectrale correspond aux caractéristiques de vision humaine. Par exemple, une
couleur correspondant à deux DSP différentes ont même coordonnées.
Le système CIE xyY constitue une normalisation du système précédent. Dans ce système, une
couleur est définie par sa chromacité (x, y) et sa luminance Y. Les petites composantes x et y
sont les coordonnées chromatiques auxquelles on associe une couleur sans brillance. Cela est
utile entre autre pour parler des couleurs « pures ».

X Y
x= et y =
X +Y + Z X +Y + Z
x 1− x − y
X = Y et Z = Y
y y

Une couleur représente un point (x, y) sur le diagramme chromatique. Quand on parcoure le
spectre visible avec une DSP réduit à une seule longueur d’onde, on décrit le lieux ci-dessous,
formé de l’ensemble des couleurs saturées.

vert
rouge

Saturation blanc
Y

bleu

-3-
Esnard Aurélien Couleur et Traitement d’image DEA Informatique

Les coordonnées standards des primaires et du point blanc D65 définies selon la norme 709
sont :
R G B W
X 0.640 0.300 0.150 0.3127
Y 0.330 0.600 0.060 0.3290
Z 0.030 0.100 0.790 0.3582

¾ Système RGB
La vision humaine des couleurs obéit au principe de superposition. Ainsi la couleur produite
par n’importe quel mélange additif de trois spectres primaires peut être prédite en ajoutant les
fractions correspondantes des composantes XYZ des couleurs primaires.
Un système RGB additif est déterminé par les composantes chromatiques de ces primaires et
son point blanc. L’ensemble des couleurs ou gamut qui peut être obtenu par mélange additif
de couleurs primaires RGB forme dans le digramme chromatique (x, y) un triangle dont les
sommets sont les trois primaires.

G
R

PB

En informatique, il n’y a pas de couleurs primaires standard ou de point blanc standard. Par
conséquent, si l’on dispose d’une image RGB sans informations supplémentaires sur ses
primaires, il est impossible de reproduire précisément l’image !
La relation entre la luminance et les valeurs RGB est linéaire, de la forme Y = αR + βG + γB .
De manière plus générale encore, on passe des valeurs RGB au coordonnées XYZ et
inversement, par une matrice de transformation 3x3, dite tristimulus.
Par exemple, pour transformer les valeurs CIE XYZ en RGB709 avec le point blanc D65, on
utilise la matrice suivante.
⎡ R709 ⎤ ⎡ 3.240479 − 1.537150 − 0.498535⎤ ⎡ X ⎤
⎢G ⎥ = ⎢− 0.969256 1.875992 0.041556 ⎥⎥ × ⎢⎢ Y ⎥⎥
⎢ 709 ⎥ ⎢
⎢⎣ B709 ⎥⎦ ⎢⎣ 0.055648 − 0.204043 1.057311 ⎥⎦ ⎢⎣ Z ⎥⎦

Cette matrice a des coefficients négatifs ! En effet, les couleurs XYZ qui sont à l’extérieur du
gamut correspondent par cette transformation à des valeurs RGB impropres, dont une
composante au moins est négative ou supérieur à l’unité.
Voici la transformation inverse.

-4-
Esnard Aurélien Couleur et Traitement d’image DEA Informatique

⎡ X ⎤ ⎡0.412453 0.357580 0.180423⎤ ⎡ R709 ⎤


⎢ Y ⎥ = ⎢ 0.212671 0.715160 0.072169⎥ × ⎢G ⎥
⎢ ⎥ ⎢ ⎥ ⎢ 709 ⎥
⎢⎣ Z ⎥⎦ ⎢⎣0.019334 0.119193 0.950227 ⎥⎦ ⎢⎣ B709 ⎥⎦

Etant données les vecteurs RGB des primaires et du blanc, on peut, avec cette matrice, les
transformer en coordonnées XYZ, puis calculer les composantes chromatiques x et y.
⎡1 ⎤ ⎡0 ⎤ ⎡0 ⎤ ⎡1⎤
R RGB = ⎢0⎥ , G RGB = ⎢1⎥ , B RGB = ⎢0⎥ et WRGB = ⎢⎢1⎥⎥
⎢ ⎥ ⎢ ⎥ ⎢ ⎥
⎢⎣0⎥⎦ ⎢⎣0⎥⎦ ⎢⎣1⎥⎦ ⎢⎣1⎥⎦

¾ Système CMY
CMY est un système soustractif, basé sur les trois primaires Cyan, Magenta et jaune (Yellow).
Le passage de RGB à CMY est élémentaire :
C = 1− R
M = 1− G
Y = 1− B
Dans un tel système, les opérations de mélanges ne sont plus aussi simple ! En effet, les
couleurs obtenues par un certain mélange des primaires CMY ne peuvent pas être déterminés
par les primaires seules : elles sont également fonction des combinaisons entre primaires !
Le système CMY pose un problème de balance des blancs, d’où le système CMYK défini
comme suit, avec m = min (C , M , Y ) :
C′ = C − m
M′= M −m
Y′ = Y − m
K =m

¾ RGB non linéaire et Correction Gamma


La luminance générée par un appareil physique n’est généralement pas une fonction linéaire
du signal vidéo appliqué. Les moniteurs CRT (à tube cathodique) conventionnel répondent à
la tension selon une loi de puissance : la luminance L produite en face de l’écran est
approximativement proportionnelle à la tension E’ appliquée élevée à la puissance γ = 2.5 .

E’

-5-
Esnard Aurélien Couleur et Traitement d’image DEA Informatique

Cette non linéarité doit être compensée afin de reproduire correctement la luminance ! Dans
un système vidéo, la luminance des composantes RGB est transformé en un signal vidéo non
linéaire par correction gamma.
E ' ∝ L0.45 (norme 709)
Les caméras vidéo intègrent la correction gamma de manière standard. Les ordinateurs
graphiques appliquent la correction gamma à la sortie de la mémoire vidéo.
Ce n’est pas aussi simple pour les ordinateurs de bureau classiques, qui possèdent une
correction gamma programmable. On applique la correction gamma au niveau logiciel : on
convertit RGB linaire en RGB non linéaire ou R’G’B’.

signal L
vidéo
RGB correct. R’G’B’ frame non écran
gamma buffer linéarité

Traitement d’image

¾ Processus de discrétisation
(...)

¾ Quantification
La quantification consiste à réduire le nombre de couleurs de l’image. Toute la difficulté de
cette transformation consiste à limiter autant que possible la distorsion.
On peut caractériser cette distorsion par la notion d’erreur quadratique. Soit Q la fonction de
quantification de C vers C’, les ensembles de couleurs de départ et d’arrivée. Soit I ' = Q(I ) ,
l’erreur quadratique E entre I et I’ est la somme des distances quadratiques entre les pixels de
ces deux images : E (I , I ') = ∑ d (I ( p ), I ′( p )) avec d (c, c') = ∑ (c − ci′ ) . Le but est donc
2
i
p∈ pixels i∈RGB

de définir Q qui minimise cette erreur. Notons cependant que l’erreur quadratique n’est pas
forcément un bon critère dans la mesure où il ne prend pas en compte dans sa définition le
voisinage du pixel !
Quantification par algorithme de popularité – Cette algorithme naïf sélectionne les couleurs
le plus fréquentes. Cependant le résultat n’est pas bon, car la distance entre les teintes n’est
pas prise en compte !
Quantification prédéfinie – Dans le cas d’une quantification prédéfinie et uniforme, on affecte
à chacune des composantes RGB k bits. Si la quantification n’est pas uniforme, des problèmes
de distorsion des gris apparaissent.
Quantification adaptative – Dans le cas monochrome, on partitionne l’échelle de gris en n
intervalles équilibrées en fréquence dans l’image ; pour chacun des n intervalles, on retient la
teinte barycentre des fréquences. Pour étendre le cas monochrome au modèle RGB, il ne suffit
pas d’appliquer cette méthode aux trois canaux séparément ; il faut considérer une vrai
distance et c’est plus compliqué ! En vérité, la solution optimale sur l’espace des couleurs est
un problème NP-complet.
Méthode de division – Considérons l’espace des couleurs en coordonnées RGB par exemple.
Le cluster initial est un parallélépipède contenant l’ensemble des couleurs de l’image. On

-6-
Esnard Aurélien Couleur et Traitement d’image DEA Informatique

divise ce cluster en deux sous cluster équilibrés (en nombre de couleurs). La coupe du cluster
s’effectue selon un plan normal à la plus longue direction du cluster. On réitère ce processus
jusqu’à l’obtention du nombre de clusters souhaités...

¾ Tramage
Pour convertir en noir et blanc une image en niveaux de gris, on peut appliquer un simple
seuillage... cependant le résultat donne une image bruitée. Mieux vaut alors utiliser une
approche différente, le tramage.
Le tramage vise à reproduire visuellement des teintes de gris avec uniquement des points noir
et blanc. Naïvement, les algorithmes de tramage effectuent des regroupements de pixels noirs
et blancs, en alternance. La trame joue à la fois sur la densité des points noir ou blanc et sur la
notion de motifs répétés ou pattern. Si les points sont espacés régulièrement, on parle de
tramage régulier.
Pour des images RGB, on superpose 3 tramages... Cependant, si on superpose naïvement ces
trois tramages, des interférences peuvent se produire (effets de battement).

¾ Filtrage
(...)

¾ Corrections de défauts
- Rehaussement d’intensité : RGB → xyY → xyY ' → R' G ' B '
- Rehaussement de contraste : rehaussement d’intensité à partir d’un certain seuil
d’intensité...
- Négatif : RGB → 1 − RGB
- Seuillage : RGB → R' G ' B' ou HSV → HSV '
- Conversion en niveaux : RGB → YYY
- Désaturation : HSV → HS 'V
- Désaturation progressive : en conservant les propriétés psycho-visuelles de l’image...
Transformation en fausse couleur : [0,1] → [0,1]
3
-

-7-

Vous aimerez peut-être aussi