Académique Documents
Professionnel Documents
Culture Documents
1- Représentation spatiale
En informatique, les images numériques utilisent principalement les maillages carrés. Ainsi
l’image est représentée par une matrice de pixels. Par convention le centre du pixel d'indice
(i,j) dans cette matrice a pour coordonnées (i,j) dans un repère dont l'origine se situe au centre
du premier pixel de la matrice et dont les axes sont parallèles aux cotés des carrés. On peut
donc associer à chaque indice (i,j), un carré de côté 1 centré en (i,j) et associer à chaque pixel
le couple (i,j) correspondant aux coordonnées de son centre . Ainsi un pixel sera souvent
confondu avec son centre. On peut parler du pixel (i,j), du point (i,j) ou du pixel de centre
(i,j). Une image peut donc se définir comme un ensemble de pixels ou un ensemble de
couples d'entiers.
A chaque pixel (i,j), on associe la valeur I(i,j) correspondant à la lumière réfléchie par le point
correspondant à ce pixel dans le monde réel. Une image est donc une forme discrète d'un
phénomène continu obtenue après discrétisation. L'information dont elle est le support est
caractéristique de l'intensité lumineuse (couleur ou niveaux de gris).
I : [0,L-1] x [0,C-1]
[0,M]p définit une image de L lignes et C colonnes dont l'information portée est défi nit dans
un espace à p dimensions.
- Si I est une image binaire, alors (p,M) = (1,1).
- Si I est une image en niveaux de gris, alors p = 1 et le plus souvent M = 255.
- Si I est une image couleur, alors p = 3 et le plus souvent M = 255.
1.1. Image monochromatique
Une image est dite monochromatique si à chaque pixel on associe une seule valeur appelée
luminance ou niveau de gris. L’image est donc une matrice dont chaque pixel contient une
seule valeur.
La perception de la couleur est un mystère que l’homme a essayé de résoudre depuis bien
longtemps. Un système de représentation de la couleur est une base comportant trois couleurs
de base. Toute autre couleur est une combinaison des trois couleurs de base.
La liste des espaces présentés dans ce paragraphe n’est pas exhaustive. Elle représente les
espaces les plus répandus mais il y en a bien d’autres. Les transformations, d’un espace à un
autre, présentées dans ce paragraphe ne sont pas uniques. Plusieurs versions existent selon
l’application, l’auteur et les différentes normalisations adoptées par les organisations
mondiales qui traitent l’information couleur.
C’est le système le plus connu et le plus naturel. Les trois axes correspondent aux couleurs
primaires Rouge, Vert et Bleu. La diagonale principale représente les niveaux de gris. Elle
correspond aux valeurs égales de R, V et B. Ce modèle constitue le principe de base des
moniteurs de télévision et des écrans à balayage; en effet, c'est par superposition de rouge, de
vert et de bleu que l'affichage couleur est réalisé. C’est la synthèse additive.
2-2- Système CMY
Les couleurs primaires Cyan, Magenta et Jaune sont ici les complémentaires des Rouge, Vert
et Bleu . La transformation du système RVB vers le système CMJ s’effectue par :
Ce système est utilisé par certaines imprimantes couleurs à impact, et à jet d'encre.
Les différentes couleurs sont obtenues par soustraction du blanc (synthèse soustractive)
3- Paramètres et caractéristiques d’une image
3-1- Résolution
La résolution d'une image est définie par un nombre de pixels par unité de longueur de la
structure à numériser (classiquement en dpi (dots per inches) ou ppp (pixel parpouce).
Ce paramètre est défini lors de la numérisation et dépend principalement des caractéristiques
du matériel utilisé lors de processus de numérisation. Plus le nombre de pixels est élevé par
unité de longueur de la structure à numériser, plus la quantité d'information qui décrit cette
structure est importante et plus la résolution est élevée. La résolution d'une image numérique
définit le degré de détail qui va être représenté sur cette image.
Cette notion est distincte de la résolution du format de l'image qui correspond au nombre de
pixels qui compose l'image en hauteur et en largeur (512 pixels par 512 pixels par exemple).
Exemple 1 : Si l’image est quantifiée avec un seul bit, alors chaque pixel aura une des deux
valeurs possibles 0 et 1 (noir et blanc). Ceci correspond à une image binaire.
Exemple 2 : Une image monochrome quantifiée avec 8 bits par pixels aura une dynamique de
28 – 1=255. Ainsi l’échelle des niveaux de gris est comprise entre 0 et 255 (0 pour le noir
absolu et 255 pour le blanc absolu).
Exemple 3 : Une image RVB quantifiée avec 24 bits par pixels (8 bits/pixel/composante
colorimétrique) aura une dynamique de 28 – 1=255 pour chaque composante couleur.
Le poids d’une image numérique est l’espace mémoire qu’elle occupe sur un support de
stockage numérique (disque dur de l’ordinateur, CD…).
a- Echantillonnage
La numérisation d’un signal consiste en sa discrétisation dans le domaine du temps et dans le
domaine des amplitudes. Dans le cas d’image fixe l’échantillonnage consiste à déterminer la
résolution spatiale qui correspond au nombre de pixels par unité métrique.
b- Quantification
La seconde étape de numérisation est la quantification, qui consiste à affecter à chaque
échantillon analogique la valeur numérique la plus proche. Le paramètre le plus important de
la quantification est le nombre d’éléments binaires par échantillon (bps, bit per sample) qui
détermine le nombre d’intervalles de quantification égal à 2bps. Par exemple, une
quantification opérée sur 8 bits permettra de coder 256 niveaux, sur 12 bits 4096 niveaux …
c- Codage
Si la quantification détermine le nombre d’éléments binaires par échantillon, le codage en
détermine la signification. Ce codage doit être normalisé pour que les appareils situés en aval
sachent exactement comment interpréter les données qu’ils reçoivent. Il peut s’agir d’un
codage simple exprimant en code binaire naturel le résultat d’une quantification uniforme, ou
plus complexe, comme c’est le cas de la vidéo, où dans chaque échantillon doivent être
exprimées les valeurs de trois paramètres colorimétriques.
2- Echantillonnage
3- Quantification
TRANSFORMEE DE FOURIER 2D
image TF de l’image
TRANSFORMEE DCT
La transformée DCT directe est une somme des produits des pixels avec des cosinus, celle-ci
est donnée par l’expression mathématique suivante :
1 N −1
⎡ (2x + 1)i π ⎤ ⎡ (2 y + 1) j π ⎤
DCT (i , j ) = C (i )C ( j ) ∑ pixel (x , y ) cos ⎢ ⎥⎦ cos ⎢⎣ ⎥⎦
2N x =0 ⎣ 2N 2N
La transformée DCT inverse est une somme des produits de la DCT directe avec des cosinus,
celle-ci est donnée par l’expression mathématique suivante :
1 N −1 N −1
⎡ (2x + 1)i π ⎤ ⎡ (2 y + 1) j π ⎤
pixel ( x , y ) =
2N
∑ ∑ C (i )C ( j )DCT (i , j ) cos ⎢⎣
i =0 j =0 2N ⎥⎦ cos ⎢⎣ 2N ⎥⎦
1
C(x)= pour x=0
2
= 1 pour x>0
Résultat de l’application de la DCT sur un bloc d’image 8x8 en niveau de gris
4- La compression JPEG
JPEG est spécifié par le nom de « Joint Photographic Experts Group » qui est un comité
d'experts qui édite des normes de compression pour l'image fixe.
Le principe de compression du JPEG est constitué de plusieurs étapes :
La première phase de la compression JPEG consiste à La transformation des couleurs qui
permet de ramener tous ces formats à un seul propre à JPEG, puisque on peut gérer les
différentes formes d'expression des couleurs comme RGB, CYM ou les niveaux de gris. La
deuxième phase de la compression JPEG consiste à la rééchantillonage de la chrominance est
une des composantes de l’image, les yeux sont moins sensibles aux écarts de couleurs qu'aux
différences d'intensités lumineuses, donc, la rééchantillonage permet d’unifier ces
chrominances par blocs de points à fin de diminuer l'information par 2 .
La troisième phase de la compression JPEG est la DCT qui permet de diviser l'image en
blocs de 8 x 8 points. La DCT transforme ce bloc d'image plane en une somme des fréquences
où ces derniers peuvent être assez élevés pour se rapprocher du bloc originel de points.
La quatrième phase de la compression JPEG consiste à quantifier chaque bloc et son but est
Cette étape qui permet de contrôler la qualité de l'image compressée, donc, pour atteindre à
supprimer certaines éléments ou données, le compresseur divise chaque DCT par un
coefficient de perte. L'image peut perdre sa qualité si le coefficient est élevé.
La cinquième phase de la compression JPEG est l’encodage qui est une compression
Huffman appliqués juste avant le stockage de l'image.
Pour visualiser ces étapes, on peut les représenter celles-ci par une figure récapitulative
suivante.
5- Codage
5-1- Codage de Huffman (sans perte)
En 1952, Huffman a crée une nouvelle méthode de compression appelée compression à arbre.
On peut décrire le principe de cet algorithme de compression dans les étapes suivantes.
Premièrement, les symboles sont triés et classés en fonction de leur fréquence ou leur
occurrence. Deuxièmement, un graphe peut-être construit à partir des deux symboles
présentant la fréquence la plus faible qui donne naissance à un nœud où son poids égal à la
somme des fréquences des deux symboles. Troisièmement, le noeud crée remplace les deux
symboles dans la suite du processus. Enfin, ces derniers nœuds résultants sont affectés
respectivement aux chiffres binaires 0 pour le plus fréquent et 1 pour le plus rare.
La même démarche est reprise en considérant les deux symboles ou les deux noeuds de poids
le plus faible. Elle est renouvelée tant qu’il reste ou il trouve un noeud libre.
Voici un exemple de la démarche de cet algorithme de Huffman déjà expliqué précédemment.
On considère une suite de symboles de 36 caractères qui est composé des caractères A,
B, C, D et E qui apparaît selon les occurrences ou les fréquences suivantes :
Symboles : A B C D E
Fréquences : 7 6 5 14 4
Le graphe fait apparaître les symboles depuis le plus fréquent (D) jusqu’au moins fréquent (E)
et les symboles C et E se fusionnent vers un même noeud de poids 5+4=9 est ceux-ci est
schématisé dans la figure suivante :
Aussi, le nœud A et B se fusionnent pour créer un nœud dont le poids égale à la somme de ces
deux poids (7+6=13) et de même pour C et E qui se fusionnent en sommant ces deux poids
(5+4=9) qui donne naissance à deux nœuds et après cette opération, ces derniers se
fusionnent pour donner un nœud dont le poids égale à (13+9=22)
Le nœud D resté et le nœud obtenu précédemment se fusionnent en sommant ces deux poids
respectifs 14 et 22 pour crée un nouveau noeud dont le poids est égal à 36
. Etape3 de l’algorithme de compression Huffman
Donc, on obtient le tableau qui contient les codes Huffman de chaque nœud
A (occurrence = 7) B (occurrence = 6) C (occurrence = 5) D (occurrence =14) E (occurrence = 4)
Puis, on découpe les deux nœuds D et A de poids respectifs 14 et 7 qui donne naissance à
deux nœuds dont les poids sont égales à 14 et 7 et de même pour les nœuds B de poids 6 avec
celui qui est formé par C et E de valeur égal à 9, ces derniers se décomposeront en deux
parties dont les poids respectives égales à 5 et 4:
00 01 11 100 101
CHAPITRE 3
OPERATIONS ET TRANSFORMATIONS
SUR UNE IMAGE
FILTRE MEDIAN
(1/420)
image bruitée image filtrée par filtre médian
3- Détection de Contours
4-Histogramme
4-1-Définition
Un histogramme permet de représenter la distribution des intensités des pixels d'une image, il
est appelé aussi un graphique statistique, c'est-à-dire le nombre de pixels pour chaque
intensité lumineuse. Il représente par convention le niveau d'intensité en abscisse en allant du
plus foncé (à gauche) au plus clair (à droite). [3]
Ainsi, l'histogramme d'une image en 256 niveaux de gris sera représenté par un graphique
possédant 256 valeurs en abscisses, et le nombre de pixels de l'image en ordonnées. Une
image peut-être composée de niveaux de gris:
L'histogramme et la palette associés à une image quelconque donne les figures respectives
suivants :
L'histogramme fait apparaître que les tons gris clairs sont beaucoup plus présents dans l'image
que les tons foncés. Pour les images en couleur plusieurs histogrammes sont nécessaires. Pour
une image codée en RGB par exemple trois histogrammes représentent la distribution des
valeurs respectives des composantes rouges, bleues et vertes [3].
4-2-Histogramme cumulé :
L'histogramme cumulé désigne le nombre de pixels ayant au moins une intensité lumineuse
donnée et aussi la distribution cumulé des intensités des pixels d'une image.[3]
4-3-Modification de l'histogramme :
L'histogramme représente un outil très nécessaire pour étudier la répartition des composantes
d'une image mais il peut aussi corriger le contraste et l'échelle des couleurs pour des images
surexposées ou sous-exposées. On peut préciser que sa modification ne permet pas
l’alternance les informations contenues dans l'image mais les rend plus ou moins visibles.
La modification d'un histogramme se représente par une courbe appelée courbe tonale qui
indique la modification globale des composantes de l'image avec en abscisse les valeurs
initiales et en ordonnées les valeurs après modification.
La courbe tonale est caractériser par une fonction de transfert définie par une table de
transcodage appelé look up table, notée LUT. Ainsi la diagonale obtenue de la courbe montre
que les valeurs initiales sont égales aux valeurs finales, c'est-à-dire lorsque aucune
modification n'a eu lieu. Les pixels clairs représentent les valeurs à gauche de la valeur
moyenne sur l'axe des abscisses et les pixels foncés représentent ceux à droite.
La diagonale
Ainsi, les pixels auront des valeurs plus faibles et seront donc éclaircis si la courbe de
modification de l'histogramme est située en dessous de la diagonale. A l'inverse les pixels
seront assombris si la courbe est au dessus de la diagonale.
Eclaircissement Assombrissement
Egalisation de l'histogramme
Egalisation :