Vous êtes sur la page 1sur 28

CHAPITRE 1 :

GENERALITES ET REPRESENTATION D’UNE


IMAGE NUMERIQUE

1- Représentation spatiale

En informatique, les images numériques utilisent principalement les maillages carrés. Ainsi
l’image est représentée par une matrice de pixels. Par convention le centre du pixel d'indice
(i,j) dans cette matrice a pour coordonnées (i,j) dans un repère dont l'origine se situe au centre
du premier pixel de la matrice et dont les axes sont parallèles aux cotés des carrés. On peut
donc associer à chaque indice (i,j), un carré de côté 1 centré en (i,j) et associer à chaque pixel
le couple (i,j) correspondant aux coordonnées de son centre . Ainsi un pixel sera souvent
confondu avec son centre. On peut parler du pixel (i,j), du point (i,j) ou du pixel de centre
(i,j). Une image peut donc se définir comme un ensemble de pixels ou un ensemble de
couples d'entiers.

A chaque pixel (i,j), on associe la valeur I(i,j) correspondant à la lumière réfléchie par le point
correspondant à ce pixel dans le monde réel. Une image est donc une forme discrète d'un
phénomène continu obtenue après discrétisation. L'information dont elle est le support est
caractéristique de l'intensité lumineuse (couleur ou niveaux de gris).

I : [0,L-1] x [0,C-1]

[0,M]p définit une image de L lignes et C colonnes dont l'information portée est défi nit dans
un espace à p dimensions.
- Si I est une image binaire, alors (p,M) = (1,1).
- Si I est une image en niveaux de gris, alors p = 1 et le plus souvent M = 255.
- Si I est une image couleur, alors p = 3 et le plus souvent M = 255.
1.1. Image monochromatique

Une image est dite monochromatique si à chaque pixel on associe une seule valeur appelée
luminance ou niveau de gris. L’image est donc une matrice dont chaque pixel contient une
seule valeur.

1.2. Image trichromatique


Une image est dite multi-composante si à chaque pixel on associe plus qu’une valeur.
Une image trichromatique ou couleur est constituée de trois matrices correspondantes aux
composantes du système couleur utilisé. Chaque pixel est donc représenté par un vecteur de
trois valeurs. Le système couleur le plus utilisé est le RVB (Rouge, Vert, Bleu) ; dans ce cas
chaque pixel contient les valeurs des niveaux du rouge, du vert et du bleu
2- Systèmes de représentation de la couleur

La perception de la couleur est un mystère que l’homme a essayé de résoudre depuis bien
longtemps. Un système de représentation de la couleur est une base comportant trois couleurs
de base. Toute autre couleur est une combinaison des trois couleurs de base.
La liste des espaces présentés dans ce paragraphe n’est pas exhaustive. Elle représente les
espaces les plus répandus mais il y en a bien d’autres. Les transformations, d’un espace à un
autre, présentées dans ce paragraphe ne sont pas uniques. Plusieurs versions existent selon
l’application, l’auteur et les différentes normalisations adoptées par les organisations
mondiales qui traitent l’information couleur.

2-1- Système RGB

C’est le système le plus connu et le plus naturel. Les trois axes correspondent aux couleurs
primaires Rouge, Vert et Bleu. La diagonale principale représente les niveaux de gris. Elle
correspond aux valeurs égales de R, V et B. Ce modèle constitue le principe de base des
moniteurs de télévision et des écrans à balayage; en effet, c'est par superposition de rouge, de
vert et de bleu que l'affichage couleur est réalisé. C’est la synthèse additive.
2-2- Système CMY

Les couleurs primaires Cyan, Magenta et Jaune sont ici les complémentaires des Rouge, Vert
et Bleu . La transformation du système RVB vers le système CMJ s’effectue par :
Ce système est utilisé par certaines imprimantes couleurs à impact, et à jet d'encre.
Les différentes couleurs sont obtenues par soustraction du blanc (synthèse soustractive)
3- Paramètres et caractéristiques d’une image

3-1- Résolution

La résolution d'une image est définie par un nombre de pixels par unité de longueur de la
structure à numériser (classiquement en dpi (dots per inches) ou ppp (pixel parpouce).
Ce paramètre est défini lors de la numérisation et dépend principalement des caractéristiques
du matériel utilisé lors de processus de numérisation. Plus le nombre de pixels est élevé par
unité de longueur de la structure à numériser, plus la quantité d'information qui décrit cette
structure est importante et plus la résolution est élevée. La résolution d'une image numérique
définit le degré de détail qui va être représenté sur cette image.
Cette notion est distincte de la résolution du format de l'image qui correspond au nombre de
pixels qui compose l'image en hauteur et en largeur (512 pixels par 512 pixels par exemple).

3-2- Profondeur de bits et dynamique

La profondeur de bits est fixée lors de l’étape d’échantillonnage et de quantification du


processus d’acquisition d’images.
C’est le nombre de bits nécessaire pour représenter un pixel dans l’image numérique.
Plus ce nombre est élevé, plus on aura de détails dans l’image.
La dynamique d'une image correspond à l'étendu de la gamme de couleurs ou de niveaux de
gris que peuvent prendre les pixels. Pour une composante colorimétrique donnée :
nbre de bits/pixels
dynamique = 2 –1

Exemple 1 : Si l’image est quantifiée avec un seul bit, alors chaque pixel aura une des deux
valeurs possibles 0 et 1 (noir et blanc). Ceci correspond à une image binaire.
Exemple 2 : Une image monochrome quantifiée avec 8 bits par pixels aura une dynamique de
28 – 1=255. Ainsi l’échelle des niveaux de gris est comprise entre 0 et 255 (0 pour le noir
absolu et 255 pour le blanc absolu).
Exemple 3 : Une image RVB quantifiée avec 24 bits par pixels (8 bits/pixel/composante
colorimétrique) aura une dynamique de 28 – 1=255 pour chaque composante couleur.

3-3 - Poids ou taille

Le poids d’une image numérique est l’espace mémoire qu’elle occupe sur un support de
stockage numérique (disque dur de l’ordinateur, CD…).

Poids = (nombre de bits par pixel) x (nombre total de pixels)

Exemple 1 : On considère une image monochromatique quantifiée avec 8 bits/pixel, de


résolution 100x100 pixels. Son poids sera 100x100x8=80000 bits=10000 octets=9,665 Ko
Exemple 2 : On considère une image RVB quantifiée avec 8 bits/pixel/composante
colorimétrique, de résolution 100x100 pixels. Son poids sera 100x100x24=240000
bits=30000 octets=29,29 Ko
4- Paramètres statistiques
CHAPITRE 2 :

NUMERISATION ET CODAGE D’UNE IMAGE

1. Etapes de numérisation d’une image

L’acquisition passe généralement par les trois étapes suivantes:

a- Echantillonnage
La numérisation d’un signal consiste en sa discrétisation dans le domaine du temps et dans le
domaine des amplitudes. Dans le cas d’image fixe l’échantillonnage consiste à déterminer la
résolution spatiale qui correspond au nombre de pixels par unité métrique.

b- Quantification
La seconde étape de numérisation est la quantification, qui consiste à affecter à chaque
échantillon analogique la valeur numérique la plus proche. Le paramètre le plus important de
la quantification est le nombre d’éléments binaires par échantillon (bps, bit per sample) qui
détermine le nombre d’intervalles de quantification égal à 2bps. Par exemple, une
quantification opérée sur 8 bits permettra de coder 256 niveaux, sur 12 bits 4096 niveaux …

c- Codage
Si la quantification détermine le nombre d’éléments binaires par échantillon, le codage en
détermine la signification. Ce codage doit être normalisé pour que les appareils situés en aval
sachent exactement comment interpréter les données qu’ils reçoivent. Il peut s’agir d’un
codage simple exprimant en code binaire naturel le résultat d’une quantification uniforme, ou
plus complexe, comme c’est le cas de la vidéo, où dans chaque échantillon doivent être
exprimées les valeurs de trois paramètres colorimétriques.
2- Echantillonnage

3- Quantification

La quantification revient à utiliser N bits pour représenter chaque pixel.

TRANSFORMEE DE FOURIER 2D
image TF de l’image

TRANSFORMEE DCT
La transformée DCT directe est une somme des produits des pixels avec des cosinus, celle-ci
est donnée par l’expression mathématique suivante :

1 N −1
⎡ (2x + 1)i π ⎤ ⎡ (2 y + 1) j π ⎤
DCT (i , j ) = C (i )C ( j ) ∑ pixel (x , y ) cos ⎢ ⎥⎦ cos ⎢⎣ ⎥⎦
2N x =0 ⎣ 2N 2N

La transformée DCT inverse est une somme des produits de la DCT directe avec des cosinus,
celle-ci est donnée par l’expression mathématique suivante :

1 N −1 N −1
⎡ (2x + 1)i π ⎤ ⎡ (2 y + 1) j π ⎤
pixel ( x , y ) =
2N
∑ ∑ C (i )C ( j )DCT (i , j ) cos ⎢⎣
i =0 j =0 2N ⎥⎦ cos ⎢⎣ 2N ⎥⎦

Dans les deux cas comme constante C vaut :

1
C(x)= pour x=0
2

= 1 pour x>0
Résultat de l’application de la DCT sur un bloc d’image 8x8 en niveau de gris

Image Originale Image quantifiée par DCT2

4- La compression JPEG
JPEG est spécifié par le nom de « Joint Photographic Experts Group » qui est un comité
d'experts qui édite des normes de compression pour l'image fixe.
Le principe de compression du JPEG est constitué de plusieurs étapes :
La première phase de la compression JPEG consiste à La transformation des couleurs qui
permet de ramener tous ces formats à un seul propre à JPEG, puisque on peut gérer les
différentes formes d'expression des couleurs comme RGB, CYM ou les niveaux de gris. La
deuxième phase de la compression JPEG consiste à la rééchantillonage de la chrominance est
une des composantes de l’image, les yeux sont moins sensibles aux écarts de couleurs qu'aux
différences d'intensités lumineuses, donc, la rééchantillonage permet d’unifier ces
chrominances par blocs de points à fin de diminuer l'information par 2 .
La troisième phase de la compression JPEG est la DCT qui permet de diviser l'image en
blocs de 8 x 8 points. La DCT transforme ce bloc d'image plane en une somme des fréquences
où ces derniers peuvent être assez élevés pour se rapprocher du bloc originel de points.
La quatrième phase de la compression JPEG consiste à quantifier chaque bloc et son but est
Cette étape qui permet de contrôler la qualité de l'image compressée, donc, pour atteindre à
supprimer certaines éléments ou données, le compresseur divise chaque DCT par un
coefficient de perte. L'image peut perdre sa qualité si le coefficient est élevé.
La cinquième phase de la compression JPEG est l’encodage qui est une compression
Huffman appliqués juste avant le stockage de l'image.
Pour visualiser ces étapes, on peut les représenter celles-ci par une figure récapitulative
suivante.

Etapes à la compression et à la décompression JPEG

5- Codage
5-1- Codage de Huffman (sans perte)

En 1952, Huffman a crée une nouvelle méthode de compression appelée compression à arbre.
On peut décrire le principe de cet algorithme de compression dans les étapes suivantes.
Premièrement, les symboles sont triés et classés en fonction de leur fréquence ou leur
occurrence. Deuxièmement, un graphe peut-être construit à partir des deux symboles
présentant la fréquence la plus faible qui donne naissance à un nœud où son poids égal à la
somme des fréquences des deux symboles. Troisièmement, le noeud crée remplace les deux
symboles dans la suite du processus. Enfin, ces derniers nœuds résultants sont affectés
respectivement aux chiffres binaires 0 pour le plus fréquent et 1 pour le plus rare.
La même démarche est reprise en considérant les deux symboles ou les deux noeuds de poids
le plus faible. Elle est renouvelée tant qu’il reste ou il trouve un noeud libre.
Voici un exemple de la démarche de cet algorithme de Huffman déjà expliqué précédemment.

On considère une suite de symboles de 36 caractères qui est composé des caractères A,
B, C, D et E qui apparaît selon les occurrences ou les fréquences suivantes :
Symboles : A B C D E
Fréquences : 7 6 5 14 4

Le graphe fait apparaître les symboles depuis le plus fréquent (D) jusqu’au moins fréquent (E)
et les symboles C et E se fusionnent vers un même noeud de poids 5+4=9 est ceux-ci est
schématisé dans la figure suivante :

Etape1 de l’algorithme de compression Huffman

Aussi, le nœud A et B se fusionnent pour créer un nœud dont le poids égale à la somme de ces
deux poids (7+6=13) et de même pour C et E qui se fusionnent en sommant ces deux poids
(5+4=9) qui donne naissance à deux nœuds et après cette opération, ces derniers se
fusionnent pour donner un nœud dont le poids égale à (13+9=22)

Etape2 de l’algorithme de compression Huffman

Le nœud D resté et le nœud obtenu précédemment se fusionnent en sommant ces deux poids
respectifs 14 et 22 pour crée un nouveau noeud dont le poids est égal à 36
. Etape3 de l’algorithme de compression Huffman

Enfin, on code les chemins selon le mode suivant :


1 : pour l’arc le plus fréquent) et 0 : pour l’arc le plus rare

. Etape 4 de l’algorithme de codage entropique de Huffman .

Donc, on obtient le tableau qui contient les codes Huffman de chaque nœud
A (occurrence = 7) B (occurrence = 6) C (occurrence = 5) D (occurrence =14) E (occurrence = 4)

111111 111110 110101 0 110100

5-2- Algorithme de Shannon-Fano (ou de Fano) :

L’algorithme de Shannon-Fano est constitué de plusieurs étapes qui sont :


Premièrement, on classe les symboles par ordre de probabilités décroissantes.
Deuxièmement, on partage l’ensemble des symboles en deux sous-ensembles.
Troisièmement, les deux sous-ensembles doivent être de probabilités aussi proches que
possible c'est-à-dire on prend plusieurs nœuds le plus proches dont leur somme tend du moitié
de la somme totale des nœuds.
Quatrièmement, on attribue à chaque sous-ensemble l’état 0 ou 1.
Enfin, on re-partage chaque sous-ensemble en deux sous-ensembles de probabilités aussi
proches que possible et on attribue à chaque nouveau sous-ensemble l’état 0 ou 1, etc. Voici
le même exemple que précédemment où on applique l’algorithme de fano-shannon, on prend
plusieurs nœuds le plus proches dont leur somme est proche de la moitié de la somme totale
des nœuds (somme des nœuds est égal 36 et sa moitié est égale à 18) :
Etape1 de l’algorithme de compression de Shannon-fano

Puis, on découpe les deux nœuds D et A de poids respectifs 14 et 7 qui donne naissance à
deux nœuds dont les poids sont égales à 14 et 7 et de même pour les nœuds B de poids 6 avec
celui qui est formé par C et E de valeur égal à 9, ces derniers se décomposeront en deux
parties dont les poids respectives égales à 5 et 4:

Etape2 de l’algorithme de compression de Shannon-fano

On attribue à chaque sous-ensemble et à chaque nouveau sous-ensemble l’état 0 (pour la


fréquence la plus grande) ou 1 (pour l’occurrence faible) :

Etape3 de l’algorithme de compression de Shannon-fano

Le codage de l’algorithme de Shannon –fano obtenu est :

D (occurrence=14) A (occurrence=7 B (occurrence=6) C (occurrence= 5) E (occurrence=4)

00 01 11 100 101
CHAPITRE 3

OPERATIONS ET TRANSFORMATIONS
SUR UNE IMAGE

1- Convolution dans l’espace spatial

2- Rehaussement d’image par filtrage


Exemple :

a) Filtre moyenneur b) Filtre Gaussien


FILTRE BINOMIAL

FILTRE MEDIAN

(1/420)
image bruitée image filtrée par filtre médian
3- Détection de Contours
4-Histogramme
4-1-Définition

Un histogramme permet de représenter la distribution des intensités des pixels d'une image, il
est appelé aussi un graphique statistique, c'est-à-dire le nombre de pixels pour chaque
intensité lumineuse. Il représente par convention le niveau d'intensité en abscisse en allant du
plus foncé (à gauche) au plus clair (à droite). [3]
Ainsi, l'histogramme d'une image en 256 niveaux de gris sera représenté par un graphique
possédant 256 valeurs en abscisses, et le nombre de pixels de l'image en ordonnées. Une
image peut-être composée de niveaux de gris:
L'histogramme et la palette associés à une image quelconque donne les figures respectives
suivants :

Histogramme d’une image .

L'histogramme fait apparaître que les tons gris clairs sont beaucoup plus présents dans l'image
que les tons foncés. Pour les images en couleur plusieurs histogrammes sont nécessaires. Pour
une image codée en RGB par exemple trois histogrammes représentent la distribution des
valeurs respectives des composantes rouges, bleues et vertes [3].

4-2-Histogramme cumulé :

L'histogramme cumulé désigne le nombre de pixels ayant au moins une intensité lumineuse
donnée et aussi la distribution cumulé des intensités des pixels d'une image.[3]

4-3-Modification de l'histogramme :

L'histogramme représente un outil très nécessaire pour étudier la répartition des composantes
d'une image mais il peut aussi corriger le contraste et l'échelle des couleurs pour des images
surexposées ou sous-exposées. On peut préciser que sa modification ne permet pas
l’alternance les informations contenues dans l'image mais les rend plus ou moins visibles.
La modification d'un histogramme se représente par une courbe appelée courbe tonale qui
indique la modification globale des composantes de l'image avec en abscisse les valeurs
initiales et en ordonnées les valeurs après modification.
La courbe tonale est caractériser par une fonction de transfert définie par une table de
transcodage appelé look up table, notée LUT. Ainsi la diagonale obtenue de la courbe montre
que les valeurs initiales sont égales aux valeurs finales, c'est-à-dire lorsque aucune
modification n'a eu lieu. Les pixels clairs représentent les valeurs à gauche de la valeur
moyenne sur l'axe des abscisses et les pixels foncés représentent ceux à droite.

La diagonale

Ainsi, les pixels auront des valeurs plus faibles et seront donc éclaircis si la courbe de
modification de l'histogramme est située en dessous de la diagonale. A l'inverse les pixels
seront assombris si la courbe est au dessus de la diagonale.

Eclaircissement Assombrissement

Courbe tonale en phase de l’éclaircissement et de l’assombrissement

4-4- Egalisation de l'histogramme :

L'égalisation d'histogramme permet d'accorder la répartition des niveaux de luminosité de


l'image, c’est à -dire à approcher vers un même nombre de pixel pour chacun des niveaux de
l'histogramme. On vise à augmenter les nuances dans l'image résultante .
Histogramme avant de l’égalisation de l’image Histogramme après de l’égalisation de l’image

Egalisation de l'histogramme

En combinant linéairement le laplacien à l'image original, on augmente le contraste.


le laplacien est défini par :
Normalisation d’histogramme :

Egalisation :

Vous aimerez peut-être aussi