Académique Documents
Professionnel Documents
Culture Documents
Dr M. BELHADJA AISSA
1 Année 2012/2013
Plan:
Domaine d’application
Nature de l’information
et spectres utilisés
Capteur
Spectre Electromagnétique
5
Ondes-Grandeurs Physiques:
8
Ondes-Grandeurs Physiques:
9
Ondes-Grandeurs Physiques:
10
Ondes-Grandeurs Physiques:
11
Ondes-Grandeurs Physiques:
Nature de l’information :
distance, rugosité ,
12
Ondes-Grandeurs Physiques:
Nature de l’information :
distance, densité de tissus
13
Ondes-Grandeurs Physiques:
* Minéraux et combustibles
14
Programme: Bases de traitement d’images
V. Segmentation d’images
Références Bibliographiques
Coster M Chermant J.L, 1989. Précis d’Analyse d’image, ed
CNRS, Paris, 423p.
Pratt W., 1978. Digital Image Processing. Wiley and Sons, New
York: John Wiley & Sons, 476p.
17
I. Formation d’images : Système d’acquisition
Capteurs et Support de
Filtrage et Quantification et
dispositifs de mémorisation et
échantillonnage Tables de Transfert
calibration stockage
Scène O(x,y)
Structures et formats des
fichiers images
parties constituants un système de formation d’images numériques
18
Processus d’acquisition d’image
Le système d’acquisition d’image permet d’obtenir à partir d’une
scène physique une image numérique :
I. De la scène physique au signal électrique
atmosphère
A( λ)
O.E.M.
Image physique
on quantifie chaque
échantillon par une valeur Étape 2
binaire pour la stocker sur un
support numérique.
Codage (4 niveaux ⇒ 2bits)
Signal quantifié (4 niveaux)
Étape 3
Modélisation de l’échantillonnage
A(λ) est l’amplitude d’un signal électrique correspond à l’énergie lumineuse réfléchie, l’énergie
émise ou l’énergie rétrodiffusée par ligne de la surface de la terre , portée par une onde
électromagnétique à une longueur d’onde dans le spectre du visible, de l’infrarouge , l’infrarouge
thermique et enfin dans le spectre des hyperfréquences
Exemple:
Ligne au sol du satellite SPOT = 60 Km
Ligne au sol du satellite LANDSAT = 185 Km.
Ligne au sol du satellite RADAR ERS = 100 Km
III. Processus de formation de l’image numérique
A1( λ)
Ligne 1 au sol
A2( λ)
quantification
Ligne n au sol
II. Du signal électrique à l’image numérique
Chaque ligne au sol est représentée par un signal électrique qui traduit l’intensité lumineuse(pour
un capteur optique) réfléchie par les éléments surfaciques constituant cette ligne.
Cependant, dans certaines conditions, un élément plus petit peut être détecté si sa
réflectivité domine celle des autres éléments présents dans la cellule de résolution.
On parle alors de détection plus fine que la résolution exemple la détection d’une
route.
Résolution radiométrique
La résolution radiométrique d'un capteur satellitaire décrit sa capacité de reconnaître de petites
différences dans l'énergie électromagnétique. Plus la résolution radiométrique d'un capteur est fine,
plus le capteur est sensible à de petites différences dans l'intensité de l'énergie reçue. La gamme de
longueurs d'onde à l'intérieur de laquelle un capteur est sensible est dite plage dynamique.
Résolution radiométrique
La résolution radiométrique d'un capteur satellitaire décrit sa capacité de reconnaître de petites
différences dans l'énergie électromagnétique. Plus la résolution radiométrique d'un capteur est fine,
plus le capteur est sensible à de petites différences dans l'intensité de l'énergie reçue. La gamme de
longueurs d'onde à l'intérieur de laquelle un capteur est sensible est dite plage dynamique.
Les données images sont représentées par une valeur numérique variant entre [ 0 , 2n-1 ]. Cet
intervalle correspond à un nombre de bits utilisés pour encoder les amplitudes du signal électrique
échantillonné en des valeurs en format binaire. Chaque bit représente un exposant de la base 2 (par
exemple, 1 bit = 21 = 2). Le nombre maximum de niveaux d'intensité disponibles dépend du nombre
de bits utilisés pour représenter l'intensité enregistrée.
Par exemple, un capteur utilisant 8 bits pour enregistrer les données aura 28 = 256 niveaux
d'intensité disponibles car il aura 256 valeurs numériques disponibles allant de 0 à 255. Si
seulement 4 bits sont utilisés, alors seulement 24 = 16 valeurs allant de 0 à 15 seront
disponibles. La résolution radiométrique sera donc plus faible.
I.1. Echantillonnage
n = −∞ m = −∞
28
Représentation d’une d’Images
Après les deux opérations échantillonnage
(résolution spatiale) et la quantification
(résolution radiométrique) le résultat est une
image numérique représentant une matrice
définie par un nombre de points (pixels) par
ligne et nombre de lignes par image.
TM1(30m)
Spotxs3(20m)
TM thermique(120m)
Spot Pan(10m)
Résolution radiométrique
:
Image à un bit : 21 (0 ou 1) = deux niveaux
Image à 8 bits : 28 –1 = (0 à 255) = 256 niveaux de gris
Un niveau de gris = l’intensité lumineuse réfléchie par une unité de surface de dimensions (10x10m2,
20x20 m2, 30x30 m2, 120x120 m2, 1x1 km2)
Image (λn)
Image (λ2)
Image (λ1)
La résolution spectrale décrit la capacité d'un capteur à utiliser de petites fenêtres de longueurs
d'onde différentes. Plus la résolution spectrale est fine, plus les fenêtres des différents canaux du
capteur sont étroites.
Canal TM1
Canal TM2
Canal TM3
Canal TM4
Canal TM5
Canal TM7
Formats d’images
Les images satellitaires ou des fenêtres d’images peuvent être enregistrées sous différents formats de
fichiers :
Ils existent trois types de formats :
Format de fichier image sans entête (sans header)
Format de fichier image avec une entête(avec header)
Format de fichier image sans entête accompagné d’un fichier information relative à l’image
a) Le header d’un fichier image contient les informations sur le nombre de lignes et de colonne de l’image, le
nombre de bits de codage, le type de compression s’il y a lieu, la palette de couleur ou de niveaux de gris
nécessaire à la visualition, etc. Parmi les formats de fichiers images les plus répandus on trouve : .BMP,
.TIFF, .GIF, .HDF, . JPEG, . PICT, . SRF, etc
b) Les fichiers sans entête nécessitent la connaissance, par l’utilisateur, de toutes les informations sur l’image
à lire , à visualiser ou à traiter.
c) Le format de fichier image accompagné d’un ficher information en ASCII est généralement créé par un
logiciel spécifique ou bien les fichiers images satellitaires fournis aux utilisateurs. On peut citer les logiciels
donnant de fichiers de ce format :IDRISI, ERDAS, ER MAPPER, ENVI, etc .. De même, les formats des images
fournies sont : SPOT, ESA TM,
Structure de fichiers images multispectrales
Les fichiers images multispectrales sont structurés sous trois formes :
Structure séquentielle (BSQ) (Binary Stream seQuential), pour cette structure les images multispectrales
sont stockées l’une après l’autre dans le fichier image. L’enregistrement se fait séquentiellement
Canal(λ1) :Image 1
Fichier header (format
Canal(λ2) :Image 2 + ASCII)
Canal(λn) :Image n
Fichier image
(format binaire)
La taille du fichier = nbre de lignes x nbre de colonnes x nbre d’octets x nbre de canaux(n)(en octets).
Structure par lignes intercalées (BIL) (Band Interleaved Line), pour cette structure les images
multispectrales sont stockées par lignes intercalées. La première ligne correspond à la première image la
deuxième ligne à la deuxième image,.. etc.
Structure par pixels intercalés (BIP) (Band Interleaved Pixel), pour cette structure les images
multispectrales sont stockées par pixels intercalés. Le premier pixel correspond à la première image, le
deuxième pixel à la deuxième image, etc.
1er pixel du Canal(λ1)
1er pixel du Canal(λ2)
Fichier header
1er pixel du Canal(λn) + (format ASCII)
Fichier image
(format binaire)
La taille du fichier = nbre de lignes x nbre de colonnes x nbre d’octets x nbre de canaux(n)(en octets).
TRANSFORMATIONS DE BASE
EN TRAITEMENT NUMERIQUE DES IMAGES
Quelque soit le type d’images à traiter et l’application envisagée, les opérations de traitement et les
transformations d’images sont regroupées en trois catégories qui sont : Les traitements (opérations) ponctuels ,
traitements locaux et les traitements globaux.
Images à traiter
et / ou et / ou
Information à extraire
Soit quantitative et elle permet d’établir des inventaires directs ou par des requêtes.
Principes de traitements
I. Traitements ponctuels: Les transformations ponctuelles n’utilisent que l’information du pixel. Elles peuvent
être appliquées sur une ou plusieurs images dans une seule opération.
Image de sortie
Image d’entrée
Cas multi-images (1)
Les résultats des transformations ponctuelles, qui utilisent deux ou plusieurs images en entrée, peuvent être
une seule ou plusieurs images en sortie. Nous donnons dans chaque catégorie de traitement ponctuel un
exemple de transformation.
x
+
Image d’entrée 1
F {I e1 ( x, y ), I e 2 ( x, y )} = I s ( x, y ) Image résultante
Cas multi-images (2)
A. Cas de trois images en entrée et une image en sortie
Soit I e1 ( x, y ), I e 2 ( x, y ), I e 3 ( x, y ) les niveaux de gris du pixel de coordonnées (x,y) dans la première, la
deuxième et la troisième image respectivement et I s ( x, y ) la valeur du pixel résultat en sortie
F {I e1 ( x, y ), I e 2 ( x, y ), I e 3 ( x, y )} = I s ( x, y )
= αI e1 ( x, y ) + βI e 2 ( x, y ) + δI e 3 ( x, y )
Image 3
Image 2
une seule image Résultat
Image 1
Image de sortie
B.Cas de trois images en entrée et trois images en sortie
Soit I e1 ( x, y ), I e 2 ( x, y ), I e 3 ( x, y ) les niveaux de gris du pixel de coordonnées (x,y) dans la première, la
deuxième et la troisième image respectivement et I s1 ( x, y ), I s 2 ( x, y ), I s 3 ( x, y ) les valeurs du pixel résultat
dans les trois images de sortie
Image2 de sortie
Image 2
Image 1
I s1 ( x, y ) I s1 ( x, y )
I s 2 ( x, y ) = [G ] I s 2 ( x, y )
Image3 de sortie
I s 3 ( x, y ) I s 3 ( x, y )
Trois images Résultantes
C. Cas de n images en entrée et une image en sortie
Soit I e1 ( x, y ), I e 2 ( x, y ),....I en ( x, y ) les niveaux de gris du pixel de coordonnées (x,y) dans la première, la
deuxième et la nème image respectivement et I s ( x, y ) la valeur du pixel résultant dans l ’image de sortie
Image n
Image de sortie
Image 3
Image 2
Image 1
F {I e1 ( x, y ), I e 2 ( x, y ),....I en ( x, y ),} = I s ( x, y )
D. Cas de n images en entrée et n images en sortie
Soit I e1 ( x, y ), I e 2 ( x, y ),....I en ( x, y ) les niveaux de gris du pixel de coordonnées (x,y) dans la première, la
deuxième et la nème image respectivement et I s1 ( x, y ), I s 2 ( x, y ),....I sm ( x, y ) les valeurs du pixel résultant
dans les images de sortie.
Image1 de sortie
Image n
Image2 de sortie
Image 2
Image m de sortie
Image 1
Remarque 2: Les transformations ponctuelles sont utilisées dans plusieurs niveaux d’analyse et d’extraction de l’information
qualitative et quantitative à partir de ou/et des images multibandes.
Remarque 3: Les traitements mono -image ont pour but l ’amélioration du contraste de l ’image, la réduction des niveaux de
gris d ’une image, la génération d ’image luminance et / ou réflectance . Généralement, ces traitements se basent sur l’utilisation
de l’histogramme de l’image. Ces opérations sont réalisées par des tables de transfert de manière interactive (effectuées en
mémoire graphique du système de traitement).
Remarque 4: Les traitements ponctuels utilisant deux images sont les opérations arithmétiques (+, -, x, /) et logiques (ET,
OU, OU/ET exclusifs) et les combinaisons d ’images pour des applications tel que le calcul des indices de végétation, des indices
de brillance, etc.
Remarque 5: Les traitements ponctuels utilisant trois images sont les compositions colorées et les transformations des
espaces de RGB à l ’IHS. Dans le premier cas, le résultat est une seule image en couleur( sur 24 bits), généralement la
composition colorée est réalisée de manière interactif. Dans les transformations RGB _IHS le passage se fait à travers des
matrices de transformation, le résultat est donné par trois images IHS (en réel).
Remarque 6: les combinaisons multicanaux portent sur les traitements de classification avec différentes approches,
d’analyse en composantes principales, d’analyse canonique, de transformation KT, etc. Les résultats de ces combinaisons sont
sous forme d’une seule image tels que les résultats des classifications ou sous forme de n images selon le type de traitement.
Remarque 7: les transformations ponctuelles sont soit des pré-traitements pour préparer les images à une analyse ultérieure
soit des résultats exploitables qualitativement par interprétation ou quantitativement par la caractérisation et l ’extraction de
couches thématiques et de données descriptives.
Remarque 8 : les images numériques peuvent être analysées par des outils de statistiques descriptives telles que :
l’histogramme, la moyenne, l’écart-type, la variance, ou les matrices de covariances (intra, inter ou de dispersion) s’il s’agit
d’analyse multibandes
Dans cette partie nous décrivons les traitements ponctuels basés sur les fonctions interactives. Les
traitements multibandes seront décrits dans les parties qui suivent.
Description et application
des traitements ponctuels
Fonctions de transfert et histogrammes
a) Type: Opérations mono -image
b) But: amélioration de contraste, réduction des niveaux de gris, création d’image fausse couleur et image composition colorée
c) Traitement: Généralement ces transformations sont réalisées de manière interactive à l’aide de tables de transferts (LUT:
Look Up Tables) ou bien par des expressions mathématiques dites fonctions de transfert. Elles se basent sur l’analyse de
l’histogramme de l’image.
Soit I(x,y) le niveau de gris du pixel localisé en (x,y) tel que I(x,y) = ng ∈ [0, 255].
On a N ng si on divise par le nombre total des pixels de l ’image on obtient une
k ( x, y )
H {I ( x, y )} = ∑ I ng probabilité de présence de ngi dans l ’image
k =1
Utilisation
Les formes des fonctions de transferts ou les tables de transfert peuvent être définies en utilisant l’histogramme de l’image
d’entrée et la nature de l’information de l ’image de sortie
Si on utilise une expression mathématique d’une transformation ponctuelle, on a une image résultat dans un fichier. Mais si on
utilise les tables de transfert en sortie, le résultat est d’abord affiché (en utilisant la mémoire graphique) interprété et s’il répond à
ce qu’on veut, l’image est stockée dans un fichier de sortie.
Notion sur les tables de transfert: c ’est une zone mémoire de taille égale au nombre de bit de codage de l ’image. Si
l ’image est codée sur 8 bits, la table a 256 positions mémoires. Les niveaux de gris de l ’image d ’entrée sont utilisées comme
des adresses à ces positions. La structure des LUT est la suivante:
A0 255 D0s
D0s
A0 0 D0e
D0e
D7e
D7e D7s A7 D7s
A7 255 0
Exemple: dans le cas d’inversion d’image = image clichée. Il faut remplir la table par : ng =255 jusqu’à 0
hI s ( I s ) = hI e ( I e ). dI e
dI s
ng1 ng1
Ie
0 S1 Ie 0 S1 Ie 0 S1 S2 Ie 0 S1 S2 Ie
0 Si Si+
1
configuration (a)
(e) seuillage en multi fenêtres :
0 Ie(x,y)
0 255
Ie(x,y)
255 Image d’entrée
Image de sortie
Fréquence de présence de ng
2 Modification non linéaire du contraste
Ces opérations sont souvent réalisées par les fonctions exponentielle et logarithmique. Elles ont pour
but d’étaler la dynamique des niveaux de gris bas et de comprimer les niveaux de gris haut et vice
versa. La première est réalisée par la fonction logarithmique et la deuxième par la fonction
exponentielle. Leurs fonctions de transferts sont : et
Les paramètres à définir sont : β, α , δ. Ils sont choisis afin d’ajuster l’intervalle des niveaux de gris
et du contraste de l’image de sortie.
Les graphes de ces fonctions sont donnés par les figures ci-dessous.
IS 255 IS 255
δ
β+δ Ie
0 Ie 0
1/α 255 255
Fonction de Transfert logarithmique Fonction de Transfert exponentielle
Exemple 2: Transformation exponentielleI s ( x, y ) = αe β .I ( x , y
e
pourI e ( x, y ) ∈ [0,255.] On donne l ’image d’entrée et l’image résultat
Is(x,y)
255
255
I (x,y) =
255
(I − I ) pour Ie(x,y) ∈ [Ismin, Ismax]
Is(x,y)
s I −I e e min
e max e min
Is(x,y)
255
Ie(x,y)
255
0 Ie(x,y)
Iemin Iemax
Egalisation d’histogramme
Le sens de l’égalisation de l’histogramme est la redistribution des niveaux de gris dans une image de manière
uniforme. L’intérêt est d’augmenter les intervalles de variation des ng dans l’image de sortie.
La fonction de transfert qui permet d’obtenir un histogramme de sortie quasi uniforme est déduite de la fonction de
densité de probabilité des niveaux de gris de l’image à traiter. Cette fonction correspond à l’histogramme cumulé.
L’Histogramme cumulé est la surface limitée par le graphe de l’histogramme et l’axe des abscisses
Donc pour une variation infinitésimale de l’intervalle δ, la relation entre les histogrammes d’entrée et de sortie
sera donnée par :
255
Image brute
Fréquence de présence de ng
Exemple 4: Calibration radiométrique de deux images par la
Mise en correspondance des deux histogrammes (Histogram Matching).
Le but de cette calibration est de rapprocher le contraste d ’une image à une autre image prise comme référence.
Cette opération est très utilisée dans le mosaïquage des images.
Le principe est le suivant: soit h1(I1) l ’histogramme de l ’image à calibrer et h2(I2) l ’histogramme de l’image de
référence.
La première étape est l ’égalisation de l ’histogramme h1(I1) par la méthode décrite précédemment, on obtient
l ’histogramme intermédiaire h*(I3) où I 3 = f ( I1 ) est la fonction de transfert pour l ’image I1 où I3 est un
résultat intermédiaire et I3 = g (I 2 ) est la fonction de transfert obtenue aussi par l’histogramme cumulé
de référence.
La deuxième étape est l ’établissement de la relation entre les images I1 et I2 .
En effet, I 2 = g −1 ( I 3 ) , I3 = f ( I1 ) implique que I 2 = g −1{ f ( I1 )}
Si les images ont la même taille, le facteur d ’échelle des histogrammes
cumulés est le même, si non, le rapport entre ces histogrammes est égal au
nombre de pixels de l ’image 1(I1) sur le nombre de pixels de l’image 2( I2).
hs(Is) he(Ie)
Is Ie
255 255 I
Is e
Iem Iin
Iin
hem(Ie) Histogramme de l’image
calibrée
La forme de la fonction de
La forme de la fonction de transfert Z= g(I2)
transfert Z= f(I1)
0 255 0 255
Exemple on égalise le contraste de deux images TM1 et TM4,avec TM4 comme référence
Image 1: à calibrer Image 2: de référence
Image 1 calibrée par rapport à l ’image 2
L’histogramme de L’histogramme
L’histogramme original h1(I1) original h2(I2)
l ’image résultat
Mise en correspondance d’histogrammes (suite)
Elle consiste à rapprocher les distributions (contrastes) des images à concaténer ou à fusionner en prenant une d’elles
comme référence. Cette référence peut être une image dans le cas de mise en correspondance image-image et elle peut
être aussi une fonction mathématique de distribution de probabilité, connue indépendante de celle d’une image.
L’application de cette deuxième configuration est la modification de la distribution d’une image pour l’adapter à un
type de traitement ultérieur.
Parmi les fonctions de distribution connues et associées à différents types de données, on trouve:
Fonction Exponentielle :
Fonction Laplacien :
Fonction Chi-deux(χ2) : où la constante de normalisation est donnée par :
où Γ (.)est la fonction Gamma, n est le degré de liberté de la fonction Chi-deux. Si n est grand (>10)
la forme de la fonction Chi-deux tend vers une forme Gaussienne.
Particularités de cette distribution sont : pour b = 1 la fonction de distribution Gamma tend vers une fonction
Exponentielle, pour b = n/2 et c = ½ la fonction Gamma tend vers la fonction Chi-deux (χ2 ).
n +1
x 2 − ( )
Fonction Student-t : f ( x) = K st .(1 + ) 2 où n est un entier et
n
Il est à noter que la connaissance du modèle de distribution des données image est une étape très
importante dans l’analyse, la description, l’identification, l’extraction de l’information utile à partir
de ces images.
Traitements localisés
Les traitements locaux utilisent en plus de l’information du pixel à traiter, les informations des pixels situés dans son
voisinage immédiat. La dimension du voisinage (le nombre de pixels) dépend du type et de la finalité du traitement .
Principe : soit Ie(x-k,y-l) les valeurs radiométriques des pixels voisins du pixel de coordonnées (x,y), toute
application d’une transformation locale ou d’un modèle donne un résultat qui est attribué au pixel central du
voisinage.
f {I e ( x − k , y − l )} = I s ( x, y )
Image d’entrée
où k et l varient de -(w-1)/2 à +(w-1)/2. w est la
dimension du voisinage en ligne et en colonne
A chaque application et selon l’information à extraire, des concepts mathématiques ont été
formulés et adaptés aux traitements des images numériques. Nous donnons quelques notions
de base pour mieux appréhender leurs applications aux problèmes étudiés
Remarque: dans les traitements localisés, la taille de l’image de sortie (image résultat) est plus petite. Les
premières lignes et colonnes ainsi que les dernières lignes et colonnes ne seront pas traités. Le nombre de ces lignes
et de ces colonnes dépend de la taille de la fenêtre d’analyse: exemple: si la taille de la fenêtre est de WxW= 5x5,
l’image diminue de 4 lignes et de 4 colonnes , ce nombre = nombre de lignes = nombre de colonnes = (W-1)/2
Formalismes:
La plupart des approches de filtrage de bruit (particulièrement le bruit additif) et la détection de contour sont basées
sur les méthodes dérivatives ( gradient, Laplacien) utilisant le procédé de convolution en discret.
Le principe de la convolution est le suivant:
On considère une image dans le domaine continu comme étant un signal bidimensionnel O(i, j) localisé en tout
point de l’espace par (i, j) et un système caractérisé par sa fonction de transfert bidimensionnelle h(i, j).
Schématiquement, l’ensemble se présente comme suit:
h(i,j) r(i,j)
O(i,j)
L’application de la convolution dans le domaine discret est la suivante: soit Ie(x,y) l’image numérique et h(k,l) la réponse
impultionnelle discrète du système. L’image résultante du produit de convolution de Ie(x,y) * h(x,y) est égale à :
I s ( x, y ) = ∑ ∑ I e (u , v ).h( x − µ , y −ν )
µ ν
Ce produit est la somme prise sur toutes les valeurs de µ,ν pour les quels le résultat est différent de zéro.
La séquence des opérations revient à prendre un domaine contenant un nombre d’échantillons non nuls de h(k,l) et de le
comparer à Ie(x,y). h(k,l) représente les réponses des échantillons dans le domaine fini. Les signes négatifs de µ,ν montrent qu’il
y a une rotation de la fonction de transfert du système de 180° avant toute opération localisée dans le voisinage. La forme de
h(k,l) dépend de l’opération à effectuer par le système. En effet, on définit sa forme discrète dans le voisinage par des coefficients
du masque (templete).
Traitement:
Nous présentons quelques exemples d ’opérations de filtrage et de détection de contour utilisant les méthodes de dérivation ou
le produit de convolution. Les approches de filtrages de bruit multiplicatif utilisent généralement des modèles à paramètres
adaptatifs. Cette catégorie regroupe principalement les filtres à réponse infinie qui sont appliqués au filtrage de bruit dans les
images radar. Les détails sur ces filtres seront donnés dans la partie filtrage d ’images radar.
Filtrage de bruit
Le bruit additif dans les images numériques se trouve généralement dans les hautes fréquences (transitions brusques de
niveaux de gris). A cet effet, h(k,l) doit être un filtre passe bas pour atténuer ou éliminer ce bruit. Parmi ces opérations, on trouve:
1
Filtrage par la moyenne: opération de lissage (smoothing) , dans ce cas h(x,y )est égal à h(k , l ) =
où M.N est la taille de la fenêtre (le masque). L’image de sortie est le résultat de l’opération suivante: M .N
M −1 N −1
m= x+( ) n= y +( )
2 2
1
I s ( x, y ) =
M .N
∑ M −1
∑ I (m, n)
e
N −1
m = x −( ) n = y −( )
2 2
Filtre médian: c’est un filtre passe bas non linéaire qui n’obéit pas aux transformations par le produit de convolution. Son principe
est le suivant: on classe les valeurs radiométriques de la fenêtre d’analyse {Ie(x-k,y-l)} par ordre croissant et on affecte au point
{Is(x,y) }la valeur médiane. Ce filtre préserve les transitions et ne créé par l ’effet de flou.
Partie agrandie de l’image originale
Histogramme de
l’image d’entrée Histogramme de
sortie
9 10 80
Exemple: fenêtre d’analyse {Ie(x-k,y-l) = 11 10 13 {9, 10, 10, 11, 11, 13, 19, 34, 80} Is(x,y) = 11
11 19 34
Détection de contour: Les différentes approches de détection de contour sont basées soit sur l’utilisation des fonctions de
dérivation du premier ordre et du deuxième ordre, soit sur l ’utilisation des masques déduits de la discrétisation des fonctions
de transfert des filtres passe haut
a) Techniques de dérivation: ces méthodes de filtrage utilisent le gradient (dérivée première) de la fonction
radiométrique des pixels de la fenêtre d ’analyse et le Laplacien (deuxième dérivée) de la même fonction. .
Gradient: Soit {Ie(x-k,y-l)} les valeurs radiométriques qui représentent les variations des niveaux de gris dans la
fenêtre: ∂ ( I e ( x, y ) ∂ ( I e ( x, y )
∇I e ( x , y ) = dx + dy
∂x ∂y
Le module du gradient est égal: ∇ = ∇ 2x + ∇ 2y , il exprime l’intensité de transition entre deux niveaux de gris
∂I e ( x, y )
∂y
L’argument exprime la direction du contour: arg ument =
∂I e ( x, y )
∂x
Exemples d ’application de transformations par le gradient sur {Ie(x-k,y-l)}:
Plusieurs opérateurs ont été développés, on donne quelques opérateurs:
∂I e ( x, y ) ∂I e ( x, y )
∂ ∂
∂ 2 ( I e ( x, y )) ∂ x ∂ y ∂ 2 ( I e ( x, y ))
∇(∇I e ( x, y )) = ∆I e ( x, y ) = dx + dy + dx + dy = I s ( x, y )
∂x 2 ∂y ∂x ∂y 2
b) Modèles linéaires de détection de contour: ces filtres sont représentés par des masques directionnels : horizontal,
vertical, diagonal. Le produit de convolution est effectué avec des coefficients pondérés en fonction de la position de chaque
pixel dans la fenêtre par rapport au point central.
∇ 2 = {I e ( x − 1, y + 1) + 2 I e ( x, y + 1) + I e ( x + 1, y + 1)} 1 0 -1
2 0 -2
- {I e ( x − 1, y − 1) + 2 I e ( x, y − 1) + I e ( x + 1, y − 1)} 1 0 -1
Les images de sortie: selon le masque on peut obtenir des images contours selon la direction horizontale ou verticale
I sh ( x, y ) = {I e ( x − 1, y + 1) + 2 I e ( x − 1, y ) + I e ( x − 1, y − 1)}
- {I e ( x + 1, y + 1) + 2 I e ( x + 1, y ) + I e ( x + 1, y − 1)}
I sv ( x, y ) = {I e ( x − 1, y + 1) + 2 I e ( x − 1, y ) + I e ( x − 1, y − 1)}
- {I e ( x + 1, y + 1) + 2 I e ( x + 1, y ) + I e ( x + 1, y − 1)}
Application des filtres: gradient Application des filtres: Laplacien
Image contour et
son histogramme
par l ’opérateur
Roberts
Le Laplacien est la
deuxième dérivée, c’est
le passage par zéro,
pour cette raison
Image contour l’image contour est
et son très atténuée comme le
histogramme montre l ’histogramme,
par l ’opérateur Image résultat +histogramme
de l’image résultat
Sobel
mais les transitions et
les structures linéaires
sont mises en
évidence.
Les transitions sont mises en évidence mais les Opérateur Laplacien sur
contours sont épais et il y a un effet de voisinage réduit :
dédoublement des contours 0 -1 0
-1 4 -1
0 -1 0
Application du filtre gaussien: Il est utilisé comme filtre passe haut ou passe bas, dans chaque cas , les paramètres sont définis
en fonction du type de filtre
filtre passe bas filtre passe haut
Applications thématiques:
En géologie:c’est la détection des
lignes de failles.
En urbanisme et en aménagement:
c’est la détection des réseaux routiers,
des lignes de ruissellement, des cours
d’eau.
En agriculture et en environnement:
c’est la détection des limites des
parcelles cultivées, etc.
Parmi ces méthodes on trouve les transformées de fourrier , de cosinus de sinus de Hadamar, de haar ,etc
La plus utilisée est la transformée de Fourier (FFT) qui permet d ’effectuer un filtrage de l ’image (atténuation de bruit) mais dans
l’espace fréquentiel au lieu de l’espace spatial comme dans le cas des filtres spatiaux que nous avons présentés précédemment.
Spectre de fourier
Où:
m x n : la dimension de l’image
(u,v) : les coordonnées du spectre dans le
domaine des fréquences.
Image originale
Interprétation du spectre: au centre, le blanc, c ’est les basses fréquences, c ’est à dire les transitions des pixels dans les zones
homogènes. Plus en s ’éloigne du centre, plus on a les transitions brusques qui correspondent aux contours et aux bruits.
Image résultat
Spectre de fourier
Il existe deux types de textures: la texture aléatoire qui décrit par exemple la disposition des grains (gros ou fins) de sable
pour un sol sableux et la texture à primitives répétée qui décrit par exemple un champ de récolte de tomate ou de pomme de
terre où on a des primitives de sol nu et des primitives en végétation . Cette texture caractérise ces surfaces en plus de
leurs caractérisation par leurs signatures spectrales.
Méthodes de traitement: Plusieurs techniques d ’analyse et de discrimination de la texture des objets existent, et le
choix de l’application d’une méthode dépend de l ’objectif du traitement et de la nature des images traitées.
Résultats d’analyse de la texture: Certaines méthodes permettent une interprétation qualitative de la distribution
spatiales des niveaux de gris (réflectance ou luminance) en plus de la génération des images de texture en sortie ou chaque
image représente une propriété texturale de la surface d’un thème tels que l’énergie, l ’entropie, la variance, l’homogénéité
locale, l’inertie etc. A partir de ces images on trace les signatures de textures qui caractérisent chaque thème en fonction de
sa rugosité. Le nombre de points pour ces tracés dépend de la méthode d’analyse et de la génération d’images de texture.
Dissymétrie
L’inertie(second
Thème texturé (forte L ’homogénéité moment)
variation) .l ’homogénéité
locale est égale à zéro
La moyenne L ’entropie
La variance Le contraste Corrélation
La moyenne: c ’est la moyenne du produit des fréquences de co-occurrences (occurrences) par le niveau de gris
de chaque pixel de la fenêtre d ’analyse. Ce paramètre met en évidence le niveau de gris prédominant dans la
fenêtre et défini le niveau d’intensité moyenne d ’un objet
la variance: elle exprime la dispersion par la fréquence de présence des ces niveaux de gris dans la fenêtre. Elle
met en évidence les microcontours et les primitives de la texture d ’un thème. Une grande valeur de la variance
veut dire un taux de microcontours important constituant le thème.
L’homogénéité locale: elle exprime la variation des niveaux de gris en fonction de leur probabilité de présence
dans la fenêtre d ’analyse. Pour un thème homogène (ou uniformément texturé) la valeur de l ’homogénéité est
pratiquement nulle
Le contraste: c ’est l ’énergie moyenne des niveaux de gris de la fenêtre. Il exprime la dynamique (niveau de gris
bas ou haut ) de la fenêtre.(Par exemple, la valeur du contraste déduit du canal TM4 pour un thème telle que la végétation est
plus importante que toute autre valeur. )
La dissymétrie c ’est le moment d ’ordre 3. La dissymétrie indique la dispersion qui peut ne pas être mise en
évidence par la variance. Elle varie proportionnellement à la variance.
L’entropie: définit une texture aléatoire, une grande valeur d ’entropie indique que le thème est très rugueux. L ’entropie est un
indicateur de désordre.
Second moment angulaire (inertie): c ’est un paramètre qui montre la vitesse de variation (brusque ou lente) des niveaux
de gris dans la fenêtre d’analyse. L ’inertie varie inversement proportionnelle à l ’homogénéité locale.
Corrélation: c ’est une propriété de texture d’un thème qui définie l’interaction entre les primitives et leur dépendance en
fonction du voisinage. Dans les zones fortement texturées, la valeur de la corrélation est élevé.
III.3 Analyse par la morphologie mathématique
Définition: C ’est un troisième aspect des transformations localisées. La morphologie mathématique est une technique
d’analyse de formes d ’objets qui est basée sur le concept de la théorie des ensembles. Le but est d ’analyser la surface d ’un
objet pour extraire des formes particulières constituants cet objet.
La définition sur une image des éléments texturaux ou des structures comporte deux aspects :
Un aspect topologique correspondant aux relations de voisinage, de connexité et de ressemblance aussi bien dans
l’espace des textures que dans celui des positions.
Un aspect ensembliste correspondant à la perception du photointerprète habitué à raisonner sur les ensembles,
ce qui sera traduit par les notions d’union, d’intersection, d’inclusion ou de complémentarité.
Ces deux aspects se trouvent réunis dans l’analyse d’image par la morphologie mathématique. Elle vient compléter l’ensemble
des méthodes de traitement textural des images.
L’idée de base des méthodes morphologiques est de comparer l’image que l’on veut analyser à un objet de forme connue appelé
élément structurant. Cet élément structurant est une forme géométrique qui peut être: un disque, un segment, un carré, un
hexagone ou toute autre forme géométrique. Il est porteur d’une information minimum : une origine et une dimension.
Principe des méthodes morphologiques:
Une transformation morphologique est un moyen de réaliser des inventaires structuraux de façon systématique. Elle procède en
choisissant, indépendamment de l’ensemble {Ie(x,y)} qui représente la fenêtre de l ’image à traiter, un autre ensemble Y centré à
son origine et de forme géométrique donnée, dit élément structurant. Ensuite on déplace cet élément de façon à ce que son
origine passe par tous les points de l’espace image. A chaque position, on se pose une question relative à l’union, à l’intersection
et à l’inclusion de Y avec {Ie(x,y)} ou dans {Ie(x,y)} . L’ensemble obtenu par les centres de l’élément Y correspond aux réponses
de la transformée de l’ensemble {Ie(x,y)} .
Ces transformations morphologiques peuvent être appliquées sur des images en niveaux de gris ou des images binaire. A cet
effet, on a la morphologie binaire ou en niveaux de gris.
Les principaux opérateurs morphologiques sont: l’érosion, la dilatation, l’ouverture et la fermeture.
La morphologie mathématique en niveaux de gris utilise la notion de sous-graphe déduite de la fonction I(x,y) de niveaux de gris.
Soit le graphe de la fonction de niveaux de gris I(x,y), défini par : X I = {( x, y ), t / t = I ( x, y )}
Le sous- graphe de I(x,y) sera : U I = {( x, y ), t : t ≤ I ( x, y )} et X I = sup{t : x, t ∈ U I }
L’érosion:
Soit X l’ensemble des valeurs de la fonction I(x,y) et Bx l’élément structurant appliqué au point (x,y)∈X : XΘB
est l'érodé d’une image par Bx tel que : XΘB = {x : Bx ⊂ X } = inf {I (u ) : u ∈ Bx }
La dilatation
Soit le dilaté de l’ensemble X par l’élément structurant B tel que: X ⊕ B Pour chaque point de l’image, une comparaison
est effectuée entre ses voisins associés à ceux de l’élément structurant pour déterminer le maximum d’entre eux. L’opération
est la suivante X ⊕ B = {x : B ∩ X ≠ ∅} = Sup{I (u ) : u ∈ B }
x x
L ’ouverture
L’érosion d’un ensemble X par un élément structurant B suivi par une dilatation par le même élément B est appelée
opération d’ouverture. L’ouvert d’un ensemble X par B , noté XB est X B = ( XΘB ) ⊕ B
La fermeture
Inversement, une dilatation de X, suivie d’une érosion par le même élément structurant B décrit une opération dite de
fermeture sur l’ensemble X, noté XB : X B = ( X ⊕ B )ΘB
Propriétés : La fermeture et l’ouverture sont des opérations croissantes, idempotentes. L’ouverture est anti-extensive, la
fermeture est extensive.
L’érosion rétrécit la forme.
Image érodée
Par la dilatation la
forme est élargie en
fonction de la taille de
l’élément structurant
Image dilatée
Image ouverte
Partie mer
Partie mer
Image fermée
Partie mer
Principe: Soit le ou les niveaux de gris d’un pixel de l’image à traiter qui correspond à une grandeur physique,
repérée par les coordonnées (x, y) et soit f la transformation appliquée. L’image résultat est obtenue par l’application de
→f , donnée par : ). L’exemple de la figure 1 correspond à i =1 et j=1, pour une
image d’entrée et une image de sortie. Les résultats des transformations ponctuelles, qui utilisent deux ou plusieurs images en
entrée, peuvent être une seule ou plusieurs images en sortie. Nous donnons, dans ce qui suit quelques exemples de
transformation ponctuelle mono et multi images.
• Cas de deux images
Soit le vecteur niveaux de gris du pixel de coordonnées (x, y)
dans l’image d’entrée à deux bandes, l’intensité du pixel résultat en sortie est
. On trouve les opérations arithmétiques entre images.
Remarques :
• Quelque soit le type de l’opération ponctuelle, l’image ou
les images résultantes ont la même taille de l’image ou les
images d’entrées.
• Les transformations ponctuelles sont utilisées dans plusieurs
niveaux d’analyse et d’extraction de l’information
qualitative et quantitative à partir d’image mono ou
multibandes.
• Les traitements mono-image ont pour but l’amélioration du contraste de l’image, la réduction des niveaux de gris d’une
image, la génération d’image luminance et / ou réflectance. Généralement, ces traitements se basent sur l’utilisation de
l’histogramme de l’image et les opérations sont réalisées par des tables de transfert de manière interactive (effectuées en
mémoire graphique du système de traitement).
• Les traitements ponctuels utilisant deux images sont les opérations arithmétiques (+, -, x, /) et logiques (ET, OU, OU/ET
exclusifs) et les combinaisons d’images pour des applications tels que le calcul des indices de végétation, des indices de
brillance, etc.
• Les traitements ponctuels utilisant trois images sont les compositions colorées et les transformations des espaces. Dans le
premier cas, le résultat est une seule image en couleur (sur 24 bits). Généralement la composition colorée est réalisée, aussi de
manière interactive. Dans les transformations des espaces de couleurs, l’opération s’effectue à travers des matrices de
transformation, le résultat est donné sous forme de trois images.
I .2. Traitements localisés: utilisent, dans leurs formalismes, en plus de l’information du pixel à traiter les informations des
pixels situés dans son voisinage immédiat. La dimension du voisinage (le nombre de pixels) dépend du type et de la finalité
du traitement.
Principe : soit le vecteur radiométrique du pixel dans son voisinage Vx,y de dimensions [NxM], toute application
d’une transformation locale ou d’un modèle au pixel central et ces pixels voisins donne un résultat en sortie qui est attribué au
pixel central de cordonnées (x, y).
La transformation est de la forme :
où k varie de
Le voisinage, dans les traitements localisés est défini par le nombre de points à prendre en considération dans l’évaluation de la
fonction mathématique donnant la valeur du pixel à traiter. Ce pixel peut être le point central ou tout autre point dans le
voisinage. La position du point, dans le voisinage dépend de la méthode de traitement. Il est à noter que le pixel à traiter ainsi
que son voisinage peuvent être représentés par des scalaires (mono-bande) ou par des vecteurs (multibandes). Les différentes
approches, méthodes, modèles ou algorithmes localisés réalisent les traitements suivants :
• Filtrage et la détection des contours
• Analyse de la texture et la structure
• Analyse morphologique
• Segmentation d’images
• Classification contextuelle,
• Etc..
Ils utilisent le principe de traitement de voisinage. Leurs applications touchent
tous de domaines d’utilisation de l’imagerie numérique. Le principe, le
formalisme et l’application des différentes techniques de traitement localisées Figure 2 : Principe des
sont détaillées dans le chapitre suivant : Transformations radiométriques des transformations localisées
images.
I .3. Traitements Globaux : les méthodes de traitements globaux sont basées sur les transformées d’images. Elles constituent
des outils importants dans les domaines d’application de l’imagerie numérique. Dans ce contexte, les images de sortie dans
l’espace des transformées sont interprétées, analysées et traitées, afin d’extraire ou de modéliser le contenu des images. Le
concept général des transformées globales ou par bloc est d’exprimer toute image comme une combinaison d’un ensemble de
signaux de base, appelés généralement, ‘base de fonctions orthonormées’
• Une des transformée la plus utilisée en traitement d’image est la transformée de Fourier. Dans ce cas là, la famille de
fonctions de base sont des signaux sinusoïdaux avec différentes périodes permettant de décrire les fréquences spatiales
d’une image. Ce concept est traduit de la manière suivante : l’image est décomposée en signaux sinusoïdaux qui la
constituent, leur projection sur les bases de Fourier permet de générer le spectre fréquentiel de cette image et exprime
ainsi son énergie (puissance) relative à chaque fréquence, sa phase et son amplitude.
• Bien que la FFT est la transformée la plus populaire, il existe d’autres transformées dont les fonctions de base sont
différentes engendrant ainsi des espaces ayant des caractéristiques différentes de l’image transformée. Parmi lesquelles,
on trouve la transformée en cosinus (DCT) qui découle de la FFT en considérant l’analyse des signaux symétriquement
étendus. Elle est appliquée sur toute l’image ou des blocs de l’image. Cette transformation est très utilisée dans les
schémas de compression.
• La transformée de Walsh-Hadamard (WHT), la base de fonctions, pour cette transformée sont des noyaux sous forme
de matrices de N lignes et N colonnes orthogonales. Les noyaux sont générés de manière récursive. L’espace de cette
transformée est utilisé pour l’analyse morphologique du contenu de l’image d’entrée.
• La transformée de Karhaunen-loeve (KLT) appelée aussi Analyse en composantes principales (ACP) dont son concept
est basé sur les propriétés statistiques des images. Les fonctions-base de projection présentent les caractéristiques de
compactage d’énergie totale et la réduction de la redondance d’information. La principale application du KLT est la
réduction de l’espace de représentation multidimensionnel des images.
• La transformée en Ondelette (DWT) est une décomposition des images sur une base de fonctions, générées à partir d’une
fonction sinusoïdale dite ondelette mère par dilatation (échelle) et translation dans le domaine temporel (fréquentiel).
Les sous bandes générées à chaque échelle représentent les coefficients base et haute fréquence. L’avantage de cette
transformation est que les coefficients sont localisés dans l’espace spatio-fréquentiel contrairement à la FFT globale
(sans l’analyse par fenêtres). La transformée en ondelette et ses variantes sont des outils mathématiques très utilisés en
traitement d’images (fusion, analyse de texture, filtrage, classification, etc..) et en compression d’images fixes et vidéo
telles que la norme JPEG 2000 et MPEG.
Généralement, ces transformées sont réversibles et qu’après traitement et analyse dans l’espace des transformées une opération
inverse est appliquée pour revenir à l’espace spatial (espace –image). La radiométrie de l’image reconstruite, après traitement
dans l’espace des transformées est modifiée. Les détails sur les transformées seront présentées dans le chapitre
‘Transformations radiométriques’.
Cependant, un processus de traitement d’images, pour une application donnée, est généralement réalisé à partir de plusieurs
niveaux de traitements ponctuels, localisés et /ou globaux. Souvent, les premières opérations ont pour but l’amélioration de
l’aspect visuel pour l’interprétation qualitative de l’image et /ou l’extraction quantitative de l’information par l’application de
techniques adéquates de traitement ultérieurs. Ce premier niveau de traitement est réalisé par des opérations ponctuelles mono
ou multi-images. Le choix de ces opérations est basé sur les statistiques des images dont le premier indicateur statistique est
l’histogramme de l’image.
2.1. L’histogramme d’une image, , représente la fonction de distribution des niveaux de gris de celle-ci. Les axes
associés à cette fonction sont : en abscisse, les niveaux de gris (ex : 0 à 255 pour une image codée sur 8 bits) et en ordonnée la
fréquence d’apparition ou la probabilité de présence d’un niveau de gris dans l’image. L’expression générale, en discret, de
cette fonction est donnée par :
Où Ingi représente le pixel ayant le niveau de gris ngi appartenant à l’intervalle radiométrique de l’image, Nngi est le nombre de
pixels ayant le niveau de gris ngi.
En termes de probabilités de présence de ngi, l’expression de l’histogramme, pour une image de dimension MxN s’écrira :
Nngi
∑ ngi
I k
h( I ) = P ( ngi ) = k =1
M *N
Une image ‘I’ a un histogramme unique mais l’inverse n’est pas vrai. La forme d’un histogramme peut correspondre à
n’importe quelle image. En effet, un histogramme contient l’information radiométrique (le nombre de niveaux de gris et leur
distribution d’une image) mais ne contient pas l’information spatiale. Nous donnons dans la figure 3 quelques exemples
d’histogrammes de distributions différentes h(I)
h(I) h(I) h(I)
H(I)
Ng(I) Ng(I) Ng(I) 0 255
0 255 0 255
a : Histogramme de distribution b : Histogramme de distribution c : Histogramme de distribution d : Histogramme de distribution
‘’Laplacien’’ ‘’Bimodale (deux lobs)’
‘’Gaussienne’’ ‘’Uniforme’’ Dr. M. BELHADJ AISSA 3
Figure 3 : Formes de la fonction de distribution des niveaux de gris des images numériques
USTHB/FEI : Master 2 S3 ST Module : Bases de Traitements d’Images
Ng(Is)
2.2. Contraste d’une image
255
Il est défini par le pouvoir de séparabilité visuelle des niveaux de
Histogramme de
gris adjacents. Pour certaines images, cette séparabilité nécessite
l’image de sortie Fonction de
un étalement de l’intervalle des niveaux de gris ou de façon transfert
généralement une modification de contraste. Il existe différentes
formes de modification de contraste de la dynamique de l’image
qui peuvent être linéaires, exponentiel, logarithmique, uniforme, h(Is)
etc. Le principe de la modification de contraste qui entraîne une 255 Ng(Ie)
modification d’histogramme est de trouver une fonction ‘f’ tel
que : où ‘Is‘ est l’image de sortie modifiée et ‘Ie’
l’image d’entrée
Histogramme de
Cette fonction est dite fonction de transfert. L’opération de l’image d’entrée
transformation peut être réalisée à travers les tables de transfert
(LUT) dans la mémoire graphique ou bien par l’application de h(Ie)
l’algorithme relatif à la fonction de transfert désirée. La figure 4
illustre cette transformation dans les deux cas possibles. Figure 4 : principe de modification d’histogramme ou de
contraste d’une image
La détermination des paramètres a et b de l’équation conduit à l’expression suivante : ngmin ngmax 255
Figure 5 : modification linaire du
contraste
Par cette transformation, la dynamique des niveaux de gris de l’image de sortie devient plus Importante (intervalle entre un
niveau de gris et un autre adjacent est plus grand) permettant un meilleur contraste perceptible par l’œil humain.
Remarque1 : Si on suppose que ngs2= 255(pour une image codée sur 8 bits), on réalise un étalement linaire avec saturation, les
niveaux de gris de l’image de sortie supérieurs à 255 sont ramenés à cette valeur.
Remarque2 : [ngmin et ngmax ] peuvent être définis en fonction de la zone d’intérêt. Dans ce cas là, ces bornes sont différents
des valeurs ngmin et ngmax de l’image à transformer. Sinon ils sont calculés automatiquement, par la recherche de ngmin et ngmax
de l’image.
Remarque 3 : si on ne s’intéresse qu’à certains objets qu’on veut mettre en évidence dans une IS 255
image, on définit une fonction de transfert ayant des intervalles à pentes variables. Elle est dite
« étalement linéaire de la dynamique par régions d’intérêts ». Il faut noter que si la pente est
grande le contraste est élevé dans le cas contraire le contraste est très faible (la zone ngi
correspondante est atténuée). La figure 6 représente la fonction de transfert multi-intervalles.
Son expression est la suivante :
Ie
0
Ki
Figure 6 : étalement linéaire
par régions d’intérêt
Où le nombre de nœuds (les ki) et les pentes sont variables.
Remarque 4 : toute opération de modification de contraste peut être appliquée sur une seule image (scalaire), dans le cas
d’images RGB, chaque bande est traitée séparément et que les fonctions de transfert peuvent être différentes. C’est ce dernier
principe qui est utilisé pour générer des images en ‘fausse couleur’. Il suffit de modifier le contraste de la même image, par
trois fonctions de transfert différentes. La somme des trois composantes en RGB génère une image couleur.
ng1 ng1
Ie Ie
0 S1 Ie 0 S1 Ie 0 S1 S2 Ie 0 S1 S2 0 Si Si+
Il faut noter que le nombre et la largeur des fenêtrés sont définis en fonction de la dynamique de l’image à transformer.
• Quantification : Dans l’espace discret, l’opération de IS 255 IS 255 (b)
quantification est vectorielle (QV), elle consiste à attribuer un code
(correspond à un niveau de gris) à un ensemble de valeurs (niveaux
de gris) de l’image à traiter. Le pas de quantification peut être le ngi
même sur tout l’intervalle à quantifier, il s’agit de la quantification ngi
uniforme. Si le pas est variable, cette variation peut prendre une
forme modélisable ou non de la quantification. Dans tous les cas, la
fonction de transfert est une fonction ‘Escalier’. Les applications de 0 Ie
0 Ie
telle opération sont : la segmentation en régions d’intérêt en Ki Ki
définissant le niveau de gris de sortie comme la moyenne des Figure 8 : fonction de Figure 9 : fonction de
niveaux de gris du palier, la compression d’image. quantification non uniforme quantification non uniforme
Exemple : Passage d’un codage sur 8 bits (256 niveaux de gris) à un codage sur 4 bits (16 niveaux de gris). Avec une
quantification uniforme : le nombre de paliers est égal : , la largeur du palier est égale aussi à 16 (16 niveaux de
La fonction de transfert (FT) s’écrira alors comme suit : Figure 12 : Principe d’égalisation
d’histogramme
Histogramme de
Théoriquement, l’histogramme de sortie hs (I s ) recherché doit être l’image d’entrée
ngi = 255
Cette expression devient : avec )={ ∑ fngi }; la valeur max de hC est égale à la taille de
ngi = 0
• Fonction Exponentielle :
• Fonction Uniforme : où a et b définissent l’intervalle, en entrée, de distribution uniforme de la fonction.
• Fonction Laplacien :
Γ(.) est la fonction Gamma, n est le degré de liberté de la fonction Chi-deux. Si n est grand (>10) la forme de la fonction
Chi-deux tend vers une forme Gaussienne.
• Fonction Gamma : b et c sont des constantes positives et .
Particularités de cette distribution sont : pour b = 1 la fonction de distribution Gamma tend vers une fonction Exponentielle,
pour b = n/2 et c = ½ la fonction Gamma tend vers la fonction Chi-deux (χ2 ).
n +1
x 2 −( 2 )
• Fonction Student-t : f ( x ) = K st .(1 + ) , n est un entier,
n
Il est à noter que la connaissance du modèle de distribution des données image est une étape très importante dans l’analyse, la
description, l’identification, l’extraction de l’information utile à partir de ces images.
Principe de la mise en correspondance des histogrammes est le hs(Is) he(Ie)
suivant: soit l’histogramme de l’image à calibrer et
Histogramme de Histogramme de
l’histogramme de l’image de référence. La première étape est l’image de référence l’image à spécifier
l’égalisation de l’histogramme he(Ie) par la méthode décrite
précédemment, on obtient l’histogramme intermédiaire qui
doit être modifié pour approcher l’histogramme de l’image de Is Ie
référence . 255 255
Is Ie
est la fonction de transfert associée à l’image Ie avec Iin Histogramme cumulé Histogramme cumulé
normalisé I in = g(I s ) normalisé I in = f (I e )
comme résultat intermédiaire (figure 13). Ensuite, connaissant
l’histogramme uniforme de Ie (image à spécifier) et l’histogramme
de Is (la référence), on détermine la fonction de transfert de la
Iem Iin
référence (image ou fonction mathématique), . L’étape
Iin
finale est la recherche de la FT qui rapproche à . hem(Ie)
Histogramme de
Cette FT est de la forme suivante : l’image calibrée
Figure 13 : graphique de la
mise en correspondance
L’histogramme modifié hem de l’image calibrée est proche de hs d’histogrammes
(figure 13). ‘Histogram matching’
Pour la mise en correspondance image-fonction mathématique, la Iem
démarche est la même que dans le cas image-image, la différence est
que dans ce cas, il faut définir les paramètres de la fonction de
distribution ‘référence’.