Vous êtes sur la page 1sur 93

Université des Sciences et de la Technologie Houari Boumediene

Faculté d’Electronique et d’Informatique

BP. 32, El Alia Bab Ezzouar, 16111 Alger, Algérie


Tel : (213) 021 24 79 12 poste 806 Fax : (213) 21 24 71 87

MASTER Communications et MultiMedia


(ST M2)
Module : Traitement d’Images
(T.I)

Dr M. BELHADJA AISSA

1 Année 2012/2013
Plan:

 Contexte de l’imagerie numérique et domaines d’applications


 Spectre électromagnétique et capteurs associés

 Acquisition et formation d’image Numérique


 Restitution et affichage d’images
Contexte de l’imagerie numérique et domaines d’applications
Informatique
Outils d’analyse numérique * Outils de développement
Théorie de l’information:
* Analyse de données * Algorithmes de traitement
* Codage
* Statistiques * Outils de Gestion
* Compression
* etc, * etc,
* Transmission
* etc..

Outils de Traitement du Signal:


* Filtrages
* Transformations
* Extraction de l’information Imagerie
* etc.. Numérique Domaines d’application
* Médicine
Optique et Perception Humaine: * Robotique
* Dispositifs dans les capteurs optiques * Inspection industriel
* Interprétation des images et sensibilité de * Astronomie
l’œil humain * Télédétection
Images_Perception_visuelle.pptx#2. * etc
Diapositive 2
Electronique:
* Systèmes d’acquisition
* Capteurs Physique
* Systèmes de restitution * Rayonnement électromagnétique
* Supports de traitement (spectre EM / aux domaines
(mémoire image, tables de d’applications
transfert)
* etc, 3
Composantes de l’axe: Traitement d’images

Domaine d’application

Nature de l’information
et spectres utilisés

Capteur

Système d’acquisition (Formation)


‘Electronique’

Image numérique :Traitement et Analyse


(extraction de l’information ) 4
Support Physique:

Spectre Electromagnétique

5
Ondes-Grandeurs Physiques:

Rayons gamma sont exploités en:


Astronomie : Energie nucléaire : Contrôle Médecine nucléaire :
Quantification des des réacteurs nucléaires Exploration ( par émission
radiations naturelles des de rayon par un isotope
systèmes stellaires radioactif consommé par le
(exploration des étoiles) patient

Principe : émission tomographique


Nature de l’information : Présence d’un corps chimique
6
Ondes-Grandeurs Physiques:

Rayons - X sont exploités en:

Inspection Industrielle : Médecine: pour le diagnostic


médical (radiographie)
Pour le contrôle non
destructif

Principe : absorption des rayons X

Nature de l’information : densité


7
Ondes-Grandeurs Physiques:

Rayons Ultra violet exploités en:

Microscopie en fluorescence: Exemple:


Fluorescence du fluor exposé aux UV

Maïs Normal Maïs contaminé par le charbon

8
Ondes-Grandeurs Physiques:

Spectre du visible et du proche Infrarouge(1/2)


(Optique)
Microscopie:
• Partie du spectre la plus exploitée dans divers domaines. * Analyse des cellule
• Source facilement disponible * Analyse des circuits de très
• Premier capteur de ce rayonnement est l’œil des vivants haute intégration(VLSI)
• Anticipation des résultats par interprétation visuelle.
• Etc.

Médico-légal, criminologie Contrôle d’accès par caméra


par la biométrie Contrôle des chèques
bancaires

9
Ondes-Grandeurs Physiques:

Spectre du visible et proche Infrarouge (2/2)


Optique
Observation aérienne et spatiale Photographie numériques: à usage
(Télédétection passive)
publique
* Capteurs optiques
Principe : énergie lumineuse réfléchie (spectre
solaire) .
Nature de l’information : luminance ou reflectance
qui dépendent de la composition physico-chimique
de l’objet illuminé

Observation aérienne et spatiale


(Télédétection active)
* Capteurs lidar

Principe : onde rétrodiffusée

Exploite les bandes spectrales du Nature de l’information : une distance


visibles et de l’Infra rouge

10
Ondes-Grandeurs Physiques:

Rayons Infrarouge Thermique

Observation aérienne et spatiale: Détecteurs infrarouge à usage publique


Caméras thermiques (contrôle aux aéroports)

Principe : énergie thermique émise par les corps


après absorption

Nature de l’information : coefficient d’émissivité


(Température )

Exploite les bandes spectrales de


l’Infra rouge thermique

11
Ondes-Grandeurs Physiques:

Spectre des Micro-onde

Observation aérienne et spatiale:


(Radar)
Principe : rétrodiffusion de
* Source d’énergie artificielle: l’onde EM

Nature de l’information :
distance, rugosité ,

12
Ondes-Grandeurs Physiques:

Ondes sonore: Ultrasons:~ 1-5 MHz


* Médecine : Echographie * Contrôle industriel (contrôle non destructif

* Océanographie: guidage des sous


marins, mesures bathymétrique

Principe: écho ultra sonore

Nature de l’information :
distance, densité de tissus

13
Ondes-Grandeurs Physiques:

Ondes sonore: ~ 100 Hz

* Minéraux et combustibles

Principe: écho sonore

Nature de l’information : structure

Image d’une coupe séismique

14
Programme: Bases de traitement d’images

I. Chaîne d’acquisition et de restitution d’image numérique

II. Prétraitements des images numériques

III. Transformations radiométriques des images

IV. Transformations Géométriques des images

V. Segmentation d’images
Références Bibliographiques
 Coster M Chermant J.L, 1989. Précis d’Analyse d’image, ed
CNRS, Paris, 423p.

 Gonzales R.C., Woods R. E, 1992. Digital Image Processing,


Addison-Wesley publishing company, 710p

Kunt M., 1983 , Traitement numérique des images. Vol. 2,


Presses polytechniques et universitaires romandes 563p.

Pratt W., 1978. Digital Image Processing. Wiley and Sons, New
York: John Wiley & Sons, 476p.

Rosenfield A. and Kark A.C, 1982 Digital picture processing.


Academic press ed New-York/London (2d edition) , vol.1, 435p,
vol.2 349p
16
ACQUISITION ET AFFICHAGE D’IMAGES

I. Processus de Formation d’Images Numériques


II. Structures et Formats des fichiers images numériques
III. Restitution et affichage d’images

17
I. Formation d’images : Système d’acquisition

Un système de formation d’images est composé des parties essentielles suivantes :


• Le capteur et les dispositifs associés
• Filtrages analogiques et échantillonnage
• Quantification (CAN)
• Support de stockage (mémoire) dont le temps d’accès doit être adapté à la vitesse
d’acquisition
La figure suivante schématise le système de formation

Capteurs et Support de
Filtrage et Quantification et
dispositifs de mémorisation et
échantillonnage Tables de Transfert
calibration stockage

Image analogique Image Numérique


Image analogique I(x,y)
f(x, y) échantillonnée f’(x,y)
(Matrice image)

Scène O(x,y)
Structures et formats des
fichiers images
parties constituants un système de formation d’images numériques

18
Processus d’acquisition d’image
Le système d’acquisition d’image permet d’obtenir à partir d’une
scène physique une image numérique :
I. De la scène physique au signal électrique

(Capteurs des satellites) Conversion de l’énergie E.M. en


un signal électrique

atmosphère
A( λ)
O.E.M.

Image physique

Surface de la terre (Trace au sol)


Ligne au sol
Signal électrique
D’un signal continu (analogique) à un signal discret (numérique): 3 étapes
Chaîne de numérisation d’un signal temporel (1-D)

Signal continu (référence) Signal échantillonné


Pour transformer un signal
analogique E(t) en un signal
numérique on prend des
E valeurs de E(t) à des intervalle E*
de temps régulier ( Tous les Te ,
période d’échantillonnage).
Étape 1

on quantifie chaque
échantillon par une valeur Étape 2
binaire pour la stocker sur un
support numérique.
Codage (4 niveaux ⇒ 2bits)
Signal quantifié (4 niveaux)

Étape 3
Modélisation de l’échantillonnage

L’opération mathématique associée à cette discrétisation revient à multiplier le


signal E(t) par un peigne de Dirac δTe(t) . E*(t) = E(t) . δTe(t) = E(t) . Σ δ(t –
nTe)
On peut ainsi calculer la transformé de Fourier du signal échantillonné en
utilisant les propriétés liant une multiplication temporelle qui dans l’espace
fréquentiel devient un produit de convolution.
E*(f) = TF (E(t) . δTe(t) ) = (1/Te) E(f) * δfe(f) avec fe = (1/Te) soit :
On remarque que si la fréquence fmax du signal d’origine est supérieur à 2fe on a
ce qu’on appelle un repliement de spectre . Dans ce cas il n’est plus possible de
retrouver le spectre du signal d’origine car l’opération d’échantillonnage modifie
les caractéristiques du signal d’entrée

Pour cette raison on ne peut échantillonner un signal sans pertes


d’information que si:
fe > 2fmax (Théorème de Shannon)
La conversion de l’énergie électromagnétique en un signal électrique est effectuée par les
capteurs (caméras à tube, caméras CCD, capteurs thermiques, etc..)embarqués par les satellites.

A(λ) est l’amplitude d’un signal électrique correspond à l’énergie lumineuse réfléchie, l’énergie
émise ou l’énergie rétrodiffusée par ligne de la surface de la terre , portée par une onde
électromagnétique à une longueur d’onde dans le spectre du visible, de l’infrarouge , l’infrarouge
thermique et enfin dans le spectre des hyperfréquences

Ligne au sol est la largeur de la trace du satellite.

Exemple:
Ligne au sol du satellite SPOT = 60 Km
Ligne au sol du satellite LANDSAT = 185 Km.
Ligne au sol du satellite RADAR ERS = 100 Km
III. Processus de formation de l’image numérique
A1( λ)

Ligne 1 au sol
A2( λ)

quantification

Echantillonnage Ligne 2 au sol


An( λ)
An( λ)
Ligne n au sol

Ligne n au sol
II. Du signal électrique à l’image numérique

Le processus de conversion du signal électrique en une ligne numérique est


constitué d’une électronique de conversion analogique numérique. Deux fonctions
principales sont réalisées dans ce processus.

L’échantillonnage qui donnera

La quantification qui donnera

Chaque ligne au sol est représentée par un signal électrique qui traduit l’intensité lumineuse(pour
un capteur optique) réfléchie par les éléments surfaciques constituant cette ligne.

L’échantillonnage spatial du signal est fonction de la dimension du petit élément de surface


qu’il est possible de détecter. Cette opération définie la résolution spatiale, elle dépend
principalement du champ de vision instantané (CVI) du capteur.
Champ de vision instantané (CVI). est défini comme étant le cône du capteur et détermine l'aire de
la surface "visible" à une altitude donnée. Cette aire est appelée la superficie de résolution ou
cellule de résolution et constitue une étape critique pour la détermination de la résolution spatiale
maximale du capteur. Pour pouvoir différencier un élément de la surface observée, l'élément en
question doit être de dimension égale ou supérieure à la cellule de résolution. Si l'élément est plus
petit, il ne sera généralement pas différencié puisque c'est l'énergie moyenne des éléments de la
cellule de résolution qui sera captée

Cependant, dans certaines conditions, un élément plus petit peut être détecté si sa
réflectivité domine celle des autres éléments présents dans la cellule de résolution.
On parle alors de détection plus fine que la résolution exemple la détection d’une
route.
Résolution radiométrique
La résolution radiométrique d'un capteur satellitaire décrit sa capacité de reconnaître de petites
différences dans l'énergie électromagnétique. Plus la résolution radiométrique d'un capteur est fine,
plus le capteur est sensible à de petites différences dans l'intensité de l'énergie reçue. La gamme de
longueurs d'onde à l'intérieur de laquelle un capteur est sensible est dite plage dynamique.
Résolution radiométrique
La résolution radiométrique d'un capteur satellitaire décrit sa capacité de reconnaître de petites
différences dans l'énergie électromagnétique. Plus la résolution radiométrique d'un capteur est fine,
plus le capteur est sensible à de petites différences dans l'intensité de l'énergie reçue. La gamme de
longueurs d'onde à l'intérieur de laquelle un capteur est sensible est dite plage dynamique.

Les données images sont représentées par une valeur numérique variant entre [ 0 , 2n-1 ]. Cet
intervalle correspond à un nombre de bits utilisés pour encoder les amplitudes du signal électrique
échantillonné en des valeurs en format binaire. Chaque bit représente un exposant de la base 2 (par
exemple, 1 bit = 21 = 2). Le nombre maximum de niveaux d'intensité disponibles dépend du nombre
de bits utilisés pour représenter l'intensité enregistrée.

Par exemple, un capteur utilisant 8 bits pour enregistrer les données aura 28 = 256 niveaux
d'intensité disponibles car il aura 256 valeurs numériques disponibles allant de 0 à 255. Si
seulement 4 bits sont utilisés, alors seulement 24 = 16 valeurs allant de 0 à 15 seront
disponibles. La résolution radiométrique sera donc plus faible.
I.1. Echantillonnage

L’échantillonnage est la discrétisation ou le découpage du signal analogique en un ensemble d’échantillons


{f(n.∆x, m.∆y)} prélevés à des intervalles réguliers en x et en y (on peut parler des périodes
d’échantillonnage en x (Tex) et en y (Tey) et inversement de la fréquence).
•Modèle mathématique de l’échantillonnage idéal:
Le modèle mathématique associé à la discrétisation idéale revient à multiplier le signal bidimensionnel
(image analogique) f(x,y) par un peigne de Dirac, figure 2, dont l’expression est la suivante :
∞ ∞
f ( x , y ) = f ( x , y ).δ ∆x ,∆y ( x , y ) = f ( x , y ). ∑ ∑ δ ( x − n∆x , y − m.∆y )
'

n = −∞ m = −∞

∆x et ∆y sont les pas d’échantillonnage en X et en Y respectivement :

condition de Shannon (voir théorie


du signal) : un signal est
échantillonné sans perte si la
fréquence d’échantillonnage est
supérieure à 2* la fréquence
maximale du signal.

28
Représentation d’une d’Images
Après les deux opérations échantillonnage
(résolution spatiale) et la quantification
(résolution radiométrique) le résultat est une
image numérique représentant une matrice
définie par un nombre de points (pixels) par
ligne et nombre de lignes par image.

Définition d’un pixel


Un pixel (picture element) est la plus
petite unité de la surface prédéfinie par
la résolution spatiale qui est représenté
par le nœud de la matrice image. Il est
repéré par ses coordonnées en
horizontale et en verticale par rapport au
premier point de la matrice image .

L'arrangement des pixels décrit les


structures spatiales d'une image tandis
que les caractéristiques radiométriques
décrivent l'information contenue dans
une image
Exemple : Résolution spatiale : Satellite landsat TM (Thematic Mapper,5 et 7) :
Satellite spot : En mode multispectrale un pixel = 30x 30 m2
En mode multispectrale (qu’on va définir dans ce qui suit), En mode panchromatique un pixel = 15x15 m2
un pixel = 20x 20 m2 Dans le canal thermique (TM6) un pixel = 120x120m2
En mode panchromatique, un pixel = 10x 10 m2 Dans le canal thermique (TM6) un pixel = 60x60m2 pour
le satellite TM

TM1(30m)

Spotxs3(20m)

TM thermique(120m)

Spot Pan(10m)
Résolution radiométrique
:
Image à un bit : 21 (0 ou 1) = deux niveaux
Image à 8 bits : 28 –1 = (0 à 255) = 256 niveaux de gris
Un niveau de gris = l’intensité lumineuse réfléchie par une unité de surface de dimensions (10x10m2,
20x20 m2, 30x30 m2, 120x120 m2, 1x1 km2)

Image 2 bits Image 8 bits


Résolution spectrale
La réponse spectrale caractérise une cible ou une surface pour un ensemble de longueurs d'onde. Il est souvent
possible de distinguer des classes de caractéristiques et de détails dans une image en comparant leurs réponses
différentes sur un ensemble de longueurs d'onde. Pour certains thèmes de gamme de variation très larges, comme
l'eau et la végétation et le sol nu, peuvent être séparées en utilisant un intervalle de longueurs d'onde assez grand (le
visible et l'infrarouge par exemple).

Image (λn)

Image (λ2)

Image (λ1)
La résolution spectrale décrit la capacité d'un capteur à utiliser de petites fenêtres de longueurs
d'onde différentes. Plus la résolution spectrale est fine, plus les fenêtres des différents canaux du
capteur sont étroites.

Canal TM1

Canal TM2
Canal TM3
Canal TM4

Canal TM5

Canal TM7
Formats d’images
Les images satellitaires ou des fenêtres d’images peuvent être enregistrées sous différents formats de
fichiers :
Ils existent trois types de formats :
Format de fichier image sans entête (sans header)
Format de fichier image avec une entête(avec header)
Format de fichier image sans entête accompagné d’un fichier information relative à l’image

a) Le header d’un fichier image contient les informations sur le nombre de lignes et de colonne de l’image, le
nombre de bits de codage, le type de compression s’il y a lieu, la palette de couleur ou de niveaux de gris
nécessaire à la visualition, etc. Parmi les formats de fichiers images les plus répandus on trouve : .BMP,
.TIFF, .GIF, .HDF, . JPEG, . PICT, . SRF, etc

b) Les fichiers sans entête nécessitent la connaissance, par l’utilisateur, de toutes les informations sur l’image
à lire , à visualiser ou à traiter.

c) Le format de fichier image accompagné d’un ficher information en ASCII est généralement créé par un
logiciel spécifique ou bien les fichiers images satellitaires fournis aux utilisateurs. On peut citer les logiciels
donnant de fichiers de ce format :IDRISI, ERDAS, ER MAPPER, ENVI, etc .. De même, les formats des images
fournies sont : SPOT, ESA TM,
Structure de fichiers images multispectrales
Les fichiers images multispectrales sont structurés sous trois formes :
Structure séquentielle (BSQ) (Binary Stream seQuential), pour cette structure les images multispectrales
sont stockées l’une après l’autre dans le fichier image. L’enregistrement se fait séquentiellement

Canal(λ1) :Image 1
Fichier header (format
Canal(λ2) :Image 2 + ASCII)
Canal(λn) :Image n

Fichier image
(format binaire)

La taille du fichier = nbre de lignes x nbre de colonnes x nbre d’octets x nbre de canaux(n)(en octets).
Structure par lignes intercalées (BIL) (Band Interleaved Line), pour cette structure les images
multispectrales sont stockées par lignes intercalées. La première ligne correspond à la première image la
deuxième ligne à la deuxième image,.. etc.

1ere ligne du Canal(λ1)


1ere ligne du Canal(λ2) Fichier header (format
1ere ligne du Canal(λn) + ASCII)

Fichier image La taille du fichier = nbre de lignes x nbre de colonnes x nbre


(format binaire) d’octets x nbre de canaux(n)(en octets).

Structure par pixels intercalés (BIP) (Band Interleaved Pixel), pour cette structure les images
multispectrales sont stockées par pixels intercalés. Le premier pixel correspond à la première image, le
deuxième pixel à la deuxième image, etc.
1er pixel du Canal(λ1)
1er pixel du Canal(λ2)
Fichier header
1er pixel du Canal(λn) + (format ASCII)

Fichier image
(format binaire)
La taille du fichier = nbre de lignes x nbre de colonnes x nbre d’octets x nbre de canaux(n)(en octets).
TRANSFORMATIONS DE BASE
EN TRAITEMENT NUMERIQUE DES IMAGES

Quelque soit le type d’images à traiter et l’application envisagée, les opérations de traitement et les
transformations d’images sont regroupées en trois catégories qui sont : Les traitements (opérations) ponctuels ,
traitements locaux et les traitements globaux.

Images à traiter

et / ou et / ou
Information à extraire

Traitements ponctuels et / ou Traitements globaux


Traitements localisés

L’application d’une ou/et de plusieurs opérations de traitement dépend de


l’information à extraire et de l’utilisation ultérieure du résultat qui peut être:
 Soit qualitative et elle aide à l’interprétation.

 Soit quantitative et elle permet d’établir des inventaires directs ou par des requêtes.
Principes de traitements
I. Traitements ponctuels: Les transformations ponctuelles n’utilisent que l’information du pixel. Elles peuvent
être appliquées sur une ou plusieurs images dans une seule opération.

Cas mono - image


Principe: Soit Ie(x,y): l ’intensité (niveau de gris, réflectance ou luminance, ) d ’un pixel de l ’image à traiter, de
position repérée par les coordonnées (x,y), Is(x,y): l ’intensité du pixel (niveau de gris) de l ’image résultante est F
la transformation appliquée.
f {I e ( x, y} = I s ( x, y )

Image de sortie
Image d’entrée
Cas multi-images (1)
Les résultats des transformations ponctuelles, qui utilisent deux ou plusieurs images en entrée, peuvent être
une seule ou plusieurs images en sortie. Nous donnons dans chaque catégorie de traitement ponctuel un
exemple de transformation.

Cas de deux images


Soit I e1 ( x, y ), I e 2 ( x, y ) les niveaux de gris du pixel de coordonnées (x,y) dans la première et la deuxième image
respectivement et I s ( x, y ) l’intensité du pixel résultat en sortie
Image d’entrée 2

x
+
Image d’entrée 1

F {I e1 ( x, y ), I e 2 ( x, y )} = I s ( x, y ) Image résultante
Cas multi-images (2)
A. Cas de trois images en entrée et une image en sortie
Soit I e1 ( x, y ), I e 2 ( x, y ), I e 3 ( x, y ) les niveaux de gris du pixel de coordonnées (x,y) dans la première, la
deuxième et la troisième image respectivement et I s ( x, y ) la valeur du pixel résultat en sortie
F {I e1 ( x, y ), I e 2 ( x, y ), I e 3 ( x, y )} = I s ( x, y )
= αI e1 ( x, y ) + βI e 2 ( x, y ) + δI e 3 ( x, y )
Image 3

Image 2
une seule image Résultat

Image 1

Image de sortie
B.Cas de trois images en entrée et trois images en sortie
Soit I e1 ( x, y ), I e 2 ( x, y ), I e 3 ( x, y ) les niveaux de gris du pixel de coordonnées (x,y) dans la première, la
deuxième et la troisième image respectivement et I s1 ( x, y ), I s 2 ( x, y ), I s 3 ( x, y ) les valeurs du pixel résultat
dans les trois images de sortie

Image 3 Image1 de sortie

Image2 de sortie
Image 2

Image 1

I s1 ( x, y ) I s1 ( x, y )
I s 2 ( x, y ) = [G ] I s 2 ( x, y )
Image3 de sortie
I s 3 ( x, y ) I s 3 ( x, y )
Trois images Résultantes
C. Cas de n images en entrée et une image en sortie

Soit I e1 ( x, y ), I e 2 ( x, y ),....I en ( x, y ) les niveaux de gris du pixel de coordonnées (x,y) dans la première, la
deuxième et la nème image respectivement et I s ( x, y ) la valeur du pixel résultant dans l ’image de sortie

Image n
Image de sortie

Image 3

Image 2

Image 1

F {I e1 ( x, y ), I e 2 ( x, y ),....I en ( x, y ),} = I s ( x, y )
D. Cas de n images en entrée et n images en sortie
Soit I e1 ( x, y ), I e 2 ( x, y ),....I en ( x, y ) les niveaux de gris du pixel de coordonnées (x,y) dans la première, la
deuxième et la nème image respectivement et I s1 ( x, y ), I s 2 ( x, y ),....I sm ( x, y ) les valeurs du pixel résultant
dans les images de sortie.
Image1 de sortie
Image n
Image2 de sortie

Image 3 Image3 de sortie

Image 2
Image m de sortie

Image 1

F {I e1 ( x, y ), I e 2 ( x, y ),....I en ( x, y ),} = {I s1 ( x, y ), I s 2 ( x, y ),...I sm ( x, y )}


Remarque 1: quelque soit le type de l’opération (traitement) ponctuelle, l’image ou les images résultantes ont la même taille
de l ’image ou les images d’entrées.

Remarque 2: Les transformations ponctuelles sont utilisées dans plusieurs niveaux d’analyse et d’extraction de l’information
qualitative et quantitative à partir de ou/et des images multibandes.

Remarque 3: Les traitements mono -image ont pour but l ’amélioration du contraste de l ’image, la réduction des niveaux de
gris d ’une image, la génération d ’image luminance et / ou réflectance . Généralement, ces traitements se basent sur l’utilisation
de l’histogramme de l’image. Ces opérations sont réalisées par des tables de transfert de manière interactive (effectuées en
mémoire graphique du système de traitement).

Remarque 4: Les traitements ponctuels utilisant deux images sont les opérations arithmétiques (+, -, x, /) et logiques (ET,
OU, OU/ET exclusifs) et les combinaisons d ’images pour des applications tel que le calcul des indices de végétation, des indices
de brillance, etc.

Remarque 5: Les traitements ponctuels utilisant trois images sont les compositions colorées et les transformations des
espaces de RGB à l ’IHS. Dans le premier cas, le résultat est une seule image en couleur( sur 24 bits), généralement la
composition colorée est réalisée de manière interactif. Dans les transformations RGB _IHS le passage se fait à travers des
matrices de transformation, le résultat est donné par trois images IHS (en réel).
Remarque 6: les combinaisons multicanaux portent sur les traitements de classification avec différentes approches,
d’analyse en composantes principales, d’analyse canonique, de transformation KT, etc. Les résultats de ces combinaisons sont
sous forme d’une seule image tels que les résultats des classifications ou sous forme de n images selon le type de traitement.

Remarque 7: les transformations ponctuelles sont soit des pré-traitements pour préparer les images à une analyse ultérieure
soit des résultats exploitables qualitativement par interprétation ou quantitativement par la caractérisation et l ’extraction de
couches thématiques et de données descriptives.

Remarque 8 : les images numériques peuvent être analysées par des outils de statistiques descriptives telles que :
l’histogramme, la moyenne, l’écart-type, la variance, ou les matrices de covariances (intra, inter ou de dispersion) s’il s’agit
d’analyse multibandes

Dans cette partie nous décrivons les traitements ponctuels basés sur les fonctions interactives. Les
traitements multibandes seront décrits dans les parties qui suivent.
Description et application
des traitements ponctuels
Fonctions de transfert et histogrammes
a) Type: Opérations mono -image

b) But: amélioration de contraste, réduction des niveaux de gris, création d’image fausse couleur et image composition colorée
c) Traitement: Généralement ces transformations sont réalisées de manière interactive à l’aide de tables de transferts (LUT:
Look Up Tables) ou bien par des expressions mathématiques dites fonctions de transfert. Elles se basent sur l’analyse de
l’histogramme de l’image.

Histogramme de l’image et son utilisation


Définition : l’histogramme d ’une image est la fréquence (ou la probabilité) de présence d ’un niveau de gris dans une image.

Soit I(x,y) le niveau de gris du pixel localisé en (x,y) tel que I(x,y) = ng ∈ [0, 255].
On a  N ng  si on divise par le nombre total des pixels de l ’image on obtient une
 k ( x, y ) 
H {I ( x, y )} =  ∑ I ng  probabilité de présence de ngi dans l ’image
 k =1 
 
Utilisation
Les formes des fonctions de transferts ou les tables de transfert peuvent être définies en utilisant l’histogramme de l’image
d’entrée et la nature de l’information de l ’image de sortie

Si on utilise une expression mathématique d’une transformation ponctuelle, on a une image résultat dans un fichier. Mais si on
utilise les tables de transfert en sortie, le résultat est d’abord affiché (en utilisant la mémoire graphique) interprété et s’il répond à
ce qu’on veut, l’image est stockée dans un fichier de sortie.
Notion sur les tables de transfert: c ’est une zone mémoire de taille égale au nombre de bit de codage de l ’image. Si
l ’image est codée sur 8 bits, la table a 256 positions mémoires. Les niveaux de gris de l ’image d ’entrée sont utilisées comme
des adresses à ces positions. La structure des LUT est la suivante:

A0 255 D0s
D0s
A0 0 D0e
D0e

Table = zone Table = zone


mémoire mémoire

D7e
D7e D7s A7 D7s
A7 255 0

Exemple: dans le cas d’inversion d’image = image clichée. Il faut remplir la table par : ng =255 jusqu’à 0

ng = 0 en entrée ng = 255 en sortie


La fonction de transfert:
est l’expression de l’opération ponctuelle appliquée à l’image.
Généralement la forme de cette fonction est définie par rapport à l’histogramme de l’image désirée (de sortie).
Soit hIe(Ie) l’histogramme de l’image à traiter et hIs(Is) l’histogramme de l’image résultat.
Les relations entre les histogrammes et les valeurs radiométriques des images d’entrée et de sortie
sont données par hI e ( I e ).δI e = hI s ( I s )δI s quand δIs, δIe tendent vers zéro on a

hI s ( I s ) = hI e ( I e ). dI e
dI s

Or la transformation directe et inverse sont de la forme I s = f {I e } et I e = f −1 ( I s ) on remplace Ie


dans l’histogramme de sortie, on obtient la relation générale suivante:
−1 d ( f −1 ( I s ))
hI s = hI e ( f ( I s )).
dI s
1. Modification linéaire du contraste :
L’opération la plus usuelle dans la modification de contraste est IS 255
l’étalement linéaire de la dynamique de l’image. Elle consiste à
trouver l’équation de la droite Is= f(Ie) en définissant les
ngs2
paramètres de la l’équation en fonction de l’intervalle des
niveaux de gris en entrée et l’intervalle désirée en sortie
(figure ci-contre). L’équation est de la forme :,
Les paramètres de la fonction sont :
•[ngmin et ngmax ] relatifs à l’image d’entrée
•[ngs1 et ngs2 ] l’intervalle à obtenir en sortie
La détermination des paramètres a et b de l’équation conduit à Ie
ngs1 0
l’expression suivante :
ngmin ngmax 255
modification linaire du contraste
2 Réduction des niveaux de gris
Dans certaines application, les opérations de réduction des niveaux de gris réalisent une compression des images
pour minimiser l’espace de stockage et parfois une pré-segmentation de l’image en deux ou trois régions d’intérêt :
les fonctions de transfert relatives à ces opérations sont le seuillage avec un ou des seuils prédéfinis (seuillage par
fenêtre) et l’opération de quantification est uniforme ou non uniforme.
• Seuillage : cette opération génère une image, en sortie, à deux niveaux de gris. Le choix des paramètres de la
fonction sont prédéfinis à savoir : le (ou les) seuil(s) et la largeur de (ou des) fenêtre(s), en entrée et les niveaux de
gris en sortie. La figure ci-dessous présente quelques exemples de cette opération. Dans une application de
segmentation le seuil est défini à partir de l’histogramme, particulièrement si ce dernier est bimodal.
IS IS IS
IS IS
255 (a) 255 (b) 255 255 (d)
255 (e)
(c) ng2
ng2 ng

ng1 ng1

Ie
0 S1 Ie 0 S1 Ie 0 S1 S2 Ie 0 S1 S2 Ie
0 Si Si+
1
configuration (a)
(e) seuillage en multi fenêtres :

(b) Seuillage avec saturation :

(c) Seuillage par fenêtre et avec saturation :

(d) Seuillage par fenêtre:


Exemple 1: opération d ’inversion de l’image Is(x,y) =Ie(x,y). Sa relation avec l ’histogramme est donnée graphiquement comme
suit:
Is(x,y)
255 I (x,y) 255
s

0 Ie(x,y)
0 255
Ie(x,y)
255 Image d’entrée
Image de sortie

Fréquence de présence de ng
2 Modification non linéaire du contraste
Ces opérations sont souvent réalisées par les fonctions exponentielle et logarithmique. Elles ont pour
but d’étaler la dynamique des niveaux de gris bas et de comprimer les niveaux de gris haut et vice
versa. La première est réalisée par la fonction logarithmique et la deuxième par la fonction
exponentielle. Leurs fonctions de transferts sont : et

Les paramètres à définir sont : β, α , δ. Ils sont choisis afin d’ajuster l’intervalle des niveaux de gris
et du contraste de l’image de sortie.
Les graphes de ces fonctions sont donnés par les figures ci-dessous.
IS 255 IS 255

δ
β+δ Ie
0 Ie 0
1/α 255 255
Fonction de Transfert logarithmique Fonction de Transfert exponentielle
Exemple 2: Transformation exponentielleI s ( x, y ) = αe β .I ( x , y
e
pourI e ( x, y ) ∈ [0,255.] On donne l ’image d’entrée et l’image résultat

Is(x,y)

255

255

0 Is(x,y) Ie(x,y) Is(x,y)


255
Ie(x,y)

Exemple 4: transformation en deux


niveaux de gris (seuillage) :
Is(x,y) = 0 pour Ie(x,y) ∈ [0,k]
Is(x,y) = 255 pour Ie(x,y) ∈[k, 255] 255
0 K Ie(x,y) Is(x,y)
Exemple 3: transformation linéaire: I e ( x, y ) = 0 pour Ie(x,y) ∈ [0, Ismin]

I (x,y) =
255
(I − I ) pour Ie(x,y) ∈ [Ismin, Ismax]
Is(x,y)
s I −I e e min
e max e min

I e ( x, y ) = 255 pour Ie(x,y) ∈ [Ismax, 255]

Is(x,y)

255

Ie(x,y)

255

0 Ie(x,y)
Iemin Iemax
Egalisation d’histogramme
Le sens de l’égalisation de l’histogramme est la redistribution des niveaux de gris dans une image de manière
uniforme. L’intérêt est d’augmenter les intervalles de variation des ng dans l’image de sortie.
La fonction de transfert qui permet d’obtenir un histogramme de sortie quasi uniforme est déduite de la fonction de
densité de probabilité des niveaux de gris de l’image à traiter. Cette fonction correspond à l’histogramme cumulé.
L’Histogramme cumulé est la surface limitée par le graphe de l’histogramme et l’axe des abscisses

La définition de la fonction de transfert à partir de l’histogramme cumulé est comme suit :


Pour une variation des histogrammes sachant que le nombre de pixels
dans l’intervalle est égal à

Donc pour une variation infinitésimale de l’intervalle δ, la relation entre les histogrammes d’entrée et de sortie
sera donnée par :

La fonction de transfert (FT) s’écrira alors comme suit :


Théoriquement, l’histogramme de sortie hs (I s ) recherché doit être égalisé (uniforme) quelque soit la
valeur de Is et donc c’est une constante dans l’expression précédente.

Cette expression devient :

L’histogramme cumulé est ensuite normalisée par un facteur égal à :

L’expression finale de la FT est donnée par:


La représentation graphique de la fonction
La forme de la fonction de transfert
de transfert et l ’histogramme cumulé est:
Nombre cumulatif des pixels de Ie
Is(x,y)
255
Image de sortie

0 Histogramme cumulé 255


L’histogramme de l ’image de sortie

255

Image brute

Fréquence de présence de ng
Exemple 4: Calibration radiométrique de deux images par la
Mise en correspondance des deux histogrammes (Histogram Matching).
Le but de cette calibration est de rapprocher le contraste d ’une image à une autre image prise comme référence.
Cette opération est très utilisée dans le mosaïquage des images.

Le principe est le suivant: soit h1(I1) l ’histogramme de l ’image à calibrer et h2(I2) l ’histogramme de l’image de
référence.
La première étape est l ’égalisation de l ’histogramme h1(I1) par la méthode décrite précédemment, on obtient
l ’histogramme intermédiaire h*(I3) où I 3 = f ( I1 ) est la fonction de transfert pour l ’image I1 où I3 est un
résultat intermédiaire et I3 = g (I 2 ) est la fonction de transfert obtenue aussi par l’histogramme cumulé
de référence.
 La deuxième étape est l ’établissement de la relation entre les images I1 et I2 .
En effet, I 2 = g −1 ( I 3 ) , I3 = f ( I1 ) implique que I 2 = g −1{ f ( I1 )}
Si les images ont la même taille, le facteur d ’échelle des histogrammes
cumulés est le même, si non, le rapport entre ces histogrammes est égal au
nombre de pixels de l ’image 1(I1) sur le nombre de pixels de l’image 2( I2).
hs(Is) he(Ie)

Histogramme de l’image de Histogramme de


référence l’image à spécifier

Is Ie
255 255 I
Is e

Histogramme cumulé Histogramme cumulé


normalisé normalisé
I in = g(I s ) I in = f (I e )

Iem Iin
Iin
hem(Ie) Histogramme de l’image
calibrée

Figure 13 : graphique de la mise en


correspondance d’histogrammes
‘Histogram matching’
Iem
L’histogramme original h1(I1) L’histogramme de
référence h2(I2)

La forme de la fonction de transfert Z= g(I2)


La forme de la fonction de transfert Z= f(I1)
Nombre cumulatif des pixels de I2e
Nombre cumulatif des pixels de I1e

Histogramme cumulé(I2) 255


0 Histogramme cumulé(I1) 255 0
L’histogramme original h1(I1) L’histogramme de
l ’image résultat

La forme de la fonction de
La forme de la fonction de transfert Z= g(I2)
transfert Z= f(I1)

0 255 0 255
Exemple on égalise le contraste de deux images TM1 et TM4,avec TM4 comme référence
Image 1: à calibrer Image 2: de référence
Image 1 calibrée par rapport à l ’image 2

L’histogramme de L’histogramme
L’histogramme original h1(I1) original h2(I2)
l ’image résultat
Mise en correspondance d’histogrammes (suite)
Elle consiste à rapprocher les distributions (contrastes) des images à concaténer ou à fusionner en prenant une d’elles
comme référence. Cette référence peut être une image dans le cas de mise en correspondance image-image et elle peut
être aussi une fonction mathématique de distribution de probabilité, connue indépendante de celle d’une image.
L’application de cette deuxième configuration est la modification de la distribution d’une image pour l’adapter à un
type de traitement ultérieur.
Parmi les fonctions de distribution connues et associées à différents types de données, on trouve:

 Fonction Gaussienne de la forme :

 Fonction Rayleigh (σ>0) :

 Fonction Exponentielle :

 Fonction Uniforme : où a et b définissent l’intervalle, en entrée, de distribution uniforme de la fonction.

 Fonction Laplacien :
 Fonction Chi-deux(χ2) : où la constante de normalisation est donnée par :
où Γ (.)est la fonction Gamma, n est le degré de liberté de la fonction Chi-deux. Si n est grand (>10)
la forme de la fonction Chi-deux tend vers une forme Gaussienne.

 Fonction Gamma : b et c sont des constantes positives et

Notons que avec b > 0

L’expression généralisée est de la forme :

Particularités de cette distribution sont : pour b = 1 la fonction de distribution Gamma tend vers une fonction
Exponentielle, pour b = n/2 et c = ½ la fonction Gamma tend vers la fonction Chi-deux (χ2 ).
n +1
x 2 − ( )
 Fonction Student-t : f ( x) = K st .(1 + ) 2 où n est un entier et
n

Il est à noter que la connaissance du modèle de distribution des données image est une étape très
importante dans l’analyse, la description, l’identification, l’extraction de l’information utile à partir
de ces images.
Traitements localisés
Les traitements locaux utilisent en plus de l’information du pixel à traiter, les informations des pixels situés dans son
voisinage immédiat. La dimension du voisinage (le nombre de pixels) dépend du type et de la finalité du traitement .
Principe : soit Ie(x-k,y-l) les valeurs radiométriques des pixels voisins du pixel de coordonnées (x,y), toute
application d’une transformation locale ou d’un modèle donne un résultat qui est attribué au pixel central du
voisinage.
f {I e ( x − k , y − l )} = I s ( x, y )
Image d’entrée
où k et l varient de -(w-1)/2 à +(w-1)/2. w est la
dimension du voisinage en ligne et en colonne

Exemple: détection de Image de sortie


contour en utilisant
une fenêtre d’analyse
de 3x3, W = 3.

Is(x,y) est le niveau de


Ie(xi, yj) sont les niveaux de gris gris résultant attribué
des pixels du voisinage au pixel central de
cordonnées (x,y)
Les différentes applications des traitements localisés sont:

Le filtrage et la détection des contours


l ’analyse de la texture des objets au sol
L’analyse morphologique des formes et des structures des thèmes .
La segmentation selon des critères de ressemblance.

A chaque application et selon l’information à extraire, des concepts mathématiques ont été
formulés et adaptés aux traitements des images numériques. Nous donnons quelques notions
de base pour mieux appréhender leurs applications aux problèmes étudiés

II.1 Filtrage d’images


Concept
Les méthodes de filtrage ont principalement deux objectifs qui sont l ’atténuation des bruits dans les
images et l’accentuation ou la détection des contours (les transitions brusques). Elles sont basées soit
sur les approches de dérivation de 1er ordre et 2ème ordre soit sur les modèles de variation des niveaux
de gris dans le voisinage et l’application de ces modèles avec différents types de paramètres pour
extraire l ’information utile.
L’application de ces approches par les dérivées ou les modèles sur l ’image revient à approximer les réponses de
chaque méthode par des coefficients discrets qu’on appelle « masques » et qu’il faut les convoluer ou les multiplier
(selon la méthode) par les valeurs radiométriques de chaque pixel du voisinage local, le résultat est attribué au point
central. Le processus est répété en faisant glisser ce masque d ’un pas, généralement de 1 en ligne et en colonne sur
toute l ’image.

Remarque: dans les traitements localisés, la taille de l’image de sortie (image résultat) est plus petite. Les
premières lignes et colonnes ainsi que les dernières lignes et colonnes ne seront pas traités. Le nombre de ces lignes
et de ces colonnes dépend de la taille de la fenêtre d’analyse: exemple: si la taille de la fenêtre est de WxW= 5x5,
l’image diminue de 4 lignes et de 4 colonnes , ce nombre = nombre de lignes = nombre de colonnes = (W-1)/2

Formalismes:
La plupart des approches de filtrage de bruit (particulièrement le bruit additif) et la détection de contour sont basées
sur les méthodes dérivatives ( gradient, Laplacien) utilisant le procédé de convolution en discret.
Le principe de la convolution est le suivant:
On considère une image dans le domaine continu comme étant un signal bidimensionnel O(i, j) localisé en tout
point de l’espace par (i, j) et un système caractérisé par sa fonction de transfert bidimensionnelle h(i, j).
Schématiquement, l’ensemble se présente comme suit:
h(i,j) r(i,j)
O(i,j)

Système de filtrage Image de sortie


Image d ’entée
L’image analogique résultante r(i,j) est la convolution de O(i,j) par h(i,j) et est égale à:
+∞ +∞
r (i, j ) = o(i, j ) ∗ h(i, j ) = ∫ ∫ o(u, v).h(i − u, j − v ) dudv
− ∞− ∞

Où u et v sont les variables d ’intégration.


La fonction de transfert ou la réponse impulsionnelle du système peut être une fonction de filtrage, de moyenne,
d ’amplification ,etc.

L’application de la convolution dans le domaine discret est la suivante: soit Ie(x,y) l’image numérique et h(k,l) la réponse
impultionnelle discrète du système. L’image résultante du produit de convolution de Ie(x,y) * h(x,y) est égale à :

I s ( x, y ) = ∑ ∑ I e (u , v ).h( x − µ , y −ν )
µ ν

Ce produit est la somme prise sur toutes les valeurs de µ,ν pour les quels le résultat est différent de zéro.
La séquence des opérations revient à prendre un domaine contenant un nombre d’échantillons non nuls de h(k,l) et de le
comparer à Ie(x,y). h(k,l) représente les réponses des échantillons dans le domaine fini. Les signes négatifs de µ,ν montrent qu’il
y a une rotation de la fonction de transfert du système de 180° avant toute opération localisée dans le voisinage. La forme de
h(k,l) dépend de l’opération à effectuer par le système. En effet, on définit sa forme discrète dans le voisinage par des coefficients
du masque (templete).

Traitement:
Nous présentons quelques exemples d ’opérations de filtrage et de détection de contour utilisant les méthodes de dérivation ou
le produit de convolution. Les approches de filtrages de bruit multiplicatif utilisent généralement des modèles à paramètres
adaptatifs. Cette catégorie regroupe principalement les filtres à réponse infinie qui sont appliqués au filtrage de bruit dans les
images radar. Les détails sur ces filtres seront donnés dans la partie filtrage d ’images radar.

Filtrage de bruit
Le bruit additif dans les images numériques se trouve généralement dans les hautes fréquences (transitions brusques de
niveaux de gris). A cet effet, h(k,l) doit être un filtre passe bas pour atténuer ou éliminer ce bruit. Parmi ces opérations, on trouve:
1
Filtrage par la moyenne: opération de lissage (smoothing) , dans ce cas h(x,y )est égal à h(k , l ) =
où M.N est la taille de la fenêtre (le masque). L’image de sortie est le résultat de l’opération suivante: M .N

M −1 N −1
m= x+( ) n= y +( )
2 2
1
I s ( x, y ) =
M .N
∑ M −1
∑ I (m, n)
e
N −1
m = x −( ) n = y −( )
2 2
Filtre médian: c’est un filtre passe bas non linéaire qui n’obéit pas aux transformations par le produit de convolution. Son principe
est le suivant: on classe les valeurs radiométriques de la fenêtre d’analyse {Ie(x-k,y-l)} par ordre croissant et on affecte au point
{Is(x,y) }la valeur médiane. Ce filtre préserve les transitions et ne créé par l ’effet de flou.
Partie agrandie de l’image originale

Même partie de l’image résultat

Histogramme de
l’image d’entrée Histogramme de
sortie

9 10 80
Exemple: fenêtre d’analyse {Ie(x-k,y-l) = 11 10 13 {9, 10, 10, 11, 11, 13, 19, 34, 80} Is(x,y) = 11
11 19 34
Détection de contour: Les différentes approches de détection de contour sont basées soit sur l’utilisation des fonctions de
dérivation du premier ordre et du deuxième ordre, soit sur l ’utilisation des masques déduits de la discrétisation des fonctions
de transfert des filtres passe haut
a) Techniques de dérivation: ces méthodes de filtrage utilisent le gradient (dérivée première) de la fonction
radiométrique des pixels de la fenêtre d ’analyse et le Laplacien (deuxième dérivée) de la même fonction. .
Gradient: Soit {Ie(x-k,y-l)} les valeurs radiométriques qui représentent les variations des niveaux de gris dans la
fenêtre: ∂ ( I e ( x, y ) ∂ ( I e ( x, y )
∇I e ( x , y ) = dx + dy
∂x ∂y

Le module du gradient est égal: ∇ = ∇ 2x + ∇ 2y , il exprime l’intensité de transition entre deux niveaux de gris
∂I e ( x, y )
∂y
L’argument exprime la direction du contour: arg ument =
∂I e ( x, y )
∂x
Exemples d ’application de transformations par le gradient sur {Ie(x-k,y-l)}:
Plusieurs opérateurs ont été développés, on donne quelques opérateurs:

* Opérateur Roberts: il est appliqué sur une fenêtre 2x2


∇1 = I e ( x, y ) − I e ( x + 1, y + 1) ∇ 2 = I e ( x + 1, y ) − I e ( x, y + 1)

L’image résultat est égale: I s ( x, y ) = I e ( x, y ) − I e ( x + 1, y + 1) + I e ( x + 1, y ) − I e ( x, y + 1)


1 1
Le masque associé est -1 -1
* Laplacien Soit {Ie(x-k,y-l)} les valeurs radiométriques de l’image d’entrée, la deuxième dérivée est donnée par
l’expression suivante:

 ∂I e ( x, y )   ∂I e ( x, y ) 
∂   ∂  
∂ 2 ( I e ( x, y ))  ∂ x   ∂ y  ∂ 2 ( I e ( x, y ))
∇(∇I e ( x, y )) = ∆I e ( x, y ) = dx + dy + dx + dy = I s ( x, y )
∂x 2 ∂y ∂x ∂y 2

b) Modèles linéaires de détection de contour: ces filtres sont représentés par des masques directionnels : horizontal,
vertical, diagonal. Le produit de convolution est effectué avec des coefficients pondérés en fonction de la position de chaque
pixel dans la fenêtre par rapport au point central.

* Opérateur Sobel il est appliqué sur une fenêtre 3x3 ou plus 1 2 1


0 0 0
∇1 = {I e ( x − 1, y + 1) + 2 I e ( x − 1, y ) + I e ( x − 1, y − 1)}
-1 -2 -1
- {I e ( x + 1, y + 1) + 2 I e ( x + 1, y ) + I e ( x + 1, y − 1)}

∇ 2 = {I e ( x − 1, y + 1) + 2 I e ( x, y + 1) + I e ( x + 1, y + 1)} 1 0 -1
2 0 -2
- {I e ( x − 1, y − 1) + 2 I e ( x, y − 1) + I e ( x + 1, y − 1)} 1 0 -1

Les images de sortie: selon le masque on peut obtenir des images contours selon la direction horizontale ou verticale
I sh ( x, y ) = {I e ( x − 1, y + 1) + 2 I e ( x − 1, y ) + I e ( x − 1, y − 1)}
- {I e ( x + 1, y + 1) + 2 I e ( x + 1, y ) + I e ( x + 1, y − 1)}

I sv ( x, y ) = {I e ( x − 1, y + 1) + 2 I e ( x − 1, y ) + I e ( x − 1, y − 1)}
- {I e ( x + 1, y + 1) + 2 I e ( x + 1, y ) + I e ( x + 1, y − 1)}
Application des filtres: gradient Application des filtres: Laplacien

Image contour et
son histogramme
par l ’opérateur
Roberts
Le Laplacien est la
deuxième dérivée, c’est
le passage par zéro,
pour cette raison
Image contour l’image contour est
et son très atténuée comme le
histogramme montre l ’histogramme,
par l ’opérateur Image résultat +histogramme
de l’image résultat
Sobel
mais les transitions et
les structures linéaires
sont mises en
évidence.
Les transitions sont mises en évidence mais les Opérateur Laplacien sur
contours sont épais et il y a un effet de voisinage réduit :
dédoublement des contours 0 -1 0
-1 4 -1
0 -1 0
Application du filtre gaussien: Il est utilisé comme filtre passe haut ou passe bas, dans chaque cas , les paramètres sont définis
en fonction du type de filtre
filtre passe bas filtre passe haut

Applications thématiques:
 En géologie:c’est la détection des
lignes de failles.
 En urbanisme et en aménagement:
c’est la détection des réseaux routiers,
des lignes de ruissellement, des cours
d’eau.
 En agriculture et en environnement:
c’est la détection des limites des
parcelles cultivées, etc.

Image et histogramme de sortie d ’un Image et histogramme de sortie:


filtre gaussien passe bat. On constate d ’un filtre gaussien passe haut. On
un lissage sans dégradation des constate que le filtre met en évidence
contours la texture et détecte les micro-
contours des thèmes
Traitements globaux
Principe : les méthodes de traitements globaux sont basées sur la transformation de l’image d ’entrée en image de sortie ou
chaque pixel de cette dernière est déterminé en fonction de tous les pixels de l’image traitée.

Parmi ces méthodes on trouve les transformées de fourrier , de cosinus de sinus de Hadamar, de haar ,etc

La plus utilisée est la transformée de Fourier (FFT) qui permet d ’effectuer un filtrage de l ’image (atténuation de bruit) mais dans
l’espace fréquentiel au lieu de l’espace spatial comme dans le cas des filtres spatiaux que nous avons présentés précédemment.

Transformée directe donne le spectre.


m −1 n −1 − j 2π (uxm + vyn )
f {I ( x, y )} = spec(u, v) = ∑ ∑ I ( x, y ) e
x =0 y =0

Spectre de fourier

Où:
m x n : la dimension de l’image
(u,v) : les coordonnées du spectre dans le
domaine des fréquences.

Image originale
Interprétation du spectre: au centre, le blanc, c ’est les basses fréquences, c ’est à dire les transitions des pixels dans les zones
homogènes. Plus en s ’éloigne du centre, plus on a les transitions brusques qui correspondent aux contours et aux bruits.

Image résultat
Spectre de fourier

Le filtre appliqué est un coupe bande.

Application de la transformée inverse. ux + vy


1 m −1 n −1 2πj (
f {spec(u , v)} = I s ( x, y ) = ∑∑ spec(u, v)e
)
−1 m.n
Le passage d ’un spectre filtré (en m.n u =0 v =0
définissant le type de filtre) à l ’image de
sortie
III.2 Analyse de texture
Définition La notion de texture des objets au sol est très complexe, cependant la définition de la texture est donnée par:
la variation des niveaux de gris des pixels constituant l’objet.. Elle permet de décrire les dimensions et la disposition des
primitives d ’un objet.

Il existe deux types de textures: la texture aléatoire qui décrit par exemple la disposition des grains (gros ou fins) de sable
pour un sol sableux et la texture à primitives répétée qui décrit par exemple un champ de récolte de tomate ou de pomme de
terre où on a des primitives de sol nu et des primitives en végétation . Cette texture caractérise ces surfaces en plus de
leurs caractérisation par leurs signatures spectrales.

Méthodes de traitement: Plusieurs techniques d ’analyse et de discrimination de la texture des objets existent, et le
choix de l’application d’une méthode dépend de l ’objectif du traitement et de la nature des images traitées.

Résultats d’analyse de la texture: Certaines méthodes permettent une interprétation qualitative de la distribution
spatiales des niveaux de gris (réflectance ou luminance) en plus de la génération des images de texture en sortie ou chaque
image représente une propriété texturale de la surface d’un thème tels que l’énergie, l ’entropie, la variance, l’homogénéité
locale, l’inertie etc. A partir de ces images on trace les signatures de textures qui caractérisent chaque thème en fonction de
sa rugosité. Le nombre de points pour ces tracés dépend de la méthode d’analyse et de la génération d’images de texture.
Dissymétrie
L’inertie(second
Thème texturé (forte L ’homogénéité moment)
variation) .l ’homogénéité
locale est égale à zéro

La moyenne L ’entropie
La variance Le contraste Corrélation

L’interprétation de chaque courbe aide à discrimination et la


classification des états de surface à partir des images Zone homogène avec une moyenne des
satellitaires. co-occurrence de 20 pour le thème
représenté par la signature d ’un pixel
Interprétation physique des paramètres de texture:

La moyenne: c ’est la moyenne du produit des fréquences de co-occurrences (occurrences) par le niveau de gris
de chaque pixel de la fenêtre d ’analyse. Ce paramètre met en évidence le niveau de gris prédominant dans la
fenêtre et défini le niveau d’intensité moyenne d ’un objet

la variance: elle exprime la dispersion par la fréquence de présence des ces niveaux de gris dans la fenêtre. Elle
met en évidence les microcontours et les primitives de la texture d ’un thème. Une grande valeur de la variance
veut dire un taux de microcontours important constituant le thème.

L’homogénéité locale: elle exprime la variation des niveaux de gris en fonction de leur probabilité de présence
dans la fenêtre d ’analyse. Pour un thème homogène (ou uniformément texturé) la valeur de l ’homogénéité est
pratiquement nulle

Le contraste: c ’est l ’énergie moyenne des niveaux de gris de la fenêtre. Il exprime la dynamique (niveau de gris
bas ou haut ) de la fenêtre.(Par exemple, la valeur du contraste déduit du canal TM4 pour un thème telle que la végétation est
plus importante que toute autre valeur. )

La dissymétrie c ’est le moment d ’ordre 3. La dissymétrie indique la dispersion qui peut ne pas être mise en
évidence par la variance. Elle varie proportionnellement à la variance.
L’entropie: définit une texture aléatoire, une grande valeur d ’entropie indique que le thème est très rugueux. L ’entropie est un
indicateur de désordre.

Second moment angulaire (inertie): c ’est un paramètre qui montre la vitesse de variation (brusque ou lente) des niveaux
de gris dans la fenêtre d’analyse. L ’inertie varie inversement proportionnelle à l ’homogénéité locale.

Corrélation: c ’est une propriété de texture d’un thème qui définie l’interaction entre les primitives et leur dépendance en
fonction du voisinage. Dans les zones fortement texturées, la valeur de la corrélation est élevé.
III.3 Analyse par la morphologie mathématique
Définition: C ’est un troisième aspect des transformations localisées. La morphologie mathématique est une technique
d’analyse de formes d ’objets qui est basée sur le concept de la théorie des ensembles. Le but est d ’analyser la surface d ’un
objet pour extraire des formes particulières constituants cet objet.
La définition sur une image des éléments texturaux ou des structures comporte deux aspects :
Un aspect topologique correspondant aux relations de voisinage, de connexité et de ressemblance aussi bien dans
l’espace des textures que dans celui des positions.

Un aspect ensembliste correspondant à la perception du photointerprète habitué à raisonner sur les ensembles,
ce qui sera traduit par les notions d’union, d’intersection, d’inclusion ou de complémentarité.

Ces deux aspects se trouvent réunis dans l’analyse d’image par la morphologie mathématique. Elle vient compléter l’ensemble
des méthodes de traitement textural des images.

L’idée de base des méthodes morphologiques est de comparer l’image que l’on veut analyser à un objet de forme connue appelé
élément structurant. Cet élément structurant est une forme géométrique qui peut être: un disque, un segment, un carré, un
hexagone ou toute autre forme géométrique. Il est porteur d’une information minimum : une origine et une dimension.
Principe des méthodes morphologiques:
Une transformation morphologique est un moyen de réaliser des inventaires structuraux de façon systématique. Elle procède en
choisissant, indépendamment de l’ensemble {Ie(x,y)} qui représente la fenêtre de l ’image à traiter, un autre ensemble Y centré à
son origine et de forme géométrique donnée, dit élément structurant. Ensuite on déplace cet élément de façon à ce que son
origine passe par tous les points de l’espace image. A chaque position, on se pose une question relative à l’union, à l’intersection
et à l’inclusion de Y avec {Ie(x,y)} ou dans {Ie(x,y)} . L’ensemble obtenu par les centres de l’élément Y correspond aux réponses
de la transformée de l’ensemble {Ie(x,y)} .

Ces transformations morphologiques peuvent être appliquées sur des images en niveaux de gris ou des images binaire. A cet
effet, on a la morphologie binaire ou en niveaux de gris.
Les principaux opérateurs morphologiques sont: l’érosion, la dilatation, l’ouverture et la fermeture.

La morphologie mathématique en niveaux de gris utilise la notion de sous-graphe déduite de la fonction I(x,y) de niveaux de gris.
Soit le graphe de la fonction de niveaux de gris I(x,y), défini par : X I = {( x, y ), t / t = I ( x, y )}
Le sous- graphe de I(x,y) sera : U I = {( x, y ), t : t ≤ I ( x, y )} et X I = sup{t : x, t ∈ U I }

L’érosion:
Soit X l’ensemble des valeurs de la fonction I(x,y) et Bx l’élément structurant appliqué au point (x,y)∈X : XΘB
est l'érodé d’une image par Bx tel que : XΘB = {x : Bx ⊂ X } = inf {I (u ) : u ∈ Bx }
La dilatation
Soit le dilaté de l’ensemble X par l’élément structurant B tel que: X ⊕ B Pour chaque point de l’image, une comparaison
est effectuée entre ses voisins associés à ceux de l’élément structurant pour déterminer le maximum d’entre eux. L’opération
est la suivante X ⊕ B = {x : B ∩ X ≠ ∅} = Sup{I (u ) : u ∈ B }
x x

L ’ouverture
L’érosion d’un ensemble X par un élément structurant B suivi par une dilatation par le même élément B est appelée
opération d’ouverture. L’ouvert d’un ensemble X par B , noté XB est X B = ( XΘB ) ⊕ B

La fermeture
Inversement, une dilatation de X, suivie d’une érosion par le même élément structurant B décrit une opération dite de
fermeture sur l’ensemble X, noté XB : X B = ( X ⊕ B )ΘB

Propriétés : La fermeture et l’ouverture sont des opérations croissantes, idempotentes. L’ouverture est anti-extensive, la
fermeture est extensive.
L’érosion rétrécit la forme.

Image érodée

Par la dilatation la
forme est élargie en
fonction de la taille de
l’élément structurant

Image dilatée
Image ouverte

Partie mer

Profil de la même ligne

Partie mer
Image fermée

Partie mer

Profil de la même ligne

Les principales applications de la morphologie


mathématique en télédétection sont:

la caractérisation des structures linéaires en


choisissant des éléments structurants adéquats.
Partie mer
L’amélioration de la classification par
l’élimination des points isolés qui n’appartiennent
pas aux classes réelles.
USTHB/FEI : Master 2 S3 ST Module : Bases de Traitements d’Images

Résumé de cours : Version1/2012

TECHNIQUES DE PRETRAITEMENTS D’IMAGES ET LEURS APPLICATIONS


I. Concepts de Traitements d’Images Numériques
II. Notions d’histogramme et de fonctions de transferts
III. Modification de contraste et d’histogramme d’images numériques
IV. Mise en correspondance d’histogrammes et ses applications
V. Exercices

I. Concepts de traitements d’images numériques


L’analyse et le traitement quantitatifs et/ou qualitatifs d’images numériques pour l’interprétation et/ou pour la description du
contenu-image sont réalisés par différentes approches, méthodes, modèles, techniques ou opérations de traitements d’images
mono ou multibandes. L’ensemble de ces outils font appel aux notions de traitement du signal, de l’analyse de données,
d’outils mathématiques, etc… et quelque soit leurs domaines d’application et la nature de l’image, ils sont regroupés en trois
catégories:
• Traitements ou transformations ponctuels mono et multidimensionnels.
• Traitements ou transformations localisés opérant dans un contexte immédiat du pixel traité.
• Traitements ou transformations globaux. f

I .1. Traitements ponctuels: les transformations ponctuelles n’utilisent que


l’information du pixel représentée en scalaire ou en vecteur, figure 1, et le résultat
peut être aussi un scalaire ou un vecteur. En effet, ces transformations peuvent être
appliquées à une ou à plusieurs images dans une seule opération. Ce type
d’opérations sont très utilisées dans : les méthodes de modification de contraste et
Image : Ie(x, y) Image : Is(x, y)
de distribution des niveaux de gris, les approches de segmentation, de classifications
Figure 1 : Principe de Transformations ponctuelles
ponctuelles, d’opérations inter-images, etc…

Principe: Soit le ou les niveaux de gris d’un pixel de l’image à traiter qui correspond à une grandeur physique,
repérée par les coordonnées (x, y) et soit f la transformation appliquée. L’image résultat est obtenue par l’application de
→f , donnée par : ). L’exemple de la figure 1 correspond à i =1 et j=1, pour une
image d’entrée et une image de sortie. Les résultats des transformations ponctuelles, qui utilisent deux ou plusieurs images en
entrée, peuvent être une seule ou plusieurs images en sortie. Nous donnons, dans ce qui suit quelques exemples de
transformation ponctuelle mono et multi images.
• Cas de deux images
Soit le vecteur niveaux de gris du pixel de coordonnées (x, y)
dans l’image d’entrée à deux bandes, l’intensité du pixel résultat en sortie est
. On trouve les opérations arithmétiques entre images.

• Cas de trois images en entrée et une image en sortie :


L’opération principale réalisant cette transformation est la composition
colorée.
• Cas de trois images en entrée et trois images en sortie :
Le vecteur de trois niveaux de gris d’un pixel de coordonnées (x, y) est
transformé en un vecteur de trois niveaux de gris d’un pixel en sortie. G est
la matrice de transformation.

Les transformations les plus utilisées sont les transformations


de passages des espaces de couleurs (RGB----- IHS, VHS, etc..)

• Cas de n images en entrée et une image en sortie


Le vecteur de n niveaux de gris d’un pixel de coordonnées (x, y) est
transformé en un vecteur à un niveaux de gris d’un pixel en sortie. La
transformation correspond à une procédure de classification ponctuelle.
Dr. M. BELHADJ AISSA 1
USTHB/FEI : Master 2 S3 ST Module : Bases de Traitements d’Images

• Cas de n images en entrée et m images en sortie :


Le vecteur de n niveaux de gris d’un pixel de
coordonnées (x, y) est transformé en un vecteur à m
niveaux de gris d’un pixel en sortie. Ce type d’opérations
correspond aux transformations multidimensionnelles.

Remarques :
• Quelque soit le type de l’opération ponctuelle, l’image ou
les images résultantes ont la même taille de l’image ou les
images d’entrées.
• Les transformations ponctuelles sont utilisées dans plusieurs
niveaux d’analyse et d’extraction de l’information
qualitative et quantitative à partir d’image mono ou
multibandes.

• Les traitements mono-image ont pour but l’amélioration du contraste de l’image, la réduction des niveaux de gris d’une
image, la génération d’image luminance et / ou réflectance. Généralement, ces traitements se basent sur l’utilisation de
l’histogramme de l’image et les opérations sont réalisées par des tables de transfert de manière interactive (effectuées en
mémoire graphique du système de traitement).
• Les traitements ponctuels utilisant deux images sont les opérations arithmétiques (+, -, x, /) et logiques (ET, OU, OU/ET
exclusifs) et les combinaisons d’images pour des applications tels que le calcul des indices de végétation, des indices de
brillance, etc.
• Les traitements ponctuels utilisant trois images sont les compositions colorées et les transformations des espaces. Dans le
premier cas, le résultat est une seule image en couleur (sur 24 bits). Généralement la composition colorée est réalisée, aussi de
manière interactive. Dans les transformations des espaces de couleurs, l’opération s’effectue à travers des matrices de
transformation, le résultat est donné sous forme de trois images.

I .2. Traitements localisés: utilisent, dans leurs formalismes, en plus de l’information du pixel à traiter les informations des
pixels situés dans son voisinage immédiat. La dimension du voisinage (le nombre de pixels) dépend du type et de la finalité
du traitement.
Principe : soit le vecteur radiométrique du pixel dans son voisinage Vx,y de dimensions [NxM], toute application
d’une transformation locale ou d’un modèle au pixel central et ces pixels voisins donne un résultat en sortie qui est attribué au
pixel central de cordonnées (x, y).
La transformation est de la forme :

où k varie de

Le voisinage, dans les traitements localisés est défini par le nombre de points à prendre en considération dans l’évaluation de la
fonction mathématique donnant la valeur du pixel à traiter. Ce pixel peut être le point central ou tout autre point dans le
voisinage. La position du point, dans le voisinage dépend de la méthode de traitement. Il est à noter que le pixel à traiter ainsi
que son voisinage peuvent être représentés par des scalaires (mono-bande) ou par des vecteurs (multibandes). Les différentes
approches, méthodes, modèles ou algorithmes localisés réalisent les traitements suivants :
• Filtrage et la détection des contours
• Analyse de la texture et la structure
• Analyse morphologique
• Segmentation d’images
• Classification contextuelle,
• Etc..
Ils utilisent le principe de traitement de voisinage. Leurs applications touchent
tous de domaines d’utilisation de l’imagerie numérique. Le principe, le
formalisme et l’application des différentes techniques de traitement localisées Figure 2 : Principe des
sont détaillées dans le chapitre suivant : Transformations radiométriques des transformations localisées
images.

I .3. Traitements Globaux : les méthodes de traitements globaux sont basées sur les transformées d’images. Elles constituent
des outils importants dans les domaines d’application de l’imagerie numérique. Dans ce contexte, les images de sortie dans
l’espace des transformées sont interprétées, analysées et traitées, afin d’extraire ou de modéliser le contenu des images. Le
concept général des transformées globales ou par bloc est d’exprimer toute image comme une combinaison d’un ensemble de
signaux de base, appelés généralement, ‘base de fonctions orthonormées’
• Une des transformée la plus utilisée en traitement d’image est la transformée de Fourier. Dans ce cas là, la famille de
fonctions de base sont des signaux sinusoïdaux avec différentes périodes permettant de décrire les fréquences spatiales
d’une image. Ce concept est traduit de la manière suivante : l’image est décomposée en signaux sinusoïdaux qui la

Dr. M. BELHADJ AISSA 2


USTHB/FEI : Master 2 S3 ST Module : Bases de Traitements d’Images

constituent, leur projection sur les bases de Fourier permet de générer le spectre fréquentiel de cette image et exprime
ainsi son énergie (puissance) relative à chaque fréquence, sa phase et son amplitude.
• Bien que la FFT est la transformée la plus populaire, il existe d’autres transformées dont les fonctions de base sont
différentes engendrant ainsi des espaces ayant des caractéristiques différentes de l’image transformée. Parmi lesquelles,
on trouve la transformée en cosinus (DCT) qui découle de la FFT en considérant l’analyse des signaux symétriquement
étendus. Elle est appliquée sur toute l’image ou des blocs de l’image. Cette transformation est très utilisée dans les
schémas de compression.
• La transformée de Walsh-Hadamard (WHT), la base de fonctions, pour cette transformée sont des noyaux sous forme
de matrices de N lignes et N colonnes orthogonales. Les noyaux sont générés de manière récursive. L’espace de cette
transformée est utilisé pour l’analyse morphologique du contenu de l’image d’entrée.
• La transformée de Karhaunen-loeve (KLT) appelée aussi Analyse en composantes principales (ACP) dont son concept
est basé sur les propriétés statistiques des images. Les fonctions-base de projection présentent les caractéristiques de
compactage d’énergie totale et la réduction de la redondance d’information. La principale application du KLT est la
réduction de l’espace de représentation multidimensionnel des images.
• La transformée en Ondelette (DWT) est une décomposition des images sur une base de fonctions, générées à partir d’une
fonction sinusoïdale dite ondelette mère par dilatation (échelle) et translation dans le domaine temporel (fréquentiel).
Les sous bandes générées à chaque échelle représentent les coefficients base et haute fréquence. L’avantage de cette
transformation est que les coefficients sont localisés dans l’espace spatio-fréquentiel contrairement à la FFT globale
(sans l’analyse par fenêtres). La transformée en ondelette et ses variantes sont des outils mathématiques très utilisés en
traitement d’images (fusion, analyse de texture, filtrage, classification, etc..) et en compression d’images fixes et vidéo
telles que la norme JPEG 2000 et MPEG.

Généralement, ces transformées sont réversibles et qu’après traitement et analyse dans l’espace des transformées une opération
inverse est appliquée pour revenir à l’espace spatial (espace –image). La radiométrie de l’image reconstruite, après traitement
dans l’espace des transformées est modifiée. Les détails sur les transformées seront présentées dans le chapitre
‘Transformations radiométriques’.
Cependant, un processus de traitement d’images, pour une application donnée, est généralement réalisé à partir de plusieurs
niveaux de traitements ponctuels, localisés et /ou globaux. Souvent, les premières opérations ont pour but l’amélioration de
l’aspect visuel pour l’interprétation qualitative de l’image et /ou l’extraction quantitative de l’information par l’application de
techniques adéquates de traitement ultérieurs. Ce premier niveau de traitement est réalisé par des opérations ponctuelles mono
ou multi-images. Le choix de ces opérations est basé sur les statistiques des images dont le premier indicateur statistique est
l’histogramme de l’image.

II. Notions d’histogramme et de fonctions de transferts

2.1. L’histogramme d’une image, , représente la fonction de distribution des niveaux de gris de celle-ci. Les axes
associés à cette fonction sont : en abscisse, les niveaux de gris (ex : 0 à 255 pour une image codée sur 8 bits) et en ordonnée la
fréquence d’apparition ou la probabilité de présence d’un niveau de gris dans l’image. L’expression générale, en discret, de
cette fonction est donnée par :

Où Ingi représente le pixel ayant le niveau de gris ngi appartenant à l’intervalle radiométrique de l’image, Nngi est le nombre de
pixels ayant le niveau de gris ngi.
En termes de probabilités de présence de ngi, l’expression de l’histogramme, pour une image de dimension MxN s’écrira :
 Nngi 
 ∑ ngi 
I k
 
h( I ) =  P ( ngi ) = k =1 
 M *N 
 
 
Une image ‘I’ a un histogramme unique mais l’inverse n’est pas vrai. La forme d’un histogramme peut correspondre à
n’importe quelle image. En effet, un histogramme contient l’information radiométrique (le nombre de niveaux de gris et leur
distribution d’une image) mais ne contient pas l’information spatiale. Nous donnons dans la figure 3 quelques exemples
d’histogrammes de distributions différentes h(I)
h(I) h(I) h(I)

H(I)
Ng(I) Ng(I) Ng(I) 0 255
0 255 0 255
a : Histogramme de distribution b : Histogramme de distribution c : Histogramme de distribution d : Histogramme de distribution
‘’Laplacien’’ ‘’Bimodale (deux lobs)’
‘’Gaussienne’’ ‘’Uniforme’’ Dr. M. BELHADJ AISSA 3
Figure 3 : Formes de la fonction de distribution des niveaux de gris des images numériques
USTHB/FEI : Master 2 S3 ST Module : Bases de Traitements d’Images

Ng(Is)
2.2. Contraste d’une image
255
Il est défini par le pouvoir de séparabilité visuelle des niveaux de
Histogramme de
gris adjacents. Pour certaines images, cette séparabilité nécessite
l’image de sortie Fonction de
un étalement de l’intervalle des niveaux de gris ou de façon transfert
généralement une modification de contraste. Il existe différentes
formes de modification de contraste de la dynamique de l’image
qui peuvent être linéaires, exponentiel, logarithmique, uniforme, h(Is)
etc. Le principe de la modification de contraste qui entraîne une 255 Ng(Ie)
modification d’histogramme est de trouver une fonction ‘f’ tel
que : où ‘Is‘ est l’image de sortie modifiée et ‘Ie’
l’image d’entrée
Histogramme de
Cette fonction est dite fonction de transfert. L’opération de l’image d’entrée
transformation peut être réalisée à travers les tables de transfert
(LUT) dans la mémoire graphique ou bien par l’application de h(Ie)
l’algorithme relatif à la fonction de transfert désirée. La figure 4
illustre cette transformation dans les deux cas possibles. Figure 4 : principe de modification d’histogramme ou de
contraste d’une image

III. Modification de contraste et d’histogramme d’images numériques


III.1. Modification linéaire du contraste : IS 255
L’opération la plus usuelle dans la modification de contraste est l’étalement linéaire de la ngs2
dynamique de l’image. Elle consiste à trouver l’équation de la droite Is= f(Ie) en définissant les
paramètres de la l’équation en fonction de l’intervalle des niveaux de gris en entrée et
l’intervalle désirée en sortie (figure 5). L’équation est de la forme : ,
Les paramètres de la fonction sont :
• [ngmin et ngmax ] relatifs à l’image d’entrée
• [ngs1 et ngs2 ] l’intervalle à obtenir en sortie ngs1 0
Ie

La détermination des paramètres a et b de l’équation conduit à l’expression suivante : ngmin ngmax 255
Figure 5 : modification linaire du
contraste

Par cette transformation, la dynamique des niveaux de gris de l’image de sortie devient plus Importante (intervalle entre un
niveau de gris et un autre adjacent est plus grand) permettant un meilleur contraste perceptible par l’œil humain.

Remarque1 : Si on suppose que ngs2= 255(pour une image codée sur 8 bits), on réalise un étalement linaire avec saturation, les
niveaux de gris de l’image de sortie supérieurs à 255 sont ramenés à cette valeur.

Remarque2 : [ngmin et ngmax ] peuvent être définis en fonction de la zone d’intérêt. Dans ce cas là, ces bornes sont différents
des valeurs ngmin et ngmax de l’image à transformer. Sinon ils sont calculés automatiquement, par la recherche de ngmin et ngmax
de l’image.

Remarque 3 : si on ne s’intéresse qu’à certains objets qu’on veut mettre en évidence dans une IS 255
image, on définit une fonction de transfert ayant des intervalles à pentes variables. Elle est dite
« étalement linéaire de la dynamique par régions d’intérêts ». Il faut noter que si la pente est
grande le contraste est élevé dans le cas contraire le contraste est très faible (la zone ngi
correspondante est atténuée). La figure 6 représente la fonction de transfert multi-intervalles.
Son expression est la suivante :
Ie
0
Ki
Figure 6 : étalement linéaire
par régions d’intérêt
Où le nombre de nœuds (les ki) et les pentes sont variables.
Remarque 4 : toute opération de modification de contraste peut être appliquée sur une seule image (scalaire), dans le cas
d’images RGB, chaque bande est traitée séparément et que les fonctions de transfert peuvent être différentes. C’est ce dernier
principe qui est utilisé pour générer des images en ‘fausse couleur’. Il suffit de modifier le contraste de la même image, par
trois fonctions de transfert différentes. La somme des trois composantes en RGB génère une image couleur.

Dr. M. BELHADJ AISSA 4


USTHB/FEI : Master 2 S3 ST Module : Bases de Traitements d’Images

III.2. Réduction des niveaux de gris


Dans certaines application, les opérations de réduction des niveaux de gris réalisent une compression des images pour
minimiser l’espace de stockage et parfois une pré-segmentation de l’image en deux ou trois régions d’intérêt : les fonctions de
transfert relatives à ces opérations sont le seuillage avec un ou des seuils prédéfinis (seuillage par fenêtre) et l’opération de
quantification est uniforme ou non uniforme.
• Seuillage : cette opération génère une image, en sortie, à deux niveaux de gris. Le choix des paramètres de la fonction sont
prédéfinis à savoir : le (ou les) seuil(s) et la largeur de (ou des) fenêtre(s), en entrée et les niveaux de gris en sortie. La figure 7
présente quelques exemples de cette opération. Dans une application de segmentation le seuil est défini à partir de
l’histogramme, particulièrement si ce dernier est bimodal.
IS IS IS IS
IS
255 255 (b) 255 255 (d) 255 (e)
(a) ng2 ng
(c)
ng2

ng1 ng1

Ie Ie
0 S1 Ie 0 S1 Ie 0 S1 S2 Ie 0 S1 S2 0 Si Si+

Figure 7 : Différentes configurations de l’opération de seuillage

Pour la première configuration (a) ;

(b) Seuillage avec saturation :

(c) Seuillage par fenêtre et avec saturation :

(d) Seuillage par fenêtre:

(e) seuillage en multi fenêtres : ;

Il faut noter que le nombre et la largeur des fenêtrés sont définis en fonction de la dynamique de l’image à transformer.
• Quantification : Dans l’espace discret, l’opération de IS 255 IS 255 (b)
quantification est vectorielle (QV), elle consiste à attribuer un code
(correspond à un niveau de gris) à un ensemble de valeurs (niveaux
de gris) de l’image à traiter. Le pas de quantification peut être le ngi
même sur tout l’intervalle à quantifier, il s’agit de la quantification ngi
uniforme. Si le pas est variable, cette variation peut prendre une
forme modélisable ou non de la quantification. Dans tous les cas, la
fonction de transfert est une fonction ‘Escalier’. Les applications de 0 Ie
0 Ie
telle opération sont : la segmentation en régions d’intérêt en Ki Ki
définissant le niveau de gris de sortie comme la moyenne des Figure 8 : fonction de Figure 9 : fonction de
niveaux de gris du palier, la compression d’image. quantification non uniforme quantification non uniforme

Exemple : Passage d’un codage sur 8 bits (256 niveaux de gris) à un codage sur 4 bits (16 niveaux de gris). Avec une
quantification uniforme : le nombre de paliers est égal : , la largeur du palier est égale aussi à 16 (16 niveaux de

gris est remplacé par un niveau de gris).


III.3. Modification non linéaire du contraste IS
IS 255 255
Ces opérations sont souvent réalisées par les fonctions exponentielle
et logarithmique. Elles ont pour but d’étaler la dynamique des
niveaux de gris bas et de comprimer les niveaux de gris haut et vice
versa. La première est réalisée par la fonction logarithmique et la
deuxième par la fonction exponentielle. Leurs fonctions de transferts
sont : et δ
β+δ Ie
Les paramètres à définir sont : β, α , δ. Ils sont choisis afin d’ajuster 0 Ie 0
l’intervalle des niveaux de gris et du contraste de l’image de sortie. 1/α
Figure 11 : Fonction de
Figure 10 : Fonction de
Les graphes de ces fonctions sont donnés par les figures 10 et 11. Transfert exponentielle
Transfert logarithmique

Dr. M. BELHADJ AISSA 5


USTHB/FEI : Master 2 S3 ST Module : Bases de Traitements d’Images

III.4. Egalisation d’histogramme


Le sens de l’égalisation de l’histogramme est la redistribution des niveaux de gris dans une image de manière uniforme.
L’intérêt est d’augmenter les intervalles de variation des ng dans l’image de sortie. La fonction de transfert qui permet
d’obtenir un histogramme de sortie quasi uniforme est déduite de la fonction de densité de probabilité des niveaux de gris de
l’image à traiter. Cette fonction correspond à l’histogramme cumulé. L’Histogramme cumulé est la surface limitée par le
graphe de l’histogramme et l’axe des abscisses. Pour le réaliser, il suffit de cumuler, à chaque niveau de gris, tous les pixels
dont les valeurs de niveaux de gris sont inférieures ou égale au niveau de gris courant. La fonction obtenue est croissante,
monotone. Son expression, en discret, est la suivante :
La définition de la fonction de transfert à partir de l’histogramme Ng(Is)
cumulé est comme suit : Histogramme de
255
Pour une variation des histogrammes sachant l’image de sortie
FT=Histogramme
que le nombre de pixels dans l’intervalle est égal à δIs cumulé normalisé
Is=f(Ie)
(figure 12), on déduit que la relation entre les
histogrammes d’entrée et de sortie, pour une variation infinitésimale
h(Is) δIe
de l’intervalle δ, sera donnée par :
255 Ng(Ie)

La fonction de transfert (FT) s’écrira alors comme suit : Figure 12 : Principe d’égalisation
d’histogramme

Histogramme de
Théoriquement, l’histogramme de sortie hs (I s ) recherché doit être l’image d’entrée

égalisé (uniforme) ∀ la valeur de Is et donc c’est une constante dans h(Ie)


l’expression précédente.

ngi = 255
Cette expression devient : avec )={ ∑ fngi }; la valeur max de hC est égale à la taille de
ngi = 0

l’image. L’histogramme cumulé est ensuite normalisée par un facteur égal à : .

L’expression finale de la FT est donnée par:

IV. Mise en correspondance d’histogrammes


Mise en correspondance des histogrammes ou spécification d’histogrammes est une opération très utilisée dans la
concaténation ou mosaïquage et la fusion des images. Elle consiste à rapprocher les distributions (contrastes) des images à
concaténer ou à fusionner en prenant une d’elles comme référence. Cette référence peut être une image dans le cas de mise en
correspondance image-image et elle peut être aussi une fonction mathématique de distribution de probabilité, connue
indépendante de celle d’une image. L’application de cette deuxième configuration est la modification de la distribution d’une
image pour l’adapter à un type de traitement ultérieur. Parmi les fonctions de distribution connues et associées à différents
types de données, on trouve:

• Fonction Gaussienne de la forme :

• Fonction Rayleigh (σ>0) :

• Fonction Exponentielle :
• Fonction Uniforme : où a et b définissent l’intervalle, en entrée, de distribution uniforme de la fonction.

• Fonction Laplacien :

• Fonction Chi-deux(χ2) : où la constante de normalisation est donnée par : avec

Γ(.) est la fonction Gamma, n est le degré de liberté de la fonction Chi-deux. Si n est grand (>10) la forme de la fonction
Chi-deux tend vers une forme Gaussienne.
• Fonction Gamma : b et c sont des constantes positives et .

Notons que avec b > 0.


L’expression généralisée est de la forme : .

Dr. M. BELHADJ AISSA 6


USTHB/FEI : Master 2 S3 ST Module : Bases de Traitements d’Images

Particularités de cette distribution sont : pour b = 1 la fonction de distribution Gamma tend vers une fonction Exponentielle,
pour b = n/2 et c = ½ la fonction Gamma tend vers la fonction Chi-deux (χ2 ).
n +1
x 2 −( 2 )
• Fonction Student-t : f ( x ) = K st .(1 + ) , n est un entier,
n

Il est à noter que la connaissance du modèle de distribution des données image est une étape très importante dans l’analyse, la
description, l’identification, l’extraction de l’information utile à partir de ces images.
Principe de la mise en correspondance des histogrammes est le hs(Is) he(Ie)
suivant: soit l’histogramme de l’image à calibrer et
Histogramme de Histogramme de
l’histogramme de l’image de référence. La première étape est l’image de référence l’image à spécifier
l’égalisation de l’histogramme he(Ie) par la méthode décrite
précédemment, on obtient l’histogramme intermédiaire qui
doit être modifié pour approcher l’histogramme de l’image de Is Ie
référence . 255 255
Is Ie
est la fonction de transfert associée à l’image Ie avec Iin Histogramme cumulé Histogramme cumulé
normalisé I in = g(I s ) normalisé I in = f (I e )
comme résultat intermédiaire (figure 13). Ensuite, connaissant
l’histogramme uniforme de Ie (image à spécifier) et l’histogramme
de Is (la référence), on détermine la fonction de transfert de la
Iem Iin
référence (image ou fonction mathématique), . L’étape
Iin
finale est la recherche de la FT qui rapproche à . hem(Ie)
Histogramme de
Cette FT est de la forme suivante : l’image calibrée
Figure 13 : graphique de la
mise en correspondance
L’histogramme modifié hem de l’image calibrée est proche de hs d’histogrammes
(figure 13). ‘Histogram matching’
Pour la mise en correspondance image-fonction mathématique, la Iem
démarche est la même que dans le cas image-image, la différence est
que dans ce cas, il faut définir les paramètres de la fonction de
distribution ‘référence’.

Dr. M. BELHADJ AISSA 7

Vous aimerez peut-être aussi