Académique Documents
Professionnel Documents
Culture Documents
1.1 Introduction
Ce premier chapitre a pour but de présenter ce que c’est qu’une image en général, et une
d’informations. Elle présente les éléments d’une scène qui a été captée soit par un appareil
photographique, soit par un satellite. Les images de télédétection sont généralement issues de
image peut avoir plusieurs définitions, selon les contextes. En traitement du signal, on définit
une image comme étant un signal bidimensionnel. Mathématiquement parlant, une image est
une application d’un sous-ensemble MxN de RxR vers l’ensemble des réels R, qui, à chaque
f : ( M N)
R
( x, y)
f ( x, y) (1.1)
Le sous-ensemble (MxN) est constitué de couples d’entiers (x,y) tels que x 0,1,2..... NC ,
et y 0,1,2..... NL . Comme nous le verrons plus loin une image numérique est à la base un
Une image est constituée d’un ensemble de points élémentaires appelés pixels (vient du mot
anglais picture element). Le couple de réels (x,y) représente la position spatiale d’un pixel, et
la valeur f(x,y) représente le niveau de gris du pixel. Le niveau de gris d’un pixel est une
grandeur proportionnelle à l’intensité du signal réfléchi par ce pixel lorsqu’il est radié
notamment par une onde électromagnétique. Les niveaux de gris de pixels ont une gamme
variée de domaines de valeurs, selon le type d’image. Par exemple, certaines images en
5
couleur ont des niveaux de gris variant entre 0 et 65500. La plupart des images utilisées en
télédétection ont des niveaux de gris variant entre 0 et 255. Ce dernier type d’images est
justement appelé image en niveaux de gris codée sur 8 bits. On peut encore trouver
plusieurs détails du traitement numérique des images dans (Rosenfeld and Kak, 1982),
(Schalkoff, 1989), (Jain, 1989), (Toumazet, 1990), et (Horaud et Monga, 1995). Sur le terrain,
la taille d’un pixel correspond à la distance à partir de laquelle un capteur peut distinguer deux
objets à la surface du sol. Cette distance est appelée résolution de l’image. Plus la résolution
d’une image est fine, mieux on peut distinguer des objets rapprochés sur cette image. La
tendance actuelle est de mettre au point des capteurs ayant de plus en plus des résolutions
fines. A titre d’exemples, le satellite Européen ERS1 offre une résolution de 12.5 mètres, et le
satellite Français SPOT offre une résolution de 20 mètres. Les tableaux 1.1 et 1.2 présentent
quelques exemples de satellites et engins spatiaux de télédétection, avec leur altitude, leur
résolution spatiale, leurs longueurs d’onde et les types de capteur embarqués sur leur
représentation d’une image numérique, les différents formats d’images, les images
année de mise en orbite, leur altitude, leur résolution spatiale et la dimension d’une scène
Une image numérique est à la base un tableau bidimensionnel dont les valeurs représentent les
portion d’une image en niveaux de gris est présenté sur la figure 1.2a. La représentation d’une
image telle qu’elle apparaît sur un écran d’ordinateur ou sur un écran de télévision se fait par
une correspondance entre les niveaux de gris et l’aspect plus ou moins lumineux de cet écran.
En télédétection, on associe alors à chaque niveau de gris (ou à des niveaux de gris
numérique de la figure 1.2a est représentée sur la figure 1.2b. L’algorithme de correspondance
utilisé est présenté sur la figure 1.1. La figure 1.3 présente une portion 375 x 200 pixels d’une
image réelle en niveaux de gris. Il s’agit d’une image radar ERS1 de la ville de Douala. Un
numériques (tonye et al., 1994). Un logiciel de traitement d’images, dénommé VOIR (Vision
par Ordinateur des Images Radar), a été également réalisé dans le cadre de ce projet. Ce
logiciel comporte plusieurs modules de traitement d’images : affichage des images, filtrage,
classification, etc. La structure générale du logiciel VOIR est présentée sur le tableau 1.3.
9
(a) (b)
Figure 1.2 (a) Portion 4x4 d’une image en niveaux de gris (b) représentation colorée de la
Figure 1.3 Portion 375 x 200 pixels d’une image en niveaux de gris.
Les images numériques sont enregistrées dans des supports de données informatiques selon
différents formats. Chaque valeur de niveau de gris est représentée sur un certain nombre
d’octets, selon le nombre de niveaux de gris maximal. Ainsi, il y a par exemple des images
codées sur 8 bits et des images codées sur 16 bits. Pour les images 8 bits, chaque niveau de
gris est représenté sur un octet, et le nombre total de niveaux de gris possible est donc 2 8 =
256. Le procédé de conversion d’une image 16 bits en une image 8 bits est présenté au
chapitre 2.
Dans la plupart des formats d’images, les valeurs de niveaux de gris sont stockées de façon
fichier contiennent des informations sur les dimensions de l’image (nombre de lignes et
nombre de colonnes), et sur d’autres types d’informations. Dans certains cas, le fichier image
est accompagné d’un fichier séparé (souvent appelé fichier entête) contenant les informations
sur l’image. C’est le cas des images ERS produites par l’Agence Spatiale Européenne (ESA
Les capteurs d’images embarqués dans des satellites de télédétection comportent souvent
plusieurs bandes spectrales. Dans de tels cas, une même zone est captée sous des longueurs
d’onde différentes, produisant plusieurs images de la même région. L’ensemble de ces images
constitue une seule image appelée image multibande. Chaque image de l’ensemble est
appelée canal ou encore bande spectrale. C’est par exemple le cas du satellite français SPOT
qui a trois bandes spectrales dénommées XS1, XS2 et XS3. La prise de vue d’une même
région sur plusieurs bandes spectrales offre l’avantage d’obtenir plus de renseignements sur la
12
zone filmée. En effet, certains objets n’étant pas sensibles à une certaine longueur d’onde
peuvent l’être à une autre, et vice-versa. Il est donc avantageux d’avoir des images sur
plusieurs bandes spectrales pour être mieux renseigné sur la zone étudiée. La figure 1.4
présente trois portions 180x180 pixels d’une image SPOT de la ville de Yaoundé. Ces images
ont été prises avec des longueurs d’onde différentes. Une image prise à une seule bande
Dans une image multibande, chaque pixel a plusieurs niveaux de gris, chaque niveau de gris
correspondant à une bande spectrale. On peut donc définir mathématiquement une image
multibande comme étant une application d’un sous-ensemble MxN de RxR vers Rn, qui, à
chaque fk(x,y) étant le niveau de gris du pixel positionné en (x,y) dans la bande spectrale k. n
f : ( M N)
R
( x, y)
( f1 ( x, y), f2 ( x, y), ...., fn ( x, y)) (1.2)
1.5 Exercices
Comment sont stockées les images dans les supports de données informatiques ?
Qu’appelle-t-on fichier-entête ?
Etant donnée l’image numérique présentée sur la figure 1.5, représentez-la en couleur en
utilisant l’algorithme de la figure 1.1. Indiquez les couleurs par des lettres : N pour noir, R
2.1 Introduction
stockée dans un support de données informatique (disque dur d’un ordinateur ou disquette,
par exemple). Pour programmer la lecture et l’affichage d’une image sur un écran
d’ordinateur, il est nécessaire de connaître le format dans lequel l’image est stockée dans le
support de données. Dans le cadre de ce chapitre, nous supposerons que le nombre de lignes
et le nombre de colonnes de l’image à afficher sont connus. Cela implique que nous traiterons
directement le fichier de données, et non le fichier entête. Les images radar à synthèse
d’ouverture (RSO) comportent souvent de très grands volumes de données (128 Mo, par
élaborées, l’une des plus classiques étant la réduction pyramidale de Burt (1984). Cette
technique a été combinée à l’approche orientée objet, dans le but de résoudre le problème
rapidement des images RSO sur certaines régions du Cameroun (Akono, 1994; Tonye et al.,
1994). Dans les lignes qui suivent, la lecture et l’affichage des images au format 8 bits est
d’abord abordée. Par la suite, la méthode de lecture et d’affichage d’une image au format 16
Nous avons vu au chapitre 1 que chaque valeur de niveau de gris d’une image au format 8 bits
est représentée sur un octet, et que les valeurs de niveaux de gris sont stockées de façon
15
Figure 2.1 Représentation séquentielle des octets contenant des valeurs de niveaux de gris.
On peut voir sur cette figure que les valeurs de niveaux de gris sont stockées les unes après les
autres, en commençant par la première ligne de l’image, et ensuite par la seconde, jusqu’à
parcourir toutes les lignes de l’image. Une fois que ce principe de stockage est compris, il est
d’ordinateur. Nous allons présenter trois méthodes de lecture : la méthode de lecture par pixel,
Cette méthode consiste simplement à lire le fichier image octet par octet, et d’afficher les
couleurs correspondantes aux valeurs de niveaux de gris au fur et à mesure qu’elles sont lues.
16
Cette méthode est très lente et n’est plus utilisée dans les logiciels de traitement d’images.
Programme Lecture1_8bits
Variables d’entrées :
NL : Nombre de lignes de l’image ;
NC : Nombre de colonnes de l’image ;
NomFic : Nom du fichier image (fichier d’octets).
Variables locales : x ,y : de type entier ;
Pix : de type octet.
DEBUT
Ouvrir le fichier image associé à NomFic;
POUR y variant de 0 à NL-1 FAIRE
POUR x variant de 0 à NC-1 FAIRE
DEBUT
-Lire un octet dans le fichier et le mettre dans la variable Pix ;
-Afficher la couleur correspondante à la valeur Pix à la position
(x,y) de l’écran ;
FIN
Fermer le fichier image ;
FIN du programme.
Figure 2.2 Algorithme de lecture d’une image 8 bits par la méthode pixel par pixel.
Cette méthode consiste à définir une variable de type ligne d’image et de parcourir le fichier
image en lisant une ligne entière à chaque fois. La différence avec la méthode de lecture par
pixel est que cette fois-ci, on lit une ligne entière chaque fois qu’on accède au fichier image,
au lieu de lire un seul pixel. Par expérience, nous avons constaté que cette méthode est au
17
moins deux fois plus rapide que la méthode de lecture pixel par pixel. L’algorithme de cette
Programme Lecture2_8bits
Variables d’entrées :
NL : Nombre de lignes de l’image ;
NC : Nombre de colonnes de l’image ;
NomFic : Nom du fichier image ;
(fichier d’octets)
Variables locales : x ,y : de type entier ;
LL : de type vecteur ligne d’octets.
DEBUT
Ouvrir le fichier image associé à NomFic;
POUR y variant de 0 à NL-1 FAIRE
DEBUT
Lire NC octets dans le fichier et mettre les données
dans la variable LL ;
POUR x variant de 0 à NC-1 FAIRE
DEBUT
-Afficher la couleur correspondante à la valeur LL[x] à la
position (x,y) de l’écran ;
FIN
FIN
Fermer le fichier image ;
FIN du programme.
Figure 2.3. Algorithme de lecture d’une image 8 bits par la méthode ligne par ligne.
Cette méthode consiste à définir une variable de type image et de lire en une seule fois
l’image entière. Cette méthode, beaucoup plus rapide que les méthodes précédentes, est celle
qui est utilisée dans la plupart des logiciels modernes de traitement d’images. L’algorithme de
Programme Lecture3_8bits
Définition de Type :
Image : Tableau bidimensionnel contenant
des entiers de type octet.
Variable d’entrée :
NomFic : Nom du fichier image ;
(fichier de type image)
Variable locale :
BitMap : Pointeur vers une variable de type image.
DEBUT
Ouvrir le fichier image associé à NomFic ;
Allouer de l’espace mémoire au pointeur BitMap ;
Lire en une seule fois le contenu du fichier et le mettre dans
variable pointée par BitMap ;
Envoyer le contenu de variable pointée par BitMap vers la
mémoire d’écran de l’ordinateur (affichage) ;
Fermer le fichier image ;
Libérer l’espace mémoire alloué au pointeur BitMap ;
FIN du programme.
Figure 2.4. Algorithme de lecture d’une image 8 bits par la méthode de lecture globale.
19
Dans certains cas, on peut être intéressé à ne lire l’image qu’à partir d’un point particulier, de
Figure 2.5. Illustration d’une zone d’intérêt sur une image numérique.
Dans ce cas, les coordonnées du point de départ et les coordonnées du point d’arrivée de la
zone d’intérêt doivent être prises en compte lors de la lecture du fichier image. En particulier,
il faut remarquer que le lecteur de fichier doit être positionné sur l’octet correspondant au
point de départ, dans le cas de la lecture octet par octet. L’octet de départ est l’octet numéro
((Yo*NC)+Xo), (Xo, Yo) étant les coordonnées du point de départ, et NC étant le nombre de
colonnes de l’image. Il faut aussi noter que l’image représentant la zone d’intérêt a pour
point d’arrivée de la zone d’intérêt. Dans le cas d’une lecture octet par octet, le lecteur de
fichier doit être positionné après chaque lecture de (Xa-Xo+1) octets, sinon on lira des octets
20
qui ne font partie de la zone d’intérêt. L’algorithme de lecture et d’affichage d’une zone
d’intérêt est présenté sur la figure 2.6, pour le cas d’une lecture octet par octet.
La lecture et l’affichage d’une zone d’intérêt est plus simple avec la méthode de lecture ligne
par ligne. Il suffit de positionner le lecteur de fichier à la ligne numéro Yo, Yo étant
l’ordonnée du point de départ de la zone d’intérêt. Il faut ensuite prendre soin de n’afficher les
de lecture et d’affichage d’une zone d’intérêt est présenté sur la figure 2.7, pour le cas d’une
Programme Lecture4_8bits
Variables d’entrées :
Xo, Yo : Coordonnées du point de départ de la zone d’intérêt ;
Xa, Ya : Coordonnées du point d’arrivée de la zone d’intérêt ;
NL : Nombre de lignes de l’image ;
NC : Nombre de colonnes de l’image ;
NomFic : Nom du fichier image (fichier d’octets).
Variables locales : x ,y : de type entier ;
Pix : de type octet.
DEBUT
Ouvrir le fichier image associé à NomFic;
POUR y variant de Yo à Ya FAIRE
DEBUT
Positionner le lecteur de fichier sur l’octet n° (y*NC)+Xo ;
POUR x variant de Xo à Xa FAIRE
DEBUT
-Lire un octet dans le fichier et le mettre dans la variable Pix ;
-Afficher la couleur correspondante à la valeur Pix à la position
(x-Xo, y-Yo) de l’écran ;
FIN
FIN
Fermer le fichier image ;
FIN du programme.
Programme Lecture5_8bits
Variables d’entrées :
Xo, Yo : Coordonnées du point de départ de la zone d’intérêt ;
Xa, Ya : Coordonnées du point d’arrivée de la zone d’intérêt ;
NL : Nombre de lignes de l’image ;
NC : Nombre de colonnes de l’image ;
NomFic : Nom du fichier image ;
(fichier de type octets)
Variables locales : x ,y : de type entier ;
LL : de type vecteur ligne d’octets.
DEBUT
Ouvrir le fichier image associé à NomFic;
Positionner le lecteur de fichier sur l’octet numéro Yo*NC
POUR y variant de Yo à Ya FAIRE
DEBUT
Lire NC octets dans le fichier et mettre les données
dans la variable LL ;
POUR x variant de Xo à Xa FAIRE
DEBUT
-Afficher la couleur correspondante à la valeur LL[x] à la
position (x-Xo, y-Yo) de l’écran ;
FIN
FIN
Fermer le fichier image ;
FIN du programme.
Dans le cas d’une lecture par octet, le fichier doit être défini comme étant un fichier d’octets
(file of byte, dans le langage Turbo Pascal, par exemple). Et dans ce cas, le déplacement du
lecteur de fichier se fait octet par octet. Dans le cas de la méthode de lecture par lignes, le
fichier est aussi défini comme un fichier d’octets, mais la lecture se fait par blocs d’octets (on
lit plusieurs octets par une seule instruction). Les valeurs correspondant aux octets lus sont
stockées dans une variable de type ligne d’octets. Une ligne d’octets est un tableau-ligne
contenant des entiers de type octet (array[0..999] of byte, par exemple, en Turbo Pascal). La
taille de ce tableau doit être au moins égale au nombre de colonnes de l’image. Après chaque
lecture, le lecteur de fichier se déplace d’un nombre d’octets égal au nombre d’octets lus.
Un moyen possible d’afficher une image au format 16 bits consiste à d’abord la convertir au
format 8 bits, et de l’afficher ensuite par l’une des méthodes présentées dans les paragraphes
précédents. Nous allons donc présenter la méthode de conversion d’une image 16 bits en une
image 8 bits.
2.3.1 Conversion d’une image au format 16 bits en une image au format 8 bits
Les pixels des images au format 16 bits ont des niveaux de gris représentés par des valeurs
complexes. Ce sont donc des valeurs à partie réelle et à partie imaginaire. On trouve
couramment deux types d’images 16 bits : les images en amplitudes et les images en
intensités. Pour les images en intensités, le niveau de gris de chaque pixel a pour valeur
de la partie réelle et du carré de la partie imaginaire. Ce nombre est très grand, et c’est pour
cela qu’il est représenté sur 16 bits au lieu de 8 bits. Pour les images en amplitudes, chaque
niveau de gris est représenté par la racine carrée de l’intensité du nombre complexe
24
correspondant à ce niveau de gris. Il importe de souligner qu’il existe aussi des images
d’amplitudes obtenues à partir d’un moyennage d’amplitudes. Les niveaux de gris des pixels
de ce dernier type d’image sont déjà codés sur 8 bits. Nous allons présenter la méthode de
conversion de chacun des types d’images 16 bits en une image au format 8 bits.
Pour convertir une image au format 16 bits en amplitudes en une image au format 8 bits, il
faut d’abord calculer les statistiques de l’image 16 bits. Etant donné un tableau image (ima)
l’écart-type (sigma) des données contenues dans ce tableau se calculent par les expressions
suivantes :
1 NL 1NC 1
moy ima[ y, x]
NL NC y 0 x 0
1 NL 1NC 1
(2.1)
moycarr ( ima[ y, x])²
NL NC y 0 x 0
sigma moycarr ( moy )²
L’algorithme de conversion d’une image 16 bits en une image 8 bits est présenté sur la figure
2.8. L’image 8 bits résultante est contenue dans un tableau d’entiers de type octets. La lecture
d’une zone d’intérêt dans une image au format 16 bits se fait de la même manière que celle
d’une image au format 8 bits. L’algorithme de lecture d’une zone d’intérêt sur une image au
Programme Conversion16_8bits_amp
Variables d’entrées :
NL, NC : Nombre de lignes et de colonnes de l’image ;
NomFic : Nom du fichier image 16 bits(fichier d’octets) ;
Variables locales : x ,y : de type entier ;
LL : de type vecteur ligne d’octets (ayant au moins NC
éléments).
IMA : tableau NL x NC de réels
IM8 : tableau NL x NC d’octets (image 8 bits) ;
DEBUT
Ouvrir le fichier image associé à NomFic;
POUR y variant de 0 à NL-1 FAIRE
DEBUT
Lire NC octets dans le fichier et mettre les données
dans la variable LL ;
POUR x variant de 0 à NC-1 FAIRE IMA[y,x] LL[x] ;
FIN
Calculer la moyenne (moy), la moyenne des carrés (moycarr) et
l’écart-type (sigma) des données du tableau réel IMA ;
POUR tous les points (x,y) du tableau IM8 FAIRE :
SI (IMA[y,x] > 255) ALORS IM8[y,x] 255
SINON IM8[y,x] ENT((255*IMA[y,x])/(moy + 3*sigma)) ;
(ENT représente la partie entière)
(l’image 8 bits est contenue dans le tableau IM8)
Figure 2.8. Algorithme de conversion d’une image 16 bits en amplitudes en une image 8 bits.
26
Programme LectZone_16bits
Variables d’entrées :
NL, NC : Nombre de lignes et de colonnes de l’image ;
NomFic : Nom du fichier image 16 bits(fichier d’octets) ;
(Xo,Yo,Xa,Ya) : Coordonnées de la zone d’intérêt ;
Variables locales : x ,y : de type entier ;
LL : de type vecteur ligne d’octets (ayant au moins NC
éléments).
IMA : tableau NL x NC de réels
IM8 : tableau (Ya-Yo) x (Xa-Xo) d’octets (image 8 bits) ;
DEBUT
Ouvrir le fichier image associé à NomFic;
Positionner le lecteur de fichier sur l’octet numéro Yo*NC ;
POUR y variant de Yo à Ya FAIRE
DEBUT
Lire NC octets dans le fichier et mettre les données
dans la variable LL ;
POUR x variant de Xo à Xa FAIRE IMA[y-Yo,x-Xo] LL[x] ;
FIN
Calculer la moyenne (moy), la moyenne des carrés (moycarr) et
l’écart-type (sigma) des données du tableau réel IMA ;
POUR tous les points (x,y) du tableau IM8 FAIRE :
SI (IMA[y,x] > 255) ALORS IM8[y,x] 255
SINON IM8[y,x] ENT((255*IMA[y,x])/(moy + 3*sigma)) ;
(ENT représente la partie entière)
(l’image 8 bits est contenue dans le tableau IM8)
Figure 2.9. Algorithme de lecture d’une zone d’intérêt sur image au format16 bits.
27
La lecture et l’affichage d’une zone d’intérêt sur une image ERS1 d’amplitudes au format 16
bits est illustrée à la figure 2.10. Le logiciel utilisé est le logiciel VOIR (Vision par
Pour convertir une image au format 16 bits en intensités en une image au format 8 bits, il faut
tenir compte du fait que la valeur sur 8 bits de chaque niveau de gris est fonction de deux
l’image, il faut d’abord faire la conversion 16 bits / 8 bits, selon l’algorithme suivant :
28
Dans les expressions (2.2), PL représente la valeur de l’octet de poids lourd, et PF représente
la valeur de l’octet de poids faible. Quand on écrit un programme de lecture d’une image 16
bits en intensités, il faut bien noter que le nombre de pixels par ligne de l’image est égal à la
moitié du nombre d’octets représentant une ligne dans le fichier image, puisque le niveau de
gris de chaque pixel est représenté sur deux octets. La figure 2.11 illustre notamment le
L’algorithme détaillé de conversion d’une image 16 bits en intensités en une image au format
8 bits est présenté sur la figure 2.12. La lecture et l’affichage d’une zone d’intérêt sur une
image ERS1 en intensités au format 16 bits est illustrée à la figure 2.13. Le logiciel utilisé est
Programme Conversion16_8bits_int
Variables d’entrées :
NL, NC : Nombre de lignes et de colonnes de l’image ;
NomFic : Nom du fichier image 16 bits(fichier d’octets) ;
Variables locales : x1, x2, y : de type entier ; p8, p16, pL, pF : réels ;
LL : de type vecteur ligne d’octets ayant au moins 2*NC
éléments.
IMA : tableau NL x NC de réels
IM8 : tableau NL x NC d’octets (image 8 bits) ;
DEBUT
Ouvrir le fichier image associé à NomFic;
POUR y variant de 0 à NL-1 FAIRE
DEBUT
Lire 2*NC octets dans le fichier et mettre les données
Dans la variable LL ;
x1 0; x2 0;
TANT QUE (x1 (2*NC)-1) FAIRE
DEBUT
PL LL[x1]; pF LL[x1+1]; p16 (256*pL) + pF ;
p8 p16 / 3; SI (p8 > 255) ALORS p8 255;
IMA[y,x2] p8; x1 x1 + 2; x2 x2 + 1;
FIN
FIN
Calculer la moyenne (moy), la moyenne des carrés (moycarr) et
l’écart-type (sigma) des données du tableau réel IMA ;
POUR tous les points (x,y) du tableau IM8 FAIRE :
SI (IMA[y,x] > 255) ALORS IM8[y,x] 255
SINON IM8[y,x] ENT((255*IMA[y,x])/(moy + 3*sigma)) ;
(ENT représente la partie entière)
(l’image 8 bits est contenue dans le tableau IM8)
Fermer le fichier image ;
FIN du programme.
Figure 2.12. Algorithme de conversion d’une image 16 bits en intensités en une image 8 bits.
31
2.4 Exercices
Une image au format 16 bits en intensités est représentée par la série d’octets présentée
Figure 2.14. Valeurs des octets représentant une image 16 bits en intensités.
33
3.1 Introduction
Dans le domaine des signaux et des systèmes, la convolution est une opération qui permet
Figure 3.1. Illustration d’un système avec ses éléments d’entrée et de sortie.
Etant donné un tel système, le signal de sortie y est obtenu par la convolution du signal
Dans le cas des signaux numériques tels que les images numériques, cette opération de
convolution se fait de façon discrète. Dans ce cas, l’opérateur d’intégration devient une simple
M N
y( k , l) x( k m, l n) h( k , l) (3.2)
m 0 n 0
34
Dans cette expression, x représente une fonction image et h représente un masque discret de
convolution de l’image x avec le masque h. Nous présentons dans ce qui suit, le principe
3.2 Principe
1 1 1
M 1 8 1
1 1 1
La convolution d’une image avec un masque linéaire comporte les étapes suivantes :
2) Calculer la combinaison linéaire des coefficients du masque avec les niveaux de gris des
points voisins du point central (point sur lequel est centré le masque);
suivante :
valeur 8 du masque. Les points autour du 7 correspondent aux valeurs –1 autour du 8 dans le
+ (-1 x 2) + (8 x 7) + (-1 x 4)
NG old C
NG new ENT .
NG max
NG new est le niveau de gris du pixel courant dans l’image résultat. NG old est le niveau de gris
de ce même pixel dans l’image originale. C est le résultat de la combinaison linéaire effectuée
sur le pixel courant. NG max est le niveau de gris maximal de l’image originale, et ENT
représente l’opérateur "partie entière". En supposant que le niveau de gris maximal de l’image
originale c’est 200, le pixel de niveau de gris 7 aura pour niveau de gris :
7 64
ENT ENT 2.24 2
200
dans l’image résultat. La normalisation est nécessaire pour pouvoir visualiser nettement
l’image résultat. Elle permet de ramener les niveaux de gris de l’image résultat dans le
domaine de variation des niveaux de gris de l’image originale. Pour obtenir la convolution de
l’image entière avec le masque proposé, on applique le principe précédent à tous les pixels de
Algorithme de convolution
Corps de l’algorithme :
C 0;
Début
I x – Xo + (L/2);
J y – Yo + (H/2);
Pix[J, I] Ima[x,y];
Fin
37
//Normalisation
Fin du Sous-programme.
l’image.
Début
Début
Xo x;
Yo y;
ImaOut[x,y] C;
Fin
Fin du Sous-programme
La figure 3.2 montre un exemple de convolution d’une image réelle avec un masque linéaire.
Il s’agit d’un masque 5 x 5 de détection des contours de Sobel. L’image traitée est une image
problème des points de bordure. Dans le paragraphe qui suit, nous allons voir comment les
Il y a plusieurs façons de gérer les points de bordure. Nous ne présenterons que les 3
symétrie circulaire.
Dans cette approche, on considère que tous les points qui ne font pas partie de l’image ont le
niveau de gris 0. On remplit donc de zéros les points extérieurs voisins des points de bordure,
taille du masque de convolution. La figure 3.3 montre un exemple pour un masque de taille 3
x 3.
Figure 3.3. Remplissage des points de bordure selon la méthode des zéros.
Dans cette approche, on attribue aux points extérieurs les niveaux de gris de leurs symétriques
se trouvant dans l’image. Cette approche est illustrée sur la figure 3.4 et c’est elle qui a été
Dans cette approche, on agit comme si l’image se refermait sur elle-même, et les points
extérieurs sont vus comme s’ils se retrouvaient de l’autre côté de l’image. Il convient de noter
que cette approche n’est pas réaliste sur le plan pratique, puisque la nature des pixels se
trouvant sur un bord de la scène peut être complètement différente de celle des pixels se
trouvant à l’autre extrémité. Cette approche est illustrée sur la figure 3.5.
Figure 3.5. Remplissage des points de bordure selon la méthode de la symétrie circulaire.
3.4 Exercices
dans un langage informatique de votre choix. Utiliser le principe de symétrie pour les
points de bordure.
Faire la convolution de l’image présentée sur la figure 3.6 avec le masque présenté sur la
même figure. Utiliser les trois principes de gestion des points de bordure illustrés dans le
cours.
41
4.1 Introduction
Les images captées par des satellites comportent souvent du bruit. Ce bruit est dû soit à la
nature environnante, soit à la nature même des capteurs embarqués sur ces satellites. Cela fait
que les images ont souvent un aspect brouillé à la réception. Il est alors nécessaire de filtrer
ces images avant de les traiter. Il existe des filtres linéaires et des filtres non linéaires. Les
images radar comportent souvent un type de bruit particulier appelé chatoiement (Nicolas,
type de bruit. Le paragraphe qui suit présente quelques techniques de filtrage linéaire des
images.
1 1 1
M 1 1 1
1 1 1
Pour filtrer une image avec le filtre moyenne, il suffit de faire la convolution de l’image avec
exemple de filtrage linéaire réalisé avec un masque 3 x 3 de la moyenne. L’image traitée est
une image ERS1 autour de la ville de Kribi (Cameroun). Le traitement a été effectué par le
logiciel VOIR.
43
Figure 4.1. Exemple de filtrage linéaire (filtre de la moyenne) réalisé sur une
D’autres masques de filtrage sont présentés dans les lignes qui suivent. Ces masques sont
généralement utilisés pour la détection des contours. Il s’agit des masques de Roberts, Sobel,
Prewitt et Kirsh.
1) Masques de Roberts :
0 0 0 0 0 0
Wx 0 1 0 Wy 0 0 1 Wx : direction horizontale , Wy : direction verticale.
0 0 1 0 1 0
2) Masques de Sobel :
44
1 0 1 1 2 1
Wx 2 0 2 Wy 0 0 0 Wx : direction horizontale , Wy : direction verticale.
1 0 1 1 2 1
3) Masques de Prewitt :
1 0 1 1 1 1
Wx 1 0 1 Wy 0 0 0 Wx : direction horizontale , Wy : direction verticale.
1 0 1 1 1 1
4) Masques de Kirsh :
3 3 5 3 3 3
Wx 3 0 5 Wy 3 0 3 Wx : direction horizontale , Wy : direction verticale.
3 3 5 5 5 5
0 0 0 0 0 0 0 0 1 0 0 0
W0 0 1 0 W90 0 0 1 W45 0 2 0 W135 0 2 1
0 0 1 0 1 0 0 0 1 0 0 0
1 0 1 1 2 1 2 1 0 0 1 2
W0 2 0 2 W90 0 0 0 W45 1 0 1 W135 1 0 1
1 0 1 1 2 1 0 1 2 2 1 0
1 1 1 1 1 1 1 1 1 1 1 1
W0 1 2 1 W90 1 2 1 W45 1 2 1 W135 1 2 1
1 1 1 1 1 1 1 1 1 1 1 1
3 3 5 3 3 3 3 3 3 3 5 5
W0 3 0 5 W90 3 0 3 W45 3 0 5 W135 3 0 5
3 3 5 5 5 5 3 5 5 3 3 3
La figure 4.2 présente un exemple d’utilisation du masque de Sobel pour la détection des
contours sur une image radar ERS1 de la côte atlantique camerounaise. Le masque de Sobel
est utilisé ici pour les 4 directions classiques (0°, 45°, 90° et 135°). On effectue une
convolution avec chacun des masques directionnels en chaque pixel de l’image, et on retient
le maximum des amplitudes trouvées. Cette valeur maximale est considérée comme
l’amplitude du gradient au pixel considéré. L’image des contours obtenue est présentée sur la
figure 4.3.
Figure 4.2 Choix d’une image pour la détection des contours par masques de Sobel.
Il s’agit d’une image ERS1 de la côte atlantique camerounaise (source : logiciel VOIR).
46
Les images radar comportent un bruit appelé chatoiement, qui est dû à la propagation d'un
faisceau cohérent dans une atmosphère caractérisée par des variations aléatoires (Nicolas,
approches de filtrage des images RSO (Radar à Synthèse d’Ouverture) à une seule
radiométriques contenues dans les bandes spectrales disponibles. Ce moyennage entraîne une
est réduit dans le domaine spatial après que l’image soit formée (Lee, 1980 ; Frost et al.,
Dans les années passées, des filtres tels que le filtre médian et le filtre moyenne ont été
appliqués aux images radar, mais sans grand succès. Cet échec est dû au fait que le
chatoiement est un bruit multiplicatif et que les filtres mentionnés ne sont pas adaptatifs.
Récemment, des techniques plus sophistiquées basées sur le modèle multiplicatif du bruit ont
été développées notamment par Lee, 1980 ; Frost et al., 1981 ;Kuan et al., 1987. Toutefois,
l’efficacité de ces algorithmes peut varier d’une application à l’autre. Les techniques de
filtrage peuvent ou non supposer un modèle de chatoiement. Quand un modèle est supposé, il
z( k, l) y( k, l) u( k, l)
où z(k, l) est la valeur mesurée (intensité ou amplitude) du pixel (k, l) d’une image RSO,
y(k,l) sa valeur radiométrique réelle et u(k, l) le bruit, caractérisé par une distribution de
moyenne unité et d’écart-type u . On peut vérifier (Lee, 1981) que dans les régions
l’écart-type dans les régions homogènes, ce qui permet de tester l’hypothèse d’un bruit
estimé de la variance su 2 du chatoiement, qui est requise par certains filtres classiques. Un
modèle différent fut proposé par Ulaby et al. (1986) dans le but de modéliser la texture du
couvert terrestre sur les images RSO. Toutefois, le modèle multiplicatif est approprié pour le
filtrage du chatoiement. Les principes de quelques unes des méthodes citées sont présentés
En l’absence d’un modèle précis pour le signal original y, on utilise l’image elle-même pour
variance locale sz 2 dans une fenêtre n x n. A partir du modèle multiplicatif du bruit on obtient
z sz 2 z 2 s u 2
y z et sy 2
u su 2 1
moindres carrés. Il a été prouvé (Lee, 1981) que le meilleur estimé de y est :
sy 2
~
y z b( z z ) avec b , yz
sz 2
Le seul paramètre d’entrée du filtre est su qui dépend du traitement "multi-vues" RSO. Il est à
veiller que sy 2 ne soit pas négatif. Au cas où sy 2 serait négatif, il faut lui attribuer la valeur
zéro. Ce problème pourrait être évité si une limite inférieure d’homogénéité des régions est
convenablement fixée. Dans la méthode originale de Lee, un modèle linéaire est introduit,
sy 2
b'
z 2 su 2 sy 2
sy 2
Par substitution, on obtient : b , ce qui permet de comparer b et b’. Vu
z 2 su 2 (1 su 2 )sy 2
que (1 su 2 ) 1, cette linéarisation n’affecte pas le filtrage du chatoiement dans le cas des
images 4-vues en amplitude. Dans le cas des images RSO 1-vue, la formule exacte doit être
utilisée. L’estimation de l’écart-type du bruit est fonction du nombre de vues et d’un facteur
de qualité de l’image RSO (Ndi et al., 1997). Avant de présenter les différents algorithmes de
1. Fonction Gamma(n)
Début
a 1.7724538509;
t 1;
Gamma (a*t)/2n
Fin
2. Fonction Ecart-Type_Bruit(n, Q)
Q = 1 pour une image en amplitudes de type racine carrée des intensités (8 bits);
Début
n 1 !
2
Fin
50
L’algorithme de filtrage d’une image radar par le filtre de Lee est présenté ci-dessous :
1. Créer un tableau image intermédiaire imaf[ ] de type réel et y affecter l’image à filtrer.
Effectuer les étapes suivantes pour chaque pixel (i, j) de l’image intermédiaire.
2. Calculer la moyenne locale dans une fenêtre n x n centrée sur le pixel courant :
n 1 n 1
z ima f [i, j] n ²
i 0 j 0
3. Calculer la variance locale dans une fenêtre n x n centrée sur le pixel courant :
n 1 n 1
S z 1 n ² 1 ima f [i, j] z ²
2
i 0 j 0
4. Estimer l’écart-type du bruit dans la fenêtre :
y z
S y 2 S z 2 S u 2 S u 2 1
Si Sy 2 0 Alors Sy 2 0
Sy2
b 2
z Su2 Sy2
ima f [i, j] z b ima f [i, j] z
9. Transformer les niveaux de gris de l’image intermédiaire en des entiers et mettre le
ENT est la fonction partie entière. Le tableau image ima[ ] contient maintenant l’image filtrée.
Le filtre de LEE alterné est une variante du filtre de LEE précédemment présenté. Son
1. Créer un tableau image intermédiaire imaf[ ] de type réel et y affecter l’image à filtrer.
Effectuer les étapes suivantes pour chaque pixel (i, j) de l’image intermédiaire.
2. Calculer la moyenne locale dans une fenêtre n x n centrée sur le pixel courant :
n 1 n 1
z ima f [i, j] n ²
i 0 j 0
3. Calculer la variance locale dans une fenêtre n x n centrée sur le pixel courant :
n 1 n 1
S z 1 n ² 1 ima f [i, j] z ²
2
i 0 j 0
52
Si ( z 0) Alors Sy Sz 2 z
Sinon Sy 1
Début
a Sy 2 Su 4
b ima f [i, j] S y 2 S u 2 z S u 2 S u 4
bb a
ima[i, j] ENT b
Fin
ENT est la fonction partie entière. Le tableau image ima[ ] contient maintenant l’image filtrée.
4.3.3 Le Filtre à Maximum de Probabilité à Postériori (MAP Filter, Kuan et al., 1987)
Ce filtre adaptatif est basé sur la maximisation de la probabilité à postériori (MAP), p(y/z) du
p( z / y) p( y)
signal y(k,l) étant donné z(k,l) : p( y / z) . Pour une image RAS N-look en
p( z)
N N z N 1 N z
p( z / y) N exp
( N 1)! y y
Contrairement au filtre de Lee qui ne requiert aucun modèle pour le signal, le filtre
1 1 y y 2
p( y) exp
sy 2
2 sy
ayant pour moyenne y et pour variance sy 2 , lesquels sont estimés par calcul des statistiques
locales à l’intérieur d’une fenêtre, selon le même procédé utilisé dans le calcul du filtre de
Lee. La valeur de ~y est obtenue par maximisation de la grandeur log p z y log p y par
~
y3 z ~
y 2 N sy 2 ~
y N sy 2 z 0
La solution est la racine qui est positive, réelle et qui maximise la probabilité p(y/z). La
solution optimale est comprise entre z et z , comme dans le cas du filtre de Lee. Le nombre N
de "vues" utilisé pour générer l’image est généralement connu, à défaut il pourrait être estimé
dernier cas, la distribution réelle du chatoiement peut être évaluée en prenant sz / z valeurs
dans des régions homogènes. Certains auteurs ont remplacé le modèle Gaussien par un
modèle plus réaliste Gamma. Dans ce cas, on obtient une simple équation du second degré.
1. Créer un tableau image intermédiaire imaf[ ] de type réel et y affecter l’image à filtrer.
Effectuer les étapes suivantes pour chaque pixel (i, j) de l’image intermédiaire.
54
2. Calculer la moyenne locale dans une fenêtre n x n centrée sur le pixel courant :
n 1 n 1
z ima f [i, j] n ²
i 0 j 0
3. Calculer la variance locale dans une fenêtre n x n centrée sur le pixel courant :
n 1 n 1
S z 1 n ² 1 ima f [i, j] z ²
2
i 0 j 0
4. Estimer l’écart-type du bruit dans la fenêtre :
Si ( z 0) Alors Sy Sz2 z
Sinon Sy 0
Début
a S y 2 1 S u 2
b ima f [i, j] S y 2 S u 2 z S u 2 1 S y 2
bb a
ima[i, j] ENT b
Fin
ENT est la fonction partie entière. Le tableau image ima[ ] contient maintenant l’image filtrée.
55
Ce filtre est semblable au précédent, sauf qu’il tient compte du nombre de vues de l’image à
1. Créer un tableau image intermédiaire imaf[ ] de type réel et y affecter l’image à filtrer.
Effectuer les étapes suivantes pour chaque pixel (i, j) de l’image intermédiaire.
2. Calculer la moyenne locale dans une fenêtre n x n centrée sur le pixel courant :
n 1 n 1
z ima f [i, j] n ²
i 0 j 0
3. Calculer la variance locale dans une fenêtre n x n centrée sur le pixel courant :
n 1 n 1
S z 1 n ² 1 ima f [i, j] z ²
2
i 0 j 0
4. Estimer l’écart-type du bruit dans la fenêtre :
Si ( z 0) Alors Sy Sz2 z
Sinon Sy 0
Début
1 S u 2 S y 2 S u 2
t 1 z N vues 1
t 2 t 12 4 N vues ima f [i, j] z
t t1 t 2
t t 2
ima[i, j] ENT t
Fin
ENT est la fonction partie entière, et N vues est le nombre de vues de l’image à filtrer. Le
Ce filtre adaptatif fait l’hypothèse que l’information utile a une fonction d’auto-corrélation
exponentielle, c’est-à-dire que l’image est stationnaire dans un voisinage significatif du pixel
filtré. Dans ce cas, on peut vérifier que le meilleur estimé du signal est :
y k1 a exp a k k 0 l l 0 z( k , l)
~
n ,n
coordonnées (k,l) , k 1 une constante de normalisation choisie tel que les poids du filtre aient
toujours une somme égale à l’unité. La constante a est telle que a k 2 sz 2 / z 2 , où k 2 est une
remplacée par une somme pondérée dont les poids diminuent avec la distance. De plus, les
pixels centraux augmentent en poids quand la variance de la fenêtre croît, c’est-à-dire que le
pixel central est plus ou moins filtré selon l’homogénéité de la fenêtre. L’algorithme du
1. Créer un tableau image intermédiaire imaf[ ] de type réel et y affecter l’image à filtrer.
Effectuer les étapes suivantes pour chaque pixel (i, j) de l’image intermédiaire.
2. Calculer la moyenne locale dans une fenêtre n x n centrée sur le pixel courant :
n 1 n 1
z ima f [i, j] n ²
i 0 j 0
3. Calculer la variance locale dans une fenêtre n x n centrée sur le pixel courant :
n 1 n 1
S z ima f [i, j] z ²
2
i 0 j 0
4. Estimer l’écart-type du bruit dans la fenêtre :
k 4 n Su 2
2
a k Sz 2 z
i( n/2 ) j ( n / 2 )
avec
X a m i l j
8. Remettre les niveaux de gris de l’image intermédiaire à l’échelle des octets et mettre le
ima[i, j] ENT ima f [i, j] 255 ima fMAX
ima fMAX est le niveau de gris maximal de l’image intermédiaire et ENT est la fonction partie
Nous allons présenter un exemple de filtrage de LEE sur une portion d’image numérique de
taille 3 x 3. L’image à filtrer est présentée sur la figure 4.4. On y voit également le
remplissage des points de bordure selon le principe de symétrie. Nous allons d’abord filtrer
cette image par le principe de LEE en utilisant une fenêtre de filtrage de taille 3 x 3.
59
Nous allons procéder étape par étape en suivant l’algorithme de filtrage de LEE. Considérons
une fenêtre de taille 3 x 3 centrée autour du pixel de niveau de gris 205. Cette fenêtre contient
z (174 215 174 242 205 242 174 215 174) / ( 3 3) 201.66
3- Estimation de l’écart-type du bruit (on suppose que c’est une image en intensités (Q=1) et
Su 0.273 / 1 0.5225
y z 201.66
S 2 S 2 S 2 S 2 1 (835.25 0.5225²) / ( 0.5225² 1) 655.9
y z u u
6- Calcul du coefficient b :
Sy 2 655.9
b 0.05578
2
z Su Sy
2 2 201.66² 0.5225² 655.9
7- Remplacement du niveau de gris 205 par la valeur suivante (dans le tableau image réel) :
z b ima f [i, j] z 201.66 0.05578 ( 205 201.66) 201.84
8- Remplacement du niveau de gris 205 par la partie entière du réel 201.84 dans le tableau
image résultat. Le pixel correspondant aura donc la valeur 201 dans l’image filtrée. Les
fenêtres centrées autour des autres pixels de l’image sont représentées sur la figure 4.5.
Figure 4.5 Différents masques centrés autour des pixels de l’image de la figure 4.4.
61
Le calcul effectué pour obtenir le filtrage du pixel de niveau de gris 205 est également
effectué pour tous les autres pixels de l’image originale. Les résultats des calculs
intermédiaires sont présentés sur le Tableau 4.1, et l’image filtrée est présentée sur la figure
4.6.
La figure 4.7 présente un exemple de filtrage de FROST, réalisé sur une image ERS1 de la
Figure 4.7 Exemple de filtrage de FROST réalisé sur une image ERS1 (640 x 400 pixels,
De façon générale, aucune méthode de filtrage du chatoiement n’est meilleure par rapport aux
autres. Toutefois, une méthode peut s’avérer meilleure par rapport aux autres dans une
chatoiement a récemment été effectuée sur une image RSO ERS1 du littoral camerounais
(Tonye et al., 1998). Des critères tels que la préservation des contours et la préservation des
régions homogènes ont été utilisés pour sélectionner le filtre le plus adapté à cette étude. Le
filtre de Lee s’est avéré être le meilleur pour cette application particulière.
63
4.5 Exercices
Utiliser une taille 3 x 3 pour la fenêtre de filtrage, et le principe de symétrie pour les points de
bordure. Pour les quatre premiers exercices, on supposera que l’image traitée est une image en
intensités.
principe des zéros pour les points de bordure. Comparer les différents résultats.
choix.
5.1 Introduction
La morphologie mathématique est une technique d’analyse de l’image basée sur la notion des
ensembles. Il va s’agir de faire des mesures sur une image, afin d’en faire une quantification.
Pour cela, il faudrait construire l’ensemble dans lequel portera la mesure. Cette construction
s’effectue par des transformations successives qui, partant de l’image brute, vont peu à peu
s’appliquent aux images binaires, mais elles peuvent aussi être appliquées aux images en
niveaux de gris (Serra, 1982). Dans le cadre de cette étude, nous ne traiterons que le cas de la
morphologie mathématique appliquée aux images binaires, qui ont fait l’objet de la plupart de
nos applications. La morphologie mathématique appliquée à une image binaire, extraite d’une
image en niveau de gris RSO du satellite ERS1, a été récemment utilisée pour faire la
(Akono, 1996). Dans cette même étude, une autre image RSO du satellite ERS1 a été utilisée
morphologie mathématique. Dans une étude plus récente (Tonye et al., 1999), la morphologie
airborne SAR, programme Américain sur la côte atlantique camerounaise en 1992). Les
opérations morphologiques se font à l’aide d’un élément structurant B qui a des formes
Nous allons maintenant présenter les opérateurs morphologiques les plus courants, mais
La binarisation d’une image consiste à la transformer en une image ne possédant que deux
niveaux de gris. Le résultat de la binarisation produit une image binaire. Pour binariser une
présenté ci-dessous.
Début
Si ima[i, j] S
1 ET ima[i, j] S
2
Fin
66
La figure 5.2 montre un exemple de binarisation réalisé sur une portion d’image ERS1 autour
de la ville de Douala.
Figure 5.2. Binarisation d’une portion d’image ERS1 (183 x 159 pixels)
L’érosion consiste à réduire les entités. Pour cela, on fait promener un élément structurant B
sur le pourtour des entités. Le centre de l’élément structurant donne le contour de l’entité
réduite. Une érosion peut être répétée plusieurs fois sur une même image, on parle alors
Algorithme d’érosion
67
1. Créer deux tableaux imab1 et imab2 à valeurs booléennes, et de mêmes dimensions que
2. Pour tous les pixels (i,j) de niveau de gris ima[i,j] de l’image initiale Faire
Début
Fin
Début
Si ima b1 [i 1, j 1]
ET ima b1 [i 1, j]
ET ima b1 [i 1, j 1]
ET ima b1 [i 1, j 1]
ET ima b1 [i 1, j]
ET ima b1 [i 1, j 1]
Alors ima b 2 [i, j] ima b1[i, j]
Sinon ima b 2 [i, j] FAUX
Fin
Noter bien que le ET est l’opérateur ET logique s’appliquant aux valeurs booléennes entre
parenthèses. L’expression "Si ima b2 [i, j] …" veut dire "Si la valeur booléenne de
Début
68
Si ima b2 [i, j] Alors ima[i, j] 255 (attribution de la couleur blanche au pixel
positionné en (i,j))
Fin
La figure 5.3 montre un exemple d’érosion appliquée sur l’image binaire de la figure 5.2.
Figure 5.3. Erosion d’une portion d’image ERS1 (183 x 159 pixels)
La dilatation a pour effet d’augmenter la taille des entités. Pour cela, l’élément structurant
parcourt l’extérieur de l’entité. De même que pour l’érosion, le centre de l’élément structurant
donne le contour de l’entité agrandie. Une dilatation peut aussi être répétée plusieurs fois sur
69
Algorithme de dilatation
1. Créer deux tableaux imab1 et imab2 à valeurs booléennes, et de mêmes dimensions que
2. Pour tous les pixels (i,j) de niveau de gris ima[i,j] de l’image initiale Faire
Début
Fin
Début
Si ima b1 [i 1, j 1]
OU ima b1 [i 1, j]
OU ima b1 [i 1, j 1]
OU ima b1 [i 1, j 1]
OU ima b1 [i 1, j]
OU ima b1 [i 1, j 1]
Alors ima b 2 [i, j] VRAI
Sinon ima b 2 [i, j] ima b1 [i, j]
Fin
70
Noter bien que le OU est l’opérateur OU logique s’appliquant aux valeurs booléennes entre
parenthèses. L’expression "Si ima b2 [i, j] …" veut dire "Si la valeur booléenne de
Début
Si ima b2 [i, j] Alors ima[i, j] 255 (attribution de la couleur blanche au pixel
positionné en (i,j))
Fin
La figure 5.4 montre un exemple de dilatation appliquée sur l’image binaire de la figure 5.2.
Figure 5.4. Dilatation d’une portion d’image ERS1 (183 x 159 pixels)
Une ouverture consiste à éliminer des presqu’îles étroites des entités. Pour cela, on applique
d’abord une érosion, et ensuite une dilatation : XB (Serra, 1982). On peut aussi faire une
l’ouverture consiste simplement à faire d’abord une érosion telle que présentée au paragraphe
5.3, et ensuite une dilatation telle que présentée au paragraphe 5.4. La figure 5.5 montre un
Figure 5.5. Ouverture d’une portion d’image ERS1 (183 x 159 pixels)
A l’inverse de l’ouverture, la fermeture est une opération qui ferme les golfes et les petits
trous. Pour faire une fermeture, on applique d’abord une dilatation (voir algorithme du
paragraphe 5.4), et ensuite une érosion (voir algorithme du paragraphe 5.3) : XB (Serra, 1982).
Une fermeture de taille n (ou d’ordre n) se définit par n dilatations suivies de n érosions :
72
Xbn. La figure 5.6 montre un exemple de fermeture appliquée sur l’image binaire de la figure
5.2.
Figure 5.6. Fermeture d’une portion d’image ERS1 (183 x 159 pixels)
définir des filtres appelés Chapeaux Haut de Forme qui sont utilisés pour extraire les pics de
correspondant aux petites zones sombres. Ces zones sont représentées sur le graphe de la
fonction f ( x) par des pics (resp. des vallées étroites) et l’extraction des pics d’épaisseur
inférieure à n exige l’utilisation d’un élément structurant Bn de taille n (Debaine et al., 1988).
1) Le Chapeau Haut de Forme Blanc ou White Top Hat : WTH( X) = f ( X) - fBn ( X) . Il est
Les Chapeaux Haut de Forme Blanc et Noir sont des filtres dits morphologiques et sont
adaptés pour l’extraction d’objets linéaires fins (sombres ou clairs), d’une épaisseur donnée.
Ils ont été exploités par Legeley et Mering (1997) pour extraire les failles à partir d’images
SPOT panchromatiques.
74
Figure 5.7 Chapeau Haut de Forme Blanc d’une portion d’image ERS1 (183 x 159 pixels)
Figure 5.8 Chapeau Haut de Forme Noir d’une portion d’image ERS1 (183 x 159 pixels)
5.8 La Squelettisation
La squelettisation consiste à réduire l’épaisseur des entités d’une image à la dimension d’un
pixel. Lors du processus de squelettisation, les entités de l’image sont amincies par le biais
d’un élément structurant, jusqu’à ce qu’il y ait stabilité. La squelettisation s’effectue par une
75
pouvant plus être amincie. Ceci peut être réalisé en balayant l’image avec une série de huit
0 0 0 0 0 0 1 0 0 1 1 0
B1 0 1 0 B2 1 1 0 B3 1 1 0 B4 1 1 0
1 1 1 1 1 0 1 0 0 0 0 0
1 1 1 0 1 1 0 0 1 0 0 0
B5 0 1 0 B6 0 1 1 B7 0 1 1 B8 0 1 1
0 0 0 0 0 0 0 0 1 0 1 1
Algorithme de squelettisation
1. Créer deux tableaux imab1 et imab2 à valeurs booléennes, et de mêmes dimensions que
2. Pour tous les pixels (i,j) de niveau de gris ima[i,j] de l’image initiale Faire
Début
Fin
Iter 1;
76
Début
Stable VRAI ;
Iter Iter+1 ;
//MASQUE Est
Début
SI Im a [i 1, j 1]
b1
OU Im a [i 1, j]
b1
OU Im a [i 1, j 1]
b1
OU ( NON ( Im a b1 [i, j]
ET Im a b1 [i 1, j 1]
ET Im a b1 [i 1, j]
ET Im a b1 [i 1, j 1]))
ALORS Im a b 2 [i, j] Im a b1 [i, j]
SINON
Début
Im a b 2 [i, j] FAUX;
Stable FAUX;
Fin
Fin
//MASQUE Sud-Est
Début
77
SI Im a [i 1, j]
b2
OU Im a [i 1, j 1]
b2
OU Im a [i, j 1]
b2
OU ( NON ( Im a b 2 [i, j]
ET Im a b2 [i 1, j]
ET Im a b2 [i 1, j 1]
ET Im a b2 [i, j 1]))
ALORS Im a b1 [i, j] Im a b 2 [i, j]
SINON
Début
Im a b1 [i, j] FAUX;
Stable FAUX;
Fin
Fin
//MASQUE Sud
Début
SI Im a [i 1, j 1]
b1
OU Im a [i, j 1]
b1
OU Im a [i 1, j 1]
b1
OU ( NON ( Im a b1 [i, j]
ET Im a b1 [i 1, j 1]
ET Im a b1 [i, j 1]
ET Im a b1 [i 1, j 1]))
ALORS Im a b 2 [i, j] Im a b1 [i, j]
SINON
Début
Im a b 2 [i, j] FAUX;
Stable FAUX;
Fin
Fin
//MASQUE Sud-Ouest
78
Début
SI Im a [i, j 1]
b2
OU Im a [i 1, j 1]
b2
OU Im a [i 1, j]
b2
OU ( NON ( Im a b 2 [i, j]
ET Im a b2 [i 1, j]
ET Im a b2 [i 1, j 1]
ET Im a b2 [i, j 1]))
ALORS Im a b1 [i, j] Im a b 2 [i, j]
SINON
Début
Im a b1 [i, j] FAUX;
Stable FAUX;
Fin
Fin
//MASQUE Ouest
Début
SI Im a [i 1, j 1]
b1
OU Im a [i 1, j]
b1
OU Im a [i 1, j 1]
b1
OU ( NON ( Im a b1[i, j]
ET Im a b1 [i 1, j 1]
ET Im a b1 [i 1, j]
ET Im a b1 [i 1, j 1]
ALORS Im a b 2 [i, j] Im a b1[i, j]
SINON
Début
Im a b 2 [i, j] FAUX;
Stable FAUX;
Fin
79
Fin
//MASQUE Nord-Ouest
Début
SI Im a [i 1, j]
b2
OU Im a [i 1, j 1]
b2
OU Im a [i, j 1]
b2
OU ( NON ( Im a b 2 [i, j]
ET Im a b2 [i 1, j]
ET Im a b2 [i 1, j 1]
ET Im a b2 [i, j 1]))
ALORS Im a b1[i, j] Im a b 2 [i, j]
SINON
Début
Im a b1[i, j] FAUX;
Stable FAUX;
Fin
Fin
//MASQUE Nord
Début
80
SI Im a [i 1, j 1]
b1
OU Im a [i, j 1]
b1
OU Im a [i 1, j 1]
b1
OU ( NON ( Im a b1[i, j]
ET Im a b1 [i 1, j 1]
ET Im a b1 [i, j 1]
ET Im a b1 [i 1, j 1]))
ALORS Im a b 2 [i, j] Im a b1[i, j]
SINON
Début
Im a b 2 [i, j] FAUX;
Stable FAUX;
Fin
Fin
//MASQUE Nord-Est
Début
SI Im a [i 1, j]
b2
OU Im a [i 1, j 1]
b2
OU Im a [i, j 1]
b2
OU ( NON ( Im a b 2 [i, j]
ET Im a b2 [i, j 1]
ET Im a b2 [i 1, j 1]
ET Im a b2 [i 1, j]))
ALORS Im a b1[i, j] Im a b 2 [i, j]
SINON
Début
Im a b1[i, j] FAUX;
Stable FAUX;
Fin
Fin
Fin
81
Début
Si ima b1[i, j] Alors ima[i, j] 255 (attribution de la couleur blanche au pixel
positionné en (i,j))
Fin
La figure 5.7 présente un exemple de squelettisation appliquée sur l’image binaire de la figure
5.2.
Figure 5.9 Squelettisation d’une portion d’image ERS1 (183 x 159 pixels)
5.10 Exercices
Prendre S1 = 0 et S2 = 100 pour seuil bas et seuil haut, et utiliser le principe de symétrie pour
Programmer tous les opérateurs morphologiques vus dans ce chapitre dans un langage
6.1 Introduction
Des objets distincts ayant des propriétés spectrales semblables ou identiques peuvent induire
beaucoup de confusions entre les classes lorsqu’on effectue des classifications se basant
uniquement sur l’information spectrale contenue dans les images. C’est pour cette raison que
des méthodes de classification prenant en compte l’information spatiale ont été développées.
L’analyse de texture est une méthode qui tient compte de la distribution spatiale des niveaux
de gris autour d’un pixel considéré de l’image. Plusieurs méthodes d’analyse de texture ont
été développées au fil des années, la plus classique étant celle de la matrice de cooccurrences
(Haralick, et al. 1973). Dans cette méthode, l’élément S(i,j,v) de la matrice de cooccurrence
est la probabilité d’apparition du couple de niveaux de gris (i,j), étant donné un vecteur de
méthode est qu’elle ne tient pas compte de toutes les directions autour d’un pixel. Récemment
Wang et He ont proposé l’approche du spectre de texture (Wang and He 1990). Cette
des propriétés stochastiques de la distribution spatiale des niveaux de gris de l’image, excepté
qu’elle tient compte de tous les huit pixels voisins autour du pixel considéré au lieu d’un seul
vecteur de déplacement. Dans ce qui suit, nous allons d’abord présenter les méthodes
classiques d’analyse de texture, c’est-à-dire les méthodes faisant appel au calcul de la matrice
longueurs de plage.
Ces méthodes sont basées sur les histogrammes de premier ordre. Un tel histogramme indique
l’histogramme on peut extraire des paramètres avec des statistiques de degrés différents. Voici
- Moyenne :
L 1
SM i P( i) (6.1)
i0
- Entropie :
L 1
Ent P(i) Log 2 P(i) (6.2)
i0
- Ecart-type :
1
L 1
2 2
S D i S M (6.3)
i0
L’écart-type est une mesure de la répartition des niveaux de gris autour de la moyenne.
- Dissymétrie (Skewness) :
1 L1
i SM P(i)
3
Skw
S D i 0
3 (6.4)
moyenne ou bien s’il est plus orienté à gauche ou à droite par rapport à sa moyenne).
- Le paramètre "Kurtosis" :
1L1
i SM P(i)
4
Kurt
S D i 0
4 (6.5)
Le paramètre "Kurtosis" donne une indication sur l’aspect pointu et effilé ou plutôt aplati de
l’histogramme.
85
P(i) = N(i)/M, où M est le nombre de pixels de la fenêtre, et N(i) le nombre de pixels ayant le
même niveau de gris "i" dans la fenêtre. L est le nombre maximal de niveaux de gris
possibles. Illustrons le calcul du paramètre moyenne, par exemple, avec une image numérique
Calculons les valeurs P(i) pour tous les niveaux de gris de l’image en utilisant une fenêtre de
taille 3x3, et la méthode de symétrie pour les points de bordure. Considérons une fenêtre de
taille 3 x 3 centrée autour du pixel de niveau de gris 205. Cette fenêtre contient les valeurs
suivantes :
Nous avons :
SM(205) = (174 x 4/9) + (215 x 2/9) + (242 x 2/9) + (205 x 1/9) = 201.66
On prend la partie entière : le pixel considéré aura donc pour niveau de gris 201 dans l’image
résultat. On procède de même pour tous les autres pixels et on obtient les résultats ci-après.
Les masques centrés autour des autres pixels de l’image sont représentés à la Figure 6.2.
Figure 6.2. Différents masques centrés autour des pixels de l’image numérique
De la Figure 6.1.
SM(242) = (215 x 2/9) + (174 x 2/9) + (162 x 2/9) + (205 x 1/9) + (242 x 1/9) + (185 x 1/9)
= 192.66
SM(185) = (174 x 4/9) + (162 x 2/9) + (242 x 2/9) + (185 x 1/9) = 187.66
SM(174) = (205 x 1/9) + (242 x 1/9) + (185 x 2/9) + (215 x 1/9) + (174 x 1/9) + (162 x 1/9)
SM(162) = (242 x 2/9) + (185 x 2/9) + (174 x 2/9) + (144 x 2/9) + (162 x 1/9) = 183.55
SM(144) = (215 x 2/9) + (174 x 2/9) + (162 x 2/9) + (121 x 1/9) + (144 x 1/9) + (185 x 1/9)
= 172.44
SM(185) = (174 x 4/9) + (144 x 2/9) + (162 x 2/9) + (185 x 1/9) = 165.88
SM(215) = (242 x 2/9) + (205 x 1/9) + (174 x 2/9) + (215 x 1/9) + (144 x 2/9) + (121 x 1/9)
= 184.55
SM(121) = (174 x 4/9) + (215 x 2/9) + (144 x 2/9) + (121 x 1/9) = 170.55
Ces méthodes sont basées sur l’histogramme de deuxième ordre des niveaux de gris,
l’image dans une fenêtre et dans une direction données. Haralick et al. (1973) proposent 14
l’information texturale contenue dans l’image. Nous allons présenter quelques uns des
paramètres les plus utilisés. Nous présentons aussi les deux paramètres valeur absolue et
contraste, proposés par Pratt (Pratt, 1991), à cause de leur analogie avec les paramètres
L 1 L 1
E P(i, j, d , )
2
(6.6)
i 0 j 0
- Entropie :
L 1 L 1
Ent P(i, j, d , ) log 2 ( P(i, j, d , )) (6.7)
i 0 j 0
i j P(i, j, d, )
L 1 L 1 2
Cont (6.8)
i 0 j 0
- Corrélation :
L 1 L 1
Corr (i x )( j y ) P(i, j, d , ) / x y (6.9)
i 0 j 0
Dans ces expressions, P(i, j, d, ) est la probabilité d’apparition du couple de niveaux de gris
(i,j) dans une direction , d étant la distance spatiale entre les pixels. x et x représentent
89
cooccurrence.
L’énergie mesure l’homogénéité de l’image. Elle a une valeur numérique faible quand les
p(i,j) de la matrice de cooccurrence ont des valeurs très proches et une valeur forte quand
certaines valeurs sont grandes et d’autres petites, par exemple quand les p(i,j) sont
concentrées autour de la diagonale. L’inertie est une mesure du contraste (ou de la variation
locale des niveaux de gris) dans l’image. Ce paramètre a une valeur numérique importante si
les p(i,j) sont concentrées hors diagonale (c’est-à-dire s’il existe de nombreuses transitions
caractérisées par une différence de niveaux de gris (i-j) importante (le facteur (i-j) est
cooccurrence sont centrées sur la diagonale, le contraste est faible. La corrélation a une forte
valeur quand les valeurs sont uniformément distribuées dans la matrice de cooccurrence, et
une faible valeur dans le cas contraire. Elle mesure les dépendances linéaires des niveaux de
gris dans l’image. Quant à l’entropie, elle est grande quand les valeurs de la matrice de
cooccurrence sont presque toutes égales et elle est faible dans le cas contraire. Nous
présentons sur les figures 38, 39, 40 et 41 les algorithmes de calcul de la matrice de
Sous-Programme MATCOOC-0
Variables d’entrée :
W : Masque centré autour d’un pixel de l’image (W est
Une matrice de taille Tx par Ty) ;
L : Nombre maximal de niveaux de gris de l’image ;
Variable de sortie :
MCOOC : Matrice de cooccurrence (C’est un tableau
Bidimensionnel de réels) ;
Variables locales :
i, j, x, y : Entiers ;
MCOOCs : Tableau de type matrice de cooccurrence ;
Début
Pour j variant de 0 à L-1 Faire
Pour i variant de 0 à L-1 Faire
MCOOC[i,j] 0 ;
Pour y variant de 0 à Ty-1 Faire
Pour x variant de 0 à Tx-2 Faire
Début
I W[x,y]
J W[x+1,y]
MCOOC[I,J] MCOOC[I,J] + 1 ;
Fin
MCOOCs Symétrique de MCOOC ;
Pour j variant de 0 à L-1 Faire
Pour i variant de 0 à L-1 Faire
MCOOC[i,j] ((1/2)*(MCOOC[i,j]+MCOOCs[i,j])/(2*Ty*(Tx-
1)));
Sous-Programme MATCOOC-45
Variables d’entrée :
W : Masque centré autour d’un pixel de l’image (W est
Une matrice de taille Tx par Ty) ;
L : Nombre maximal de niveaux de gris de l’image ;
Variable de sortie :
MCOOC : Matrice de cooccurrence (C’est un tableau
Bidimensionnel de réels) ;
Variables locales :
i, j, x, y : Entiers ;
MCOOCs : Tableau de type matrice de cooccurrence ;
Début
Pour j variant de 0 à L-1 Faire
Pour i variant de 0 à L-1 Faire
MCOOC[i,j] 0 ;
Pour y variant de 0 à Ty-1 Faire
Pour x variant de 0 à Tx-2 Faire
Début
I W[x,y]
J W[x+1,y-1]
MCOOC[I,J] MCOOC[I,J] + 1 ;
Fin
MCOOCs Symétrique de MCOOC ;
Pour j variant de 0 à L-1 Faire
Pour i variant de 0 à L-1 Faire
MCOOC[i,j] ((1/2)*(MCOOC[i,j]+MCOOCs[i,j])/(2*(Tx-
1)*(Ty-1)));
Sous-Programme MATCOOC-90
Variables d’entrée :
W : Masque centré autour d’un pixel de l’image (W est
Une matrice de taille Tx par Ty) ;
L : Nombre maximal de niveaux de gris de l’image ;
Variable de sortie :
MCOOC : Matrice de cooccurrence (C’est un tableau
Bidimensionnel de réels) ;
Variables locales :
i, j, x, y : Entiers ;
MCOOCs : Tableau de type matrice de cooccurrence ;
Début
Pour j variant de 0 à L-1 Faire
Pour i variant de 0 à L-1 Faire
MCOOC[i,j] 0 ;
Pour y variant de 0 à Ty-1 Faire
Pour x variant de 0 à Tx-2 Faire
Début
I W[x,y]
J W[x,y-1]
MCOOC[I,J] MCOOC[I,J] + 1 ;
Fin
MCOOCs Symétrique de MCOOC ;
Pour j variant de 0 à L-1 Faire
Pour i variant de 0 à L-1 Faire
MCOOC[i,j] ((1/2)*(MCOOC[i,j]+MCOOCs[i,j])/(2*(Ty-
1)*(Tx)));
Sous-Programme MATCOOC-135
Variables d’entrée :
W : Masque centré autour d’un pixel de l’image (W est
Une matrice de taille Tx par Ty) ;
L : Nombre maximal de niveaux de gris de l’image ;
Variable de sortie :
MCOOC : Matrice de cooccurrence (C’est un tableau
Bidimensionnel de réels) ;
Variables locales :
i, j, x, y : Entiers ;
MCOOCs : Tableau de type matrice de cooccurrence ;
Début
Pour j variant de 0 à L-1 Faire
Pour i variant de 0 à L-1 Faire
MCOOC[i,j] 0 ;
Pour y variant de 0 à Ty-1 Faire
Pour x variant de 0 à Tx-2 Faire
Début
I W[x,y]
J W[x-1,y-1]
MCOOC[I,J] MCOOC[I,J] + 1 ;
Fin
MCOOCs Symétrique de MCOOC ;
Pour j variant de 0 à L-1 Faire
Pour i variant de 0 à L-1 Faire
MCOOC[i,j] ((1/2)*(MCOOC[i,j]+MCOOCs[i,j])/(2*(Tx-
1)*(Ty-1)));
Nous présentons ci-dessous un exemple d’algorithme de calcul d’une image de texture pour le
paramètre énergie.
2. Créer un tableau bidimensionnel de réels, ayant les mêmes dimensions que l’image
originale : imaf[].
6. Initialiser une variable réelle ENE à zéro et une autre variable réelle ENEmax à zéro.
imaf[x,y] ENE ;
9. Pour tous les pixels (x,y) modifier les valeurs du tableau ima selon :
Ima[x,y] ENT((255* imaf[x,y]) / ENEmax). Il s’agit ici d’une remise des niveaux de
ENT représente la fonction partie entière, et le tableau ima contient maintenant l’image de
texture.
Il est possible de considérer toutes les directions à la fois, soit en prenant la moyenne des
valeurs des matrices de cooccurence dans les différentes directions, soit en prenant le
maximum des directions. Toutes ces possibilités ont été implémentées dans le logiciel VOIR.
La Figure 6.8 présente des exemples d’images de texture du second ordre obtenues à partir
Figure 6.8. Exemples d’images de texture du second ordre. De haut en bas, à droite :
adaptatif : un point appartient au voisinage du point courant si son niveau de gris est peu
différent. La taille du voisinage est donc très variable, et elle constitue un paramètre
La méthode des longueurs de plage de niveau de gris consiste à compter le nombre de plages
de niveau de gris d’une certaine longueur, dans une certaine direction (Dasarathy, 1991).
R ri, j; (6.11)
de la plage de niveau de gris. 11 paramètres caractérisant la texture ont été extraits de ces
1 M N r (i, j)
SRLGE (6.12)
nr i 1 j1 i 2 j2
1 M N i 2 r (i, j)
SRHGE (6.13)
nr i 1 j1 j2
1 M N j2 r (i, j)
LRLGE (6.14)
nr i 1 j1 i 2
1 M N 2 2
LRHGE i j r (i, j) (6.15)
nr i 1 j1
M N
La constante nr r (i, j) est le nombre total de plages dans une fenêtre centrée autour
i 1 j 1
d’un pixel courant. M est le nombre de niveaux de gris dans l’image et N est le nombre de
longueurs de plages rencontrées dans la fenêtre. Pour obtenir l’image de texture, on remplace
le niveau de gris du pixel courant par la valeur du paramètre de texture évalué dans une
97
fenêtre centrée autour de ce pixel. Nous présentons dans les lignes qui suivent les algorithmes
Sous-Programme R0
Variables d’entrée :
W : Masque centré autour d’un pixel de l’image (W est
Une matrice de taille Tm par Tm) ;
I, J : Entiers ;
Variable de sortie :
R0 : Nombre de plages (dans la direction 0°) de niveau de gris
I et de longueur J dans la fenêtre W de taille Tm x Tm
Variables locales :
C1, C2, x, y, jj : Entiers ;
Début
C1 0 ;
Pour y variant de 0 à Tm-1 Faire
Début
x 0;
Tant Que (x Tm-J) Faire
Début
C2 0 ;
Pour jj variant de x à x+J-1 Faire
Si (W[jj,y] = I) Alors C2 C2+1; //On compte le nombre
//d'éléments successifs ayant le niveau de gris I
//Si ce nombre est égal à J, ça fait une plage de longueur J et
//on incrémente C1. On fait ensuite un saut de longueur une
//plage et on teste les éléments suivants.
Si (C2 = J) Alors
Début
C1 C1+1;
x x + J;
Fin
//Si le nombre précédent n’est pas égal à J on passe à l'élément
//suivant et on recommence le processus.
Sinon x x + 1;
Fin
Fin
R0 C1 ;
Fin du Sous-Programme.
Figure 6.9. Algorithme de calcul de la matrice des longueurs de plages dans la direction 0°.
98
Sous-Programme R45a
Variables d’entrée :
W : Masque centré autour d’un pixel de l’image (W est
Une matrice de taille Tm par Tm) ;
I, J : Entiers ;
Variable de sortie :
R45a : Nombre de plages (dans la direction 45°) de niveau de gris
I et de longueur J dans la fenêtre W de taille Tm x Tm (pour les
Eléments au dessus de la diagonale, la diagonale étant incluse).
Variables locales :
C1, C2, x, y, ii : Entiers ;
Début
C1 0 ;
Pour y variant de J-1 à Tm-1 Faire
Début
x 0;
C2 0 ;
Tant Que (x y-J+1) Et (x Tm -1) Faire
Début
Pour ii variant de x à x+J-1 Faire
Si (W[ii,y-ii] = I) Alors C2 C2+1; //On compte le nombre
//d'éléments successifs ayant le niveau de gris I (selon la dir. 45°).
//Si ce nombre est égal à J, ça fait une plage de longueur J et
//on incrémente C1. On fait ensuite un saut de longueur une
//plage et on teste les éléments suivants.
Si (C2 = J) Alors
Début
C1 C1+1;
x x + J;
Fin
//Si le nombre précédent n’est pas égal à J on passe à l'élément
//suivant et on recommence le processus.
Sinon x x + 1;
Fin
Fin
R45a C1 ;
Fin du Sous-Programme.
Figure 6.10. Algorithme de calcul de la matrice des longueurs de plages dans la direction 45°
Pour les éléments au dessus de la diagonale (les éléments de la diagonale étant inclus) dans
Sous-Programme R45b
Variables d’entrée :
W : Masque centré autour d’un pixel de l’image (W est
Une matrice de taille Tm par Tm) ;
I, J : Entiers ;
Variable de sortie :
R45b : Nombre de plages (dans la direction 45°) de niveau de gris
I et de longueur J dans la fenêtre W de taille Tm x Tm (pour les
Eléments au dessus de la diagonale, la diagonale étant excluse).
Variables locales :
C1, C2, x, y, ii : Entiers ;
Début
C1 0 ;
Pour y variant de J-1 à Tm-2 Faire
Début
x 0;
C2 0 ;
Tant Que (x y-J+1) Et (x Tm -1) Faire
Début
Pour ii variant de x à x+J-1 Faire
Si (W[ii,y-ii] = I) Alors C2 C2+1; //On compte le nombre
//d'éléments successifs ayant le niveau de gris I (selon la dir. 45°).
//Si ce nombre est égal à J, ça fait une plage de longueur J et
//on incrémente C1. On fait ensuite un saut de longueur une
//plage et on teste les éléments suivants.
Si (C2 = J) Alors
Début
C1 C1+1;
x x + J;
Fin
//Si le nombre précédent n’est pas égal à J on passe à l'élément
//suivant et on recommence le processus.
Sinon x x + 1;
Fin
Fin
R45b C1 ;
Fin du Sous-Programme.
Figure 6.11. Algorithme de calcul de la matrice des longueurs de plages dans la direction 45°
100
Pour les éléments au dessus de la diagonale, les éléments de la diagonale étant exclus (y varie
de J-1 à Tm-2 au lieu de Tm-1 comme précédemment) dans une fenêtre centrée autour d’un
Sous-Programme R45
Variables d’entrée :
W : Masque centré autour d’un pixel de l’image (W est
Une matrice de taille Tm par Tm) ;
I, J : Entiers ;
Variable de sortie :
R45 : Nombre de plages (dans la direction 45°) de niveau de gris I
et de longueur J dans la fenêtre W de taille Tm x Tm
Variables locales :
C1, C2 : Entiers ;
Ws : Matrice de même type que W ;
Figure 6.12. Algorithme de calcul de la matrice des longueurs de plages dans la direction 45°
dans une fenêtre centrée autour d’un pixel de l’image originale (tous les éléments
Sous-Programme Rot45
Variables d’entrée :
W1 : Masque centré autour d’un pixel de l’image (W1 est
Une matrice de taille Tm par Tm) ;
Variable de sortie :
W2 : Masque de même type que W ;
Variables locales :
x, y : Entiers ;
Début
Pour y variant (dans le sens décroissant) de Tm-1 à 0 Faire
Pour x variant de 0 à Tm-1 Faire
W2[Tm-1-y , x] W1[x , y];
Fin du Sous-Programme.
Figure 6.13. Algorithme de rotation des éléments d’une matrice (masque) d’un angle de 45°.
102
Sous-Programme R135
Variables d’entrée :
W : Masque centré autour d’un pixel de l’image (W est
Une matrice de taille Tm par Tm) ;
I, J : Entiers ;
Variable de sortie :
R135 : Nombre de plages (dans la direction 135°) de niveau de
gris I et de longueur J dans la fenêtre W de taille Tm x Tm
Variables locales :
C1 : Entier ;
W2 : Masque de même type que W ;
Figure 6.14. Algorithme de calcul de la matrice des longueurs de plages dans la direction
135° dans une fenêtre centrée autour d’un pixel de l’image originale.
103
Sous-Programme R90
Variables d’entrée :
W : Masque centré autour d’un pixel de l’image (W est
Une matrice de taille Tm par Tm) ;
I, J : Entiers ;
Variable de sortie :
R90 : Nombre de plages (dans la direction 90°) de niveau de
gris I et de longueur J dans la fenêtre W de taille Tm x Tm
Variable locale : W1 : Masque de même type que W ;
W1 Transposée de W;
R90 R0(I,J,W1,Tm);
Fin du Sous-Programme.
Figure 6.15. Algorithme de calcul de la matrice des longueurs de plages dans la direction 90°
Sous-Programme nR0
Variables d’entrée :
W : Masque centré autour d’un pixel de l’image (W est
Une matrice de taille Tm par Tm) ;
L : Entier (nombre maximal de niveaux de gris de l’image);
Variable de sortie :
nR0 : Nombre total de plages (dans la direction 0°) dans la fenêtre
W de taille Tm x Tm (nR0 est une variable entière).
Variables locales :
Som, i, j : Entiers ;
Début
Som 0 ;
Pour i variant de 0 à L-1 Faire
Pour j variant de 1 à Tm-1 Faire Som Som + R0(i, j, W, Tm) ;
nR0 Som ;
Fin du Sous-Programme.
Figure 6.16. Algorithme de calcul du nombre total de plages dans une fenêtre
Sous-Programme nR45
Variables d’entrée :
W : Masque centré autour d’un pixel de l’image (W est
Une matrice de taille Tm par Tm) ;
L : Entier (nombre maximal de niveaux de gris de l’image);
Variable de sortie :
NR45 : Nombre total de plages (dans la direction 45°) dans la
fenêtre W de taille Tm x Tm (nR45 est une variable entière).
Variables locales :
Som, i, j : Entiers ;
Début
Som 0 ;
Pour i variant de 0 à L-1 Faire
Pour j variant de 1 à Tm-1 Faire Som Som + R45(i, j, W, Tm) ;
nR45 Som ;
Fin du Sous-Programme.
Figure 6.17. Algorithme de calcul du nombre total de plages dans une fenêtre
Sous-Programme nR90
Variables d’entrée :
W : Masque centré autour d’un pixel de l’image (W est
Une matrice de taille Tm par Tm) ;
L : Entier (nombre maximal de niveaux de gris de l’image);
Variable de sortie :
NR90 : Nombre total de plages (dans la direction 90°) dans la
fenêtre W de taille Tm x Tm (nR90 est une variable entière).
Variables locales :
Som, i, j : Entiers ;
Début
Som 0 ;
Pour i variant de 0 à L-1 Faire
Pour j variant de 1 à Tm-1 Faire Som Som + R90(i, j, W, Tm) ;
NR90 Som ;
Fin du Sous-Programme.
Figure 6.18. Algorithme de calcul du nombre total de plages dans une fenêtre
Sous-Programme nR135
Variables d’entrée :
W : Masque centré autour d’un pixel de l’image (W est
Une matrice de taille Tm par Tm) ;
L : Entier (nombre maximal de niveaux de gris de l’image);
Variable de sortie :
nR135 : Nombre total de plages (dans la direction 45°) dans la
fenêtre W de taille Tm x Tm (nR135 est une variable entière).
Variables locales :
Som, i, j : Entiers ;
Début
Som 0 ;
Pour i variant de 0 à L-1 Faire
Pour j variant de 1 à Tm-1 Faire Som Som + R135(i, j, W, Tm) ;
nR135 Som ;
Fin du Sous-Programme.
Figure 6.19. Algorithme de calcul du nombre total de plages dans une fenêtre
masque de taille carrée et impaire. Une fois que la matrice des longueurs de plages est
calculée, il est devient aisé de calculer les différents paramètres de texture. Nous allons
présenter un exemple d’algorithme pour l’obtention d’une image de texture, avec le paramètre
appelé poids des petites plages de faible niveau de gris. L’expression permettant de calculer
1 M N r ( i, j)
SRLGE 2 2 (6.16)
nr i 1 j1 i j
108
Algorithme d’obtention d’une image de texture avec le paramètre «poids des petites
plages de faible niveau de gris» («Short Run Low Gray level Emphasis» en Anglais)
2. Créer un tableau bidimensionnel de réels, ayant les mêmes dimensions que l’image
originale : imaf[].
imaf[x,y] aSRLGE ;
10. Pour tous les pixels (x,y) modifier les valeurs du tableau ima selon :
109
255.
ENT représente la fonction partie entière, et le tableau ima contient maintenant l’image de
texture.
Il est possible de considérer toutes les directions à la fois, soit en prenant la moyenne des
valeurs des matrices des longueurs de plages dans les différentes directions, soit en prenant le
maximum des directions. Toutes ces possibilités ont été implémentées dans le logiciel VOIR.
La Figure 6.20 présente des exemples d’images de texture obtenues par la méthode des
longueurs de plages. L’image traitée est une portion d’image ERS1 autour de la région de
Douala au Cameroun.
110
Figure 6.20. Exemples d’images de texture obtenues par la méthode des longueurs de plages.
De haut en bas, à droite : L’image originale (ERS1, 12.5 mètres de résolution), l’image du
poids des petites plages de faible niveau de gris, l’image du poids des petites plages de fort
niveau de gris, l’image du poids des longues plages de faible niveau de gris.
6.4 Exercices
Programmer le calcul des images de texture avec les trois méthodes présentées dans ce
7.1 Introduction
Les données de télédétection peuvent être analysées pour extraire des informations
thématiques utiles. La classification multispectrale est l’une des méthodes les plus souvent
utilisées pour l’extraction de ces informations. Cette procédure suppose que les images d’une
d’algorithmes comprenant :
du sol (par exemple : sol nu, broussailles arbustives, forêt, cultures) sont connues à priori à
ou de cartes. L’analyste tente de localiser sur l’image des sites spécifiques représentant des
régions homogènes de ces types de couverture du sol connus. Ces régions homogènes sont
texturales de ces régions sont utilisées pour entraîner le classificateur que l’on utilisera pour
matrices de covariance, matrices de corrélation, etc.) sont calculés pour chaque site
est ensuite examiné et affecté à la classe avec laquelle il a la plus grande vraisemblance
(figure 7.1a) du fait qu’un pixel est affecté à une seule classe à la fois, même si le capteur
enregistre le flux de radiation provenant d’un mélange d’éléments biophysiques contenu dans
le champ de vue instantané (Instantaneous Field Of View ou IFOV) du pixel, par exemple :
Dans une classification non supervisée, l’identité des types de couverture du sol devant
constituer les classes d’information n’est pas généralement connue à priori. Cette situation
informatique devrait donc permettre à l’ordinateur de créer des regroupements de pixels ayant
des caractéristiques spectrales semblables (Jahne, 1991). L’analyste procède ensuite à une
interprétation de ces regroupements pour produire des classes d’information (figure 7.1a).
La logique de classification floue, qui prend en compte la nature hétérogène et imprécise des
flux de radiation émis ou réfléchi par des mélanges hétérogènes d’éléments biophysiques tels
que le sol, l’eau et la végétation. Ainsi, les classes de couverture du sol changent
graduellement lorsqu’on parcourt la scène étudiée, sans avoir des frontières claires et précises.
Or, la plupart des algorithmes de classification utilisent la théorie booléenne des ensembles
naturelle des données géographiques. Plutôt que d’affecter chaque pixel de l’image à une
réels indiquant les degrés d’appartenance de chaque pixel aux différentes classes d’intérêt
114
(figure 7.1b). Cette information peut ensuite être utilisée par l’analyste pour extraire des
informations plus précises sur la couverture du sol, telle que la composition des pixels
Il est parfois nécessaire d’inclure des données auxiliaires non spectrales dans une
classification supervisée ou non supervisée et floue pour extraire les informations voulues. De
Dans ce chapitre, les principales approches de classification d’images sont abordées au vu des
considérations qui doivent être prises en compte pour leur mise en œuvre effective, et en
tenant compte de la qualité des résultats attendus. Des illustrations pratiques seront présentées
chaque fois que cela sera nécessaire, pour rendre le texte beaucoup plus compréhensible.
115
1 1 Bandes de données
2 2 de télédétection
3 3 superposables
n n
Partition binaire de l’espace des caractéristiques Partition floue de l’espace des caractéristiques
et affectation de pixel dans l’une des m classes où chaque pixel à un degré d’appartenance
en utilisation une logique de classification aux m classes en utilisant une logique de
supervisée et/ou non supervisée classification supervisée et/ou non supervisée
1
2
3
m
Classification finale en m classes
Figure 7.1. Différence entre la classification binaire classique à une passe, utilisant une
Une bonne classification supervisée ou non supervisée des données de télédétection peut être
obtenue si les étapes générales résumées sur la figure 7.1 sont comprises et attentivement
suivies. L’analyste sélectionne d’abord une région d’intérêt appropriée sur laquelle les
hypothèses seront testées. Les classes d’intérêt devant être testées dans l’hypothèse vont dicter
du système d’acquisition des données. Quand les données sont finalement disponibles, elles
classification approprié est ensuite choisi et les données d’entraînement initiales sont
collectées. Une réduction de paramètres est souvent effectuée dans le but d’extraire de
nouveaux paramètres (à partir des bandes de données originales) qui discriminent mieux les
classes en présence. Dans le cas d’une classification supervisée, les paramètres retenus à
l’étape précédente sont alors utilisés pour entraîner le système de classification. Des données
l’image entière pour produire une carte de classification. Une évaluation rigoureuse de
l’erreur de classification est ensuite effectuée. Si les résultats sont acceptables, les cartes de
classification et les statistiques associées sont communiquées aux utilisateurs. Dans les
paragraphes sui suivent, nous passons en revue toutes ces considérations. Les contributions
paramètres, et l’utilisation de l’algorithme appelé Fuzzy c-Means pour générer les fonctions
Les classes d’intérêt doivent être sélectionnées et définies tel que les données de télédétection
al., 1992). Ceci nécessite l’utilisation d’un système de classification contenant des définitions
correctes des classes d’information, lesquelles doivent être organisées selon des critères
logiques. Il est cependant nécessaire pour l’analyste de réaliser qu’il y a une différence
fondamentale entre les classes d’information qu’il recherche sur le terrain et les classes
Les classes d'information sont les catégories d'intérêt pour les utilisateurs des données. Elles
sont, par exemple, les différents types d'unités géologiques, de forêt ou d'utilisation du sol qui
scientifiques qui utilisent les informations dérivées des données de télédétection. Ces classes
constituent l'information que nous voulons extraire de ces données. Elles sont la finalité du
processus d'analyse. Malheureusement, ces classes ne sont pas directement observables sur les
images. On ne peut les extraire que de façon indirecte, en utilisant les informations contenues
dans les radiomètres associés aux différentes bandes de l'image. Par exemple, l'image ne peut
pas montrer directement des unités géologiques. Par contre, ce sont les différences de
topographie, de végétation, de couleur des sols, des ombres et d'autres facteurs qui peuvent
amener l'analyste à conclure que certaines unités géologiques sont présentes à des endroits
spécifiques.
Les classes spectrales sont des groupes de pixels ayant des caractéristiques spectrales
semblables et directement observables sur l’image. S'il est possible de définir des liens entre
les classes spectrales observables sur l'image et les classes d'information recherchées, alors
l'image constitue une bonne source d'information. Ainsi, la classification par télédétection
118
procède par une mise en correspondance entre les classes spectrales observables sur l’image et
les classes d'information recherchées sur le terrain. Si cette mise en correspondance peut être
effectuée de façon précise, alors la carte de classification résultante sera fiable. Si les classes
spectrales et les classes d'information ne correspondent pas assez, l'image ne constitue pas une
s'attendra rarement à avoir une correspondance parfaite entre les classes spectrales et les
classes d'information. Chaque classe d'information comprend en effet des variations spectrales
dues aux variations naturelles intra classe. Par exemple, une région de la classe d'information
"forêt" reste forêt même si elle présente des variations en âge des arbres et en composition des
espèces. Cependant, ces variations conduisent à des différences dans l'apparence spectrale de
la classe d'information.
spectrales comme des unités distinctes, mais on doit les afficher avec une même étiquette sur
imprécises. Par exemple, il y a souvent une transition graduelle à la frontière entre la forêt et
les pâturages (où des pixels mixtes sont rencontrés) alors que la plupart des systèmes de
classification insistent sur des frontières précises entre les classes. Les systèmes de
classification devraient comprendre des définitions floues parce que l’information thématique
qu’ils contiennent est floue. Nous faisons souvent face à des systèmes rigides, basés sur une
connaissance à priori et difficile à utiliser. Néanmoins, ils sont largement utilisés parce qu’ils
119
ont une base scientifique solide. De plus, les personnes utilisant les mêmes systèmes de
Finalement, il faut noter qu’il y a une forte corrélation entre le niveau de détail dans un
suggère que le niveau de détail dans le système de classification désiré dicte la résolution
spatiale des données de télédétection qui seront utilisées. La résolution spectrale et les
longueurs d’onde utilisées sont aussi des considérations importantes. Toutefois, elles ne
constituent pas un paramètre aussi critique que la résolution spatiale, dans le cas de la
télédétection optique, étant donné que la plupart des capteurs (Landsat MSS ou SPOT HRV,
par exemple) enregistrent l’énergie approximativement dans les mêmes régions verte, rouge,
comprend des bandes bleu, infrarouge moyen et infrarouge thermique). Dans le cas de la
Un analyste peut sélectionner sur l’image des sites d’entraînement représentatifs des classes
de couverture du sol d’intérêt, après l’adoption d’un système de classification. Les données
d’entraînement seront de qualité si l’environnement dans lequel elles sont obtenues est
relativement homogène. Par exemple, si tous les sols dans une prairie sont composés de sols
bien drainés et sablonneux, alors il est probable que les données d’entraînement collectées sur
cette région soient appréciables. Par contre, si les conditions du sol varient à travers la région
d’étude, les données d’entraînement collectées sur cette région auront une réponse spectrale
géographique durant les étapes préliminaires du projet. Dans ce cas, les facteurs
4) les conditions d’humidité du sol non habituelles, possiblement causées par une tempête
des sites d’entraînement sera effectuée sur la base de la stratification géographique de ces
données. Dans de tels cas, il peut être nécessaire d’entraîner le classificateur sur des distances
homogènes ou peuvent être maintenues constantes, les signatures spectrales pourront être
étendues sur de vastes régions géographiques. Dans ce dernier cas, le coût de l’effort impliqué
Une fois que les facteurs d’extension des signatures sont considérés, l’analyste sélectionne des
sites d’entraînement représentatifs pour chaque classe. Il collecte ensuite les statistiques
spectrales de chaque pixel contenu dans chaque site d’entraînement. La règle générale est que,
si les données d’entraînement sont collectées à partir de n bandes spectrales, alors au moins
10n pixels d’entraînement sont collectés pour chaque classe. Ceci est suffisant pour calculer
effectue l’entraînement avec n bandes spectrales, alors chaque pixel de chaque site
BVij1
Xc
BV
ijn
où BVijk est la valeur de luminance du pixel (i,j) dans la bande k. Les valeurs de luminance de
chaque pixel dans chaque bande sont ensuite analysées statistiquement pour produire un
c1
Mc
cn
Les vecteurs de mesure brutes peuvent aussi être analysés pour produire la matrice de
La sélection manuelle des polygones d’entraînement sur l’image résulte parfois en une
modes multiples. Ceci suggère que plus de deux catégories de couverture du sol différentes
sont présentes dans le site d’étude. Cette condition n’est pas bonne quand on cherche à
122
classification basés sur un modèle de distribution unimodale des données. Par conséquent, il
de ne retenir que des parties spécifiques du polygone d’intérêt, jusqu’à ce que des
Une auto corrélation spatiale positive existe entre des pixels contigus ou proches (Gong et al.,
1992). Ceci signifie que des pixels adjacents ont de fortes probabilités d’avoir des niveaux de
luminance semblables. Des données d’entraînement collectées à partir des données auto
corrélées tendent à subir une réduction de variance, dûe beaucoup plus à la manière avec
laquelle le capteur collecte les données plutôt qu’aux conditions effectives de terrain. La
solution idéale consisterait à collecter les données d’entraînement dans une région en utilisant
une technique d’échantillonnage. Le but est d’obtenir des données d’entraînement non
choix de la représentation des entrées est lié au processus général de la reconnaissance des
conception du classificateur. Ceci signifie que si les variables d’entrée présentent des
différences significatives d’une classe à l’autre, le classificateur peut être conçu plus
est un problème clé en reconnaissance des formes. On distingue deux approches de réduction
123
des paramètres : l’extraction des paramètres (Fukunaga, 1990) et la sélection des paramètres
L’extraction des paramètres est une procédure qui consiste à transformer l’espace des
caractéristiques original en un nouvel espace de dimension plus réduite. Elle peut impliquer
transformation peut être bien définie. La tâche consisterait alors à trouver les coefficients de la
fonction linéaire pour maximiser ou minimiser un critère. Si un critère approprié existe pour
évaluer l’efficacité des paramètres, on peut utiliser les techniques classiques de l’algèbre
linéaire. Par contre, si le critère est très compliqué pour produire une solution analytique, des
reconnaissance des formes, on trouve des paramètres qui sont sont des fonctions non linéaires
des mesures originales. Dans ce cas, le problème de base consiste à trouver une
transformation non linéaire pour les données considérées. Comme il n’existe pas d’algorithme
général pour générer une transformation non linéaire, le processus d’extraction des paramètres
L'extraction des paramètres est une opération qui consiste à trouver un ensemble de vecteurs
il est souhaitable d'extraire des paramètres qui se focalisent sur la discrimination des classes.
Bien qu'une réduction de dimensionalité soit désirable, l’erreur qu’elle induit ne doit pas
d'extraction des paramètres a été l'un des problèmes les plus importants dans le domaine de
l'analyse des formes. Les méthodes d'extraction de paramètres peuvent être supervisées ou
Trois méthodes linéaires d’extraction des paramètres sont présentées dans les paragraphes qui
l'extraction des paramètres à partir des frontières de décision. Pour toutes ces méthodes, une
matrice des caractéristiques est définie. Les valeurs propres de la matrice et les vecteurs
dimension des données d’entrée correspond au nombre de vecteurs propres retenus. Les
Y T X (7.1)
Dans l’expression (7.1), est la matrice de transformation composée des vecteurs propres de
la matrice des caractéristiques, X est le vecteur de données dans l'espace des caractéristiques
original et Y est le vecteur de données transformé dans le nouvel espace des caractéristiques.
Certains auteurs ont suggéré l’analyse en composantes principales (ACP) comme une
méthode d’extraction des paramètres pour les réseaux de neurones, mais il a été observé
empiriquement que cette méthode n’est pas optimale en termes de précision de classification.
covariance globale des données originales x est estimée. Les valeurs propres et les vecteurs
x t (7.2)
Dans l’expression (7.2), est une matrice diagonale dont les éléments diagonaux sont les
valeurs propres de x classées par ordre de grandeur décroissante. est une matrice
matricielle de l’équation (7.1), on peut voir que la matrice de covariance des données
transformées est y .
signal (elle produit la plus petite erreur quadratique moyenne pour un nombre de paramètres
données), les paramètres définis par cette transformation ne sont pas optimaux du point de vue
séparabilité des classes (Fukunaga, 1990). Dans la sélection des paramètres pour la
classification, ce n’est pas l’erreur quadratique moyenne qui doit être considérée comme le
classification.
Par conséquent, elle est non sensible à la structure interne des classes individuelles. L'analyse
discriminante est une méthode qui cherche à améliorer la séparabilité des classes. Une matrice
W p w i i (7.3)
i
B pw i Mi M0 Mi M0
T
(7.4)
i
M 0 p w i M i (7.5)
i
126
Dans ces expressions, Mi est le vecteur moyen de la classe i, i est la matrice de covariance
J tr W
1
B (7.6)
Dans l’expression (7.6), tr(.) désigne la trace de la matrice. Les nouveaux vecteurs de
valeurs propres non nulles dans l'ordre décroissant. Cependant, les vecteurs de paramètres
choisis par l'analyse discriminante ne sont pas précis si les vecteurs moyens sont proches les
uns des autres, du fait que l'analyse discriminante utilise principalement les différences des
vecteurs moyens. En outre, si une classe a un vecteur moyen très différent des vecteurs
moyens des autres classes, cette classe sera dominante dans le calcul de la matrice de
dispersion interclasses, résultant ainsi en une extraction de paramètres non efficace. Comme
peut perdre des informations contenues dans les différences de covariance de classes. Aussi,
pour M classes, le rang maximal de B est M-1 comme B dépend de M0. Habituellement
W est de rang plein et par conséquent, le rang maximal de W1 B est M-1. Ceci indique
qu'au maximum M-1 paramètres peuvent être extraits par cette approche. Un autre problème
est que le critère de l'expression (7.6) n'a généralement pas une relation directe avec la
(decision boundary feature matrix) est définie pour extraire les paramètres discriminants
frontière de décision ayant le même vecteur normal Ni. Alors la matrice de frontière de
W R i
surface de R i
(7.8)
surface totale de la frontière de décision
On peut montrer que le rang de DBFM est la plus petite dimension où on obtient la même
précision de classification que dans l'espace des caractéristiques initial. Aussi, les vecteurs
propres correspondant aux valeurs propres non nulles de DBFM sont les vecteurs de
paramètres nécessaires pour atteindre la même précision que dans l'espace des caractéristiques
initial. Lee et Landgrebe (1993) ont utilisé une procédure non paramétrique pour calculer
normaux, N(X), sont estimés en utilisant une approximation du gradient de Ni. Ensuite, la
matrice de frontière de décision effective est estimée en utilisant les vecteurs normaux (voir
expression (7.9)).
128
EDBFM N i N Ti (7.9)
i
calculée, et les vecteurs propres normalisés correspondant aux valeurs propres non nulles sont
Théoriquement, les vecteurs propres correspondant aux valeurs propres non nulles doivent
donner la même précision de classification que dans l'espace des caractéristiques initial.
Cependant, en pratique, très peu de valeurs propres de la matrice EDBFM sont effectivement
nulles. Il faut donc procéder à un seuillage pour ne retenir que les valeurs propres les plus
significatives.
Une des techniques les plus simples de réduction des paramètres consiste à sélectionner un
sous-ensemble de paramètres en écartant les autres. Cette approche peut être utile lorsqu'il
existe des paramètres qui apportent très peu d'informations utiles à la solution du problème,
ou s'il y a de très fortes corrélations entre des ensembles de paramètres tel qu’une même
information se retrouve dans plusieurs variables. Elle peut être appliquée non seulement aux
données de base, mais aussi à tout ensemble de paramètres candidats construits par d'autres
Toute procédure de sélection des paramètres doit comporter les deux étapes suivantes :
2) Trouver une procédure systématique pour faire la recherche à travers les différents sous-
En principe, le critère de sélection sera le même que celui qui sera utilisé pour évaluer le
recherche pourra aussi consister en une recherche exhaustive de tous les sous-ensembles de
paramètres possibles. Cette dernière approche est en général celle qui offre la garantie de
trouver le sous-ensemble optimal. Dans une application réelle cependant, on est souvent
obligé de considérer des critères de sélection simples, ainsi que des procédures de recherche
(méthodes statistiques, réseau de neurones, etc.) qui sera utilisé pour effectuer la
avec toutes les combinaisons de paramètres possibles, et en évaluant chaque fois ses
paramètres qui produira la meilleure classification sera retenue. Cette approche est cependant
trop pénible car le cycle d’apprentissage et de vérification devra être répété pour chaque
combinaison de paramètres, entraînant des temps de traitement très longs. Ceci concerne
d’optimisation non linéaires pour leur apprentissage. Il est donc convenable d'envisager des
approches de sélection de paramètres plus réalistes, basées sur des critères de sélection
simples.
Pour les problèmes de classification, il est avantageux d’utiliser un critère de sélection basé
sur l'erreur de classification. Ce critère est estimé par utilisation des techniques paramétriques
pratique, le calcul direct de l’erreur de classification est souvent très complexe. On est donc
130
amené à recourir à des critères simples comme ceux basés sur la mesure de séparabilité des
classes. Un ensemble de paramètres produisant une bonne séparation spectrale des classes doit
constituer un bon ensemble de variables d'entrée pour le système de classification. Dans les
paragraphes qui suivent, nous présentons les mesures de séparabilité des classes qui sont
constituent un vecteur d’observation attaché à chacun des échantillons que l’on veut classifier.
Le vecteur d’observation sert d’entrée à une règle de décision par laquelle on affecte
l'échantillon à une des classes considérées. Nous supposons que le vecteur d’observation est
classe. Si la fonction de densité de probabilité de chaque classe est connue, alors le problème
appartient à l’une des classes w1 ,.........., w L . Une règle de décision basée sur les probabilités
i
p w k p k x max p w k pi X X w k (7.11)
131
Selon la règle de décision (7.10), la probabilité conditionnelle d’erreur sachant X est obtenue
L’erreur de Bayes est la valeur moyenne de r(X) sur l’ensemble des valeurs de X (voir
équation (7.13)).
En général, le calcul de la probabilité d’erreur est une tâche difficile parce que les fonctions
de densité de probabilité des classes sont rarement connues. Et même lorsque ces fonctions
sont connues, on doit souvent recourir à des techniques numériques trop complexes.
Cependant, une expression simple de la probabilité d’erreur est la solution la plus souhaitable,
les sources d’erreur. Cette information est très importante quand on aborde le problème de la
sélection des paramètres. Quand on ne peut pas obtenir une expression simple de la
probabilité d’erreur, une approche alternative peut être envisagée. On peut par exemple
chercher une solution approchée ou une borne supérieure de la probabilité d’erreur. Dans les
donnée par l’expression r X minq c X , q d X . Dans ce cas, l’erreur totale ou erreur de
Er X min p w c pc X , p w d pd X dX (7.14)
Cette borne supérieure u est appelée la borne supérieure de Chernoff. La valeur optimale de
s peut être obtenue en minimisant u . Lorsque les deux classes suivent des distributions
pw
u p w c exp s
s 1 s
d (7.17)
avec
s1 s 1 s c 1 s d
s
2
T
M c M d s c 1 s d 1
ln
2 s 1s
(7.18)
c d
où
Cette expression de (s) est appelée Distance de Chernoff. Dans ce cas, la valeur optimale
de s peut être obtenue en calculant (s) pour différentes valeurs de s. La valeur optimale de s
Si on n'insiste pas sur une sélection optimale de s, on peut obtenir une borne supérieure plus
aisément. Une des possibilités consiste à prendre s 1 2 . Dans ce cas, la borne supérieure est
1
u p w c p w d p c X p d X dX p w c p w d exp (7.19)
2
1
1 1 T d
1
1 2 c d
M c M d c M c M d 2 ln (7.20)
2 8 2 c d
1
La quantité Bcd est appelée Distance de Bhattacharyya et elle constitue une mesure
2
impliquées, une mesure de séparabilité moyenne de l’ensemble des classes peut être définie
m1 m
p w p w d Bcd
2
Bmoy (7.21)
m m 1 c1 d c1 c
conséquent, le premier terme exprime la séparabilité des classes dûe à la différence des
moyennes, tandis que le second terme exprime la séparabilité des classes dûe à la différence
des covariances. Il est intéressant de connaître lequel de ces deux termes est dominant, car il
134
détermine le type de classificateur qui doit être utilisé pour les distributions considérées. Une
A partir de l’expression (7.22) on voit que JM cd varie entre 0 et 2 , en tendant vers sa limite
supérieure lorsque la distance de Bhattacharrya tend vers l’infini. Lorsque plusieurs classes
sont présentes, une distance de Jeffreys-Matusita moyenne peut être définie par l’expression
(7.23).
m1 m
pw p w d JMcd
2
JM moy (7.23)
m m 1 c1 d c1 c
Matusita JM cd est bornée par les termes apparaissant dans l’expression (7.24).
1
16
2 JM cd
2 2
PC
1
4
2 JM cd 2
(7.24)
Par conséquent, le taux de classification correcte est compris entre les termes apparaissant
1
1
4
2 JM cd P
2
E 1
1
16
2 JM cd
2 2
(7.25)
A partir de l’expression (7.25), on peut considérer qu’un degré de séparabilité satisfaisant est
obtenu lorsque JM cd est supérieure à 1.25, correspondant à une probabilité d’erreur de 10%.
séparabilité des classes est utile pour l’évaluation préliminaire des paramètres utilisés dans le
processus de classification.
La divergence est une autre mesure de séparabilité des classes. Elle est semblable à la distance
négatif de deux fonctions de densité. Par conséquent, si on évalue les fonctions de densité du
rapport de vraisemblance pour deux classes w1 et w2, ceci équivaudrait à peu près à évaluer
l'erreur de Bayes. Malheureusement, ceci n'est pas une tâche facile. La version la plus simple
de ce type d'approche peut consister à utiliser les valeurs attendues des rapports de
des valeurs attendues pour les deux classes w1 et w2. Ainsi, la divergence se définit par
l’expression (7.26).
P X P X
D E ln c w d E ln d wc (7.26)
Pd X Pc X
Puisqu’on considère uniquement les valeurs moyennes dans la divergence, il est difficile de
trouver une relation simple entre la divergence et l'erreur de Bayes. Quand les deux
D
1
2
tr 1
c d1 M c M d M c M d
T
21 tr 1
c d d1 c 2I (7.27)
Quand plusieurs distributions (classes) sont présentes, une mesure de séparabilité moyenne de
m1 m
p w p w d Dcd
2
D moy (7.28)
m m 1 c1 d c 1 c
différence des moyennes et la séparabilité des classes dûe à la différence des covariances.
L'avantage de la divergence est que le premier et le second termes sont exprimés par la trace
d'une matrice alors que la distance de Bhattacharyya est une combinaison de traces (de
matrice) et de déterminants. Ainsi, il est souvent plus facile d'utiliser la divergence pour des
discussions théoriques. Toutefois, son faible lien avec l'erreur de Bayes limite les applications
pratiques de la divergence.
divergence et le paramètre de la distance JM. Puisque ces deux grandeurs contiennent des
termes qui sont des fonctions de la covariance seule, il est possible d'utiliser une mesure de
Dcd
DTcd 20001 exp
8
(7.29)
Cette mesure a un comportement saturant comme la distance JM. Elle décroît de façon
exponentielle lorsque la divergence entre les classes augmente. Elle permet en outre de
calibrer les valeurs de la divergence transformée entre 0 et 2000. Une divergence transformée
137
de 2000 signifie une séparation parfaite des classes. Des valeurs supérieures à 1900 traduisent
une bonne séparation des classes, tandis que les valeurs inférieures à 1700 expriment une
problème à deux classes c et d, de probabilités à priori égales et de divergence Dcd , est bornée
1
PE e Dcd 2
(7.30)
8
Cela implique que la probabilité de classification correcte est bornée par le terme de droite de
l’expression (7.31).
1
PC 1 e Dcd 2
(7.31)
8
Puisque la divergence entre les classes c et d est exprimée par la relation (7.32), la probabilité
DT
Dcd 8 ln1 cd (7.32)
2000
4
1 DT
PC 1 1 cd (7.33)
2 2000
précision de classification que l’on peut atteindre avec un ensemble donné de paramètres.
n n!
q q ! n q !
(7.34)
supervisée, on aura à évaluer 20 combinaisons de bandes. Si par contre on ne fixe pas à priori
produit le degré de séparabilité le plus élevé, on est obligé d’évaluer toutes les combinaisons
pour des petites valeurs de n. Il est donc très coûteux, même avec l’aide d’un ordinateur, de
procéder à une évaluation exhaustive de toutes ces combinaisons. Dans les paragraphes qui
Dans cette section, nous présentons deux techniques de recherche par étapes, qui évitent
l’énumération exhaustive. Malgré le fait que ces deux procédures soient simples, elles ne
Cette technique est illustrée à la figure 7.2. La procédure commence par considérer
individuellement chacune des variables, en sélectionnant celle qui produit la plus grande
ajouté à l'ensemble. Ce nouveau paramètre est choisi parmi les paramètres candidats à l’étape
139
courante. C’est le paramètre qui produit la plus grande augmentation du critère de sélection
paramètres d'entrée notés 1, 2, 3 et 4. Le seul meilleur paramètre est choisi le premier, ensuite
les paramètres sont ajoutés un à la fois tel qu'à chaque étape la variable retenue est celle qui
La forme générale d’un algorithme de sélection progressive de paramètres peut être présentée
utilisé pour résoudre C. On définit par OAC; S une mesure de la précision de classification
être envisagées. Dans la première approche, il s’agit de trouver la combinaison qui produit la
paramètres (k fixé) (figure 7.3). Dans la deuxième approche, que l’on peut considérer globale,
l’algorithme est utilisé pour déterminer la combinaison qui produit la plus grande valeur du
140
critère de sélection parmi toutes les combinaisons possibles (figure 7.4). Il est possible que la
Dans les algorithmes des figures 7.3 et 7.4, F représente l’ensemble des n paramètres
Fim1 Fm fim , où fim est le i-ème élément de F Fm . Fjm1 est le sous-ensemble tel que :
OA C; Fjm1 max OAC; Fim1 .
i
141
DEBUT
Fixer la valeur de k (le nombre de paramètres à retenir)
OA C; Fjm1 max OAC; Fim1
i
Faire F F f jm1
Faire m = m +1 ;
TANT QUE Card Fm k FAIRE
DEBUT
OA C; Fjm1 max OAC; Fim1
i
Faire Fm Fjm1 ( f jm est définitivement ajouté dans
Fm )
Faire m = m + 1
FIN TANTQUE
Sortir l’ensemble F m contenant les k paramètres retenus.
FIN.
Figure 7.3. Algorithme de sélection des paramètres par élimination séquentielle progressive
(première approche).
142
DEBUT
OA C; Fjm1 max OAC; Fim1 ;
i
Faire F F f jm1
Faire m = m +1 ;
TANT QUE OA C; Fm TOL ET F FAIRE
DEBUT
OA C; Fjm1 max OAC; Fim1 ;
i
Faire Fm Fjm1 ( f jm est définitivement ajouté dans
Fm )
Faire m = m + 1
FIN TANTQUE
Sortir l’ensemble F m contenant les k paramètres retenus.
FIN.
Figure 7.4. Algorithme de sélection des paramètres par élimination séquentielle progressive
(deuxième approche).
143
Une difficulté évidente de l’approche par élimination séquentielle progressive est que, si on a
deux paramètres tel que chacun d’eux pris seul produit une faible discrimination, mais les
deux paramètres pris ensemble produisent une forte discrimination (voir figure 7.5), la
Figure 7.5. Exemple de données de deux classes (représentés par des cercles noirs et blancs)
décrites par deux variables. Si les données sont décrites par une seule des deux variables, on
aura une très grande confusion entre les deux classes. Par contre, si les deux variables sont
Une approche alternative consiste à commencer avec l'ensemble complet des n paramètres et
Figure 7.6. Elimination séquentielle régressive des paramètres, illustrée une fois de plus dans
le cas de quatre paramètres. En commençant avec l’ensemble complet, les paramètres sont
éliminés un à la fois tel qu’à chaque étape, le paramètre retenu pour être éliminé est celui qui
éliminer est choisi parmi tous les candidats possibles comme celui qui procure la plus petite
sélection progressive mentionné précédemment, mais elle ne permet pas toujours de trouver la
nombre de paramètres à retenir, alors que la procédure de sélection progressive considère des
La forme générale d’un algorithme de sélection régressive des paramètres peut être présentée
utilisés pour résoudre C. On définit par OAC; S une mesure de la précision de classification
être envisagées. Dans la première approche, il s’agit de trouver parmi toutes les combinaisons
possibles de k paramètres (k fixé) celle qui produit la meilleure valeur du critère de sélection
(figure 7.7). Dans la deuxième approche, que l’on peut considérer globale, l’algorithme est
utilisé pour déterminer la combinaison qui produit la plus petite diminution du critère de
Dans les algorithmes des figures 7.7 et 7.8, F représente l’ensemble des n paramètres
obtenus par élimination temporaire de fim dans F m ; c’est-à-dire Fim1 Fim fim , où fim est
OA C; Fjm1 max OAC; Fim1 .
i
146
DEBUT
Faire Fm F (donc m = N)
Fixer la valeur de k (le nombre de paramètres à retenir)
TANT QUE Card Fm k FAIRE
DEBUT
OA C; Fjm1 max OAC; Fim1
i
Faire Fm Fjm1 ( f jm est définitivement retiré de F m )
Faire m = m – 1
FIN TANTQUE
Sortir l’ensemble F m contenant les k paramètres retenus.
FIN.
Figure 7.7. Algorithme de sélection des paramètres par élimination séquentielle régressive
(première approche).
147
DEBUT
Faire Fm F (donc m = N)
Fixer un seuil de tolérance TOL (par défaut TOL = 2%)
TANT QUE OAC; F OAC; Fm TOL ET m > 1 FAIRE
DEBUT
OA C; Fjm1 max OAC; Fim1 ;
i
Faire Fm Fjm1 ( f jm est définitivement retiré de F m )
Faire m = m – 1
FIN TANTQUE
Sortir l’ensemble F m contenant les k paramètres retenus.
FIN.
Figure 7.8. Algorithme de sélection des paramètres par élimination séquentielle régressive
(deuxième approche).
Les algorithmes de recherche séquentielle que nous venons de décrire peuvent être généralisés
collectivement utiles d'être sélectionnés (Fukunaga, 1990). Par exemple, à la k-ième étape de
du coût de calcul.
148
contenant X, alors il existe une procédure de sélection rapide connue sous le nom de
procédure de ramification avec coupure (branch and bound) (Fukunaga, 1990). Cette
méthode peut aussi être appliquée dans plusieurs autres domaines tel que la recherche des plus
proches voisins. Dans le contexte actuel, elle garantit de trouver la meilleure combinaison de
paramètres pour une taille donnée, sans nécessiter l’évaluation de toutes les combinaisons
possibles. Pour comprendre cette technique, nous commençons par examiner la procédure de
recherche exhaustive, que nous présentons comme une structure arborescente. Considérons un
~
ensemble original de d paramètres x i , i = 1,….,d et désignons les indices des M d d
paramètres qui doivent être éliminés par z1 ,, z k , où chaque z k peut prendre l’une des
valeurs 1,…,d. On notera toutefois que deux z k ne peuvent pas prendre la même valeur, car
cela consisterait à représenter deux fois le même paramètre. De même, l’ordre des z k n’est
pour satisfaire ces contraintes est que les z k vérifient l’équation (7.35).
z1 z2 z3 z k (7.35)
Ceci nous permet de construire un arbre de recherche, comme le montre la figure 7.9 dans le
cas de cinq paramètres originaux, à partir desquels nous voulons sélectionner un sous-
chaque nœud désigne le paramètre qui est éliminé au niveau de ce nœud. Le sous-ensemble
possible de deux paramètres choisis parmi les cinq paramètres originaux est représenté par un
des nœuds terminaux de l’arbre (figure 7.9). Au premier niveau au dessous de la racine de
149
l’arbre, la plus grande valeur de z k qui est considérée est 3, car aucune valeur plus grande ne
permettrait à la contrainte (7.35) d’être satisfaite. Des arguments semblables sont utilisés pour
construire le reste de l’arbre. Supposons maintenant que nous voulions maximiser un critère
seuil. Si à un point de la recherche un nœud intermédiaire est rencontré, comme celui montré
en B, pour lequel la valeur de J est plus petite que le seuil, alors on n’a pas besoin d’évaluer
de tels nœuds ont nécessairement des valeurs de critère inférieures au seuil. Ainsi, les nœuds
présentés en noir sur la figure 7.9 n’ont pas besoin d’être évalués. Si à une étape de la
recherche on rencontre un nœud terminal ayant une valeur de critère plus grande que la valeur
courante du seuil, cette valeur de critère devient le nouveau seuil. L’algorithme se termine
lorsque chaque nœud terminal a été évalué ou exclu en utilisant la relation de monotonie.
Figure 7.9. Un arbre de recherche pour la sélection des sous-ensembles de paramètres dans le
cas d'un ensemble de cinq paramètres, à partir duquel nous voulons trouver le sous-ensemble
optimal de deux variables. Si un critère de sélection strictement monotone est utilisé et qu’un
150
nœud comme B a une valeur de critère plus faible que certains noeuds terminaux comme A,
alors tous les nœuds au-dessous de B (indiqués en cercles pleins) peuvent être éliminés de la
recherche.
elle évite d’évaluer les sous-ensembles terminaux qui sont exclus en utilisant la propriété de
monotonie. L’algorithme de ramification avec coupure de base peut être modifié pour générer
un arbre dans lequel les nœuds ayant des valeurs plus petites du critère de sélection tendent à
avoir des nombres plus grands de branches successives (Fukunaga, 1990). Ceci peut résulter
en une amélioration de l’efficacité de calcul, puisque les nœuds ayant des valeurs plus petites
de critère sont plus probables d’être éliminés de l’arbre de recherche. Une implémentation de
DEBUT
1) Initialisation : Faire , le niveau i = 1 et z0 0 .
2) Générer les successeurs : Initialiser LIST(i) qui est la liste des
Supprimer k de LIST(i).
Aller à (5).
FIN.
Le fonctionnement de l'algorithme est expliqué dans les lignes qui suivent. En commençant
par la racine de l'arbre, les successeurs du nœud courant sont énumérés dans LIST(i). Le
successeur pour lequel le critère partiel J i z1 ,, zi est maximal (le nœud le plus
prometteur) est pris comme le nouveau nœud courant et l'algorithme passe au niveau suivant.
152
Les listes LIST(i) à chaque nœud i gardent la trace des nœuds qui ont déjà été explorés.
Chaque fois qu'on rencontre un critère partiel inférieur à , l'algorithme remonte au niveau
précédent et sélectionne un nœud non encore exploré. Chaque fois que l'algorithme atteint le
z ,, z
1 m est enregistrée comme ~z1 ,, ~zm . Quand tous les nœuds contenus dans
télédétection. Ce type de classification est utilisé pour convertir les données de télédétection
d’entraînement au cours de laquelle des pixels de classe connue sont identifiés et caractérisés
pour former les statistiques d’entraînement servant à décrire les classes. Ces statistiques sont
ensuite utilisées à la seconde étape, l’étape d’allocation des classes, pour affecter chaque pixel
classification particulière ou d’une règle de décision dépend de la nature des données d’entrée
les données des classes d’entraînement ont une distribution particulière, généralement
gaussienne. Les algorithmes de classification non paramétriques ne font aucune hypothèse sur
la distribution des données d’entraînement. Dans les paragraphes qui suivent, nous présentons
Parmi les algorithmes de classification supervisée les plus utilisés nous pouvons citer :
A toutes ces méthodes classiques nous devons ajouter les méthodes de classification basées
sur les réseaux de neurones artificiels, qui sont devenus depuis quelques années une
Le choix d’un algorithme de classification approprié pour une application donnée repose sur
un certain nombre de critères se rapportant à la nature des données analysées d’une part, et
aux propriétés intrinsèques de l’algorithme d’autre part. Par exemple, les méthodes de
de distribution normale des données n’est pas vérifiée. L’analyste doit donc disposer d’outils
mathématiques robustes pour tester la normalité des distributions des classes, avant de
procéder au choix d’un algorithme de classification. Différentes stratégies existent pour cela.
On peut par exemple utiliser des méthodes graphiques basées sur l’analyse des histogrammes
des données d’apprentissage, ou des méthodes statistiques plus élaborées. Lorsque ces
correspondante sont distribuées selon la loi normale. Malgré leur simplicité, ces méthodes ne
revêtent pas un caractère systématique, mais elles peuvent être utilisées comme base à des
méthodes statistiques plus élaborées. Ces méthodes statistiques reposent sur des tests
Cette méthode est largement utilisée et elle est basée sur une logique booléenne. Des données
d’entraînement dans n bandes spectrales sont utilisées pour effectuer la classification. Pour
154
c1
chaque classe c on calcule le vecteur M c où ck représente le niveau de gris moyen
cn
des pixels de la classe c dans la bande k. sck est l’écart type des données d’entraînement de la
classe c dans la bande k. Si on utilise un seuil égal à sck par exemple, l’algorithme du
BVij1
parallélépipède affecte un pixel de vecteur de mesures X c à la classe c, si et
BV
ijn
le nombre de bandes. Par conséquent, si les frontières de décision inférieure et supérieure sont
supérieure pour toutes les n bandes évaluées pour une classe donnée, il est affecté à cette
classe, et dans le cas contraire il est affecté à une catégorie non classifiée. L’algorithme du
parallélépipède est une méthode de classification simple et efficace. Cependant, puisque que
certains parallélépipèdes peuvent se chevaucher, il est possible qu’un pixel candidat inconnu
vérifie toutes les conditions pour plusieurs classes à la fois. Un tel pixel est habituellement
155
affecté à la première classe pour laquelle il vérifie tous les critères. Une solution plus
adéquate consiste à utiliser la règle de décision de la distance minimale aux moyennes, pour
Figure 7.11. Exemple de classification d’une image SPOT de Yaoundé par la méthode du
Cette méthode est simple et communément utilisée. Quand elle est correctement utilisée, elle
peut produire des classifications comparables à celles produites par d’autres algorithmes plus
fournisse les vecteurs moyens M c de toutes les classes à partir des données d’apprentissage.
Pour effectuer une classification par distance minimale, un programme doit calculer la
distance (euclidienne, par exemple; voir équation (7.38)) par rapport à chaque vecteur moyen
M c , pour chaque pixel inconnu BVijk (Jahne, 1991).
BVijk ck
n 2
Dcij (7.38)
k 1
La règle de décision de la distance minimale aux moyennes s’exprime alors par la relation
(7.39).
Figure 7.12. Exemple de classification d’une image SPOT de Yaoundé par la méthode de la
Cette règle de décision est simple comme les précédentes et elle est communément utilisée
pour la classification des données de télédétection (Lee et al., 1990). Quand elle est
correctement utilisée, elle peut produire des résultats comparables à ceux d’autres algorithmes
L’algorithme de classification par la méthode des K plus proches voisins nécessite que
l’utilisateur fournisse les vecteurs de mesures X i pour tous les pixels d’entraînement. Pour
effectuer une classification par cette méthode, l’algorithme calcule la distance euclidienne
entre chaque pixel inconnu BVijk et chaque vecteur de référence X i , puis il détermine la
fréquence d’apparition fck des pixels de chaque classe c parmi les K plus proches voisins du
La règle de décision des K plus proches voisins s’exprime alors par la relation (7.40).
L’application de cette règle de décision nécessite que la valeur de K soit définie. En pratique,
mesures X, à la classe c dont les unités sont plus probables de produire le vecteur de mesures
X. Elle suppose que les statistiques des données d’entraînement de chaque classe, dans chaque
158
bande, sont distribuées selon la loi normale. Par conséquent, les données d’entraînement
multimodales dans une bande ne sont pas appropriées. Dans ce cas, les modes individuels
représentent probablement des classes qui doivent être entraînées individuellement, et être
étiquetées comme des classes séparées. Une telle situation produira des statistiques de classes
classification par maximum de vraisemblance utilise les statistiques des classes déjà calculées,
seulement si la condition illustrée par l’ensemble d’équations (7.41) et (7.42) est satisfaite.
j
pc X max p j X X wc (7.41)
1
exp X c Vc1 X c
1
p c X
T
(7.42)
2 2
n2 12
Vc
covariance Vc . Par conséquent, pour placer un vecteur de mesures X d’un pixel inconnu dans
pour chaque classe. Puis, elle affecte le pixel à la classe qui présente la plus grande valeur.
L’équation (7.42) suppose que toutes les classes ont la même probabilité d’exister sur le
terrain. Or en pratique, il arrive souvent que certaines classes soient plus fréquentes que
d’autres sur le terrain. Il peut donc être utile d’inclure ces informations à priori dans le
règle de décision devient alors celle qui est exprimée par la relation (7.43).
j
pc X p w c max p j X p w j X wc (7.43)
159
excepté le fait qu’elle ne suppose pas que toutes les classes aient des probabilités égales d’être
probabilités normales ne sont jamais calculées. En effet, des fonctions discriminantes plus
2
1
2
g i X ln p w j ln Vi X i Vi1 X i
1 T
(7.44)
Seule la forme quadratique en X est calculée, et il existe des méthodes efficaces pour le faire.
En outre, si on suppose que les classes ont la même probabilité à priori, on obtient encore une
g i X
1
2
ln Vi X i Vi1 X i
1
2
T
(7.45)
g c X min g j X
j
(7.46)
Les probabilités à priori ont été utilisées avec succès comme un moyen d’incorporer les effets
Cependant, elles ne produisent pas toujours les meilleurs résultats. La classification par
considérables, car elle gère une grande quantité d’informations sur les caractéristiques
d’appartenance aux classes, pour chaque pixel. Malheureusement, une faible partie de toutes
ces informations est disponible dans la sortie conventionnelle, qui indique simplement le
postériori d’un pixel X d’appartenir à la classe c est exprimée par la relation (7.47).
160
p w c p X c
Lc X (7.47)
p w i pX i
m
i 1
Dans l’expression (7.47), pX c est la fonction de densité de probabilité pour un pixel X
m est le nombre total de classes. L’information à postériori peut être utilisée pour évaluer le
Figure 7.13. Exemple de classification d’une image SPOT de Yaoundé par la méthode du
seulement une quantité minimale d’entrée initiales de la part de l'analyste. Avec cette
méthode, des opérations numériques sont effectuées pour déterminer les regroupements
naturels des propriétés spectrales des pixels, dans l’espace multispectral des caractéristiques.
Un programme informatique est utilisé pour calculer les statistiques des segments (moyennes
et matrices de covariances) qui seront utilisées dans la classification. Une fois que les données
sont classifiées, l’analyste tente d’affecter ces classes naturelles ou spectrales aux classes
d’information d’intérêt. Cette tâche peut être difficile. Certains segments peuvent être sans
signification, parce qu’ils représentent des mélanges de classes des éléments de la surface de
la terre. L’analyste devra bien comprendre les caractéristiques spectrales du terrain, pour
considérer certains segments comme représentant des classes d’information. Des centaines de
méthodes de segmentation ont été développées pour une grande variété d’applications, allant
abscisses les valeurs de niveau de gris, et en ordonnées le nombre de pixels associé à chaque
valeur de niveau de gris. Le mode d’un histogramme est un maximum local de cet
histogramme, et une vallée est un minimum local. Le mode d’un histogramme indique un
Les abscisses des K maximums locaux représentent les noyaux ou centres des différentes
classes à constituer.
3) Regrouper les pixels de l’image selon le critère de distance minimale par rapport aux
différents centres de classes. Chaque pixel est placé dans la classe dont le centre lui est le
plus proche.
4) Attribuer une même couleur aux pixels appartenant à la même classe et afficher l’image
résultat.
La figure 7.14 présente un exemple de classification par cette méthode. L’image traitée est
une image ESAR (programme américain Experimental airborn SAR) de la côte atlantique
camerounaise.
163
niveaux de gris. Lorsque ceci est fait, on utilise le même algorithme que celui des modes de
La figure 7.16 présente le résultat de la classification. Les deux images (canaux) utilisées sont
des images de texture obtenues par la méthode des longueurs de plages, d’une sous-scène
ERS1 de la région de Douala au Cameroun. Il est à noter que, dans le logiciel VOIR,
de gris à la valeur maximale de 99 est d’abord effectué, et ces niveaux de gris sont
Une méthode de segmentation très utilisée est la méthode Iterative Self-Organizing Data
algorithme de classification itératif. La plupart des étapes incorporées dans l’algorithme sont
ISODATA est auto-organisateur parce qu’il nécessite relativement très peu d’entrées de la
pas inhabituel que moins de C max segments soient trouvés dans la carte de classification
2) T : le pourcentage maximum de pixels dont les valeurs de classe sont autorisées à rester
recalcule les vecteurs moyens des segments. L’algorithme ISODATA se termine lorsque
membres que le minimum spécifié, il est supprimé et ses membres sont affectés à un autre
segment.
5) L’écart-type maximum. Lorsque l’écart type d’un segment dépasse le maximum spécifié,
et que le nombre de membres dans le segment est deux fois supérieur au minimum de
membres spécifiés dans une classe, le segment est éclaté en deux segments.
166
6) La distance minimum entre les segments. Des segments ayant une distance pondérée
L’algorithme ISODATA est itératif parce qu’il effectue plusieurs passes à travers l’ensemble
de données, jusqu’à ce que les résultats spécifiés soient obtenus. Aussi, ISODATA ne localise
pas ses vecteurs moyens initiaux sur la base de l’analyse des pixels dans la première droite,
comme l’algorithme à deux passes. Au contraire, une affectation arbitraire de tous les Cmax
segments prend place le long d’un vecteur multidimensionnel, joignant deux points
Avec les C max vecteurs moyens initiaux en place, une passe est effectuée à travers la base de
données image en commençant par le coin supérieur gauche de la matrice. Chaque pixel
candidat est comparé à chaque moyenne de segment, et il est affecté au segment dont le
vecteur moyen lui est le plus proche. Cette passe crée une carte de classification comprenant
C max classes.
Après la première itération, le nouveau vecteur moyen de chaque segment est calculé sur la
base des localisations spectrales actuelles des pixels affectés à chaque segment. Ceci implique
l’analyse des paramètres suivants : le nombre minimum de membres dans un segment, l’écart
type maximum, et la distance minimum entre les moyennes des segments. Ensuite, le
processus complet est réitéré avec chaque pixel candidat, une fois de plus comparé aux
167
itératif continue jusqu’à ce que l’on ait un petit changement dans l’affectation des classes
entre les itérations, ou que le nombre maximum d’itérations soit atteint. Le fichier final est
une matrice contenant au maximum C max segments qui doivent être étiquetés, et recodés pour
Figure 7.17. Exemple de classification d’une image SPOT de Yaoundé par la méthode
neurones
168
Les réseaux de neurones ont été appliqués avec succès dans plusieurs domaines. Une
caractéristique des réseaux de neurones est qu’ils peuvent nécessiter de longs temps
d’entraînement, mais ils sont des classificateurs relativement rapides. Cependant, la principale
raison qui motive l’utilisation des méthodes neuronales pour la classification des données de
télédétection est que ces méthodes sont non paramétriques. Comme les données multisources
sont en général de types variés, les données provenant des diverses sources peuvent avoir des
explicite des données de chaque source. En plus, il a été montré que les méthodes neuronales
peuvent approcher les probabilités conditionnelles des classes, à partir des données
d’entraînement au sens des moindres carrés. Par conséquent, on n’a pas besoin de traiter
individuellement les sources de données comme dans la plupart des méthodes statistiques.
L’approche neuronale évite aussi le problème qui consiste à spécifier l’influence que chaque
traitement des données de télédétection est principalement motivée par les raisons suivantes :
1) Ils ont la capacité d’opérer avec une plus grande précision que les autres techniques, à
caractéristiques est complexe, et que les sources de données ont des distributions
statistiques différentes.
2) Ils ont la capacité de traiter plus rapidement des grands ensembles de données, en
3) Ils ont la capacité d’incorporer des connaissances à priori et des contraintes physiques
4) Ils ont la capacité d’incorporer différents types de données (y compris des données de
Au regard de ces nombreux atouts, il est clair que l'une des principales opportunités offertes
par les réseaux de neurones est la possibilité de traiter efficacement les grandes quantités de
perceptron multicouche, combinée à l’analyse texturale, a été utilisé par Akono et al. (1996)
pour la classification de la forêt des mangroves dans la côte littorale camerounaise. Ndi et al.
fuzzy c-means pour effectuer la classification de la forêt des mangroves dans la même région.
Ces travaux ont produit des classifications précises à plus de 95%. L'entrée nette d'une unité
dans un tel réseau est une somme pondérée des sorties des unités de la couche précédente
(équation (7.48)).
net j w ji o i (7.48)
i
Cette somme pondérée est ensuite transformée par la fonction d'activation de l'unité
(habituellement une fonction sigmoïde) pour produire la sortie de l'unité (équations (7.49) et
(7.50)).
1
oj
[tangente exponentielle] (7.49)
1 exp 2net j
o j tanh net j [tangente hyperbolique] (7.50)
Dans les expressions (7.49) et (7.50), est une constante réelle déterminant la pente de la
fonction à l'origine. Les poids sont ajustés pendant l'apprentissage en utilisant la règle du delta
w ji n 1 joi w ji n (7.51)
170
Dans l’expression (7.51), w ji n 1 est la correction du poids de la connexion reliant les
nœuds i et j à la (n+1)ème itération. j est le taux de changement d'erreur par rapport à la sortie
classifiée avec des données de terrain. Cette comparaison est habituellement basée sur une
matrice de confusion qui indique les agréments et les désagréments entre les ensembles de
kappa peuvent être dérivées des éléments d’une matrice de confusion et utilisées pour
la classe d’appartenance effective sur le terrain, pour toutes les données de vérification. Des
indices quantitatifs exprimant la précision peuvent alors être calculés à partir de la matrice de
confusion. Toutefois, la qualité de la classification n’est pas le seul facteur qui influence
doivent être représentatives des classes d’entraînement, de même que les données
d’entraînement. Par conséquent, ces données doivent être collectées dans des sites de
vérification, différents des sites d’entraînement. Les échantillons de données doivent être
données de vérification sont en général collectées après la classification. Puisque les paysages
changent souvent très rapidement, il est souhaitable de collecter les données de vérification et
les données d’entraînement à des dates aussi proches que possible de la date d’acquisition des
images.
Le nombre effectif de pixels devant être référencés sur le terrain et utilisés pour évaluer la
précision de la classification est souvent difficile à déterminer. Certains analystes utilisent des
distribution binomiale pour calculer la taille des échantillons requise. Ces techniques sont
173
statistiquement appropriées pour trouver la taille des échantillons nécessaire pour évaluer la
précision globale d’une classification. Les équations utilisées sont basées sur la proportion des
exemple, la taille N des données utilisées pour évaluer la précision d’une classification peut
Z2 p100 p
N (7.52)
E2
Dans l’expression (7.52), Z est l’écart normal au seuil de confiance de 95%. p est le
Le choix de E est dans une certaine mesure arbitraire, mais on prend généralement E = 4%.
La plupart des mesures robustes d’évaluation statistique d’erreur que nous allons présenter
supposent que les données de référence sont collectées de façon aléatoire. L’échantillonnage
simple sans replacement produit des estimations adéquates des paramètres de la population, à
condition que la taille de l’échantillon soit grand. Toutefois, l’échantillonnage aléatoire peut
une grande précaution, car elles tendent à surestimer les paramètres de la population. Pour
cette raison, les analystes préfèrent l’échantillonnage aléatoire par strates, par lequel un
équilibre entre la validité statistique et l’application pratique. Un tel système peut utiliser un
La précision globale s’obtient en divisant le nombre total de pixels bien classifiés (somme des
La précision d’une catégorie individuelle s’obtient par division du nombre total de pixels bien
classifiés dans cette catégorie par le nombre total de pixels de la catégorie. Cette statistique
indique la probabilité qu’un pixel de référence soit correctement classé et elle est une mesure
de l’erreur d’omission. Elle est appelée la précision du producteur parce que le producteur de
la classification est intéressé par le succès avec lequel une certaine région peut être classifiée.
Si le nombre total de pixels bien classifiés dans une catégorie est divisé par le nombre total de
pixels qui ont été effectivement classifiés dans cette catégorie, le résultat est une mesure de
probabilité qu’un pixel classifié dans une catégorie sur la carte de classification représente
L’analyse KAPPA est une technique discrète multivariable, utilisée pour évaluer la précision
d’une classification. L’analyse KAPPA produit une statistique KHAT (une estimation du
KAPPA), qui est une mesure d'agrément ou de précision. La statistique KHAT se calcule
N x ii x i x i
r r
^
i 1 i 1
K (7.53)
N xi x i
r
2
i 1
La précision globale et la précision du KAPPA ne sont pas en général égales pour une
classification donnée. Cette différence est dûe au fait que la précision globale utilise
uniquement les éléments diagonaux de la matrice de confusion, ignorant ainsi les erreurs
d’omission et de commission indiquées par les éléments hors diagonaux. Par contre, le KHAT
intègre les éléments hors diagonaux en termes de produit des sommes marginales des
colonnes et des lignes. Ainsi, selon la quantité d’erreur contenue dans la matrice, ces deux
7.11 Exercices
Faire une classification de cette image par la méthode des modes de l’histogramme.
Considérons maintenant cette même portion d’image avec des pixels et des classes de
référence ayant été identifiés sur le terrain comme le montre la figure 7.21.
Figure 7.21 Portion d’image en niveaux de gris avec des pixels et des
Considérons l’image multibande présentée sur la figure 7.22. Cette image comporte 2
bandes spectrales identifiées par Bande 1 et Bande 2. Elle comporte aussi les mêmes
177
pixels et classes de référence que ceux apparaissant sur l’image de la figure précédente
(figure 7.21).
Figure 7.22 Image multibande avec des pixels et des classes de référence
8.1 Introduction
Quand les photo-interprètes analysent des images de télédétection, ils prennent en compte la
synergie entre le contexte, les contours, la texture et la variation des niveaux de gris. Or la
l’information spectrale (c’est-à-dire les valeurs des niveaux de gris). Il n’est donc pas
surprenant qu’il y ait une activité intense depuis quelques années pour essayer d’intégrer
l’établissement des formules concernant les notions de texture, d’analyse fractale, d’analyse
L’analyse de texture apporte une information sur l’agencement spatial des niveaux de gris, qui
est nécessaire pour pallier aux faiblesses des méthodes de classification pixel par pixel,
surtout pour les images de haute résolution spatiale. Plusieurs auteurs ont appliqué diverses
télédétection. Notons entre autres les applications en cartographie urbaine (Lasse, 1990;
Marceau et al., 1990; Gong et al., 1992; Jukka and Aristide, 1998), en cartographie de la
couverture du sol (Agbu and Nizeyimana, 1991), en cartographie forestière et agricole (Ulaby
et al., 1986; Pult and Brown, 1987; Franklin and Peddle, 1989; Anys and He, 1995; Pichler et
al., 1996) et dans la correction géométrique (Arai, 1991). On trouve aussi des méthodes
(Flouzat, 1983; Kwon et al., 1996; Li and Kunt, 1994). Bischof et al. (1992) et Dreyer (1993)
télédétection basée sur les réseaux de neurones. Dikshit (1996) a effectué une classification
179
texturale dans la classification des classes forestières tropicales basée sur la théorie des
ensembles flous. Une méthode d’analyse de texture, dénommée triangulation du voisinage des
structures fondamentales (TVSF), a été proposée par Hay et Niemann (1994) en introduisant
des données sur la hauteur et la surface des objets, et sur la position des structures
variables, pour obtenir des mesures de texture qui se rapprochent de la perception humaine.
Cette approche a été utilisée sur des données de télédétection et elle montre une bonne
corrélation visuelle entre les caractéristiques propres à deux peuplements forestiers d’âges
différents. Notons enfin le récent travail de Pichler et al. (1996) concernant l’extraction des
paramètres texturaux avec les transformées en ondelettes. Les études utilisant les réseaux de
neurones pour réaliser des classifications à base de données texturales ne sont pas nombreuses
à ce jour. La plupart des études de classification par les réseaux de neurones n’utilisent que les
(Salu and Tilton, 1993; Sui, 1994). Cependant, des études récentes démontrent l'importance
de l'information texturale dans la classification par réseaux de neurones (Lee et al., 1990). Le
caractéristiques texturales, avec les réseaux de neurones semble un avantage certain. De plus,
point de vue statistique. Nous savons que les réseaux de neurones sont gourmands en temps
rester optimiste.
Chen et al. (1997) ont utilisé l’information fractale comme mesure de texture dans la
classification des images SPOT en utilisant les réseaux de neurones. Ils ont reporté que
180
homogènes.
Les caractéristiques texturales ont été progressivement utilisées dans les applications de
classification des images multispectrales et radar (Anys and He, 1995; Asim Roy and
Miranda, 1995). Aucun algorithme combinant efficacité et robustesse n’a encore été
largement adopté. Ainsi, des caractéristiques texturales pertinentes pour un type d’application
donné (classification de l’utilisation du sol dans les zones urbaines et périurbaines, par
classes géomorphiques particulières, par exemple). Enfin, certains paramètres centraux pour
le calcul des caractéristiques texturales sont encore extraits de façon empirique (taille de la
fenêtre d’analyse et choix de certains seuils, par exemple). Ces considérations rendent
difficile la comparaison et la confrontation des études quand les variables utilisées pour la
sélection heuristique ou manuelle des paramètres devient par conséquent une activité de plus
algorithmes devront non seulement économiser le temps de traitement, mais aussi réduire la
8.2.1 Introduction
La texture est un concept qui traduit un aspect homogène local de la surface d'un objet. C'est
un concept très important et largement utilisé dans la plupart des domaines du traitement
181
d'images. Malgré cette importance, la notion de texture reste un concept sans définition
convient parfaitement aux différents types de texture rencontrées. L'une des plus citées a été
introduite par Laws (Unser, 1984). Dans sa définition, la texture est présentée comme une
Cette définition stipule que la texture donne la même impression à l'observateur, quelle que
soit la position spatiale de la fenêtre à travers laquelle il observe cette texture. Par contre
l'échelle d'observation doit être précisée. On peut le faire par exemple en précisant la taille de
la fenêtre d'observation. Une autre définition précise que la notion de texture est liée à trois
concepts principaux :
1. un certain ordre local qui se répète dans une région de taille assez grande;
2. cet ordre est défini par un arrangement structuré de ses constituants élémentaires;
3. ces constituants élémentaires représentent des entités uniformes, qui se caractérisent par
On constate que la multiplicité des textures entraîne une multiplication des définitions.
Cependant, toutes s'accordent à séparer les textures en deux classes : les textures structurées
qualifiée de structurée est constituée par la répétition d'une primitive à intervalles réguliers.
On peut différencier dans cette classe les textures parfaitement périodiques (carrelage, damier,
...) et les textures dont la primitive subit des déformations ou des changements d'orientation
(mur de briques, grains de café, ...). Les textures qualifiées d'aléatoires se distinguent en
général par un aspect plus fin (sable, laine tissée, herbe, ...). Contrairement aux textures de
répétition. On ne peut donc pas extraire de ces textures une primitive qui se répète dans
l'image, mais plutôt un vecteur de paramètres statistiques homogènes à chaque texture. Les
182
textures rencontrées dans les images de télédétection étant généralement de type aléatoire, les
méthodes basées sur une analyse statistique de l'image sont probablement les plus
appropriées. Le but de cette section est de fournir une description consistante des principales
approches d'analyse de texture qui ont trouvé des applications en télédétection. Les différentes
Les méthodes basées sur la modélisation d’un processus aléatoire considèrent la dépendance
spatiale des niveaux de gris entre pixels voisins dans l’image. Dans ce cas, le type du modèle
et les valeurs des paramètres du modèle caractérisent la texture. On peut tester l’adéquation du
comparant avec la texture originelle. Les méthodes basées sur l'analyse des caractéristiques
spatiales sont nombreuses et elles sont de loin les plus utilisées pour l'analyse des images de
télédétection. Ces méthodes peuvent être groupées en quatre sous-groupes basées sur les
paramètres suivants :
3) la morphologie mathématique;
4) l'analyse fractale.
Les histogrammes généralisés mesurent les statistiques de la distribution des niveaux de gris
sur différents n-uplets de pixels voisins. Ainsi, le caractère plus ou moins périodique de la
texture peut être relevé. La taille et l’orientation des primitives des textures structurées
régulières peuvent être obtenues par la fonction d’autocorrélation ou par la méthode des
183
histogrammes de cooccurrence d’ordre deux ou trois. L’activité du signal de texture peut être
locaux. On peut aussi calculer la longueur curviligne du signal sur un trajet donné. Ces
méthodes ont le mérite de la simplicité. Elles se prêtent donc facilement à des mises en œuvre
efficacité sur les images biologiques ou en métallurgie (Analyseur de Texture LEITZ). Des
particuliers de la texture, à partir desquels on pourra extraire quelques paramètres simples (par
exemple, la moyenne et variance des niveaux de gris). Cette méthode produit de bons résultats
Dans l’approche fractale, l’amplitude des niveaux de gris peut être assimilée à l’altitude d’une
surface géométrique. La dimension fractale de cette surface est utilisée pour caractériser la
texture. En général, la dimension fractale est insuffisante pour la discrimination. Elle peut être
complétée par un autre paramètre appelé lacunarité. Cette approche se révèle particulièrement
fructueuse pour des textures aléatoires de type microtexture, mais aussi macrotexture
texture. Depuis longtemps, la transformée de Fourier a été utilisée pour calculer ces
comme la transformée en ondelettes et les filtres de Gabor ont été proposées ces dernières
Dans les paragraphes qui suivent, nous présentons quelques modèles de base généraux.
184
On fait l'hypothèse que la valeur du niveau de gris du pixel considéré est une combinaison
linéaire des valeurs de niveau de gris des pixels voisins. On peut alors caractériser l'image de
texture, notée f f i, j;0 i, j M 1 , par l’expression de l’équation (8.1).
Le terme f i, j apparaissant dans l’équation (8.1) est la prédiction et elle est définie par
l’équation (8.2).
f i, j k, l f i k, j l
(8.2)
k ,l R
R : domaine de prédiction,
Le domaine de prédiction R est causal, semi-causal ou non-causal selon que les points
appartenant au domaine R existent tous ou non avant le point considéré. Ici, la notion de
temps est donnée par le balayage séquentiel (de gauche à droite et de haut en bas) de l'écran
de visualisation.
L'erreur de prédiction i, j est un élément d'un champ aléatoire E. On considère que c'est un
champ de bruit blanc (sa densité spectrale de puissance est une constante). La fonction de
g e m, n h 2 m, n,
1 si mn (8.3)
avec m, n
0 si m n
La texture f(i,j) est considérée comme la sortie d'un système linéaire dont l'entrée est un bruit
Figure 8.1 Représentation schématique d’un système linéaire dont l’entrée est un bruit blanc.
3) l’histogramme du bruit.
(taille des primitives de texture). Dans le cas général, l'estimation des paramètres (k , l ) du
L’expression m, n apparaissant dans l’équation (8.6) est la fonction de covariance, définie
par m, n E f i, j f i m, j n . Cette fonction m, n est estimée sur un ensemble fini
de données par une méthode d'autocorrélation. Le modèle ARMA donne des résultats valables
pour des textures aléatoires à grain fin ou moyen. Dans la variante à filtre linéaire, l'estimation
de la fonction de transfert du filtre est délicate. De ce fait, le modèle à filtre linéaire est peu
On fait l'hypothèse que la valeur de niveau de gris du pixel considéré ne dépend que d'un
voisinage réduit du pixel, ceci suppose que tout le passé du processus est contenu dans ce
1) un étal initial;
Chaque état du processus correspond à une distribution particulière des niveaux de gris sur le
voisinage. Les champs aléatoires de Markov peuvent être utilisés pour l'analyse et la synthèse
de texture, ainsi que pour la segmentation d'images texturées. Analyser la texture par modèle
de Markov consiste à estimer les paramètres du modèle, qui deviennent des caractéristiques
de la texture. On peut montrer que les valeurs prises par les paramètres qui modélisent la
texture sont des fréquences spatiales. Généralement, les paramètres sont estimés dans les
quatre directions classiques (0°, 45°, 90°, 135°) et ils renseignent sur les fréquences spatiales
187
dans ces quatre directions. Un champ de Markov est un modèle de la dépendance qui existe
entre les niveaux de gris de l'image. La principale propriété d'un champ de Markov exprime
que la valeur de niveau de gris d'un pixel ne dépend pas des niveaux de gris de tous les autres
pixels de l'image, mais seulement d'un certain nombre d'entre eux, qui appartiennent à un
voisinage du pixel considéré. On considère qu’un pixel n'appartient pas à son propre
voisinage. De plus, si un pixel p1 appartient au voisinage d'un pixel p2, alors la réciproque est
vraie. La figure 8.2 présente un exemple de voisinage qui peut être attribué au pixel (i,j) (ici,
Etant donné que le niveau de gris d'un pixel ne dépend que de ses plus proches voisins, il est
markovien évoluent en fonction des relations qui existent entre pixels voisins. A ce niveau, la
notion de clique doit être introduite. Une clique est un ensemble de pixels (souvent un, deux
ou trois mais parfois plus) tels que chacun des pixels appartient au voisinage (qui a été défini
préalablement, et qui peut être un 4-voisinage, un 8-voisinage ou un autre) des autres pixels.
La figure 8.3 montre l'exemple du 4-voisinage et des cliques qui lui sont associées. On
distingue une clique à un pixel (singleton) et 4 cliques à deux pixels (doubletons), chacune
A chaque clique est associée une fonction appelée fonction potentiel, qui s'exprime
valeur de la fonction potentiel dépend des relations qui existent entre les niveaux de gris des
pixels de la clique. Un certain nombre de méthodes sont utilisées pour estimer les paramètres
du modèle. Les valeurs estimées des paramètres permettent de connaître les fréquences
spatiales des niveaux de gris dans les directions choisies. Dans la plupart des modèles, plus la
valeur d'un paramètre est faible (voire négative), plus les fréquences spatiales dans la
direction associée sont élevées. Les modèles markoviens sont très utilisés en segmentation
d'images bruitées ou texturées. Pour la caractérisation des textures, peu de résultats probants
ont été obtenus à ce jour. Ceci est dû au fait que la modélisation par processus markovien
suppose une bonne stationnarité du signal et qu’elle ne s'adapte bien qu'aux micro-textures.
Deux modèles dérivés du modèle de Markov sont présentés dans les paragraphes qui suivent.
limité à trois pixels : les voisins immédiats gauche et supérieur. De plus, pour limiter le
nombre N de probabilités dans la matrice de transition, la texture est quantifiée sur un nombre
réduit (Ng) de niveau de gris. Pour un voisinage de taile u*v, possédant Ng niveaux de gris, le
nombre de configurations différentes est N Ng u*v , ce qui montre l'explosion combinatoire
de N avec u*v. Pour estimer les paramètres du modèle, on calcule l'histogramme des
Cependant, pour obtenir une estimation valable de ces probabilités sur une petite zone
d'image, on doit avoir un nombre réduit de types différents de configurations. Il est donc
valeur moyenne plus ou moins l'écart-type. L'intérêt de ce modèle réside dans la simplicité de
sa mise en œuvre, aussi bien pour l'analyse que pour la synthèse des textures. Les
inconvénients majeurs de ce modèle résident d'une part, dans la taille très limitée du
voisinage, et d'autre part, dans le nombre limité des niveaux de gris. Cet inconvénient a pour
conséquence le fait qu’avec ce modèle, on ne peut bien décrire que des textures de type
par les N configurations u*v les plus fréquemment rencontrées (plus exactement, par les
centres des N amas principaux dans l'espace vectoriel des configurations). On obtient alors
une image vectorielle de dimension 1/u*1/v par rapport à l'image originale, où chaque vecteur
possède N valeurs possibles. L'analyse probabiliste 2D s'effectue sur cette image vectorielle
même, les N valeurs différentres pour les vecteurs correspondent à beaucoup plus que N
niveaux de gris différents (au maximum à N*(u*v) niveaux de gris). Les résultats obtenus en
(macrotexture aléatoire).
L'analyse de Fourier est une technique mathématique qui permet de séparer une image en ses
Fourier stipule que toute fonction continue f(x) peut être représentée par une sommation d'une
série de termes sinusoïdaux de fréquences spatiales variables. Ces termes peuvent être obtenus
F u f x e 2iux dx (8.7)
Dans cette relation (8.7), u est la fréquence spatiale. Ceci signifie que F(u) est une fonction
dans le domaine de fréquence. La fonction du domaine spatial f(x) peut être retrouvée à partir
Pour utiliser l'analyse de Fourier en traitement numérique d'images, on doit considérer deux
extensions des équations (8.7) et (8.8). Les deux transformées peuvent d’abord être
généralisées par un passage à des fonctions à deux dimensions f(x,y) et F(u,v) (expression
(8.9)).
On peut aussi généraliser ces deux transformations par un passage à des fonctions discrètes.
ux vy
1 N 1M 1
2 i
Fu, v f x , y e N M
(8.10)
NM x 0 y 0
191
Dans cette expression (8.10), N est le nombre de pixels dans la direction x et M est le nombre
de pixels dans la direction y. Toute image de télédétection peut être décrite comme une
peut être utilisée pour calculer la transformée de Fourier d'une image. L'image peut être
ux vy
1 N 1M 1
f x, y
2 i
F u , v e N M
(8.11)
NM u 0 v 0
elle est appelée spectre de fréquence. Il est à noter que F(u,v) est une fonction complexe, car
elle contient le terme i dont la valeur au carré est égale à -1. On peut écrire toute fonction
complexe comme la somme d'une partie réelle et d’une partie imaginaire (équation (8.12a)).
L’expression (8.12a), écrite sous forme cartésienne est équivalente à l’expression (8.12b),
Dans l’expression (8.12b), Fu, v est une fonction réelle définie par l’expression (8.12c).
Fu, v , définie par l’expression (8.12c), est appelée amplitude de la transformée de Fourier
f(x,y). Trois types de paramètres peuvent être définis à partir du spectre de fréquence. Le
premier ensemble est dérivé de la distribution radiale des valeurs de Fu, v et est sensible à
la grossièreté de la texture de l'image. Une texture grossière aura des grandes valeurs de
192
Fu, v concentrées autour de l'origine, alors qu’avec une texture fine ces valeurs sont étalées
au-delà de l’origine (Weszka et al., 1976). Les valeurs moyennes de Fu, v prises sur des
directionnalité de la texture. Par conséquent, les anneaux peuvent être caractérisés par un
ensemble de moyennes de Fu, v prises sur des régions en forme de cale autour de l'origine.
Un deuxième ensemble de caractéristiques, qui sont aussi basées sur le spectre de fréquence,
- L'amplitude maximum :
f1 max Fu, v , u, v 0,0 (8.13a)
1 N 1M 1
- L'amplitude moyenne : f2 Fu, v (8.13b)
NM u 0 v 0
1
N 1M 1 2
2
- L'énergie de l'amplitude : f3 Fu, v (8.13c)
u0 v0
1 N 1M 1
2
- La variance de l'amplitude : f4 Fu, v f2 (8.13d)
NM u 0 v 0
Comme troisième possibilité, les amplitudes d'un ensemble choisi de fréquences peuvent être
dépend du problème à résoudre. Dans certains cas, les spectres de fréquence de différents
segments peuvent contenir certaines fréquences apparaissant de façon régulière, avec des
amplitudes plus grandes que d'autres fréquences. Celles-ci seront désignées comme des
appropriés. D'autres ensembles peuvent aussi être considérés. Les utilisations des
193
caractéristiques texturales dérivées par l’analyse de Fourier sont plutôt rares en analyse des
images de télédétection. Dans une étude récente, Marjike et al. (1995) ont évalué quatre
sol dans une image Landsat TM à l'aide d'un classificateur neuronal. Ils ont conclu que
certains paramètres de Fourier constituent un bon choix, en particulier lorsqu'une seule bande
Les informations de discrimination des thèmes peuvent être obtenues à partir du spectre de
Transformée de Fourier Discrète Bidimensionnelle d’une matrice image (fenêtre image) telle
que :
I0,0 I0, N 1
ux vy
M 1N 1
Ix, ye , avec I x, y ,
2 j
Fu, v M N
x0 y0
I M 1,0 I M 1, N 1
puissance par Pu, v Fu, v F u, v Fu, v , où F u, v est la fonction conjuguée de
2
P u, v
Du, v est donnée par l’expression D u, v .
pu, v
u ,v 0
Des paramètres de texture ont été générés à partir de la densité spectrale de puissance. Ces
paramètres, proposés initialement par D’Astous et Jernigan (1984), ont été repris par Liu et
P1 D u1 , v1 100 ,
d’analyse.
P2 2 D u1 , v1 D u1 1, v1 D u1 1, v1 D u1 , v1 1 D u1 , v1 1 4D u1 , v1
u v
P3 , où u u 2 Du, v , v v 2 Du, v ,
4 2 12
2 u v u v
u v uv
uv uvDu, v .
u v
Ce paramètre mesure l’élongation du spectre. Il est maximum pour des textures de lignes
parallèles.
La transformée en ondelettes (Grossmann and Morlet, 1984; Mallat, 1989) est analogue à la
transformée de Fourier sur une fenêtre. La différence entre la transformée de Fourier à fenêtre
valeur de la fréquence. Par contre, la fonction ondelette dilate sa forme suivant la fréquence.
Elle est très étroite à des hautes fréquences et elle est plus large à des basses fréquences.
Comme résultat, la transformée en ondelettes peut capturer des signaux de très haute
d'applications est continuellement en train d'être exploré (Antoni et al., 1992; Ranchin and
Wald, 1993). La forme générale de la transformée en ondelettes est exprimée par la relation
x b
f (x)
1/ 2
Wf (a , b) a dx f (x), a ,b (x) (8.14)
a
Dans cette expression (8.14), ( x ) est la fonction ondelette (ondelette mère) qui varie de zéro
x b
a , b x a
1 2
(8.15)
a
alors x est dilatée par a ,b x . Par contre si a<1, x est contractée par a ,b x . Pour
ondelette est orthogonale lorsque toutes les paires, formées à partir des fonctions de base
j,k x , sont orthogonales deux à deux. Une ondelette orthogonale dont la norme est
normalisée à 1 est appelée ondelette orthonormale. La base de Haar est connue comme la base
orthonormale la plus simple. Daubechies (1990) a trouvé des bases orthonormales à support
compact; celles-ci sont dénommées D2, D4, D6, etc… (D2 est équivalent à la base de Haar).
Plus grand est i dans Di, plus le coefficient du filtre s’éloigne de la valeur 0, c’est-à-dire plus
196
longue est la queue du filtre. Cette dernière situation s’applique dans le cas où les ondelettes
de Daubechies sont implémentées comme des filtres numériques. Mallat (1989) a proposé un
fonction arbitraire f(x), définie dans un espace de Hilbert, peut être correctement décomposée
suivant une règle d'approximation successive. Dans ce cas, la fonction ondelette dans laquelle
Les coefficients peuvent être obtenus à partir des équations récursives (8.17a) et (8.17b),
A kj h n 2 k A nj1
n
(8.17a)
D j g n 2 k D j1
k n n
où
A j HA j1
j j1 (8.17b)
D GA
comme un filtre passe-haut. Ces filtres sont appelés filtres mirroirs en quadrature dans la
littérature du traitement du signal (Vaidyanathan, 1989). Cette dénomination vient du fait que
~
filtre passe-bas H, à travers une paire de filtres H et G, avec des réponses impulsionnelles h
~
g où h n h n et ~
et ~ g n g n . Dépendant du choix de H, la fonction d'échelle x
et l'ondelette x peuvent avoir une bonne localisation, à la fois dans les domaines spatial et
fonction de H. Il a montré que pour tout n>0, on peut trouver une fonction H telle que
A j f H y H x f j1 D 2j f H y G x f j1
(8.18)
D j f G H f j1 D j f G G f j1
1 y x 3 y x
Les filtres G et H sont appliqués à l'image dans les directions horizontale et verticale, et les
sorties des filtres sont sous-échantillonnées par un facteur de deux, produisant trois sous-
bandes passe-haut dans trois orientations GG, GH, HG et une sous-bande passe-bas HH. En
quart de surface. La sous-image composée des parties basse fréquence suivant la direction des
lignes ou des colonnes est itérativement décomposée en quatre sous-images, niveau par
niveau. Une description détaillée est donnée dans (Mallat, 1989). Les transformées en
ondelettes discrètes sont très appropriées pour le traitement numérique des images. Elles ont
fusion des données images (Li et al., 1995; Antoni et al., 1992; Cheong et al., 1992). On
dans les images radar (Dong et al., 1998; Fukuda and Hirosawa, 1998; Starck and Bijaoui,
des textures (Laine and Fan, 1993; Salari and Ling, 1995). Récemment, la transformation en
ondelettes à été utilisée par Chen et al. (1997) pour produire les images fractales des trois
canaux d'une image SPOT-HRV dans une classification par réseau de neurones.
information sur la variation des niveaux de gris, alors que les paramètres de texture basés sur
les histogrammes d'ordre supérieur caractérisent les régularités spatiales des pixels à
l'intérieur d'un certain voisinage. Une troisième approche pour la sélection des attributs de
198
base est reliée à la compacité de la représentation du signal. Dans la plupart des cas, les
images sont hautement auto-corrélées. Le degré élevé d'auto-corrélation dans les images est
dû au fait que les objets à classifier tendent à avoir une consistance morphologique. En effet,
les valeurs de luminance localement semblables, les continuations des frontières et les
d'ordre supérieur. Pour prendre en compte cette corrélation, la distribution des caractéristiques
devrait être telle que très peu de caractéristiques hautement corrélées soient fortement
présentes dans la représentation du signal. Ceci motive l'utilisation des filtres ou des fonctions
de Gabor (1946), qui peuvent produire une représentation compacte pour les signaux réels.
Les filtres de Gabor x, y; , f sont des sinusoïdes spatiales, localisées par une fenêtre
f 2 f 2 x2 y2
x, y; , f exp i f x x f y y exp
x y
2 2
(8.19)
pixel. i est le nombre complexe tel que i 2 1. Le paramètre f détermine la fréquence
k
centrale du filtre passe bande dans la direction , tel que , k 0,....., K 1 . Le
K
Pour l'extraction des caractéristiques de Gabor, chaque fenêtre d'image W est convoluée avec
des filtres de Gabor de différentes largeurs et orientations, résultant en une image de sortie
En se basant sur les conclusions des travaux de Heikkonen (1994) et de Lampinen (1992),
largeurs sont définies telles que les filtres soient sensibles aux composantes de haute
fréquence dans l'image. Ainsi on a fixé et f , , .
2 2 3 4
phase. Bien que l'information de phase contienne des informations sur la localisation des
frontières et d'autres détails de l'image, elle n'a pas été retenue pour la suite du traitement. Les
niveau d'orientation séparément, ont été calculées. Il y a deux principales raisons pour
préférer les amplitudes aux phases des réponses des filtres de Gabor. Premièrement,
l'amplitude des sorties des filtres de Gabor change doucement sur un voisinage local de
l'image, ce qui est de toute vraisemblance une bonne propriété pour la discrimination des
Wx 1 Wy 1
Wx, y, , f
1
G W , f (8.21)
Wx Wy x0 y0
orientations du filtre a été calculée. Elle s’exprime par la relation (8.22) et elle produit une
G SUM
W G, f (8.22)
Alors que la transformation en ondelettes utilise une fonction analytique pour filtrer l'image,
les filtres de Gabor effectuent un fenêtrage de l'information spatiale pour une bande de
fréquences donnée. Ces deux transformations sont des méthodes efficaces en analyse
d'images. A l’heure actuelle, les applications des filtres de Gabor en traitement d’images de
200
télédétection sont très peu nombreuses. Dans une étude récente, Jukka et Aristide (1998) ont
utilisé des paramètres texturaux dérivés des filtres de Gabor dans une classification d’images
Landsat TM et ERS1 en milieu urbain. Dennis et al. (1994) reportent une étude sur
l’utilisation des filtres de Gabor pour segmenter une image de texture, en faisant ressortir les
discontinuités entre les frontières de texture. Les résultats expérimentaux obtenus dans cette
étude montrent que les caractéristiques texturales dérivées des discontinuités sont utiles pour
L'information texturale associée à un pixel est contenue dans les relations spatiales entre le
pixel traité et ses voisins. Il s’agit ici de déterminer le réseau de pixels voisins impliqués dans
l'analyse et la fonction de variation des niveaux de gris entre ces pixels. Cette information
gris, dans lequel chaque entrée p f i1 , f i 2 ,........., f i n représente une estimation de la
probabilité jointe du n-uplet f i1 , f i 2 ,........., f i n . N est le nombre de voisins utilisés et
caractériser la texture d'une image (Wang, 1994). C’est cette approche qui soustend la plupart
des méthodes probabilistes d’analyse de texture que nous présentons dans les paragraphes qui
suivent.
L'histogramme du premier ordre est surtout utilisé sous le nom d'histogramme d'image. Il
décrit la distribution des niveaux de gris de l'image. Un élément p(i) d'un histogramme du
premier ordre exploite uniquement l'information de niveaux de gris des pixels et non les
relations spatiales entre eux. Il est souvent utilisé pour la segmentation par seuillage sur le
niveau de gris, dans le cas où l'image présente des zones uniformes en niveau de gris.
Différentes statistiques du premier ordre peuvent être calculées à partir de l'histogramme des
niveaux de gris d'une image. La moyenne et la variance des niveaux de gris sont souvent
calculées pour une première caractérisation de l’image. Des paramètres de degré supérieur
réellement valables que si la distribution des niveaux de gris est assez régulière (histogramme
premier ordre sont présentés dans les lignes qui suivent (équations (8.23a-g)).
L 1
- La moyenne des niveaux de gris () : F1 i P i (8.23a)
i0
L 1
- Entropie : F2 P i ln P i (8.23b)
i0
L 1
F3 P i
2
- Energie : (8.23c)
i0
Plus douce (plus homogène) est la texture, plus grande est la valeur du paramètre d'énergie.
L 1
- La variance des niveaux de gris ( 2 ) : F4 i P i
2
(8.23d)
i0
La variance est une mesure de la variabilité des niveaux de gris autour de la moyenne.
202
1 L1
3 i P i
3
- Le coefficient de symétrie : F5 (8.23e)
i0
la moyenne.
1 L1
4 i P i
4
- Le coefficient d'aplatissement : F6 (8.23f)
i0
Le coefficient d'aplatissement donne une indication sur l’aspect pointu et effilé ou plutôt
aplati de l’histogramme.
- Le coefficient de variation : F7 100% (8.23g)
Plusieurs chercheurs ont évalué ces paramètres et d’autres transformations de texture. Par
exemple, Hsu (1978) a utilisé 17 statistiques texturales du premier ordre pour classifier le
conclu que les statistiques des longueurs de plages des niveaux de gris étaient plus efficaces,
bien que toutes les mesures de texture, à l’exception du coefficient de Pearson, fussent
statistiquement significatives. Prenant en compte ces résultats, Irons et Peterson (1981) ont
appliqué 11 paramètres de Hsu à des données Landsat MSS avec une fenêtre 3 x 3.
Malheureusement, aucune des mesures de texture utilisées, que ce soit dans une classification
supervisée ou dans une classification non supervisée, n’a produit une texture correspondant à
une classe de couverture du sol. Ulaby et al. (1986) ont utilisé des statistiques texturales du
premier ordre pour discriminer la couverture du sol dans les images radar. Gong et al. (1992)
mesure d’entropie. Leurs travaux ont établi que la variance est la meilleure mesure statistique
texturale du premier ordre, mais qu’elle n’est pas aussi efficace que les statistiques de
203
cooccurrence du second ordre. Ndi et al. (1997) ont utilisé les paramètres moyenne, variance
utilisant des données radar ESAR et ERS1. Ce travail a permis de conclure que cette
dérivées des matrices de cooccurrence du second ordre. Dans une étude plus récente, Jukka et
Aristide (1998) ont utilisé les statistiques texturales du premier ordre et du second ordre, ainsi
des statistiques texturales dérivées des filtres de Gabor, dans une expérience de cartographie
Une utilisation de l'histogramme local a été proposée par Lowitz (1984). Cette méthode se
propose de caractériser l'information spatiale locale d'une image, à travers une fenêtre
glissante qui balaie toute l'image. On calcule l'histogramme h des luminances des points
d'image appartenant à la fenêtre d'observation, puis on caractérise cet histogramme par son
module h et sa phase h . Supposons une fenêtre de taille n n centrée sur le pixel (x,y)
dans une image quantifiée sur r niveaux de gris. Les histogrammes locaux doivent alors rester
r
ci n2 (8.24)
i 1
Dans l’expression (8.24), c i représente le nombre de points d'image au i ème niveau de gris.
n2 n2 n2
1) l'histogramme centré : h 0 , ,...,
r r r
Le modèle d'un histogramme local est défini comme étant la distance entre l'histogramme
r
n2 n2
h ci logci log (8.25)
i 1 r r
La phase d'un histogramme local est défini comme étant le plus petit indice j de l'histogramme
l'histogramme cumulé complémentaire (HCC décrite par Kpalma (1992)). Considérons une
fenêtre montre des structures en relief de forme et de taille variées en fonction de la texture. Si
on découpe ce relief à une hauteur donnée, l'aire résultante (nombre de pixels dont la valeur
I min et I max les valeurs minimale et maximale de niveaux de gris dans cette fenêtre. La
dynamique maximale de luminance caractérisant la fenêtre considérée est alors obtenue par
I I max I min . L'aire de ces sections en fonction du niveau de découpe k ( k 0, I )
l’expression (8.26).
I
HCC k H i , k 0, I (8.26)
i k
HCC(k) est la probabilité d'avoir un pixel dont la valeur de niveau de gris est supérieure à k,
dans une fenêtre. C'est une mesure de la distribution des valeurs du signal de luminance sur la
dynamique des niveaux de gris dans un voisinage donné. Des utilisations de l'histogramme
205
local en analyse d'images peuvent être trouvées dans les références (Kpalma, 1992) et
(Raboisson, 1985).
Shanmugan (1973), basé sur le calcul des matrices de cooccurence des niveaux de gris.
Supposons que c x, y soit un vecteur du plan image (x,y), où x et y sont des
entiers. Alors, pour toute image f(x,y), il est possible de calculer la distribution de probabilité
jointe des paires de niveaux de gris correspondant à des paires de pixels séparés par
c x, y . Habituellement, le vecteur de séparation c x, y est défini par une distance
grand niveau de quantification de l'image (par exemple, quant k 255 ), cette probabilité
jointe prend la forme d'une matrice p c , où pc i, j pi, j; c . La grandeur pi, j; c est la
probabilité que les paires de valeurs de niveaux de gris (i,j) apparaissent à la séparation
c x, y . C'est une matrice carrée d'ordre quant k . On calcule la matrice p c pour une
image f(x,y) en comptant le nombre de fois que chaque paire de niveaux de gris apparaît dans
l'image à la séparation c x, y . Il est communément admis que toute l’information
texturale dérivable des matrices de cooccurrence est obtenue pour les angles 0°, 45°, 90° et
135°, avec une distance interpixels égale à 1 ou 2. En règle générale, plus grands sont les
éléments diagonaux de la matrice de cooccurrence, plus la texture est homogène dans la zone
d’image considérée. Pour illustrer le calcul des matrices de cooccurrence, considérons l'image
présentée sur la figure 8.4. Cette image a 5 lignes et 5 colonnes, avec des niveaux de gris
variant de 0 à 3.
206
Figure 8.4 Image numérique servant à illustrer le calcul des matrices de cooccurrence.
Ces matrices ont été évaluées pour une distance interpixels égale à 1,
Haralick et Shanmugan (1973) ont proposé une variété de mesures pour caractériser
l'information texturale à partir des matrices de cooccurrence. Les expressions de ces mesures
Ng Ng
F1 pi, j
2
- Second Moment Angulaire (Energie) : (8.27a)
i 0 j 0
Le second moment angulaire mesure l’homogénéité de l’image. Il a une valeur faible lorsque
les p(i,j) ont des valeurs très proches et une grande valeur lorsque certaines valeurs sont
grandes et d’autres petites, par exemple quand les p(i,j) sont concentrés autour de la
diagonale.
Ng Ng
F2 i j pi, j
2
- Contraste (Inertie) : (8.27b)
i 0 j 0
Le contraste est une mesure de la variation locale des niveaux de gris dans l’image. Ce
paramètre a une valeur numérique importante si les p(i,j) sont concentrés hors diagonale
(c’est-à-dire s’il existe de nombreuses transitions caractérisées par une différence de niveaux
Ng Ng i j pi, j
F3
x y
- Corrélation: (8.27c)
i 0 j 0 x y
(8.27d) ci-après.
208
Ng
p x i pi, j
j 0
(8.27d)
Ng
p y j pi, j
i0
Ce paramètre est le coefficient de corrélation des pixels de la fenêtre avec un modèle linéaire,
grande valeur quand les valeurs sont uniformément distribuées dans la matrice de
Ng Ng
F4 i x pi, j
2
- Somme des carrés des variances : (8.27e)
i 0 j 0
Ng Ng
pi, j
1
- Moment Différentiel Inverse : F5 (8.27f)
1 i j
2
i 0 j 0
2 Ng
2 Ng
i f8 p x y i
2
- Somme des variances : F7 (8.27h)
i2
Ng Ng
2 Ng
L’entropie mesure la complexité de l’image. Elle est grande quand les valeurs de la matrice de
cooccurence sont presque toutes égales et elle est faible dans le cas contraire.
2 Ng
HXY HXY1
F12 (8.27m)
maxHX, HY
où
Ng Ng
Ng Ng
Ng Ng
HXY2 p x i p y j log p x i p y j .
i 0 j 0
où
pi, k p j, k
Qi, j
k p x i p y k
Ng Ng
Ng Ng
A la suite de Haralick et Shanmugan (1973), plusieurs auteurs (Pratt, 1991; Anys and He,
1995; Collorec, 1995) ont proposé d'autres paramètres de cooccurrence du deuxième ordre
12
1
Ng Ng
Ng Ng
Ng Ng
Ng Ng
Ng Ng
pi, j
- Différence Inverse : F19 (8.28e)
i 0 j 0 1 i j
Ng Ng
Ng Ng
Ng Ng
F23 pi, j
3
- Troisième Moment Angulaire : (8.28i)
i 0 j 0
La plupart de ces paramètres ont une signification texturale semblable à celles des précédents.
texture d'une image. Il est donc courant que l'on procède à une sélection de paramètres pour
Gong et al. (1992) ont trouvé que les paramètres second moment angulaire (ASM), contraste
(CON) et corrélation (COR) produisent une information texturale plus consistante que les
mesures statistiques du premier ordre. Agbu et Nizeyimana (1991) ont appliqué une
211
statistique de cooccurrence du second ordre à des données SPOT de l’Illinois. Ils ont
documenté le potentiel des propriétés texturales des images, pour la délimitation des unités
cartographiques dans les phases initiales des programmes détaillés d’inventaire des sols et de
des statistiques de cooccurrence du second ordre pour discriminer les glaces marines dans les
combine la texture et l’information de niveau de gris. Franklin et Peddle (1989) ont utilisé un
des statistiques de cooccurrence du second ordre pour la classification d'images SPOT et radar
en milieu boréal. Leurs travaux ont montré que les matrices de cooccurrence du second ordre
contiennent une information texturale importante, qui améliore la discrimination des classes
et Peddle (1989) ont utilisé un mélange de données spectrales et les paramètres second
moment angulaire (ASM), entropie (ENT) et moment différentiel inverse (INV) dans une
substantielles de la précision de classification ont été notées lorsque les données texturales et
spectrales étaient intégrées dans le processus de classification. Les classes homogènes sur le
sol sont caractérisées adéquatement par l’information spectrale seule, mais les classes
contenant des mélanges de types de végétation ont été caractérisées avec plus de précision en
utilisant une combinaison de texture et de données spectrales. Anys et He (1995) ont utilisé
des paramètres de texture dans une classification des cultures. Ils ont noté une augmentation
le processus de classification.
La méthode de calcul des paramètres de texture par les matrices de cooccurrence est très
consommatrice en temps de calcul et en espace mémoire. Divers auteurs se sont penchés sur
ce problème, lui trouvant chacun une solution propre, ainsi, Unser (1986) remplace la matrice
principaux des probabilités de second ordre des processus stationnaires. Marceau et al. (1990)
précision de la classification. Peckinpaugh (1991) décrit une approche efficace pour le calcul
des mesures de texture basées sur la matrice de cooccurrence permettant un gain de temps
des paramètres de texture par le biais de différents histogrammes. Cet algorithme nécessite
l’allocation d’un vecteur au lieu d’une matrice, et le calcul des paramètres de texture se fait
selon de nouvelles formules faisant appel à une somme et non à une double somme, ce qui
Pour illustrer cette méthode, considérons l'exemple du calcul de l’élément moyenne. Pour une
L 1 L 1
i N
pij
x
i 0 j 0
Pour une normalisation appropriée chaque probabilité p ij doit être divisé par le nombre total
1 2 3
1 2 3
1 2 1 2
F : 2 3 1
M:2 1 0 2
3 1 1
3 2 2 0
Dans ce cas N 2 N l N c 1 2 3 2 12 et x i
3 3 p ij
.
i 1 j1 12
1 2 1 2 2 1 0 2 3 2 2 0 1 5 2 3 3 4 23
Soit x
12 12 12
Nous noterons, en particulier, que pij pour un ’i’ donné représente la probabilité
1 2 * * 2 3
F1d 1, 0 : 2 3 * et F2d 1, 180 : * 3 1
3 1 * * 1 1
En règle générale, pour une fenêtre F, le calcul de occ(i) reviendra à sommer les fréquences
Evaluation de x :
Evaluer x revient à multiplier chaque niveau de gris de la fenêtre image par la fréquence
d’occurrence correspondante :
214
i occi 1 5 2 3 3 4 23
3
x 12
12
12
,
i 1
L 1
i occ i L1 j occ j
ce qui donne la nouvelle formulation de x : x .
i0 N j 0 N
Ainsi, il est possible d'estimer la moyenne sans avoir à calculer la matrice de cooccurrence et
de réduire le calcul d'une double sommation à une simple sommation. De la même façon, il
est possible d’estimer d’autres paramètres de texture moyennant le calcul des fréquences
- la variance :
L 1 L 1 L 1
occi
i x i x 2
2 2 pij 2
x et devient x
N N
i 0 j 0 i 0
- la corrélation :
L 1L 1 L 1 L 1
i x j x pij 1 2
pij
C i j x
x . y N x 2 i 0 j 0 N
i 0 j 0
L 1 L 1
i j N .
pij
estimer
i 0 j 0
3 3 p ij 1 1 2 2 1 3 2 2 1 1 2 0 3 2 3 1 2 2 2 3 0
i j
i 1 j1 N 12
1 10 2 7 3 6 42 7
12 12 2
215
j pij pour un ‘i’ donné représente la somme des ‘j’ pour lesquels la relation R(d,) est
vérifiée, ce qui revient à considérer les deux fenêtres F l et F2.
1 2 3 1 2 3
F1d 1, 0 : 2 3 1 et F2d 1, 180 : 2 3 1
3 1 1 3 1 1
i, j j, i
Ainsi,
occ' 1 2 1 F1 3 3 1 F2 10
occ' 2 3 3 1 7
F1 F2
occ' 3 1 1 2 2 6
F1 F2
Pour une fenêtre F, le calcul de occ'(i) revient à sommer pour chaque 'i' les 'j' suivant R(d, )
3 3 pij 3
i occ' i 1 10 2 7 3 6 7
i j
i 1 j1 N i 1 12 12 2
L 1
1 i occi
C
x 2 i 0 N
x2
- l'inertie :
216
L1 L1 2 p ij
L 1 L 1 p L 1 L 1 p
I i j N
2 i 2
ij
2 i j
ij
j 0 N i 0 j 0 N
i 0 j 0 i0
L 1
2 occ i
L1 occ' i
I 2 i 2 i
i0 N i0 N
- le groupe de nuance :
L 1L 1
i x j x 3 N
pij
A
i 0 j 0
L 1 L 1 L 1 L 1 L 1 L 1
i x i x i x N
3 pij 2 pij 2 pij
2 6 j 6 x
N N
i0 j 0 i0 j 0 i0 j 0
L 1 L 1 L 1
occi occ i occi
A2 i x 3 6 i x 2
N
6 x i x 2
N N
i0 i0 i0
L 1
occi occi
2 i x 2 i 4 x N
3
N
i0
- le groupe de prédominance :
L 1 L 1
B i x j x
4 p ij
i 0 j 0 N
L 1 L 1 L 1 L 1 L 1 L 1
2 i x 8 i x 8 x i x
p ij p ij p ij
4 3 3
L 1 L 1 L 1 L 1 L 1 L 1
6 i x 12 x i x 6 2x i x
p ij p ij p ij
j2 j
2 2 2
L 1
occ i L1 3 occ' i
L 1
3 occ i
B 2 i x 8 i x 8 x i x
4
i 0 N i0 N i 0 N
217
L 1
occ" i L 1 L 1
occ' i L 1
2 occ i
6 i x 12 x i x 6 2x i x
2 2
i 0 N i 0 j 0 N i 0 N
L 1
2 occ i occ' i occ" i
2 i x i 2 6i x 8 2x 4i 10 x 3
i0 N N N
Les paramètres que l’on peut estimer grâce à cet algorithme sont des paramètres faisant
intervenir des sommations directes sur les probabilités d’occurrence. Les paramètres tels que
l’énergie, l’entropie et l’homogénéité locale font intervenir des calculs sur les probabilités
prises individuellement. On ne peut donc pas appliquer cette méthode pour les estimer. Cette
méthode a été appliquée avec succès par les auteurs, réduisant le temps de calcul des
classique.
La méthode des différences de niveaux de gris est décrite ci-après (Weszka et al., 1976). Soit
f(x,y) la fonction de niveau de gris d’une image. Pour tout vecteur x, y de l'espace
image, où x et y sont des entiers ( peut être défini par un angle interpixels et une
distance interpixels d), on définit f x, y f x, y f x x, y y . Soit finalement p
pm p m Pr f x, y m . La fonction p est souvent appelée fonction de densité
des différences de niveaux de gris. Il est communément admis que toute l’information
texturale dérivable de la distribution p est obtenue pour les angles interpixels 0°, 45°,
90° et 135°, avec une distance interpixels d pouvant prendre la valeur 1 ou 2. A partir de ces
218
- Contraste : F2 m2 p m (8.29b)
m
F3 p m
2
- Second Moment Angulaire : (8.29c)
m
p m
- Moment Différentiel Inverse : F5 (8.29e)
m 1 m2
F6 m p m
2
- Variance ( 2 ) : (8.29f)
m
1
3 m p m
3
- Coefficient de symétrie (skewness) : F7 (8.29g)
m
1
4 m p m
4
- Coefficient d'applatissement (kurtosis) : F8 (8.29h)
m
Le principal avantage de la méthode des différences de niveaux de gris est qu'elle calcule des
La méthode des longueurs de plage de niveaux de gris consiste à compter le nombre de plages
de niveaux de gris d'une certaine longueur, dans une certaine orientation (Dasarathy and
Holder, 1991). Une matrice R() [ r (i, j / )] de longueurs de plage est associée à un angle
direction . Généralement, cinq paramètres sont extraits de ces matrices (équations (8.30a-
e)).
219
1 M N r i, j;
F1 (8.30a)
nr i 1 j1 j2
j ri, j;
1 M N 2
F2 (8.30b)
nr i 1 j1
2
1 M N
F3 r i, j; (8.30c)
nr i 1 j1
2
1 N M
F4 ri, j; (8.30d)
nr j1 i 1
ri, j;
1 M N
F5 (8.30e)
NB i 1 j1
La constante nr r i, j; est le nombre total de plages dans l'image, M est le nombre de
M N
i 1 j1
niveaux de gris dans l'image et N est le nombre de longueurs de plages rencontrées dans
l'image.
1 M N ri, j;
F6 (8.31a)
nr i 1 j1 i 2
i ri, j;
1 M N 2
F7 (8.31b)
nr i 1 j1
Quatre autres paramètres ont été proposés par Dasarathy et Holder (1991). Ces paramètres
sont une combinaison de certains des paramètres précédents. Ils tiennent compte à la fois, de
1 M N ri, j;
F8 (8.32a)
nr i 1 j1 i 2 j2
1 M N i 2 r i, j;
F9 (8.32b)
nr i 1 j1 j2
1 M N j2 ri, j;
F10 (8.32c)
nr i 1 j1 i2
i j ri, j;
1 M N 2 2
F11 (8.32d)
nr i 1 j1
Les performances de cette méthode par rapport à la méthode des matrices de covariance sont
controversées. la méthode des longueurs de plage fonctionne mieux que les matrices de
covariance sur des textures contenant des formes plus ou moins allongées dans une direction
ou dans une autre. Par contre, elle est moins efficace sur des textures constituées de micro-
représente le nombre de fois que le niveau de gris i précède le niveau j selon une distance d1 et
un angle 1 , qui à son tour précède le niveau de gris k selon une distance d2 et un angle 2 .
Un des aspects importants de ce passage des histogrammes du second ordre aux histogrammes
du troisième ordre est que les trois pixels impliqués ne se trouvent pas nécessairement sur une
droite. Les couples d1 ,1 et d 2 ,2 pouvent être totalement différents (Hevenor, 1985), ce
qui résulte en une plus grande prise en compte des relations spatiales existant entre les pixels
cooccurrence définis dans le cas des matrices de cooccurrence du second ordre peuvent être
- Différence Inverse :
Ng Ng Ng
pi, j, k
F1 (8.33a)
i 0 j 0 k 0 1 i j i k j k
Ng Ng Ng
F2 i j i k j k pi, j, k (8.33b)
i 0 j 0 k 0
- Entropie :
Ng Ng Ng
- Contraste :
Ng Ng Ng
F4 i j i k j k pi, j, k
2 2 2
(8.33d)
i 0 j 0 k 0
Ng Ng Ng
F5 pi, j, k
2
(8.33e)
i 0 j 0 k 0
Ng Ng Ng
pi, j, k
F6 (8.33f)
1 i j i k j k
2 2 2
i 0 j 0 k 0
- Corrélation :
Ng Ng Ng i j k
F7 pi, j, k
i j k
(8.33g)
i 0 j 0 k 0 2
- Covariance :
Ng Ng Ng
F8 i i j j k k pi, j, k (8.33h)
i 0 j 0 k 0
- Variance :
Ng Ng Ng
F9 i i pi, j, k (8.33i)
i 0 j 0 k 0
- Probabilité maximale :
F10 max
0 i , j, k N g
pi, j, k (8.33j)
Ng Ng Ng
F11 pi, j, k
3
(8.33k)
i 0 j 0 k 0
A la suite de ces paramètres classiques, de nouveaux paramètres ont été proposés pour tirer le
1991).
Ng Ng Ng
pi, j, k
F12
i j2 k 2
2
(8.34a)
i 0 j 0 k 0
223
Ng Ng Ng
- Importance de la profondeur :
2
Ng Ng
Ng
pi, j, k
i 1 j1 k 1
F14 Ng Ng Ng (8.34c)
pi, j, k
i 1 j1 k 1
2 a la valeur suivante :
Ng Ng Ng
i i j j k k pi, j, k
2
i 0 j 0 k 0
Les applications de cette méthode en télédétection sont plutôt rares à cause de sa très grande
cultures en utilisant les images radar multipolarisation. Leurs travaux ont conclu que la
combinaison des mesures texturales de différents ordres avec les données multipolarisations
Wang et He (Wang and He, 1990; He and Wang, 1990) ont proposé une méthode d’analyse
de texture basée sur l’analyse de huit manières possibles de disposer, selon le sens de
déplacement des aiguilles d’une montre, les éléments de la matrice 3 x 3 des valeurs des
pixels montrée sur la figure 8.6. Cette disposition représente un ensemble comprenant neuf
niveau de gris du i-ème voisin. L’unité de texture correspondante est un ensemble contenant
0 si Vi V0
E i 1 si Vi V0 , pour i 1,2,.......,8 (8.35)
2 Vi V0
si
L’élément Ei occupe la même position que le pixel i. Comme chaque élément de TU a une des
trois valeurs possibles, la combinaison de tous les huit éléments résulte en 6551 unités de
texture possibles. Il n’y a pas une manière unique d’étiqueter et d’ordonner les 6551
8
N TU 3i 1 E i (8.36)
i 1
Dans cette expression (8.33), E i est le ième élément de l’unité de texture TU. Le premier
élément, E i , peut occuper n’importe quelle position parmi les huit positions possibles
gris d’une image en une unité de texture (TU) est présenté sur la figure 8.7. On y calcule le
rangement (a) de la figure (8.6). Dans cet exemple, le numéro de l’unité de texture du pixel
central a la valeur 6095. Les huit niveaux de gris de la fenêtre considérée sont très variés (il y
a une forte hétérogénéité dans cette petite région de l’image). Par conséquent, il n’est pas
surprenant que le pixel central ait un si grand numéro d’unité de texture. Huit numéros d’unité
de texture différents peuvent être calculés pour ce pixel central, en utilisant les huit
rangements illustrés sur la figure 8.6. Ces huit numéros d’unité de texture peuvent être
combinés de manière à obtenir un numéro d’unité de texture moyen du pixel central. Les
numéros d’unité de texture possibles, qui varient entre 0 et 6560, décrivent la texture locale
d’un pixel en relation avec ses huit voisins. La distribution de fréquence des numéros d’unité
225
de texture associés à une image est appelée spectre de texture. Dans une image classifiée,
chaque classe (ou sous-image) devrait avoir un spectre de texture unique, si sa texture est
Figure 8.7 Exemple de calcul d’une unité de texture : (a) voisinage 3 x 3 initial;
He et Wang (He and Wang, 1990) ont résumé les différents algorithmes utilisables pour
extraire des attributs texturaux à partir du spectre de texture d'une image (équations (8.34a-
g)).
3279
p i p 6561 i
- La symétrie noir et blanc : F1 1 i 0 6560 100 (8.37a)
p i
i0
texture. Une grande valeur de ce paramètre signifie que si on inverse les valeurs de niveaux de
6560
1 4 p j i p j 4 i
- La symétrie géométrique : F2 1 i 0 6560 100 (8.37b)
4 j1 2 p j i
i0
Ce paramètre mesure la symétrie du spectre de texture sous différents rangements (figure 8.6)
pour une image donnée. Cette mesure donne une information sur la régularité de la forme des
images (He and Wang, 1990). Une grande valeur de symétrie géométrique signifie que le
spectre de texture reste approximativement le même si l'image subit une rotation de 180°.
6560
1 3 4 p m i p n i
- Le degré de direction : F3 1 i0
6560 100 (8.37c)
6 m1 n m1
2 p m i
i0
Une grande valeur du degré de direction indique que le spectre de texture est sensible à
Pour les huit éléments d'une unité de texture (figure 8.6), on peut supposer que l'image
originale a une micro-texture avec un alignement horizontal. Pour mesurer cette propriété, les
6560
- Mesure de linéament horizontal : F4 p i HM i (8.37d)
i0
Une grande valeur de ce paramètre signifie que l'image originale a une forte micro-texture
d'orientation horizontale. De même, ils définissent les autres trois mesures exprimées par les
6560
- Mesure de linéament vertical : F5 p i VM i (8.37e)
i0
6560
- Mesure de linéament diagonal 1 : F6 p i DM1 i (8.37f)
i0
6560
- Mesure de linéament diagonal 2 : F7 p i DM2 i (8.37g)
i0
Les quatre mesures d'orientation définies dans les lignes qui suivent (équations (8.38a),
(8.38b), (8.38c) et (8.38d)) mesurent les propriétés directionnelles de l'image originale. Elles
6560
p i K i
2
- Symétrie centrale : F8 (8.38a)
i0
f , f et f , f .
c g d h
6560 ~
p i p i
- Anisotropie : F9 1 i 0 6560 100 (8.38b)
p i
i0
229
~
Dans les expressions (8.38), i représente le numéro d'unité de texture qui est obtenu en
permutant les éléments des quatre paires fa , fe , f b , f f , fc , fg et fd , f h .
p 6560 p1
- Granularité 1 : F10 6560 100 (8.38c)
p i
i0
p 3280
- Granularité 2 : F11 6560 100 (8.38d)
p i
i 0
De nombreuses applications du spectre de texture ont été reportées dans la littérature par les
auteurs (He and Wang, 1990; Wang and He, 1990; He and Wang, 1992; Wang, 1995). Dans
une étude plus récente (Akono, 1997), la méthode du spectre de texture a été utilisée pour
l'analyse texturale des images radar ERS1 de la région côtière du Cameroun avec des résultats
encourageants.
Une méthode plus simple pour mesurer l’activité du signal de texture consiste à détecter les
extréma par filtrage logique, puis à mesurer leur nombre sur un support d'une certaine taille.
L'inconvénient principal de cette méthode réside dans sa grande sensibilité au bruit. Pour
remédier à ce problème, la densité de contours est préférée. Ceux-ci sont extraits par des
ces filtres, ce qui donnerait une image binaire des contours (très dépendante de la valeur du
230
seuil). Il est plutôt souhaitable de prendre en compte l'amplitude du gradient, ce qui offre les
1) Il n’y a pas de seuil de binarisation à choisir. Ceci implique que la densité des contours ne
La mesure de la densité peut s'effectuer pour chaque réponse de filtre séparément, ce qui
long de certaines lignes d'analyse Li. L'intégrale curviligne mesure la longueur d'une fonction
spatiale de niveaux de gris, selon une demi-droite dans une direction donnée (Barba, 1983;
Ronsin et al., 1985). Les demi-droites partent de chaque point p de l'image avec des
droites se terminent lorsque la valeur de l'intégrale curviligne atteint un seuil défini à priori.
déplacement le long de cette ligne. A chaque point p de l'image, on peut associer un vecteur
V( p) a 1 , a 2 , ...., a n
T
(8.39)
Dans l’expression (8.39), on a : a i ds , avec ds 2 dx2 dy2 df x, y . f x, y est
Li
2
la fonction de niveau de gris du pixel situé en (x,y) et est la fonction d'échelle introduite
entre la variation spatiale et la variation des niveaux de gris. Ce vecteur d’attributs peut être
fut initialement étudiée par Matheron (1975), Serra (1982, 1988) et Sternberg (1982, 1986).
Elle est fondée sur la théorie des ensembles et elle fournit une approche basée sur les formes.
Les opérations de base en morphologie mathématique consistent à comparer les objets que
l'on veut analyser à un objet de forme connue, appelé élément structurant, ayant une forme
prédéfinie. L'objectif visé est la simplification des informations contenues dans l'image, tout
en préservant son allure générale (Haralick and Zhuang, 1987). L'originalité de cette
méthodologie réside dans le fait qu'elle présente une analogie avec les mécanismes de la
tridimensionnel. La notion de forme ou d'ensemble correspond aux objets présents dans les
biomédicales et satellitaires (Ogor et al., 1995). Elle est aussi utilisée en inspection
1995), en traitement de documents (Liang et al., 1994), en détection de contours (Beucher and
Meyer, 1993) et objets (Geraud et al., 1995), en filtrage des images (Safa and Flouzat, 1989;
Morales et al., 1995), en analyse de texture (Wang et al., 1993), en présentation d'images
(Jeannot et al., 1996) et en codage d'images (Pardas and Salembier, 1994; Wang et al., 1996).
Dans les paragraphes qui suivent, nous rappelons uniquement son utilisation en analyse de
texture.
Werman et Peleg (1985) ont proposé en analyse de texture une méthode basée sur la
morphologie mathématique avec des éléments structurants 1D. Ils ont utilisé un groupe
d’éléments structurants E(l,) dont les longueurs sont l et les orientations . Soit f(i,j) une
image de texture. Les sommes respectives des niveaux de gris des images érodées, dilatées,
Sd l, f i, j El,
i, j
S l, f i, j El,
e i, j
(8.40)
So l, f i, joEl,
i, j
S f l, f i, j El,
i, j
Six attributs texturaux sont extraits à partir de chacune des matrices S précédentes :
1) toute la matrice;
Dans leurs expérimentations, la matrice entière d’érosion se forme par les éléments
structurants E(l,) pour l 2,3,.......,9 et = 0°, 45°, 90°, 135°. Donc, Se l, constitue une
images texturales par les différences de Se l, , une bonne classification a été obtenue.
Dans (Peleg et al., 1984), le principe de la mesure de la longueur d’un littoral est étendu à la
mesure de la surface. Un élément structurant en croix, défini par la fonction h(x,y) est utilisé.
Cette méthode se définit d’abord par l’érosion et la dilatation itératives (équation 8.41).
v k u k i, j b k i, j . On peut aussi obtenir la surface de la texture à la résolution k :
i, j
qui passe au milieu des points log k 1 ,logsk 1 , log k ,logsk , log k 1 ,logsk 1 .
texture s’effectue par comparaison des k des différentes textures. Pour les textures i et j de
k 0.5
Di, j i k j k log
2
(8.42)
k k 0.5
L’expérience mise en œuvre pour valider cette méthode a consisté à classifier six paires de
identification.
La granulométrie morphologique est l’analyse opérée après l’application d’une suite de filtres,
réalisant une décomposition en séquences de plus en plus fines selon la taille des objets
présents. La distribution de taille est observée par la mesure des résidus après chaque itération
d’un filtre de la séquence. Le concept de la granulométrie a été introduit par Matheron (1975)
2) , 0 , o o sup ,
1) Anti-extensivité : f f
2) Croissance : f g f g
3) Idempotence : o f f
Dougherty et al. (1992) ont utilisé une séquence d’éléments structurants croissants dans
l’ouverture classique. Après l’ouverture par cette séquence d’éléments structurants, l’image f
traitée devient une série d’images au contenu de taille croissante. Ceci signifie que les détails
de ces images deviennent de moins en moins grands, au fur et à mesure qu’on effectue des
ouvertures avec des éléments structurants de plus en plus grands (voir expression (8.43)).
Supposons en outre que cette transformation est décroissante avec la série d’éléments
élément structurant de taille 1, 1 , doit conserver tous les détails de l’image. Elle doit donc
k
donner le nombre total de pixels de l’image, et la normalisation k 1 peut être
1
s’appelle densité discrète. Pour définir la distribution granulométrique locale dans une
segmentation de l’image basée sur une analyse de texture locale, on peut d’abord ouvrir
l’image entière avec une série d’éléments structurants croissants. La distribution en taille est
observée en plaçant une fenêtre Wx centrée sur chaque pixel x de l’image et en comptant la
distribution des tailles dans cette fenêtre. On a alors la distribution granulométrique locale
x k
x k 1 . La densité d x k s’appelle spectre local (local pattern spectrum) et sert
x 1
comme descripteur local de la texture au pixel x. Avec des éléments structurants différents, la
moyenne de d x k en chaque pixel constitue une image qui s’appelle le spectre moyen
(pattern spectrum mean) (PSM). Dans l’étape de segmentation des images de texture, les
auteurs ont choisi 17 attributs texturaux dont les principaux sont la moyenne de l’image
PSM PSM et l'écart-type de l’image PSM PSM . De façon semblable, Chen et al. (1993)
ont calculé la distribution granulométrique globale et locale en étudiant des images de texture
naturelles et médicales.
multirésolution pour segmenter les images texturales. Dans cette méthode, un groupe Bi
d’éléments structurants de différentes tailles est défini dans l’espace euclidien 2D (équation
(8.44)).
Bi 1 Bi B, i 0,1,......., n 1 (8.44)
Dans ce cas, B0 0,0 est l’origine et B est l’élément structurant élémentaire ayant une
forme simple et régulière (carré, losange, croix, ...). La figure 8.8 montre un groupe Bi obtenu
L’ouverture de l’image texturale f(x,y) par l’élément structurant Bn (le plus grand dans le
groupe) est d’abord calculée. Toutes les primitives de taille supérieure à cet élément
structurant sont extraites de l’image s(x,y) obtenue après l’ouverture, et toutes les primitives
de taille inférieure sont complètement supprimées. Les primitives un peu moins larges
peuvent alors être extraites par ouverture sur l’image différentielle f(x,y)-s(x,y) avec un
élément structurant Bn-1 un peu moins grand. Ensuite, de façon similaire les primitives de
moins en moins larges sont extraites en utilisant des éléments structurants de plus en plus
f 0 x, y f x, y
si x, y fi o Bn 1 x, y i 0,1,....., n (8.45)
fi 1 x, y fi x, y si x, y
Dans les relations précédentes (8.42), les si x, y résultant de la décomposition forment une
série d'images composantes, dont chacune ne contient que les primitives d’une certaine taille.
Quatre groupes d’attributs texturaux extraits des images composantes si x, y sont définis :
les moyennes et les variances de niveaux de gris, les moyennes de gradient, et les surfaces des
supports de primitives.
La géométrie fractale est une façon de modéliser les objets spatiaux irréguliers, complexes et
animés de fluctuations aléatoires tels que les montagnes, les flocons de neige et les côtes
littorales. En effet, ces objets ne suivent pas les lois classiques de la géométrie des illustres
à certains objets des dimensions non entières. La dimension fractale d'un objet est un réel qui
mesure son irrégularité. En analyse de texture, de nombreux auteurs (Sarker and Chaudhuri,
1992; Kpalma, 1992) considèrent la surface des niveaux de gris de l'image comme une
surface fractale.
Parallèlement à l'impossibilité de leur donner une dimension euclidienne, les objets fractals
1
sous-segment est la réduction du segment initial par un facteur . Le segment possède donc
N
N r1 1 pour N=3
1
carré initial par la réduction d'un facteur r . On a donc :
N
N r2 1 pour N=4
N r D 1 . D est la valeur telle que, quelle que soit la longueur r de l'étalon choisi, on obtienne
toujours la même mesure en multipliant cet étalon par le nombre de fois qu'il est contenu dans
l'objet. Cette dimension D est définie comme la dimension fractale et elle s’exprime par la
relation (8.46).
log N
D
log1 r
(8.46)
Pour la mesure de la dimension fractale d'une surface telle que la surface des niveaux de gris
d'une image, Voss (1986) a proposé une méthode d'estimation du nombre moyen, noté N(r),
de boîtes cubiques de côté r fixé, centrées sur le signal et nécessaires pour recouvrir l'image.
Celle-ci étant considérée comme une surface dans l'espace. On estime P(m,r), la probabilité
qu'une boîte de taille r, centrée sur un point arbitraire de la surface, contienne m points de
Np
r , pm, r 1 (8.47)
m1
239
Dans l’expression (8.47), N p est le nombre de points possibles dans le cube. Si N(m,r) est le
nombre de boîtes de côté r contenant m points, et si K est le nombre total de points dans
L'estimation du nombre moyen de boîtes disjointes nécessaires pour recouvrir la surface est
Np Np
Pm, r
N r Nm, r K (8.49)
m1 m1 m
L'estimation aux moindres carrés de la pente du nuage de points ln r , lnN r , obtenue
b) La lacunarité
Ce paramètre noté permet de différencier deux objets fractals ayant la même dimension
fractale, mais différents en aspect de texture. A partir des probabilités P(m,r), la lacunarité
M 2 r M r
2
(8.50)
M r 2
avec
Np Np
M r m Pm, r et M r
2
m2 Pm, r
m1 m1
Ce paramètre caractérise la rugosité de la texture. Il est faible quand la texture est fine et fort
Les mouvements browniens fractionnaires (MBF) ont été introduits par Mandelbrot (1977)
pour décrire les processus stochastiques de type gaussien. Le MBF est essentiellement
valeurs de déplacement x, la moyenne des carrés des écarts entre les pixels situés dans une
fenêtre d'analyse centrée sur le pixel (x,y), et ceux situés dans une autre fenêtre de même
taille, centrée sur le pixel x x, y y . Cette opération donne un ensemble de points par
lesquels on peut faire passer une droite. H est la pente de cette droite. Si f(x, y) est une
surface de niveaux de gris, l'équation principale qui sert au calcul de H est donnée par
l’expression (8.51).
E f x x, y y f x, y
2
x2 y2
2H
(8.51)
Pour une texture non isotrope, ce qui est souvent le cas dans les textures naturelles, il est
d) Les multifractales
La propriété d'autosimilarité d'un ensemble de points peut être caractérisée par la dimension
fractale, mais elle n'est pas toujours présente dans les textures rencontrées. La dimension
fractale n'est donc pas toujours stationnaire. Un moyen d'estimation de ses variations consiste
à mesurer les dimensions multifractales Dq qui caractérisent des dimensions fractales d'ordre
supérieur (Sarker and Chaudhuri, 1995; Lévy-Véhel and Mignot, 1994). Soit f une fonction
1/L. Considérons une mesure définie par f dans chaque sous-intervalle ki(L), par exemple la
k i f t dt (8.52)
k i L
L q
log k i
1
lim
i 1
Dq (8.53)
1 q L 1
log
L
En appliquant ces modèles fractals aux images de textures naturelles, on peut en extraire la
dimension fractale pour les caractériser. En effet, les images de textures naturelles répondent
bien au modèle du MBF (Kpalma, 1992). Lam (1990) a calculé la dimension fractale de trois
la méthode des boîtes. Une dimension fractale moyenne pour chaque zone d’étude a été
calculée en prenant la moyenne sur toutes les dimensions fractales des bandes. Il a été noté
que le paysage urbain a la plus grande dimension fractale moyenne (D = 2.609). La région
côtière était deuxième (D = 2.597) et la zone urbaine était troisième (D = 2.539). DeCola
(1989) a calculé les dimensions fractales pour les cartes produites à partir des images Landsat
TM du Vermont en utilisant la méthode des boîtes. Ces résultats montrent que la dimension
fractale obtenue à partir de régions relativement petites peut être utilisée comme mesure de
texture ou de complexité. Ceci peut être utile dans des classifications binaires ou floues,
supervisées ou non supervisées. Lam (1990) révèle que les facteurs tels que le bruit, l’angle
conséquent la dimension fractale statistique. Dans une étude récente, Chen et al. (1997) ont
proposé une méthode de calcul de la dimension fractale d'une image basée sur la transformée
en ondelettes, dans la classification d'une image SPOT par intégration des informations
observée lorsque les deux sources d'information étaient combinées dans une classification par
réseau de neurones. Dans une autre étude récente (Legeley-Padovani et al., 1997), la méthode
242
des multifractales a été combinée à la morphologie mathématique pour extraire des structures
linéaires dans une image RSO du satellite ERS1 sur le Sud Cameroun.
Dans les programmes de recherche sur les changements à l'échelle du globe, les indices de
végétation dérivés des données de télédétection constituent une information de base précieuse
pour la gestion de l'environnement végétal (Bannari et al., 1995). La collecte des informations
précises et opportunes sur la production agricole mondiale et la santé des cultures reste une
utilisant des techniques in situ est très coûteuse, consommatrice en temps et souvent
impossible (Eastman and Fulk, 1993). Une approche alternative consiste à mesurer la quantité
et la condition de la végétation à partir d'une analyse des données multispectrales (Goel and
Norman, 1992). Plusieurs études dans ce domaine ont impliqué l’analyse des données
consiste souvent à réduire les multiples bandes de données en une seule image transformée,
dans laquelle la valeur d'un pixel prédit et mesure les caractéristiques du paysage. Les
section présente plusieurs algorithmes utilisés pour extraire de telles informations à partir de
réfléchit généralement entre 40% et 50% de l’énergie proche infrarouge incidente (0.7 à 1.1
m). La chlorophylle contenue dans les plantes absorbe approximativement entre 80% et 90%
243
de l’énergie incidente dans la partie visible (0.4 à 0.7 m) du spectre (Jensen, 1983). La
végétation morte ou sénescente réfléchit une plus grande quantité d’énergie que la végétation
verte saine à travers le spectre du visible. Par contre, elle réfléchit moins que la végétation
verte dans la région réfléchissante de l’infrarouge. Les sols nus ont généralement une
réflectance plus élevée que la végétation verte et une réflectance plus faible que la végétation
morte dans la région du visible, alors que dans le proche infrarouge, le sol nu a généralement
une réflectance plus faible que la végétation verte ou sénescente. Plusieurs indices de
végétation sont basés sur le fait qu’il y a des différences significatives dans la forme de ces
télédétection ne peut offrir aucune information utile sur la condition de la végétation si ces
Le premier et le plus simple de ces indices de végétation est le DVI (Difference Vegetation
Index) qui est la différence entre la réflectance du proche infrarouge et la réflectance rouge de
la surface. Cet indice n’a pas été utilisé abondamment, mais le RVI (Ratio Vegetation Index)
défini comme le rapport des réflectances dans le rouge et le proche infrarouge a été utilisé par
plusieurs auteurs. Un des avantages de ce quotient par rapport au DVI est qu’il offre une
aux comportements des sols, le NDVI (Normalized Difference Vegetation Index), proposé
par Rouse et al. (1974), reste l’indice le plus utilisé. Kaufman et Tanré (1992) développent un
Celui-ci est une version améliorée de l’indice NDVI pour mieux raffiner la diffusion
proposent un indice de végétation non linéaire pour une gestion globale de la végétation à
244
indice de végétation résistant aux effets atmosphériques et à la brillance du sol est défini par
Plummer et al. (1994) : le Angular Vegetation Index (AVI). Cet indice utilise les trois
bandes spectrales vert, rouge et proche infrarouge, ainsi que la longueur d’onde centrale de
chacune de ces bandes blue , red , nir . La dépendance spectrale de cet indice se normalise
par rapport à la bande centrale dans le rouge red . Tous ces indices s’expriment par les
PIR
RVI (8.55)
R
PIR R
NDVI (8.56)
PIR R
PIR aR b
PIR RB
ARVI
PIR RB
(8.57)
ab
avec RB R B R et ,
ab ar
RB* : réflectance apparente combinée à partir des deux canaux bleu et rouge;
La droite des sols nus dans l’espace spectral apparent rouge-bleu et proche infrarouge
avec
red 1 red 1
AVI tan 1 blue PIR R tan 1 blue V R (8.59b)
red red
Tanré (1992) montrent que la valeur de l’expression (8.59b) permet un meilleur ajustement
pour la plupart des applications en télédétection, à moins que le modèle des aérosols ne soit
connu à priori.
milieu sahélien (Kalifa and Royer, 1992), et la déforestation en milieu tropical. Forster (1983)
est l'un des pionniers de l'utilisation des données de télédétection spatiale pour déterminer les
MSS sur la ville de Sydney (Australie), il définit un indice de qualité résidentielle basé sur le
Strasbourg, le RVI permet de séparer le domaine urbain construit du domaine végétal (CNES,
1982). Dans le même sens, Nicoloyanni (1990) utilise l'indice PVI comme information de
base pour une analyse diachronique sur l'agglomération urbaine d'Athènes (Grèce). D'après
lui, cette méthode permet la mise à jour de surfaces de changement de façon très précise.
Selon Collet et Abednego (1987), cet indice caractérise bien la végétation de faible densité en
milieu urbain. L'intégration de l’indice PVI dans un SIG ouvre la porte à des études détaillées
et riches en milieu urbain. Calculé à partir des données AVHRR, le PVI montre une bonne
corrélation entre les îlots de chaleur en milieu urbain et la densité du couvert végétal.
Terrettaz et Collet (1995) ont utilisé l'indice PVI, la morphologie mathématique et le filtrage
contextuel pour la différenciation des tissus résidentiels sur la ville de Genève (Suisse). Pour
une atmosphère urbaine où la taille des aérosols est moyenne ou petite, l’indice ARVI,
caractérisé par une bonne résistance aux effets atmosphériques, pourra offrir de bons résultats
La figure 8.9 présente le menu de calcul des images d’indices de végétation avec le logiciel
figure 8.10 présente la composition colorée d’une image Landsat TM de la région de Namh
Thanh au Vietnam TM4 (rouge), TM3 (vert) et TM2 (bleu). Sur la figure 8.11, on voit
l’image NDVI de l’image de la Figure 8.10. On observe une nette distinction entre les
Figure 8.9 Menu de calcul des images d’indices de végétation avec le logiciel SAITEL.
Figure 8.10 Composée colorée d’une image Landsat TM de la région de Namh Thanh au
Figure 8.11 Image NDVI de l’image de la Figure 8.10. On observe une nette distinction entre
les surfaces couvertes de végétation et les sols nus (source : logiciel SAITEL).
(ACP) dans l'analyse des données multispectrales (Byrne et al., 1980; Eastman and Fulk,
1993; Gong, 1993; Wang et al., 1993). La transformation des données de télédétection de base
en utilisant l'ACP peut résulter en de nouvelles images composantes qui peuvent être plus
faciles à interpréter que les données originales (Singh and Harrison, 1985). L'ACP peut aussi
être utilisée pour compresser le contenu en information d'un certain nombre de bandes
d'image (les sept bandes Landsat TM, par exemple) en deux ou trois images composantes,
nombre de bandes de la base de données image qui doivent être analysées pour produire des
249
est aussi élevé que dans les données originales. Une forme d'ACP peut aussi être utile pour
de bandes. Lee et al. (1990) ont utilisé une transformation ACP modifiée, le MNF (maximum
noise fraction) pour la compression des données et la réduction du bruit des données du
multispectrales est effectuée en les transformant dans l'espace MNF, en lissant ou en rejetant
Dans une étude récente, Moisan et al. (1999) ont utilisé l’analyse en composantes principales
pour détecter des changements dans une série d’images ERS1 multidates de la rive sud du
fleuve Saint-Laurent (Québec). Dans leur étude, les variables de départ ont été étalonnées,
superposées, filtrées et soumises ensuite à l’ACP sous forme d’images filtrées, d’une part, et
sous forme d’images de changements de type différence de 0 , d’autre part. Il ressort de cette
étude que, seule l’utilisation des différences de 0 permet d’obtenir de nouvelles variables
qui concentrent les changements temporels. La première composante explique plus de 90%
aux zones de plus forts changements temporels. Les changements redevables à des artéfacts
non corrélées ayant certaines propriétés de variance ordonnées (Singh and Harrison, 1985).
supposons euclidien. Tout vecteur X de cet espace peut s'écrire comme combinaison linéaire
d
X y ju j (8.60)
j 1
uTi u j ij (8.61)
Dans l’expression (8.58), ij est le symbole de Kronecker. Les expressions explicites des
coefficients y i dans l’équation (8.60) peuvent être trouvées en utilisant l’équation (8.61), ce
y j u Ti X (8.62)
La transformation exprimée par l’équation (8.62) peut être considérée comme une rotation du
système de coordonnées des x originaux vers un nouvel ensemble de coordonnées donné par
les y. Supposons maintenant qu’on ne retienne que M (M<d) vecteurs de base ui, tel qu’on
n'utilise que M coefficients yi. Les coefficients restants doivent être remplacés par des
constantes bi telles que chaque vecteur X soit approché par une expression de la forme (8.63).
~ M d
X y ju j b ju j (8.63)
j1 j M 1
Ceci représente une forme de réduction de dimensionnalité, car le vecteur original X qui
contient d degrés de liberté doit maintenant être approché par un nouveau vecteur Y ayant
Nous voulons choisir les vecteurs de base ui et les coefficients bi tels que l’approximation
251
donnée par l’équation (8.63) et les valeurs des yi déterminées par l’équation (8.62) produisent
y
d
~
Xn Xn n
i bj uj (8.64)
j M 1
Nous pouvons alors définir la meilleure approximation comme celle qui minimise l'erreur
quadratique sur tout l’ensemble de données. On cherche à minimiser l’erreur exprimée par
1 N n ~n 1 N d
2
X X yn b j
2
EM (8.65)
2 n 1 2 n 1 j M 1 i
1 N n
b j y j u Tj X (8.66)
N n 1
1 N n
X X (8.67)
N n 1
En utilisant les expressions (8.62) et (8.66), on peut exprimer l’erreur quadratique (équation
u j X X uTj u j
1 d N T n 1 d
2
EM (8.68)
2 j M 1 n 1 2 j M 1
l’expression (8.69).
X n XX n X
1 N
T
(8.69)
N 1 n 1
Il ne reste plus qu'à minimiser l'erreur quadratique EM par rapport au choix des vecteurs de
base ui. On montre que le minimum d'erreur est atteint lorsque les vecteurs de base vérifient la
relation (8.70).
252
ui i ui (8.70)
Ceci signifie que le minimum d'erreur est atteint lorsque les vecteurs de base sont égaux aux
réelle et symétrique, ses vecteurs propres peuvent être choisis orthonormaux pour satisfaire
1 d
EM i (8.71)
2 i M 1
Donc, l’erreur minimum est obtenue en choisissant les d-M plus petites valeurs propres et
leurs vecteurs propres comme ceux à éliminer. Chacun des vecteurs propres ui est appelé une
composante principale.
2) Les vecteurs propres associés aux M plus grandes valeurs propres sont retenus et les
vecteurs d’entrée X n sont projetés sur l'espace de ces vecteurs propres, pour donner les
composantes principales peut être évaluée en utilisant l’expression (8.68). Dans certaines
applications, les données originales ont une très grande dimensionnalité et on souhaite ne
retenir que les toutes premières composantes. Dans ce cas, on peut utiliser des algorithmes
plus efficaces en produisant uniquement les valeurs propres et les vecteurs propres requis.
253
1) Calculer la matrice de covariance, Cov, des données originales devant être transformées.
2) Les valeurs propres E 1 ,........, n (classées par ordre décroissant) et la matrice des
vecteurs propres associés EV a kp ,1 k n bandes;1 p n
composantes de la
1 0
EV COV EV T diag 1 ,....., n (8.72)
n n n n n n
0 n
Dans l’équation (8.69), EVT est la transposée de la matrice des vecteurs propres EV et E est
une matrice de covariance diagonale dont les éléments diagonaux i , appelés valeurs
Les valeurs propres i véhiculent une information importante. Par exemple, il est possible de
Mais, quelle est la signification thématique de ces nouvelles composantes? Que représente par
a kp p
R kp (8.74)
Vark
où
Les calculs précédents résultent en une nouvelle matrice d'ordre n dont les éléments
représentent les degrés de contribution des différentes variables de base (bandes) dans
chacune des composantes principales. L'analyse de cette matrice peut permettre d'identifier les
variables les plus importantes permettant d’exprimer la variance totale des données à analyser.
Maintenant que nous comprenons quelle information est contenue dans chaque composante
principale, il est utile de voir à quoi ressemblent les images de ces composantes. Pour cela il
est d'abord nécessaire d'identifier les valeurs de luminance BVi , j,k associées à un pixel
donné dans les différentes bandes. On applique ensuite la transformation appropriée à ces
données tel qu'elles soient projetées sur les axes des premières composantes principales. De
cette manière on trouvera la nouvelle valeur de luminance newBVi , j,p du pixel dans la
n
newBVi , j,p a kp BVi , j,k (8.75)
k 1
où on a :
a kp : vecteurs propres,
255
n : nombre de bandes.
Cette procédure est exécutée pour chaque pixel de l’image originale pour produire
et 3 comptent le plus dans la variance de l'ensemble de données, il est possible que les n
bandes de données originales soient écartées et que le reste du processus d'analyse soit
effectué en utilisant seulement ces trois images de composantes principales. Ceci réduit
télédétection.
Eklundh et Singh (1993) et Eastman et Fulk (1993) ont démontré que l'ACP standardisée
(basée sur le calcul de la matrice de corrélation) est plus appropriée que l'ACP non
bande à avoir un poids égal dans la dérivation de nouvelles composantes images. Elle est
identique à la conversion de toutes les valeurs de l’image à des valeurs standards (en
soustrayant la moyenne et en divisant le résultat par l'écart-type). Eastman et Fulk (1993) ont
traité 36 images mensuelles AVHRR dérivées du NDVI de l'Afrique pour les années 1986 à
1988. Ils ont trouvé que la première composante était toujours fortement corrélée avec le
composantes sont reliées aux changements saisonniers du NDVI. De même, Eklundh et Singh
(1993) ont calculé les composantes principales en utilisant quatre ensembles de données :
Les résultats obtenus révèlent des améliorations significatives du rapport signal sur bruit en
8.5 Exercices
classification ?
Plusieurs méthodes d’analyse de texture ont été proposées dans la littérature, notamment :
les méthodes des histogrammes du 1er, du 2ème et du 3ème ordre, et la méthode du spectre
de texture. Quels sont les avantages et les inconvénients de ces méthodes lorsqu’on les
Expliquer les différentes méthodes de sélection des paramètres présentées dans cet
ouvrage.
Quelle est l’utilité des indices de végétation ? Citer les indices de végétation présentés
dans cet ouvrage et montrer les avantages des uns par rapport aux autres.
Extraire un 4-voisinage autour de chaque pixel de cette image et indiquer les cliques associées
selon les 4 directions classiques : 0°, 45°, 90° et 135°. Pour la gestion des points de bordure,
Modifier les niveaux de gris de l’image de la figure 8.13 de telle sorte que le niveau de
4 directions classiques (0°, 45°, 90°, 135°), en prenant une distance interpixels égale à 1.
258
correspondants (voir figure 8.7 et équation 8.33). Considérer le rangement (a) de la figure
8.6 et utiliser la méthode des zéros pour les points de bordure (voir chapitre 3, §3.3.1).
Ayant calculé les numéros d’unité de texture en chaque pixel, calculer leur fréquence
d’occurrence dans l’image et faire une représentation graphique, en mettant en abscisse les
Références
Abe, S., and Lan, M.-S. (1995) — «A method for fuzzy rules extraction directly from
numerical data and its application to pattern classification», IEEE Transactions on Fuzzy
Derived from SPOT Image Texture and Field Soil Maps», Photogrammetric Engineering and
Akono, A. (1994) — Approche orientée objet et pyramidale pour le recalage des images
Akono, A. (1996) — Traitement Numérique des Images Radar : Application à deux images
Akono, A., Tonye, E., Tcheuffa, S. (1996) — «Analyse Texturale des Images Radar par la
Méthode des Réseaux de Neurone et la Logique Floue», Actes du 4ème Colloque Africain sur
Akono, A. (1997) — Vision par Ordinateur des Images Radar : Application à l’interprétation
Antoni, M., Barlaud, M., Mathieu, P., and Daubechies, I. (1992) — « Image coding using
Anys, H., He, D.-C., Wang, L. et Gwyn, Q.H.J. (1994) — «Classification d'images radar
n°18, p.3831-3838.
260
Anys, H. and HE, D.-C., (1995) — «Evaluation of textural and multipolarization radar
features for crop classification», IEEE Transactions on Geoscience and Remote Sensing, Vol.
23 n°5, p. 1169-1181.
Arai, K. (1991) — «GCP acquisition using simulated SAR and evaluation of GCP matching
accuracy with texture features», International Journal of Remote Sensing, Vol. 12 n°11,
p.2389-2397.
Asim Roy, S. G., and Miranda, R. (1995) — «An algorithm to generate radial basis function
(RBF)-like nets for classification problems», Neural Networks, Vol. 8, n°2, p. 179-201.
Bannari, A., Morin, D. and He, D.C. (1995) — «Caractérisation de l'environnement urbain à
l'aide des indices de végétation dérivés des données de hautes résolutions spatiale et
Barba, D. and Ronsin, J. (1983) — «New method in texture analysis in the context of image
Barber, D.G., and Le Drew, E.F. (1991) — «SAR Sea Ice Discrimination Using Texture
Burt, P.J. (1984) — «The Pyramid as a structure for efficient computation», Multiresolution
Image Processing and Analysis, edited by Rosenfeld, A., Spring Verlag, Berlin, p. 6-35.
Chen, Y., Dougherty, E.R., Totterman, S.M. and Hornak, J.P. (1993) — «Classification of
Chen, K.S., Yen, S.K. and Tsay, D.W. (1997) — «Neural classification of SPOT imagery
Cheong, C.K., Aizawa, K., Saito, T. and Hatori, M. (1992) — «Subband image coding with
Centre national d'études spatiales (CNES) (1982) — Quelques formes urbaines et linéaments
à travers SPOT-Simulé et Landsat-3, Rapport final, CNES n°81/0208 & ATP CNRS n° 1080,
France, 32 p.
Collet, C. and Abednego, B. (1987) — «L'évaluation du paysage urbain étudiée à l'aide d'un
Dasarathy, B.V. and Holder, E.B. (1991) — «Image characterization based on joint gray
D’Astous, D. and Jernigan, M.E. (1984) — «Texture discriminate based on detailed measures
of the power spectrum», 7th International Conference on Pattern Recognition, Montreal, July
30 – August 2, p. 83-86.
Dennis, D., Higgins, W.E. and Wakeley, J. (1994) — «Texture segmentation using 2D Gabor
Dikshit, O. (1996) — «Textural classification for ecological research using ATM images»,
Dong, Y., Forster, B.C., Milne, A.K. and Morgan, G.A. (1998) — «Speckle suppression using
recursive wavelet transforms», International Journal of Remote Sensing, Vol. 19 n°2, p. 317-
330.
Dougherty, E.R., Newell, J.T. and Pelz, J.B. (1992) — «Morphological texture-based
Dreyer, P. (1993) — «Classification of land cover using optimized neural nets on SPOT
Eastman, J.R. and Fulk, M. (1993) — «Long sequence time series evaluation using
59 n°6, p. 991-996.
Foody, G.M., Campbell, N.A., Trood, N.M., and Wood, T.F. (1993) — «Non-classificatory
Forster, B.C. (1983) — «Some urban measurements from Landsat data», Photogrammetric
Franklin S.E. and Peddle R.D. (1989) — «Spectral texture for improved class discrimination
images using wavelet», International Journal of Remote Sensing, Vol. 19 n°3, p.507-519.
Geraud, T., Mangin, J.F., Bloch, I. and Maitre, H. (1995) — «Segmenting internal structure in
Goel, N.S. and Norman, J.M. (1992) — «Biospheric models, measurements, and remote
Gong, P., Marceau, D. J., and Howarth, P.J. (1992) — «A comparison of spatial feature
extraction algorithms for land-use classification with SPOT HRV data», Remote Sensing of
Gong, P. (1993) — «Change detection using principal component analysis and fuzzy set
integrable wavelets of constant shape», SIAM Journal of Mathematics, Vol. 15, p. 723-736.
264
Groten, S.M. (1993) — «NDVICrop monotoring and early warning yield assessment of
Haralick, R.M. and Shanmugam, K. (1973) — «Textural features for image classification»,
IEEE Transactions on Systems, Man, and Cybernetics, Vol. SMC-3, no. 6, p. 610-621.
Haralick, R.M. and Zhuang, X. (1987) — «Image analysis using mathematical morpholy»,
Hay, G.J. and Niemann, K.O. (1994) — «Visualization 3-D texture : a three-dimensional
structural approach to model forest texture», Canadian Journal of Remote Sensing, Vol. 20
n°2, p. 90-101.
He, D.C. and Wang, L. (1990) — «Texture Unit, Texture Spectrum, and Texture Analysis»,
He, D.C. and Wang, L. (1992) — «Unsupervised textural classification of images using the
Horaud, R. et Monga, O. (1995) — Vision par ordinateur. Outils fondamentaux, 2ème édition
high resolution synthetic aperture radar imagery, U.S. Army Corps of Engineers.
Irons, J.R. and Peterson, G.W. (1981) — «Texture Transforms of Remote Sensing Data»,
Jain, A.K. (1989) — Fundamentals of Digital Image Processing, Prentice Hall, Englewood
Jaggi, S., Willsky, A.S., Karl, W.C. and Mallat, S. (1995) — «Multiscale geometrical feature
extraction and object recognition with wavelets and morphology», IEEE International
Jeannot, R., Wang, D. and Haese-Coat, V. (1996) — «Binary image representation and
Jensen, J.R. (1983) — «Biophysical Remote Sensing», Annals of the Association of American
Feb. 1998.
Jukka, H. and Aristide V. (1998) — «Land cover/land use classification of urban areas: a
Kalifa, G. and Royer, A. (1992) — «Land surface climatology and land cover change
monitoring since 1973 over a north-sahelian zone (Asongo-Mali) using Landsat data»,
(ARVI) for EOS-MODIS», IEEE Transactions on Geoscience and Remote Sensing, Vol. 30
n°2, p. 261-270.
Kwon, J.-S., Hong, H.-K. and Choi, J.-S. (1996) — «Obtaining a 3-D orientation of projective
Laine, A. and Fan, J. (1993) — «Texture classification by wavelet packet signatures», IEEE
Lam, N.S. (1990) — «Description and Measurement of Landsat TM images Using Fractals»,
Larsson, H. (1993) — «Regression for canopy cover estimation in acicia woodlands using
Landsat TM, MSS, and SPOT HRV XS data», International Journal of Remote Sensing, Vol.
14 n°11, p. 1297-2136.
Lasse, M.,J. (1990) — «Knowledge-based classification of an urban area using texture and
Lee, J.S. (1980) — «Digital image enhancement and noise filtering by use of local statistics»,
Lee, J., R.C. Weger, S.K. Sengupta and R.M. Welch (1990) — «A neural network approach
to cloud classification», IEEE Transactions on Geoscience and Remote Sensing, Vol. 28,
p.846-855, 1990.
Lee, C., and Landgrebe, D.A. (1993) — «Decision boundary feature extraction for
p. 433-444.
267
Legeley-Padovani, A., Beauvais, A., Seyler, F., Volkoff, B., Sailhac, P., Akono, A., Rudant,
communication presented at the 3rd ERS Symposium of the European Spatial Agency (ESA),
n°4, p. 209-223.
Li, H., Manjunath,B.S. and Mitra, S.K. (1995) — «Multisensor image fusion using the
wavelet transform», Graphical Models and Image Processing, Vol. 57 n°3, p. 235-245.
Liang, S., Ahmadi, M. and Shridhar, M. (1994) — «A morphological approach to text string
Liu, S.S. and Jernigan, M.E. (1990) — «Texture analysis and discrimination in additive
noise», Computer Vision Graphics and Image Processing, Vol. 49, p. 52-67.
Lowitz, G.E. (1984) — «Mapping the local information content of a spatial image», Premier
PAMI-11, n°7.
268
Mandelbrot, B.B. (1977) — Fractals : form, chance and dimension, San Francisco, CA,
Freeman.
Maragos, P. and Schafer, R.W. (1990) — «Morphological systems for multimensionnal signal
Marceau D., Howarth P.J., Dubois J.M. and Gratton D.J. (1990) — «Evaluation of the grey-
level cooccurence method for land-cover classification using SPOT imagery», IEEE
Marjike, F.A., Laura, E.C. and Kelly, A.S. (1995) — «Performance evaluation of texture
measures for ground cover identification in satellite images by means of a neural network
classifier», IEEE Transactions on Geoscience and Remote Sensing, Vol. 33 n°3, p. 616-626.
Matheron, G. (1975) Random Sets and Integral Geometry, New York : Wiley.
Mohammed, E.S. (1991) — «Evaluation of second-order texture parameters for sea ice
classification from radar images», Journal of Geophysical Research, Vol. 96, n°C6, p. 10625-
10640.
Moisan, Y., Bernier, M., Dubois, J.M. (1999) — «Détection des changements dans une série
Morales, A., Acharya, R. and Ko, S. (1995) — «Morphological pyramids with alternating
Ndi Nyoungui, A., Tonye, E. and Akono, A. (1997) — «Land cover classification in SAR
images by means of a backpropagation neural network classifier and the fuzzy c-means
Landsat MSS sur Athènes (Grèce)», International Journal of Remote Sensing, Vol. 11 n°9, p.
1617-1623.
morphology and region growing for remote sensing image segmentation», Proceedings of
EUROPTO : Image and Signal Processing for Remote Sensing II, p. 375-386.
Peckinpaugh, S.H. (1991) — «An improved method for computing grey-level co-occurence
matrix based texture measures», CVGIP: Graphical Models and Image Processing, Vol. 53
n°6, p. 574-580.
Peleg, S., Naor, J., Hartley, R. and Avnir, D. (1984) — «Multiple resolution texture analysis
and classification», IEEE Transactions on Pattern Analysis and Machine Intelligence, Vol. 6,
p. 518-513.
Pichler, O., A. Teuner and B.J. Hosticka (1996) — «A comparison of texture feature
extraction using adaptive Gabor filtering, pyramidal and tree structured wavelet transforms»,
Pinty, B. and Verstraete, M.M. (1992) — «GEMI : a non-linear index to monitor global
Plummer, S.E., North, P.R. and Briggs, S.A. (1994) — «The angular vegetation index : an
atmospherically resistant index for the second along track scanning radiometer (ATSR-2)»,
Pratt, W.K. (1991) — Digital image processing, Second edition, Wiley, New-York, NY.
270
Pultz, T.J. and Brown, R.J. (1987) — «SAR image classification of agricultural targets using
first- and second-order statistics», Canadian Journal of Remote Sensing, Vol. 13 n°2, p.85-91.
Ranchin, T., and Wald, L. (1993) — «The wavelet transform for the analysis of remotely
Ronsin, J., Barba, D. and Raboisson, S. (1985) — «Segmentation d'images par intégrales
Rosenfeld A. and Kak A.C. (1982) — Digital Image Processing, Academic Press, Vol. 1 et 2,
1982.
Rouse, J.W., Haas, R.H., Schell, J.A. and Deering, D.W. (1974) — «Monitoring vegetation
systems in the great plains with ERTS», Proceedings, 3rd ERTS Symposium, Vol. 1, p.48-62.
Rubin, T. (1989) — «Analysis of radar texture with variograms and other simplified
Press, Cambridge, Vol. 1 (D.E. Rumelhart, J.L McClelland and the PDP Research Group,
eds.), p. 318-362.
Safa, F. and Flouzat, G. (1989) — «Speckle removal on radar imagery based on mathematical
Salu, Y. and Tilton, J. (1993) — «Classification of multispectral image data by the binary
diamond neual network and nonparametric pixel by pixel methods», IEEE Transactions on
Sarker, N. and Chaudhuri, B.B. (1992) — «An efficient approach to estimate fractal
Sarker, N. and Chaudhuri, B.B. (1995) — «Multifractal and generalized dimension of gray-
Schalkoff, R.J. (1989) — Digital Image Processing and Computer Vision, John Wiley et
Sons, 1989.
Serra, J. (1982) — Image analysis and mathematical morphology, Academic Press, 1982.
Starck, J.-L. and Bijaoui, A. (1994) — «Filtering and deconvolution by the wavelet
Biomedical Images and Computers (J. Sklansky and J.C. Bisconte Eds.), Lecture Notes in
Sternberg, S.R. (1986) — «Grayscale morphology», Computer Vision, Graphics and Image
Sui, D.Z. (1994) — «Recent applications of neural networks for spatial data handling»,
Tonye, E., Akono, A., Tricot, P. et Awono, O. (1994) — «La didactique de l’image»,
Tonye, E., Akono, A. et Jean-Michel Jolion (1994) — «Approche orientée objet et pyramidale
dans la classification non supervisée des images de télédétection», Actes du 2ème Colloque
Tonye, E., Ndi Nyoungui, A., Akono, A. (1998) — «Evaluation comparative de plusieurs
classification des images RSO», Actes du 4ème Colloque Africain sur la Recherche en
Tonye, E., Akono, A., Ndi Nyoungui, A., Nlend, C., Rudant, J.P. (1999) — «Cartographie de
la Ligne de Rivage par Analyse Texturale d’Images Radar à Synthèse d’Ouverture de ERS-1
Ulaby, F.T., Kouyate F., Brisco B. and Lee W.T.H. (1986) — «Texture information in SAR
images», IEEE Transactions. on Geoscience and Remote Sensing, Vol. 24 n°2, p. 235-245.
Vaidyanathan, P.P. (1993) — Multivariate Systems and Filter Banks, Englewood Cliffs :
Prentice Hall.
Unser, M. (1986) — «Sum and difference histogram for texture classification», IEEE
Transactions on Pattern Analysis and Machine Intelligence, Vol. PAMI-8 n°1, p. 118-125.
273
and Desorded Systems, R. Pynn and Skjeltorp, Eds. New York : Plenum.
Wang, L. and He, D.C. (1990) — «A new statistical approach for texture analysis»,
Wang, D., Haese-Coat, V., Bruno, A. and Ronsin, J. (1993) — «Texture classification and
Wang, L. (1994) — «Un nouvel espace de texture», International Journal of Remote Sensing,
Wang, D., Labit, C. and Ronsin, J. (1996) — «Region-based motion compensated video
Weszka, J.S., Dyer, C.R. and Rosenfeld, A. (1976) — «A comparative study of texture
measures for terrain classification», IEEE Transactions on Systems, Man and Cybernetics,
Emmanuel TONYE, né le 10 mars 1952, est marié et père de trois enfants. Monsieur
Emmanuel TONYE est Professeur des Universités Camerounaises, Maître de Conférences en
poste à l’Ecole Nationale Supérieure Polytechnique (ENSP) de l’Université de Yaoundé I. Il
est actuellement Coordonnateur de la Recherche à l’ENSP et directeur du Laboratoire
d’Electronique et de Traitement du Signal (LETS) de l’ENSP. Monsieur Emmanuel TONYE
est Docteur d’Etat ès-sciences (1987) et Docteur 3ème cycle en électronique (1981) de l’Institut
National Polytechnique de Toulouse. Il est spécialiste des aspects physiques de la
télédétection et du traitement des images. Il est membre du Comité du Réseau Télédétection
de l’AUPELF-UREF et partenaire de l’Agence Spatiale Européenne.
Alain AKONO , né le 03 août 1962, est marié et père de trois enfants. Il a obtenu un diplôme
d’ingénieur en électricité à l’Université du Québec à Trois-Rivières (Canada) en 1989. Il a
ensuite été admis au cycle de doctorat en sciences de l’ingénieur à l’Ecole Nationale
Supérieure Polytechnique de l’Université de Yaoundé I en 1990, et il a soutenu sa thèse de
doctorat le 16 décembre 1994 (spécialité : traitement du signal et de l’image). Monsieur Alain
AKONO a bénéficié d’une bourse de l’ORSTOM pour un stage de haut niveau à Bondy
(France) en 1996, dans le domaine de la télédétection. Il a également bénéficié d’une bourse
d’excellence post-doctorale de l’AUPELF-UREF pour un stage de télédétection au Centre
d’Applications et de Recherches en Télédétection (CARTEL) de l’Université de Sherbrooke
(Canada) en 1997. Monsieur Alain AKONO est actuellement chargé de cours à l’Ecole
Nationale Supérieure Polytechnique de l’Université de Yaoundé I.
André NDI NYOUNGUI , né le 4 août 1961, est marié et père de 3 enfants. Monsieur André
NDI est titulaire d’un doctorat de 3ème Cycle en informatique dans le domaine de l’imagerie
radar. Monsieur André NDI a bénéficié de deux bourses doctorantes de l’AUPELF-UREF
pour des stages de télédétection au Centre d’Applications et de Recherches en Télédétection
(CARTEL) de l’Université de Sherbrooke (Canada), en 1996 et en 1998. Monsieur André
NDI est actuellement assistant à l’Université de Ngaoundéré.