Vous êtes sur la page 1sur 273

3

Chapitre 1. Qu’est-ce qu’une image numérique ?

1.1 Introduction

Ce premier chapitre a pour but de présenter ce que c’est qu’une image en général, et une

image de télédétection en particulier. De façon générale, une image est un support

d’informations. Elle présente les éléments d’une scène qui a été captée soit par un appareil

photographique, soit par un satellite. Les images de télédétection sont généralement issues de

capteurs embarqués à bord de satellites, et aussi parfois de photographies aériennes. Une

image peut avoir plusieurs définitions, selon les contextes. En traitement du signal, on définit

une image comme étant un signal bidimensionnel. Mathématiquement parlant, une image est

une application d’un sous-ensemble MxN de RxR vers l’ensemble des réels R, qui, à chaque

couple de réels (x,y) associe le réel f(x,y) :

f : ( M  N) 
 R

( x, y) 
 f ( x, y) (1.1)

Le sous-ensemble (MxN) est constitué de couples d’entiers (x,y) tels que x 0,1,2..... NC ,

et y 0,1,2..... NL . Comme nous le verrons plus loin une image numérique est à la base un

tableau à deux dimensions. NC et NL représentent les dimensions de l’image numérique. NC

est le nombre de colonnes de l’image et NL est le nombre de lignes de l’image.

Une image est constituée d’un ensemble de points élémentaires appelés pixels (vient du mot

anglais picture element). Le couple de réels (x,y) représente la position spatiale d’un pixel, et

la valeur f(x,y) représente le niveau de gris du pixel. Le niveau de gris d’un pixel est une

grandeur proportionnelle à l’intensité du signal réfléchi par ce pixel lorsqu’il est radié

notamment par une onde électromagnétique. Les niveaux de gris de pixels ont une gamme

variée de domaines de valeurs, selon le type d’image. Par exemple, certaines images en
5

couleur ont des niveaux de gris variant entre 0 et 65500. La plupart des images utilisées en

télédétection ont des niveaux de gris variant entre 0 et 255. Ce dernier type d’images est

justement appelé image en niveaux de gris codée sur 8 bits. On peut encore trouver

plusieurs détails du traitement numérique des images dans (Rosenfeld and Kak, 1982),

(Schalkoff, 1989), (Jain, 1989), (Toumazet, 1990), et (Horaud et Monga, 1995). Sur le terrain,

la taille d’un pixel correspond à la distance à partir de laquelle un capteur peut distinguer deux

objets à la surface du sol. Cette distance est appelée résolution de l’image. Plus la résolution

d’une image est fine, mieux on peut distinguer des objets rapprochés sur cette image. La

tendance actuelle est de mettre au point des capteurs ayant de plus en plus des résolutions

fines. A titre d’exemples, le satellite Européen ERS1 offre une résolution de 12.5 mètres, et le

satellite Français SPOT offre une résolution de 20 mètres. Les tableaux 1.1 et 1.2 présentent

quelques exemples de satellites et engins spatiaux de télédétection, avec leur altitude, leur

résolution spatiale, leurs longueurs d’onde et les types de capteur embarqués sur leur

plateforme. Nous présentons respectivement dans les paragraphes qui suivent : la

représentation d’une image numérique, les différents formats d’images, les images

monobande et les images multibande.


6

Satellite Année de mise Altitude Résolution Dimension


Ou Engin en orbite ou de spatiale d’une scène
Spatial vol
LANDSAT 5 Mars 1985 705 km 30 x 30 m 185 x 172 km
(USA)
SPOT Février 1986 822 km 20 x 20 m 60 x 60 km
(France) (10 x 10 m en mode
Panchromatique)

RADARSAT Novembre 1995 793 km 10, 25, 50 et 100 50 à 500 km


(Canada) m
ERS Juillet 1991 785 km 25 x 25 m 100 x 100 km
(Europe) (12.5 x 12.5 en
mode PRI)
JERS Février 1992 568 km 18 x 24 m 75 x 75 km
(Japon)
Radar
Aéroporté 1995 8 km 6x6m
ESAR (USA)

Tableau 1.1 Exemples de satellites et engins spatiaux de télédétection. On y trouve : leur

année de mise en orbite, leur altitude, leur résolution spatiale et la dimension d’une scène

captée par les instruments à bord de ces engins spatiaux.


7

Satellite Fréquence ou Type de capteur Fréquence de Disponibilité au


Ou Engin Longueur d’onde passage Cameroun
Spatial
LANDSAT 5 0.76 – 0.90 µm (IR) Thematic 16 jours Partielle
1.55 – 1.75 µm (IRM)
(USA) 10.4 – 12.5 µm (IRT) Mapper (TM) (au Nord)
2.08 – 2.35 µm (IRM)
(radiomètre à
balayage)
SPOT 0.50 – 0.59 µm (B) HRV (Haute 3 à 26 jours Partielle
0.61 – 0.68 µm (V) Résolution Visible)
(France) 0.79 – 0.89 µm (IR) (Radiomètre à barettes) (au Nord)
0.51 – 0.73 µm
(Panchromatique)
RADARSAT 5.3 Ghz (Bande C) RSO 16 jours Totale
(3 jours au Canada)
(Canada) 5.66 cm (Capteur actif)
Polarisation HH
ERS 5.3 Ghz (Bande C) RSO 35 jours Totale
(Europe) 5.66 cm (Capteur actif)
Polarisation VV
JERS 0.52 – 0.60 µm (B) SOP 44 jours Partielle
0.63 – 0.69 µm (V)
(Japon) 0.76 – 0.86 µm (R) (Senseur
0.76 – 0.86 µm (IR)
1.60 – 1.71 µm (IRM) Optique)
2.01 – 2.12 µm (IRM)
2.13 – 2.15 µm (IRM)
2.27 – 2.40 µm (IRM) Localisée
5.3 Ghz (Bande C)
RSO (Région de
5.66 cm
(capteur actif)
Polarisation VV (Kribi)
Radar 5.3 Ghz (Bande C) RSO Localisée
Aéroporté 5.66 cm (Capteur actif) (Région de
Polarisation VV
ESAR (USA) Douala)

Tableau 1.2 Exemples de satellites et engins spatiaux de télédétection. On y trouve : leurs

longueurs d’onde, le type de capteur qu’ils transportent, leur fréquence de passage,

et la disponibilité de leurs images au Cameroun.


8

1.2 Représentation d’une image numérique

Une image numérique est à la base un tableau bidimensionnel dont les valeurs représentent les

niveaux de gris des pixels se trouvant aux coordonnées correspondantes. Un exemple de

portion d’une image en niveaux de gris est présenté sur la figure 1.2a. La représentation d’une

image telle qu’elle apparaît sur un écran d’ordinateur ou sur un écran de télévision se fait par

une correspondance entre les niveaux de gris et l’aspect plus ou moins lumineux de cet écran.

En télédétection, on associe alors à chaque niveau de gris (ou à des niveaux de gris

appartenant à un certain intervalle) une couleur particulière. La représentation de l’image

numérique de la figure 1.2a est représentée sur la figure 1.2b. L’algorithme de correspondance

utilisé est présenté sur la figure 1.1. La figure 1.3 présente une portion 375 x 200 pixels d’une

image réelle en niveaux de gris. Il s’agit d’une image radar ERS1 de la ville de Douala. Un

didacticiel de traitement d’images numériques a été réalisé dans le but d’apprendre à un

utilisateur la structure d’une image, et quelques méthodes de classification d’images

numériques (tonye et al., 1994). Un logiciel de traitement d’images, dénommé VOIR (Vision

par Ordinateur des Images Radar), a été également réalisé dans le cadre de ce projet. Ce

logiciel comporte plusieurs modules de traitement d’images : affichage des images, filtrage,

classification, etc. La structure générale du logiciel VOIR est présentée sur le tableau 1.3.
9

Images Outils Filtrage Textures Morphologie Classification


Formats (*.bmp,  Histogramme LINEAIRES METHODE DES  Binarisation NON SUPERVISEE
*.ico, *.wmf, *.emf)  Egalisation DE  Erosion
 Remplissage MATRICES (Monobande)
 Somme d’un masque  Dilatation  Méthode des
Douala.ERS1* d’images  Classiques
COOCCURENCE  Ouverture modes de
DoualaEsar.*  Soustraction - Moyenne  Homogénéité  Fermeture l’histogramme
KribiERS1.* d’images 
LittoralCamERS1.* - K-Moyenne  Entropie Chapeau Haut  Méthode des
 Produit d’images - Médian  Contraste de Forme 1 Nuées
YaoundeERS1.*  Inversion  Chapeau Haut
YaoundeSpotXS.*  Energie Dynamiques
d’image  Corrélation de Forme 2  Méthode des
NgaoundereERS1.*  Spectre de  Moment  Somme de modes du
Texture Chapeaux Haut Spectre de
Diagonal
 Histogramme 2- de Forme
 Cluster Shade Texture
D
 Cluster
 Fonctions
Prominence
d’essai
CHATOIEMENT METHODE DES RECALAGE NON SUPERVISEE
(Non encore integré)
Format RAW COMPRESSION  LEE LONGUEURS DE
Douala.ERS1*  Par  LEE alterné  BiSpectrale
PLAGE
DoualaEsar.* transformation  FROST  K-Moyenne
KribiERS1.* en ondelettes et  KUAN  Poids des plages  K-Moyenne
LittoralCamERS1.* quantification  SIGMA courtes basée sur la
YaoundeERS1.* scalaire des  GAMMA  Poids des plages Logique Floue
NgaoundereERS1.* sous-bandes longues
 Adaptative  Distribution des SUPERVISEE
fréquentielle par Niveaux de gris
la transformée (NG)
 Distribution des  Perceptron
en paquets
MultiCouches
Lecture des images d’ondelettes longueurs de
plages (LP) (Fonction
 Tangente
 Formats Transformée en Pourcentage de
Hyperbolique et
standards NG
Exponentielle)
(*.bmp, *.ico, ondelettes  Poids des LP de
faible NG  Fonctions à Base
*.wmf, *.emf)  Par bancs de Radiale
 Format RAW filtres  Poids des LP de
fort NG  Algorithme de
8bits  Basées sur Kohonen
 Formats RAW l’analyse  Poids des petites
16 bits multirésolution plages de faible
dans un espace NG
approprié  Poids des petites
Transformée par plages de fort
paquets d’ondelettes NG

Lancer DETECTION DES METHODE DU CLASSIFICATION


MULTI - ECHELLE
vision.exe CONTOURS SPECTRE DE
dans l’espace des
(1.5 Mo) TEXTURE informations de
 Prewitt textures
 Symétrie Noir-
Programme écrit en  Prewitt 4
Blanc
directions
 Symétrie
Turbo Pascal  Sobel Géométrique
 Sobel 4  CHAMPS DE
(près de 6 Mo de directions
Degré de
codes de Direction
 Roberts MARKOV
 Micro-Structure
programme)  Roberts 4 Horizontale - modèle de Potts et de
directions  Micro-Structure la température initiale
Fonctionne sous  Kirsch Verticale
 Kirsch 4  Micro-Structure
Recuit simulé avec
Windows 95, 98 et directions Diagonale 1 balayage anisotropique
version supérieure  Asfar  Micro-Structure
(prévoir 10  Rosenfeld Diagonale 2
Segmentation

Mo d’espace hybride (en régions,


extraction de
disque)
contours)

Tableau 1.3 Structure générale du logiciel VOIR.


10

Pour chaque pixel Pix en (x,y)

Si 0  f ( x, y)  50 alors attribuer à Pix la couleur NOIR SINON


Si 51  f ( x, y)  100 alors attribuer à Pix la couleur ROUGE SINON
Si 101  f ( x, y)  150 alors attribuer à Pix la couleur BLEU SINON
Attribuer à Pix la couleur BLANC.

Figure 1.1 Exemple d’algorithme de correspondance

entre les niveaux de gris d’une image et différentes couleurs.

(a) (b)
Figure 1.2 (a) Portion 4x4 d’une image en niveaux de gris (b) représentation colorée de la

même portion d’image selon l’algorithme de la figure 1.1.

Figure 1.3 Portion 375 x 200 pixels d’une image en niveaux de gris.

Il s’agit d’une image ERS1 (12.5 m de résolution) de la côte atlantique Camerounaise.


11

1.3 Les différents formats d’images

Les images numériques sont enregistrées dans des supports de données informatiques selon

différents formats. Chaque valeur de niveau de gris est représentée sur un certain nombre

d’octets, selon le nombre de niveaux de gris maximal. Ainsi, il y a par exemple des images

codées sur 8 bits et des images codées sur 16 bits. Pour les images 8 bits, chaque niveau de

gris est représenté sur un octet, et le nombre total de niveaux de gris possible est donc 2 8 =

256. Le procédé de conversion d’une image 16 bits en une image 8 bits est présenté au

chapitre 2.

Dans la plupart des formats d’images, les valeurs de niveaux de gris sont stockées de façon

séquentielle dans un fichier. Généralement, un certain nombre d’octets se trouvant en début de

fichier contiennent des informations sur les dimensions de l’image (nombre de lignes et

nombre de colonnes), et sur d’autres types d’informations. Dans certains cas, le fichier image

est accompagné d’un fichier séparé (souvent appelé fichier entête) contenant les informations

sur l’image. C’est le cas des images ERS produites par l’Agence Spatiale Européenne (ESA

ou European Space Agency).

1.4 Les images monobande et les images multibande

Les capteurs d’images embarqués dans des satellites de télédétection comportent souvent

plusieurs bandes spectrales. Dans de tels cas, une même zone est captée sous des longueurs

d’onde différentes, produisant plusieurs images de la même région. L’ensemble de ces images

constitue une seule image appelée image multibande. Chaque image de l’ensemble est

appelée canal ou encore bande spectrale. C’est par exemple le cas du satellite français SPOT

qui a trois bandes spectrales dénommées XS1, XS2 et XS3. La prise de vue d’une même

région sur plusieurs bandes spectrales offre l’avantage d’obtenir plus de renseignements sur la
12

zone filmée. En effet, certains objets n’étant pas sensibles à une certaine longueur d’onde

peuvent l’être à une autre, et vice-versa. Il est donc avantageux d’avoir des images sur

plusieurs bandes spectrales pour être mieux renseigné sur la zone étudiée. La figure 1.4

présente trois portions 180x180 pixels d’une image SPOT de la ville de Yaoundé. Ces images

ont été prises avec des longueurs d’onde différentes. Une image prise à une seule bande

spectrale est appelée image monobande.

Dans une image multibande, chaque pixel a plusieurs niveaux de gris, chaque niveau de gris

correspondant à une bande spectrale. On peut donc définir mathématiquement une image

multibande comme étant une application d’un sous-ensemble MxN de RxR vers Rn, qui, à

chaque couple (x,y) appartenant à MxN associe un n-uplet (f1(x,y),f2(x,y),……,fn(x,y)),

chaque fk(x,y) étant le niveau de gris du pixel positionné en (x,y) dans la bande spectrale k. n

est le nombre total de bandes spectrales (nombre de canaux) :

f : ( M  N) 
 R

( x, y) 
 ( f1 ( x, y), f2 ( x, y), ...., fn ( x, y)) (1.2)

Figure 1.4 Trois portions 180x180 pixels d’une image multibande

SPOT (20 mètres de résolution) de la ville de Yaoundé.


13

1.5 Exercices

 Qu’est-ce qu’une image numérique ?

 Comment obtient-on une image ?

 Qu’appelle-t-on résolution d’une image ?

 Comment représente-t-on une image sur un écran d’ordinateur ?

 Comment sont stockées les images dans les supports de données informatiques ?

 Qu’appelle-t-on fichier-entête ?

 Qu’est-ce qu’une image monobande et une image multibande ?

 Quel est l’intérêt d’avoir une image multibande ?

 Etant donnée l’image numérique présentée sur la figure 1.5, représentez-la en couleur en

utilisant l’algorithme de la figure 1.1. Indiquez les couleurs par des lettres : N pour noir, R

pour rouge, B1 pour bleu et B2 pour blanc.

Figure 1.5 Une image numérique de dimensions 7x7 pixels.


14

Chapitre 2. La lecture et l’affichage d’une image

2.1 Introduction

Le but de ce chapitre est de présenter la technique de lecture et d’affichage d’une image

stockée dans un support de données informatique (disque dur d’un ordinateur ou disquette,

par exemple). Pour programmer la lecture et l’affichage d’une image sur un écran

d’ordinateur, il est nécessaire de connaître le format dans lequel l’image est stockée dans le

support de données. Dans le cadre de ce chapitre, nous supposerons que le nombre de lignes

et le nombre de colonnes de l’image à afficher sont connus. Cela implique que nous traiterons

directement le fichier de données, et non le fichier entête. Les images radar à synthèse

d’ouverture (RSO) comportent souvent de très grands volumes de données (128 Mo, par

exemple), et il est souvent nécessaire de procéder à un rééchantillonnage de ces données avant

utilisation. Plusieurs techniques de rééchantillonnage des images numériques ont été

élaborées, l’une des plus classiques étant la réduction pyramidale de Burt (1984). Cette

technique a été combinée à l’approche orientée objet, dans le but de résoudre le problème

d’espace mémoire et d’occupation disque sur un microordinateur, et de pouvoir traiter plus

rapidement des images RSO sur certaines régions du Cameroun (Akono, 1994; Tonye et al.,

1994). Dans les lignes qui suivent, la lecture et l’affichage des images au format 8 bits est

d’abord abordée. Par la suite, la méthode de lecture et d’affichage d’une image au format 16

bits est présentée.

2.2 Lecture et affichage des images au format 8 bits

Nous avons vu au chapitre 1 que chaque valeur de niveau de gris d’une image au format 8 bits

est représentée sur un octet, et que les valeurs de niveaux de gris sont stockées de façon
15

séquentielle dans le support de données. La figure 2.1 schématise ce mode de stockage de

données en prenant pour exemple l’image numérique de la figure 1.5.

Figure 2.1 Représentation séquentielle des octets contenant des valeurs de niveaux de gris.

On peut voir sur cette figure que les valeurs de niveaux de gris sont stockées les unes après les

autres, en commençant par la première ligne de l’image, et ensuite par la seconde, jusqu’à

parcourir toutes les lignes de l’image. Une fois que ce principe de stockage est compris, il est

maintenant facile de programmer la lecture et l’affichage d’une image sur un écran

d’ordinateur. Nous allons présenter trois méthodes de lecture : la méthode de lecture par pixel,

la méthode de lecture par ligne, et la méthode de lecture globale.

2.2.1 La méthode de lecture d’une image pixel par pixel

Cette méthode consiste simplement à lire le fichier image octet par octet, et d’afficher les

couleurs correspondantes aux valeurs de niveaux de gris au fur et à mesure qu’elles sont lues.
16

Cette méthode est très lente et n’est plus utilisée dans les logiciels de traitement d’images.

L’algorithme de cette méthode est présentée sur la figure 2.2.

Programme Lecture1_8bits
Variables d’entrées :
NL : Nombre de lignes de l’image ;
NC : Nombre de colonnes de l’image ;
NomFic : Nom du fichier image (fichier d’octets).
Variables locales : x ,y : de type entier ;
Pix : de type octet.
DEBUT
 Ouvrir le fichier image associé à NomFic;
 POUR y variant de 0 à NL-1 FAIRE
POUR x variant de 0 à NC-1 FAIRE
DEBUT
-Lire un octet dans le fichier et le mettre dans la variable Pix ;
-Afficher la couleur correspondante à la valeur Pix à la position
(x,y) de l’écran ;
FIN
 Fermer le fichier image ;
FIN du programme.

Figure 2.2 Algorithme de lecture d’une image 8 bits par la méthode pixel par pixel.

2.2.2 La méthode de lecture d’une image ligne par ligne

Cette méthode consiste à définir une variable de type ligne d’image et de parcourir le fichier

image en lisant une ligne entière à chaque fois. La différence avec la méthode de lecture par

pixel est que cette fois-ci, on lit une ligne entière chaque fois qu’on accède au fichier image,

au lieu de lire un seul pixel. Par expérience, nous avons constaté que cette méthode est au
17

moins deux fois plus rapide que la méthode de lecture pixel par pixel. L’algorithme de cette

méthode est présenté sur la figure 2.3.

Programme Lecture2_8bits
Variables d’entrées :
NL : Nombre de lignes de l’image ;
NC : Nombre de colonnes de l’image ;
NomFic : Nom du fichier image ;
(fichier d’octets)
Variables locales : x ,y : de type entier ;
LL : de type vecteur ligne d’octets.
DEBUT
 Ouvrir le fichier image associé à NomFic;
 POUR y variant de 0 à NL-1 FAIRE
DEBUT
Lire NC octets dans le fichier et mettre les données
dans la variable LL ;
POUR x variant de 0 à NC-1 FAIRE
DEBUT
-Afficher la couleur correspondante à la valeur LL[x] à la
position (x,y) de l’écran ;
FIN
FIN
 Fermer le fichier image ;
FIN du programme.

Figure 2.3. Algorithme de lecture d’une image 8 bits par la méthode ligne par ligne.

2.2.3 La méthode de lecture globale d’une image


18

Cette méthode consiste à définir une variable de type image et de lire en une seule fois

l’image entière. Cette méthode, beaucoup plus rapide que les méthodes précédentes, est celle

qui est utilisée dans la plupart des logiciels modernes de traitement d’images. L’algorithme de

cette méthode est présenté sur la figure 2.4.

Programme Lecture3_8bits
Définition de Type :
Image : Tableau bidimensionnel contenant
des entiers de type octet.
Variable d’entrée :
NomFic : Nom du fichier image ;
(fichier de type image)
Variable locale :
BitMap : Pointeur vers une variable de type image.

DEBUT
 Ouvrir le fichier image associé à NomFic ;
 Allouer de l’espace mémoire au pointeur BitMap ;
 Lire en une seule fois le contenu du fichier et le mettre dans
variable pointée par BitMap ;
 Envoyer le contenu de variable pointée par BitMap vers la
mémoire d’écran de l’ordinateur (affichage) ;
 Fermer le fichier image ;
 Libérer l’espace mémoire alloué au pointeur BitMap ;
FIN du programme.

Figure 2.4. Algorithme de lecture d’une image 8 bits par la méthode de lecture globale.
19

2.2.4 Lecture et affichage d’une zone d’intérêt

Dans certains cas, on peut être intéressé à ne lire l’image qu’à partir d’un point particulier, de

manière à extraire une zone d’intérêt (figure 2.5).

Figure 2.5. Illustration d’une zone d’intérêt sur une image numérique.

Dans ce cas, les coordonnées du point de départ et les coordonnées du point d’arrivée de la

zone d’intérêt doivent être prises en compte lors de la lecture du fichier image. En particulier,

il faut remarquer que le lecteur de fichier doit être positionné sur l’octet correspondant au

point de départ, dans le cas de la lecture octet par octet. L’octet de départ est l’octet numéro

((Yo*NC)+Xo), (Xo, Yo) étant les coordonnées du point de départ, et NC étant le nombre de

colonnes de l’image. Il faut aussi noter que l’image représentant la zone d’intérêt a pour

dimensions (Xa-Xo+1) colonnes et (Ya-Yo+1) lignes, Xa et Ya étant les coordonnées du

point d’arrivée de la zone d’intérêt. Dans le cas d’une lecture octet par octet, le lecteur de

fichier doit être positionné après chaque lecture de (Xa-Xo+1) octets, sinon on lira des octets
20

qui ne font partie de la zone d’intérêt. L’algorithme de lecture et d’affichage d’une zone

d’intérêt est présenté sur la figure 2.6, pour le cas d’une lecture octet par octet.

La lecture et l’affichage d’une zone d’intérêt est plus simple avec la méthode de lecture ligne

par ligne. Il suffit de positionner le lecteur de fichier à la ligne numéro Yo, Yo étant

l’ordonnée du point de départ de la zone d’intérêt. Il faut ensuite prendre soin de n’afficher les

pixels qu’à partir de la position Xo, jusqu’à la position Xa ; Xo et Xa étant respectivement

l’abscisse du point de départ et l’abscisse du point d’arrivée de la zone d’intérêt. L’algorithme

de lecture et d’affichage d’une zone d’intérêt est présenté sur la figure 2.7, pour le cas d’une

lecture ligne par ligne.


21

Programme Lecture4_8bits
Variables d’entrées :
Xo, Yo : Coordonnées du point de départ de la zone d’intérêt ;
Xa, Ya : Coordonnées du point d’arrivée de la zone d’intérêt ;
NL : Nombre de lignes de l’image ;
NC : Nombre de colonnes de l’image ;
NomFic : Nom du fichier image (fichier d’octets).
Variables locales : x ,y : de type entier ;
Pix : de type octet.
DEBUT
 Ouvrir le fichier image associé à NomFic;
 POUR y variant de Yo à Ya FAIRE
DEBUT
Positionner le lecteur de fichier sur l’octet n° (y*NC)+Xo ;
POUR x variant de Xo à Xa FAIRE
DEBUT
-Lire un octet dans le fichier et le mettre dans la variable Pix ;
-Afficher la couleur correspondante à la valeur Pix à la position
(x-Xo, y-Yo) de l’écran ;
FIN
FIN
 Fermer le fichier image ;
FIN du programme.

Figure 2.6. Algorithme de lecture d’une zone d’intérêt sur une

image 8 bits par la méthode pixel par pixel.


22

Programme Lecture5_8bits
Variables d’entrées :
Xo, Yo : Coordonnées du point de départ de la zone d’intérêt ;
Xa, Ya : Coordonnées du point d’arrivée de la zone d’intérêt ;
NL : Nombre de lignes de l’image ;
NC : Nombre de colonnes de l’image ;
NomFic : Nom du fichier image ;
(fichier de type octets)
Variables locales : x ,y : de type entier ;
LL : de type vecteur ligne d’octets.
DEBUT
 Ouvrir le fichier image associé à NomFic;
 Positionner le lecteur de fichier sur l’octet numéro Yo*NC
 POUR y variant de Yo à Ya FAIRE
DEBUT
Lire NC octets dans le fichier et mettre les données
dans la variable LL ;
POUR x variant de Xo à Xa FAIRE
DEBUT
-Afficher la couleur correspondante à la valeur LL[x] à la
position (x-Xo, y-Yo) de l’écran ;
FIN
FIN
 Fermer le fichier image ;
FIN du programme.

Figure 2.7. Algorithme de lecture d’une zone d’intérêt sur une

image 8 bits par la méthode ligne par ligne.


23

Dans le cas d’une lecture par octet, le fichier doit être défini comme étant un fichier d’octets

(file of byte, dans le langage Turbo Pascal, par exemple). Et dans ce cas, le déplacement du

lecteur de fichier se fait octet par octet. Dans le cas de la méthode de lecture par lignes, le

fichier est aussi défini comme un fichier d’octets, mais la lecture se fait par blocs d’octets (on

lit plusieurs octets par une seule instruction). Les valeurs correspondant aux octets lus sont

stockées dans une variable de type ligne d’octets. Une ligne d’octets est un tableau-ligne

contenant des entiers de type octet (array[0..999] of byte, par exemple, en Turbo Pascal). La

taille de ce tableau doit être au moins égale au nombre de colonnes de l’image. Après chaque

lecture, le lecteur de fichier se déplace d’un nombre d’octets égal au nombre d’octets lus.

2.3 Lecture et affichage des images au format 16 bits

Un moyen possible d’afficher une image au format 16 bits consiste à d’abord la convertir au

format 8 bits, et de l’afficher ensuite par l’une des méthodes présentées dans les paragraphes

précédents. Nous allons donc présenter la méthode de conversion d’une image 16 bits en une

image 8 bits.

2.3.1 Conversion d’une image au format 16 bits en une image au format 8 bits

Les pixels des images au format 16 bits ont des niveaux de gris représentés par des valeurs

complexes. Ce sont donc des valeurs à partie réelle et à partie imaginaire. On trouve

couramment deux types d’images 16 bits : les images en amplitudes et les images en

intensités. Pour les images en intensités, le niveau de gris de chaque pixel a pour valeur

l’intensité du nombre complexe représentant ce niveau de gris, c’est-à-dire la somme du carré

de la partie réelle et du carré de la partie imaginaire. Ce nombre est très grand, et c’est pour

cela qu’il est représenté sur 16 bits au lieu de 8 bits. Pour les images en amplitudes, chaque

niveau de gris est représenté par la racine carrée de l’intensité du nombre complexe
24

correspondant à ce niveau de gris. Il importe de souligner qu’il existe aussi des images

d’amplitudes obtenues à partir d’un moyennage d’amplitudes. Les niveaux de gris des pixels

de ce dernier type d’image sont déjà codés sur 8 bits. Nous allons présenter la méthode de

conversion de chacun des types d’images 16 bits en une image au format 8 bits.

2.3.1.1 Cas des images 16 bits en amplitudes

Pour convertir une image au format 16 bits en amplitudes en une image au format 8 bits, il

faut d’abord calculer les statistiques de l’image 16 bits. Etant donné un tableau image (ima)

de NL lignes par NC colonnes, la moyenne (moy), la moyenne des carrés (moycarr) et

l’écart-type (sigma) des données contenues dans ce tableau se calculent par les expressions

suivantes :

 1 NL 1NC 1

 moy    ima[ y, x]
NL  NC y  0 x  0


 1 NL 1NC 1
(2.1)
 moycarr    ( ima[ y, x])²
NL  NC y  0 x  0



 sigma  moycarr  ( moy )²


L’algorithme de conversion d’une image 16 bits en une image 8 bits est présenté sur la figure

2.8. L’image 8 bits résultante est contenue dans un tableau d’entiers de type octets. La lecture

d’une zone d’intérêt dans une image au format 16 bits se fait de la même manière que celle

d’une image au format 8 bits. L’algorithme de lecture d’une zone d’intérêt sur une image au

format 16 bits (en amplitudes) est présenté sur la figure 2.9.


25

Programme Conversion16_8bits_amp
Variables d’entrées :
NL, NC : Nombre de lignes et de colonnes de l’image ;
NomFic : Nom du fichier image 16 bits(fichier d’octets) ;
Variables locales : x ,y : de type entier ;
LL : de type vecteur ligne d’octets (ayant au moins NC
éléments).
IMA : tableau NL x NC de réels
IM8 : tableau NL x NC d’octets (image 8 bits) ;

DEBUT
 Ouvrir le fichier image associé à NomFic;
 POUR y variant de 0 à NL-1 FAIRE
DEBUT
Lire NC octets dans le fichier et mettre les données
dans la variable LL ;
POUR x variant de 0 à NC-1 FAIRE IMA[y,x]  LL[x] ;
FIN
 Calculer la moyenne (moy), la moyenne des carrés (moycarr) et
l’écart-type (sigma) des données du tableau réel IMA ;
 POUR tous les points (x,y) du tableau IM8 FAIRE :
SI (IMA[y,x] > 255) ALORS IM8[y,x]  255
SINON IM8[y,x]  ENT((255*IMA[y,x])/(moy + 3*sigma)) ;
(ENT représente la partie entière)
(l’image 8 bits est contenue dans le tableau IM8)

 Fermer le fichier image ;


FIN du programme.

Figure 2.8. Algorithme de conversion d’une image 16 bits en amplitudes en une image 8 bits.
26

Programme LectZone_16bits
Variables d’entrées :
NL, NC : Nombre de lignes et de colonnes de l’image ;
NomFic : Nom du fichier image 16 bits(fichier d’octets) ;
(Xo,Yo,Xa,Ya) : Coordonnées de la zone d’intérêt ;
Variables locales : x ,y : de type entier ;
LL : de type vecteur ligne d’octets (ayant au moins NC
éléments).
IMA : tableau NL x NC de réels
IM8 : tableau (Ya-Yo) x (Xa-Xo) d’octets (image 8 bits) ;

DEBUT
 Ouvrir le fichier image associé à NomFic;
 Positionner le lecteur de fichier sur l’octet numéro Yo*NC ;
 POUR y variant de Yo à Ya FAIRE
DEBUT
Lire NC octets dans le fichier et mettre les données
dans la variable LL ;
POUR x variant de Xo à Xa FAIRE IMA[y-Yo,x-Xo]  LL[x] ;
FIN
 Calculer la moyenne (moy), la moyenne des carrés (moycarr) et
l’écart-type (sigma) des données du tableau réel IMA ;
 POUR tous les points (x,y) du tableau IM8 FAIRE :
SI (IMA[y,x] > 255) ALORS IM8[y,x]  255
SINON IM8[y,x]  ENT((255*IMA[y,x])/(moy + 3*sigma)) ;
(ENT représente la partie entière)
(l’image 8 bits est contenue dans le tableau IM8)

 Fermer le fichier image ;


FIN du programme.

Figure 2.9. Algorithme de lecture d’une zone d’intérêt sur image au format16 bits.
27

La lecture et l’affichage d’une zone d’intérêt sur une image ERS1 d’amplitudes au format 16

bits est illustrée à la figure 2.10. Le logiciel utilisé est le logiciel VOIR (Vision par

Ordinateur des Images Radar).

Figure 2.10. Lecture et affichage d’une image ERS1 au format 16 bits

en amplitudes, à partir d’un cédérom (source : logiciel VOIR)

2.3.1.2 Cas des images 16 bits en intensités (images PRI)

Pour convertir une image au format 16 bits en intensités en une image au format 8 bits, il faut

tenir compte du fait que la valeur sur 8 bits de chaque niveau de gris est fonction de deux

octets consécutifs, dans l’enregistrement de l’image. Avant de calculer les statistiques de

l’image, il faut d’abord faire la conversion 16 bits / 8 bits, selon l’algorithme suivant :
28

 P16  256  PL   PF P16: Valeur sur 16 bits




 P8  P16 3  P8 : Valeur sur 8 bits (2.2)


Si P8  255 Alors P8  255

Dans les expressions (2.2), PL représente la valeur de l’octet de poids lourd, et PF représente

la valeur de l’octet de poids faible. Quand on écrit un programme de lecture d’une image 16

bits en intensités, il faut bien noter que le nombre de pixels par ligne de l’image est égal à la

moitié du nombre d’octets représentant une ligne dans le fichier image, puisque le niveau de

gris de chaque pixel est représenté sur deux octets. La figure 2.11 illustre notamment le

principe de conversion d’une image 16 bits en intensités en une image 8 bits.

Figure 2.11. Illustration du principe de conversion d’une image 16 bits

en intensités en une image au format 8 bits.


29

L’algorithme détaillé de conversion d’une image 16 bits en intensités en une image au format

8 bits est présenté sur la figure 2.12. La lecture et l’affichage d’une zone d’intérêt sur une

image ERS1 en intensités au format 16 bits est illustrée à la figure 2.13. Le logiciel utilisé est

le logiciel VOIR (Vision par Ordinateur des Images Radar).


30

Programme Conversion16_8bits_int
Variables d’entrées :
NL, NC : Nombre de lignes et de colonnes de l’image ;
NomFic : Nom du fichier image 16 bits(fichier d’octets) ;
Variables locales : x1, x2, y : de type entier ; p8, p16, pL, pF : réels ;
LL : de type vecteur ligne d’octets ayant au moins 2*NC
éléments.
IMA : tableau NL x NC de réels
IM8 : tableau NL x NC d’octets (image 8 bits) ;

DEBUT
 Ouvrir le fichier image associé à NomFic;
 POUR y variant de 0 à NL-1 FAIRE
DEBUT
Lire 2*NC octets dans le fichier et mettre les données
Dans la variable LL ;
x1  0; x2  0;
TANT QUE (x1  (2*NC)-1) FAIRE
DEBUT
PL  LL[x1]; pF  LL[x1+1]; p16  (256*pL) + pF ;
p8  p16 / 3; SI (p8 > 255) ALORS p8  255;
IMA[y,x2]  p8; x1  x1 + 2; x2  x2 + 1;
FIN
FIN
 Calculer la moyenne (moy), la moyenne des carrés (moycarr) et
l’écart-type (sigma) des données du tableau réel IMA ;
 POUR tous les points (x,y) du tableau IM8 FAIRE :
SI (IMA[y,x] > 255) ALORS IM8[y,x]  255
SINON IM8[y,x]  ENT((255*IMA[y,x])/(moy + 3*sigma)) ;
(ENT représente la partie entière)
(l’image 8 bits est contenue dans le tableau IM8)
 Fermer le fichier image ;
FIN du programme.

Figure 2.12. Algorithme de conversion d’une image 16 bits en intensités en une image 8 bits.
31

Figure 2.13. Lecture et affichage d’une image ERS2 au format 16 bits

en intensités, à partir d’un cédérom (source : logiciel VOIR)

2.4 Exercices

 Comment sont disposées des données images dans un support informatique ?

 Expliquer les différentes méthodes de lecture et d’affichage d’une image numérique ;

 Une image au format 16 bits en intensités est représentée par la série d’octets présentée

sur la figure 2.14.

1) Quels sont les nombres de lignes et de colonnes de cette image ?

2) Convertir cette image en une image au format 8 bits.

 Ecrire un programme de lecture et d’affichage d’une image au format 16 bits (en

intensités et en amplitudes) dans un langage informatique de votre choix ;


32

Figure 2.14. Valeurs des octets représentant une image 16 bits en intensités.
33

Chapitre 3. La convolution d’une image avec un masque linéaire

3.1 Introduction

Dans le domaine des signaux et des systèmes, la convolution est une opération qui permet

d’obtenir la sortie y d’un système, lorsqu’on connaît le signal d’entrée x et la réponse

impulsionnelle h du système, comme illustré sur la figure 3.1 ci-dessous.

Figure 3.1. Illustration d’un système avec ses éléments d’entrée et de sortie.

Etant donné un tel système, le signal de sortie y est obtenu par la convolution du signal

d’entrée x avec la réponse impulsionnelle h du système, selon l’expression (3.1).

y  x h  y( t )   x( t   ) h( )d (3.1)


0

Dans le cas des signaux numériques tels que les images numériques, cette opération de

convolution se fait de façon discrète. Dans ce cas, l’opérateur d’intégration devient une simple

sommation, selon l’expression (3.2).

M N
y( k , l)    x( k  m, l  n)  h( k , l) (3.2)
m 0 n  0
34

Dans cette expression, x représente une fonction image et h représente un masque discret de

convolution. M et N représentent les dimensions de l’image et y est le résultat de la

convolution de l’image x avec le masque h. Nous présentons dans ce qui suit, le principe

détaillé de la convolution d’une image avec un masque linéaire.

3.2 Principe

Un masque linéaire est une matrice à coefficients entiers, par exemple :

 1  1  1
 
M   1 8  1
 1  1  1

La convolution d’une image avec un masque linéaire comporte les étapes suivantes :

1) Positionner le masque sur chaque point de l’image ;

2) Calculer la combinaison linéaire des coefficients du masque avec les niveaux de gris des

points voisins du point central (point sur lequel est centré le masque);

3) Remplacer le niveau de gris du point central par le résultat de la combinaison linéaire ;

4) Mettre le résultat obtenu à l’échelle des niveaux de gris de l’image originale.

Voici un exemple de calcul de combinaison linéaire. Considérons la portion d’image

suivante :

 4 0 100 ... 240


 2 7 4 ... 100

 ... 50 
I 6 3 1
. . . . . 
 
 . . . . . 
190 0 255 75 40 
35

Positionnons le masque M sur le point de niveau de gris 7. Ce point correspond donc à la

valeur 8 du masque. Les points autour du 7 correspondent aux valeurs –1 autour du 8 dans le

masque. L’application du masque au point 7 donne le résultat suivant :

C = (-1 x 4) + (-1 x 0) + (-1 x 100)

+ (-1 x 2) + (8 x 7) + (-1 x 4)

+ (-1 x 6) + (-1 x 3) + (-1 x 1)

On obtient C = -64. On normalise le résultat d’après la relation suivante :

 NG old  C 
NG new  ENT .
 NG max 

NG new est le niveau de gris du pixel courant dans l’image résultat. NG old est le niveau de gris

de ce même pixel dans l’image originale. C est le résultat de la combinaison linéaire effectuée

sur le pixel courant. NG max est le niveau de gris maximal de l’image originale, et ENT

représente l’opérateur "partie entière". En supposant que le niveau de gris maximal de l’image

originale c’est 200, le pixel de niveau de gris 7 aura pour niveau de gris :

 7  64 
ENT   ENT  2.24  2
 200 

dans l’image résultat. La normalisation est nécessaire pour pouvoir visualiser nettement

l’image résultat. Elle permet de ramener les niveaux de gris de l’image résultat dans le

domaine de variation des niveaux de gris de l’image originale. Pour obtenir la convolution de

l’image entière avec le masque proposé, on applique le principe précédent à tous les pixels de

l’image. L’algorithme général de convolution est présenté ci-dessous.


36

Algorithme de convolution

Cet algorithme comporte deux parties :

a) Sous-programme CONV1(Xo, Yo, Ima, M, L, H, C)

CONV1(Xo, Yo, Ima, M, L, H, C) calcule le produit de convolution d’une image avec un

masque M de dimensions L x H uniquement au point de coordonnées (Xo, Yo) de l’image. Le

résultat est placé dans la variable C.

 Description des variables :

(Xo, Yo) : Coordonnées du point où est positionné (centré) le masque.

M : Matrice de dimensions L x H représentant le masque de convolution.

Pix : Tableau bidimensionnel d’entiers ;

Ima : Tableau bidimensionnel contenant l’image.

C : résultat de l’application du masque M au point de coordonnées (Xo, Yo).

 Corps de l’algorithme :

C  0;

Pour y variant de (Yo – H/2) à (Yo + H/2) Faire

Pour x variant de (Xo – L/2) à (Xo + L/2) Faire

Début

I  x – Xo + (L/2);

J  y – Yo + (H/2);

Pix[J, I]  Ima[x,y];

C  C + (Pix[J, I] * M[J, I]);

Fin
37

//Normalisation

C  ent(C*Ima[x,y]/Max(Ima(i,j))); //ent : partie entière

Fin du Sous-programme.

b) Sous-programme CONV(ImaIn, M, L, H, ImaOut)

Ce sous-programme calcule le produit de convolution d’une image contenue dans un tableau

ImaIn avec un masque M de dimensions L x H. Le résultat de la convolution est placé dans

un tableau ImaOut. NL et NC sont respectivement les nombres de lignes et de colonnes de

l’image.

Début

Pour y variant de 0 à NL-1 Faire

Pour x variant de 0 à NC-1 Faire

Début

Xo  x;

Yo  y;

CONV1(Xo, Yo, Ima, M,L,H,C) ;

ImaOut[x,y]  C;

Fin

Fin du Sous-programme

La figure 3.2 montre un exemple de convolution d’une image réelle avec un masque linéaire.

Il s’agit d’un masque 5 x 5 de détection des contours de Sobel. L’image traitée est une image

ERS1 de la côte Atlantique Camerounaise et le logiciel utilisé est le logiciel VOIR.


38

Lorsqu’on effectue la convolution d’une image avec un masque, il se pose souvent le

problème des points de bordure. Dans le paragraphe qui suit, nous allons voir comment les

points de bordure sont souvent gérés en traitement d’images.

Figure 3.2. Convolution d’une image ERS1 avec un masque 5 x 5 de Sobel.


(source : logiciel VOIR)

3.3 Le traitement des points de bordure

Il y a plusieurs façons de gérer les points de bordure. Nous ne présenterons que les 3

méthodes suivantes : la méthode des zéros, la méthode symétrique et la méthode de la

symétrie circulaire.

3.3.1 La méthode des zéros

Dans cette approche, on considère que tous les points qui ne font pas partie de l’image ont le

niveau de gris 0. On remplit donc de zéros les points extérieurs voisins des points de bordure,

avant de faire la convolution. Le nombre de points extérieurs à considérer est fonction de la


39

taille du masque de convolution. La figure 3.3 montre un exemple pour un masque de taille 3

x 3.

Figure 3.3. Remplissage des points de bordure selon la méthode des zéros.

3.3.2 La méthode symétrique

Dans cette approche, on attribue aux points extérieurs les niveaux de gris de leurs symétriques

se trouvant dans l’image. Cette approche est illustrée sur la figure 3.4 et c’est elle qui a été

utilisée dans la confection du logiciel VOIR.

Figure 3.4. Remplissage des points de bordure selon la méthode symétrique.


40

3.3.3 La méthode de la symétrie circulaire

Dans cette approche, on agit comme si l’image se refermait sur elle-même, et les points

extérieurs sont vus comme s’ils se retrouvaient de l’autre côté de l’image. Il convient de noter

que cette approche n’est pas réaliste sur le plan pratique, puisque la nature des pixels se

trouvant sur un bord de la scène peut être complètement différente de celle des pixels se

trouvant à l’autre extrémité. Cette approche est illustrée sur la figure 3.5.

Figure 3.5. Remplissage des points de bordure selon la méthode de la symétrie circulaire.

3.4 Exercices

 Ecrire un programme de convolution d’une image avec un masque de taille quelconque,

dans un langage informatique de votre choix. Utiliser le principe de symétrie pour les

points de bordure.

 Faire la convolution de l’image présentée sur la figure 3.6 avec le masque présenté sur la

même figure. Utiliser les trois principes de gestion des points de bordure illustrés dans le

cours.
41

Figure 3.6. Image numérique et masque de convolution.


42

Chapitre 4. Le filtrage des images

4.1 Introduction

Les images captées par des satellites comportent souvent du bruit. Ce bruit est dû soit à la

nature environnante, soit à la nature même des capteurs embarqués sur ces satellites. Cela fait

que les images ont souvent un aspect brouillé à la réception. Il est alors nécessaire de filtrer

ces images avant de les traiter. Il existe des filtres linéaires et des filtres non linéaires. Les

images radar comportent souvent un type de bruit particulier appelé chatoiement (Nicolas,

1998). Le paragraphe 4.3 présente ce type de bruit et quelques algorithmes de filtrage de ce

type de bruit. Le paragraphe qui suit présente quelques techniques de filtrage linéaire des

images.

4.2 Le filtrage linéaire

Le filtrage linéaire consiste à appliquer à l’image des masques de convolution linéaires. Un

masque de filtrage linéaire classique est le masque de la moyenne :

1 1 1
 
M  1 1 1
1 1 1

Pour filtrer une image avec le filtre moyenne, il suffit de faire la convolution de l’image avec

le masque de la moyenne, selon le principe présenté au chapitre 3. La figure 4.1 montre un

exemple de filtrage linéaire réalisé avec un masque 3 x 3 de la moyenne. L’image traitée est

une image ERS1 autour de la ville de Kribi (Cameroun). Le traitement a été effectué par le

logiciel VOIR.
43

Figure 4.1. Exemple de filtrage linéaire (filtre de la moyenne) réalisé sur une

image ERS1 autour de la ville de Kribi (source : logiciel VOIR)

D’autres masques de filtrage sont présentés dans les lignes qui suivent. Ces masques sont

généralement utilisés pour la détection des contours. Il s’agit des masques de Roberts, Sobel,

Prewitt et Kirsh.

1) Masques de Roberts :

0 0 0  0 0 0
   
Wx  0 1 0  Wy  0 0 1 Wx : direction horizontale , Wy : direction verticale.
0 0  1 0  1 0

2) Masques de Sobel :
44

  1 0 1  1  2  1
   
Wx   2 0 2 Wy   0 0 0 Wx : direction horizontale , Wy : direction verticale.
  1 0 1  1 2 1 

3) Masques de Prewitt :

 1 0 1  1  1  1
   
Wx   1 0 1 Wy   0 0 0 Wx : direction horizontale , Wy : direction verticale.
 1 0 1  1 1 1 

4) Masques de Kirsh :

 3  3 5  3  3 3 
   
Wx   3 0 5 Wy   3 0  3 Wx : direction horizontale , Wy : direction verticale.
 3  3 5  5 5 5 

5) Masques de Roberts pour 4 directions :

0 0 0  0 0 0 0 0 1 0 0 0
       
W0  0 1 0  W90  0 0 1 W45  0  2 0  W135  0  2  1
0 0  1 0  1 0 0 0  1 0 0 0 

6) Masques de Sobel pour 4 directions :

  1 0 1  1  2  1   2  1 0 0 1 2
       
W0   2 0 2 W90 0 0 0 W45    1 0 1 W135    1 0 1
  1 0 1  1 2 1   0 1 2  2  1 0

7) Masques de Prewitt pour 4 directions :

 1 1 1  1  1  1  1  1 1 1 1 1
       
W0   1  2 1 W90   1 2 1  W45   1  2 1 W135   1  2 1
 1 1 1  1 1 1   1 1 1  1  1 1

8) Masques de Kirsh pour 4 directions :


45

 3  3 5  3  3 3   3  3  3  3 5 5
       
W0   3 0 5 W90   3 0  3 W45   3 0 5 W135   3 0 5
 3  3 5  5 5 5   3 5 5   3  3  3

La figure 4.2 présente un exemple d’utilisation du masque de Sobel pour la détection des

contours sur une image radar ERS1 de la côte atlantique camerounaise. Le masque de Sobel

est utilisé ici pour les 4 directions classiques (0°, 45°, 90° et 135°). On effectue une

convolution avec chacun des masques directionnels en chaque pixel de l’image, et on retient

le maximum des amplitudes trouvées. Cette valeur maximale est considérée comme

l’amplitude du gradient au pixel considéré. L’image des contours obtenue est présentée sur la

figure 4.3.

Figure 4.2 Choix d’une image pour la détection des contours par masques de Sobel.

Il s’agit d’une image ERS1 de la côte atlantique camerounaise (source : logiciel VOIR).
46

Figure 4.3 Résultat de la détection des contours de l’image de la figure 4.2

par les masques directionnels de Sobel (source : logiciel VOIR).

4.3 Le filtrage du chatoiement des images RADAR

Les images radar comportent un bruit appelé chatoiement, qui est dû à la propagation d'un

faisceau cohérent dans une atmosphère caractérisée par des variations aléatoires (Nicolas,

1998) . Le chatoiement complique l’interprétation et le traitement des images radar. Plusieurs

méthodes ont été proposées pour la réduction du chatoiement. En général, il y a deux

approches de filtrage des images RSO (Radar à Synthèse d’Ouverture) à une seule

polarisation. La première approche consiste globalement en un moyennage des valeurs

radiométriques contenues dans les bandes spectrales disponibles. Ce moyennage entraîne une

diminution de la variance du bruit (Elachi, 1988). Dans la deuxième approche, le chatoiement


47

est réduit dans le domaine spatial après que l’image soit formée (Lee, 1980 ; Frost et al.,

1981 ;Kuan et al., 1987, par exemple).

Dans les années passées, des filtres tels que le filtre médian et le filtre moyenne ont été

appliqués aux images radar, mais sans grand succès. Cet échec est dû au fait que le

chatoiement est un bruit multiplicatif et que les filtres mentionnés ne sont pas adaptatifs.

Récemment, des techniques plus sophistiquées basées sur le modèle multiplicatif du bruit ont

été développées notamment par Lee, 1980 ; Frost et al., 1981 ;Kuan et al., 1987. Toutefois,

l’efficacité de ces algorithmes peut varier d’une application à l’autre. Les techniques de

filtrage peuvent ou non supposer un modèle de chatoiement. Quand un modèle est supposé, il

est généralement multiplicatif (Lee, 1981). On a dans ce cas-là :

z( k, l)  y( k, l) u( k, l)

où z(k, l) est la valeur mesurée (intensité ou amplitude) du pixel (k, l) d’une image RSO,

y(k,l) sa valeur radiométrique réelle et u(k, l) le bruit, caractérisé par une distribution de

moyenne unité et d’écart-type  u . On peut vérifier (Lee, 1981) que dans les régions

homogènes de l’image, on a sz  su  z . Ainsi, il y a une relation linéaire entre la moyenne et

l’écart-type dans les régions homogènes, ce qui permet de tester l’hypothèse d’un bruit

multiplicatif et de confirmer l’homogénéité d’une région. Cela permet aussi d’obtenir un

estimé de la variance su 2 du chatoiement, qui est requise par certains filtres classiques. Un

modèle différent fut proposé par Ulaby et al. (1986) dans le but de modéliser la texture du

couvert terrestre sur les images RSO. Toutefois, le modèle multiplicatif est approprié pour le

filtrage du chatoiement. Les principes de quelques unes des méthodes citées sont présentés

dans les lignes qui suivent.

4.3.1 Le filtre des statistiques locales de LEE (Lee, 1980 et 1981)


48

En l’absence d’un modèle précis pour le signal original y, on utilise l’image elle-même pour

estimer la moyenne et la variance à priori du signal, à partir de la moyenne locale z et de la

variance locale sz 2 dans une fenêtre n x n. A partir du modèle multiplicatif du bruit on obtient

un estimé de la moyenne et de la variance à priori :

z sz 2  z 2 s u 2
y z et sy 2 
u su 2  1

On suppose qu’on a un filtre linéaire de la forme ~


y  ay  bz où ~y est l’estimation minimum

de la racine carrée de y, et a et b sont choisis de manière à minimiser l’erreur au sens des

moindres carrés. Il a été prouvé (Lee, 1981) que le meilleur estimé de y est :

sy 2
~
y  z  b( z  z ) avec b  , yz
sz 2

Le seul paramètre d’entrée du filtre est su qui dépend du traitement "multi-vues" RSO. Il est à

veiller que sy 2 ne soit pas négatif. Au cas où sy 2 serait négatif, il faut lui attribuer la valeur

zéro. Ce problème pourrait être évité si une limite inférieure d’homogénéité des régions est

convenablement fixée. Dans la méthode originale de Lee, un modèle linéaire est introduit,

dans lequel la valeur optimale de b a l’expression suivante :

sy 2
b' 
z 2 su 2  sy 2

sy 2
Par substitution, on obtient : b  , ce qui permet de comparer b et b’. Vu
z 2 su 2  (1  su 2 )sy 2

que (1  su 2 )  1, cette linéarisation n’affecte pas le filtrage du chatoiement dans le cas des

images 4-vues en amplitude. Dans le cas des images RSO 1-vue, la formule exacte doit être

utilisée. L’estimation de l’écart-type du bruit est fonction du nombre de vues et d’un facteur

de qualité de l’image RSO (Ndi et al., 1997). Avant de présenter les différents algorithmes de

filtrage, nous présentons ci-dessous l’algorithme d’estimation de l’écart-type du chatoiement.


49

Algorithme d’estimation de l’écart-type du chatoiement

1. Fonction Gamma(n)

-Paramètre d’entrée : n, entier représentant le nombre de vues de l’image ;

-Variables locales : a, t : réels, k : entier.

Début

a  1.7724538509;

t  1;

Pour k variant de 1 à n Faire t  t*(2k – 1)

Gamma  (a*t)/2n

Fin

2. Fonction Ecart-Type_Bruit(n, Q)

-Paramètres d’entrée : n, entier représentant le nombre de vues de l’image ;

Q : Facteur représentant le type d’image à filtrer ;

Q = 0 pour une image en intensités (16 bits);

Q = 1 pour une image en amplitudes de type racine carrée des intensités (8 bits);

Q = 2 pour une image en amplitudes de type moyenne des amplitudes (8 bits);

Début

Si (Q = 0) Alors Ecart-Type_Bruit  1 n Sinon

Si (Q = 1) Alors Ecart-Type_Bruit  0.273 n Sinon

  n  1 ! 
2

Si (Q = 2) Alors Ecart-Type_Bruit  n  1


 Gamma n 

Fin
50

L’algorithme de filtrage d’une image radar par le filtre de Lee est présenté ci-dessous :

Algorithme du filtrage de LEE

1. Créer un tableau image intermédiaire imaf[ ] de type réel et y affecter l’image à filtrer.

Effectuer les étapes suivantes pour chaque pixel (i, j) de l’image intermédiaire.

2. Calculer la moyenne locale dans une fenêtre n x n centrée sur le pixel courant :

n 1 n 1
z    ima f [i, j] n ²
i  0 j 0

3. Calculer la variance locale dans une fenêtre n x n centrée sur le pixel courant :

n 1 n 1


S z  1  n ²  1    ima f [i, j]  z ²
2

i  0 j 0

4. Estimer l’écart-type du bruit dans la fenêtre :

S u  Ecart  type _ Bruit n , Q




n : Nombre de vues de l ' image


 Q : Facteur représen tan t le type d ' image

5. Estimer la moyenne et la variance à priori dans la même fenêtre :

y  z


 S y 2  S z 2  S u 2  S u 2  1

6. Vérifier le signe de la variance à priori :

Si Sy 2  0 Alors Sy 2  0

7. Calculer le coefficient b suivant :


51

Sy2
b 2
z  Su2  Sy2

8. Changer le niveau de gris imaf[i, j] du pixel (i, j) selon l’affectation suivante :


ima f [i, j]  z  b ima f [i, j]  z 
9. Transformer les niveaux de gris de l’image intermédiaire en des entiers et mettre le

résultat dans le tableau image d’entiers de type octets :

Pour tous les pixels (i, j) de l’image intermédiaire, Faire :

ima[i, j]  ENTima f [i, j]

ENT est la fonction partie entière. Le tableau image ima[ ] contient maintenant l’image filtrée.

4.3.2 Le filtre de LEE alterné (Lee, 1980 et 1981)

Le filtre de LEE alterné est une variante du filtre de LEE précédemment présenté. Son

algorithme est présenté sur les lignes qui suivent.

Algorithme du filtre de LEE alterné

1. Créer un tableau image intermédiaire imaf[ ] de type réel et y affecter l’image à filtrer.

Effectuer les étapes suivantes pour chaque pixel (i, j) de l’image intermédiaire.

2. Calculer la moyenne locale dans une fenêtre n x n centrée sur le pixel courant :

n 1 n 1
z    ima f [i, j] n ²
i  0 j 0

3. Calculer la variance locale dans une fenêtre n x n centrée sur le pixel courant :

n 1 n 1


S z  1  n ²  1    ima f [i, j]  z ²
2

i  0 j 0

52

4. Estimer l’écart-type du bruit dans la fenêtre :

S u  Ecart  type _ Bruit n , Q




n : Nombre de vues de l ' image


 Q : Facteur représen tan t le type d ' image

5. Estimer l’écart-type à priori dans la même fenêtre :

 Si ( z  0) Alors Sy  Sz 2 z


Sinon Sy  1

6. Comparer l’écart-type à priori et l’écart-type du bruit, et en déduire la valeur du niveau de

gris du pixel filtré :

Si (Sy < Su) Alors ima[i, j]  ENT( z)

Sinon effectuer les opérations suivantes

Début

a  Sy 2  Su 4

 
b  ima f [i, j]  S y 2  S u 2  z  S u 2  S u 4 
bb a
ima[i, j]  ENT b

Fin

ENT est la fonction partie entière. Le tableau image ima[ ] contient maintenant l’image filtrée.

4.3.3 Le Filtre à Maximum de Probabilité à Postériori (MAP Filter, Kuan et al., 1987)

Ce filtre adaptatif est basé sur la maximisation de la probabilité à postériori (MAP), p(y/z) du

p( z / y) p( y)
signal y(k,l) étant donné z(k,l) : p( y / z)  . Pour une image RAS N-look en
p( z)

intensités, p(z/y) a une distribution  carrée :


53

N N z N 1   N  z
p( z / y)  N exp 
( N  1)! y  y 

Contrairement au filtre de Lee qui ne requiert aucun modèle pour le signal, le filtre

MAP suppose que le signal y a une distribution gaussienne :

1  1  y  y 2 
p( y)  exp    
sy 2   
 2  sy  

ayant pour moyenne y et pour variance sy 2 , lesquels sont estimés par calcul des statistiques

locales à l’intérieur d’une fenêtre, selon le même procédé utilisé dans le calcul du filtre de

   
Lee. La valeur de ~y est obtenue par maximisation de la grandeur log p z y  log p y par

rapport à y. La solution est une racine de l’équation cubique :

~
y3  z  ~
y 2  N  sy 2  ~
y  N  sy 2  z  0

La solution est la racine qui est positive, réelle et qui maximise la probabilité p(y/z). La

solution optimale est comprise entre z et z , comme dans le cas du filtre de Lee. Le nombre N

de "vues" utilisé pour générer l’image est généralement connu, à défaut il pourrait être estimé

par comparaison de la distribution réelle et de la distribution théorique de l’image. Dans le

dernier cas, la distribution réelle du chatoiement peut être évaluée en prenant sz / z valeurs

dans des régions homogènes. Certains auteurs ont remplacé le modèle Gaussien par un

modèle plus réaliste Gamma. Dans ce cas, on obtient une simple équation du second degré.

L’algorithme de ce filtre est présenté ci-dessous.

Algorithme du filtre MAP (Kuan)

1. Créer un tableau image intermédiaire imaf[ ] de type réel et y affecter l’image à filtrer.

Effectuer les étapes suivantes pour chaque pixel (i, j) de l’image intermédiaire.
54

2. Calculer la moyenne locale dans une fenêtre n x n centrée sur le pixel courant :

n 1 n 1
z    ima f [i, j] n ²
i  0 j 0

3. Calculer la variance locale dans une fenêtre n x n centrée sur le pixel courant :

n 1 n 1


S z  1  n ²  1    ima f [i, j]  z ²
2

i  0 j 0

4. Estimer l’écart-type du bruit dans la fenêtre :

S u  Ecart  type _ Bruit n , Q




n : Nombre de vues de l ' image


 Q : Facteur représen tan t le type d ' image

5. Estimer l’écart-type à priori dans la même fenêtre :

 Si ( z  0) Alors Sy  Sz2 z


Sinon Sy  0

6. Comparer l’écart-type à priori et l’écart-type du bruit, et en déduire la valeur du niveau de

gris du pixel filtré :

Si (Sy < Su) Alors ima[i, j]  ENT( z)

Sinon effectuer les opérations suivantes

Début

a  S y 2  1  S u 2 

   
b  ima f [i, j]  S y 2  S u 2  z  S u 2  1  S y 2 
bb a
ima[i, j]  ENT b

Fin

ENT est la fonction partie entière. Le tableau image ima[ ] contient maintenant l’image filtrée.
55

4.3.4 Le filtre Gamma

Ce filtre est semblable au précédent, sauf qu’il tient compte du nombre de vues de l’image à

filtrer. Voici son algorithme.

Algorithme du filtre Gamma

1. Créer un tableau image intermédiaire imaf[ ] de type réel et y affecter l’image à filtrer.

Effectuer les étapes suivantes pour chaque pixel (i, j) de l’image intermédiaire.

2. Calculer la moyenne locale dans une fenêtre n x n centrée sur le pixel courant :

n 1 n 1
z    ima f [i, j] n ²
i  0 j 0

3. Calculer la variance locale dans une fenêtre n x n centrée sur le pixel courant :

n 1 n 1


S z  1  n ²  1    ima f [i, j]  z ²
2

i  0 j 0

4. Estimer l’écart-type du bruit dans la fenêtre :

S u  Ecart  type _ Bruit n , Q




n : Nombre de vues de l ' image


 Q : Facteur représen tan t le type d ' image

5. Estimer l’écart-type à priori dans la même fenêtre :

 Si ( z  0) Alors Sy  Sz2 z


Sinon Sy  0

6. Comparer la variance à priori et la variance du bruit, et en déduire la valeur du niveau de

gris du pixel filtré :


56

Si (Sy² - Su²)  0 Alors on effectue les opérations suivantes

Début


  1  S u 2  S y 2  S u 2 
t 1  z    N vues  1

t 2  t 12  4  N vues  ima f [i, j]  z 
t  t1  t 2
t  t  2 
ima[i, j]  ENT t 

Fin

ENT est la fonction partie entière, et N vues est le nombre de vues de l’image à filtrer. Le

tableau image ima[ ] contient maintenant l’image filtrée.

4.3.5 Le filtre de Frost (Frost et al., 1981)

Ce filtre adaptatif fait l’hypothèse que l’information utile a une fonction d’auto-corrélation

exponentielle, c’est-à-dire que l’image est stationnaire dans un voisinage significatif du pixel

filtré. Dans ce cas, on peut vérifier que le meilleur estimé du signal est :

  
y   k1  a  exp  a k  k 0  l  l 0  z( k , l)
~
n ,n

où ( k 0 , l 0 ) représente les coordonnées du pixel central, z( k , l) la valeur du pixel aux

coordonnées (k,l) , k 1 une constante de normalisation choisie tel que les poids du filtre aient

toujours une somme égale à l’unité. La constante a est telle que a  k 2  sz 2 / z 2 , où k 2 est une

constante de normalisation telle que k 2  4 / ( n  su 2 ) . La valeur du pixel central est alors

remplacée par une somme pondérée dont les poids diminuent avec la distance. De plus, les

pixels centraux augmentent en poids quand la variance de la fenêtre croît, c’est-à-dire que le

pixel central est plus ou moins filtré selon l’homogénéité de la fenêtre. L’algorithme du

filtrage de Frost est présenté sur les lignes qui suivent.


57

Algorithme du filtrage de FROST

1. Créer un tableau image intermédiaire imaf[ ] de type réel et y affecter l’image à filtrer.

Effectuer les étapes suivantes pour chaque pixel (i, j) de l’image intermédiaire.

2. Calculer la moyenne locale dans une fenêtre n x n centrée sur le pixel courant :

n 1 n 1
z    ima f [i, j] n ²
i  0 j 0

3. Calculer la variance locale dans une fenêtre n x n centrée sur le pixel courant :

n 1 n 1


S z    ima f [i, j]  z ²
2

i  0 j 0

4. Estimer l’écart-type du bruit dans la fenêtre :

S u  Ecart  type _ Bruit n , Q




n : Nombre de vues de l ' image


 Q : Facteur représen tan t le type d ' image

5. Calculer le coefficient k suivant :

k  4  n  Su 2 

6. Calculer la constante a suivante :

2
a  k  Sz 2 z

7. Remplacer le niveau de gris imaf[i, j] du pixel (i, j) par la valeur suivante :


58

 i( n/2 ) j ( n / 2 )

ima f [ i , j]    a  ima f [ m, l]  exp X


 m  i  ( n / 2 ) l  j  ( n / 2)


 avec
 
X  a m  i  l  j 

8. Remettre les niveaux de gris de l’image intermédiaire à l’échelle des octets et mettre le

résultat dans un tableau image d’entiers de type octets :

Pour tous les pixels (i, j) de l’image intermédiaire, Faire :


ima[i, j]  ENT ima f [i, j]  255 ima fMAX 
ima fMAX est le niveau de gris maximal de l’image intermédiaire et ENT est la fonction partie

entière. Le tableau image ima[ ] contient maintenant l’image filtrée.

4.4 Exemples et illustration

Nous allons présenter un exemple de filtrage de LEE sur une portion d’image numérique de

taille 3 x 3. L’image à filtrer est présentée sur la figure 4.4. On y voit également le

remplissage des points de bordure selon le principe de symétrie. Nous allons d’abord filtrer

cette image par le principe de LEE en utilisant une fenêtre de filtrage de taille 3 x 3.
59

Figure 4.4 Portion d’image numérique à filtrer.

Nous allons procéder étape par étape en suivant l’algorithme de filtrage de LEE. Considérons

une fenêtre de taille 3 x 3 centrée autour du pixel de niveau de gris 205. Cette fenêtre contient

les valeurs suivantes :

174 215 174 


 
W205  242 205 242
174 215 174 

1- Calcul de la moyenne locale de la fenêtre :

z  (174  215  174  242  205  242  174  215  174) / ( 3  3)  201.66

2- Calcul de la variance locale de la fenêtre :

S z 2  ((174  201.66)²  ( 215  201.66)²  (174  201.66)²


 ( 242  201.66)²  ( 205  201.66)²  ( 242  201.66)²
 (174  201.66)²  ( 215  201.66)²  (174  201.66)²) / ( 9  1)
 6682 / 8  835.25

3- Estimation de l’écart-type du bruit (on suppose que c’est une image en intensités (Q=1) et

que le nombre de vues est n = 1) :

Su  0.273 / 1  0.5225

4- Estimation de la moyenne et de la variance à priori :


60

y  z  201.66


 S 2  S 2  S 2  S 2  1  (835.25  0.5225²) / ( 0.5225²  1)  655.9
 y z u u

5- Vérification du signe de la variance à priori :

S y 2 est positif, donc aucun changement.

6- Calcul du coefficient b :

Sy 2 655.9
b   0.05578
2
z  Su  Sy
2 2 201.66²  0.5225²  655.9

7- Remplacement du niveau de gris 205 par la valeur suivante (dans le tableau image réel) :

 
z  b ima f [i, j]  z  201.66  0.05578  ( 205  201.66)  201.84

8- Remplacement du niveau de gris 205 par la partie entière du réel 201.84 dans le tableau

image résultat. Le pixel correspondant aura donc la valeur 201 dans l’image filtrée. Les

fenêtres centrées autour des autres pixels de l’image sont représentées sur la figure 4.5.

Figure 4.5 Différents masques centrés autour des pixels de l’image de la figure 4.4.
61

Le calcul effectué pour obtenir le filtrage du pixel de niveau de gris 205 est également

effectué pour tous les autres pixels de l’image originale. Les résultats des calculs

intermédiaires sont présentés sur le Tableau 4.1, et l’image filtrée est présentée sur la figure

4.6.

Masque W242 W185 W174 W162 W144 W185 W215 W121

z 192.66 187.66 181.44 183.55 172.44 165.88 184.55 170.55

Sz 2 777.5 997 1357.77 1326.53 932.3 202.10 1937 983

Su 0.5225 0.5225 0.5225 0.5225 0.5225 0.5225 0.5225 0.5225

Sy 2 610.54 782.97 1066.4 1041.83 732 158.54 1521.4 771.97

b 0.05682 0.0753 0.1060 0.1017 0.0827 0.02067 0.1406 0.0886


ima f [i, j] 195.46 187.46 180.65 181.35 170.08 166.27 188.83 166.15

ima[i, j] 195 187 180 181 170 166 188 166

Tableau 4.1. Résultats des calculs intermédiaires pour le filtrage

de l’image numérique de la figure 4.4 par filtre de LEE.

Figure 4.6 Résultat du filtrage de l’image numérique

de la figure 4.4 par filtre de LEE.


62

La figure 4.7 présente un exemple de filtrage de FROST, réalisé sur une image ERS1 de la

région de Douala au Cameroun. Le traitement a été effectué par le logiciel VOIR.

Figure 4.7 Exemple de filtrage de FROST réalisé sur une image ERS1 (640 x 400 pixels,

12.5 m de résolution) de la région de Douala (Cameroun) (source : logiciel VOIR).

De façon générale, aucune méthode de filtrage du chatoiement n’est meilleure par rapport aux

autres. Toutefois, une méthode peut s’avérer meilleure par rapport aux autres dans une

application particulière. Une étude comparative de plusieurs méthodes de filtrage du

chatoiement a récemment été effectuée sur une image RSO ERS1 du littoral camerounais

(Tonye et al., 1998). Des critères tels que la préservation des contours et la préservation des

régions homogènes ont été utilisés pour sélectionner le filtre le plus adapté à cette étude. Le

filtre de Lee s’est avéré être le meilleur pour cette application particulière.
63

4.5 Exercices

 Réaliser le filtrage de LEE de l’image numérique suivante :

Utiliser une taille 3 x 3 pour la fenêtre de filtrage, et le principe de symétrie pour les points de

bordure. Pour les quatre premiers exercices, on supposera que l’image traitée est une image en

intensités.

 Réaliser le filtrage de FROST de la même image, en utilisant les mêmes paramètres.

Comparer les deux résultats.

 Réaliser le filtrage de LEE de cette image en utilisant une taille de fenêtre 3 x 3, et le

principe des zéros pour les points de bordure.

 Réaliser le filtrage de FROST de cette image en utilisant une taille de fenêtre 3 x 3, et le

principe des zéros pour les points de bordure. Comparer les différents résultats.

 Ecrire un programme de filtrage de LEE dans un langage informatique de votre choix.

 Ecrire un programme de filtrage de LEE alterné dans un langage informatique de votre

choix.

 Ecrire un programme de filtrage de FROST dans un langage informatique de votre choix.

 Ecrire un programme de filtrage Gamma dans un langage informatique de votre choix.

 Ecrire un programme de filtrage MAP dans un langage informatique de votre choix.


64

Chapitre 5. La morphologie mathématique appliquée aux images

5.1 Introduction

La morphologie mathématique est une technique d’analyse de l’image basée sur la notion des

ensembles. Il va s’agir de faire des mesures sur une image, afin d’en faire une quantification.

Pour cela, il faudrait construire l’ensemble dans lequel portera la mesure. Cette construction

s’effectue par des transformations successives qui, partant de l’image brute, vont peu à peu

mettre en évidence l’ensemble à mesurer. Les opérations de morphologie mathématique

s’appliquent aux images binaires, mais elles peuvent aussi être appliquées aux images en

niveaux de gris (Serra, 1982). Dans le cadre de cette étude, nous ne traiterons que le cas de la

morphologie mathématique appliquée aux images binaires, qui ont fait l’objet de la plupart de

nos applications. La morphologie mathématique appliquée à une image binaire, extraite d’une

image en niveau de gris RSO du satellite ERS1, a été récemment utilisée pour faire la

cartographie automatique de la région des mangroves de la côte littorale camerounaise

(Akono, 1996). Dans cette même étude, une autre image RSO du satellite ERS1 a été utilisée

pour l’extraction du réseau hydrographique dans la région sud du Cameroun, en utilisant la

morphologie mathématique. Dans une étude plus récente (Tonye et al., 1999), la morphologie

mathématique a été combinée à l’analyse de texture, pour la cartographie de la ligne de rivage

sur la côte atlantique camerounaise, à partir de données ERS1 et E-SAR (Experimental

airborne SAR, programme Américain sur la côte atlantique camerounaise en 1992). Les

opérations morphologiques se font à l’aide d’un élément structurant B qui a des formes

géométriques simples : rond, carré, hexagone, octogone (figure 5.1).


65

Figure 5.1. Eléments structurants carré et hexagonal.

Nous allons maintenant présenter les opérateurs morphologiques les plus courants, mais

auparavant voyons ce que c’est que la binarisation.

5.2 La binarisation d’une image

La binarisation d’une image consiste à la transformer en une image ne possédant que deux

niveaux de gris. Le résultat de la binarisation produit une image binaire. Pour binariser une

image, on se fixe deux seuils de binarisation s1 et s2. L’algorithme de binarisation est

présenté ci-dessous.

Algorithme de binarisation d’une image

Pour tous les pixels (i, j) de l’image originale Faire

Début

Si ima[i, j]  S 
1 ET ima[i, j]  S 
2

Alors ima b [i, j]  1


Sinon ima b [i, j]  0

Fin
66

Le tableau ima b contient l’image binaire.

La figure 5.2 montre un exemple de binarisation réalisé sur une portion d’image ERS1 autour

de la ville de Douala.

Figure 5.2. Binarisation d’une portion d’image ERS1 (183 x 159 pixels)

De la région de Douala avec S1=0 et S2=100 pour seuils.

(source : logiciel VOIR)

5.3 L’érosion d’une image binaire

L’érosion consiste à réduire les entités. Pour cela, on fait promener un élément structurant B

sur le pourtour des entités. Le centre de l’élément structurant donne le contour de l’entité

réduite. Une érosion peut être répétée plusieurs fois sur une même image, on parle alors

d’érosion de taille n, ou d’ordre n : EBn(X). L’algorithme de l’érosion est présenté ci-

dessous (Toumazet, 1990).

Algorithme d’érosion
67

1. Créer deux tableaux imab1 et imab2 à valeurs booléennes, et de mêmes dimensions que

l’image binaire initiale ima.

2. Pour tous les pixels (i,j) de niveau de gris ima[i,j] de l’image initiale Faire

Début

ima b1[i, j]  FAUX


ima b 2 [i, j]  FAUX
Si ima[i, j]  0 Alors ima b1[i, j]  VRAI

Fin

3. Pour tous les pixels (i,j) Faire

Début

Si ima b1 [i  1, j  1]
ET ima b1 [i  1, j]
ET ima b1 [i  1, j  1]
ET ima b1 [i  1, j  1]
ET ima b1 [i  1, j]
ET ima b1 [i  1, j  1]
Alors ima b 2 [i, j]  ima b1[i, j]
Sinon ima b 2 [i, j]  FAUX

Fin

Noter bien que le ET est l’opérateur ET logique s’appliquant aux valeurs booléennes entre

parenthèses. L’expression "Si ima b2 [i, j] …" veut dire "Si la valeur booléenne de

ima b2 [i, j] est VRAI…".

4. Pour tous les pixels (i,j) Faire

Début
68

Si ima b2 [i, j] Alors ima[i, j]  255 (attribution de la couleur blanche au pixel

positionné en (i,j))

Sinon ima[i, j]  0 (attribution de la couleur noire au pixel positionné en (i,j))

Fin

5. Afficher le tableau image ima contenant le résultat de l’érosion.

La figure 5.3 montre un exemple d’érosion appliquée sur l’image binaire de la figure 5.2.

Figure 5.3. Erosion d’une portion d’image ERS1 (183 x 159 pixels)

De la région de Douala (source : logiciel VOIR)

5.4 La dilatation d’une image binaire

La dilatation a pour effet d’augmenter la taille des entités. Pour cela, l’élément structurant

parcourt l’extérieur de l’entité. De même que pour l’érosion, le centre de l’élément structurant

donne le contour de l’entité agrandie. Une dilatation peut aussi être répétée plusieurs fois sur
69

une même image, on parle alors de dilatation de taille n, ou d’ordre n : DBn(X).

L’algorithme de la dilatation est présenté ci-dessous (Toumazet, 1990).

Algorithme de dilatation

1. Créer deux tableaux imab1 et imab2 à valeurs booléennes, et de mêmes dimensions que

l’image binaire initiale ima.

2. Pour tous les pixels (i,j) de niveau de gris ima[i,j] de l’image initiale Faire

Début

ima b1[i, j]  FAUX


ima b 2 [i, j]  FAUX
Si ima[i, j]  0 Alors ima b1[i, j]  VRAI

Fin

3. Pour tous les pixels (i,j) Faire

Début

Si ima b1 [i  1, j  1]
OU ima b1 [i  1, j]
OU ima b1 [i  1, j  1]
OU ima b1 [i  1, j  1]
OU ima b1 [i  1, j]
OU ima b1 [i  1, j  1]
Alors ima b 2 [i, j]  VRAI
Sinon ima b 2 [i, j]  ima b1 [i, j]

Fin
70

Noter bien que le OU est l’opérateur OU logique s’appliquant aux valeurs booléennes entre

parenthèses. L’expression "Si ima b2 [i, j] …" veut dire "Si la valeur booléenne de

ima b2 [i, j] est VRAI…".

4. Pour tous les pixels (i,j) Faire

Début

Si ima b2 [i, j] Alors ima[i, j]  255 (attribution de la couleur blanche au pixel

positionné en (i,j))

Sinon ima[i, j]  0 (attribution de la couleur noire au pixel positionné en (i,j))

Fin

5. Afficher le tableau image ima contenant le résultat de la dilatation.

La figure 5.4 montre un exemple de dilatation appliquée sur l’image binaire de la figure 5.2.

Figure 5.4. Dilatation d’une portion d’image ERS1 (183 x 159 pixels)

De la région de Douala (source : logiciel VOIR)


71

5.5 L’ouverture d’une image binaire

Une ouverture consiste à éliminer des presqu’îles étroites des entités. Pour cela, on applique

d’abord une érosion, et ensuite une dilatation : XB (Serra, 1982). On peut aussi faire une

ouverture de taille n en effectuant n érosions puis n dilatations : Xbn. L’algorithme de

l’ouverture consiste simplement à faire d’abord une érosion telle que présentée au paragraphe

5.3, et ensuite une dilatation telle que présentée au paragraphe 5.4. La figure 5.5 montre un

exemple d’ouverture appliquée sur l’image binaire de la figure 5.2.

Figure 5.5. Ouverture d’une portion d’image ERS1 (183 x 159 pixels)

De la région de Douala (source : logiciel VOIR)

5.6 La fermeture d’une image binaire

A l’inverse de l’ouverture, la fermeture est une opération qui ferme les golfes et les petits

trous. Pour faire une fermeture, on applique d’abord une dilatation (voir algorithme du

paragraphe 5.4), et ensuite une érosion (voir algorithme du paragraphe 5.3) : XB (Serra, 1982).

Une fermeture de taille n (ou d’ordre n) se définit par n dilatations suivies de n érosions :
72

Xbn. La figure 5.6 montre un exemple de fermeture appliquée sur l’image binaire de la figure

5.2.

Figure 5.6. Fermeture d’une portion d’image ERS1 (183 x 159 pixels)

de la région de Douala (source : logiciel VOIR)

5.7 Le Chapeau Haut de Forme

Les propriétés de la fermeture f B ( x) et de l’ouverture f B f ( x) en teintes de gris permettent de

définir des filtres appelés Chapeaux Haut de Forme qui sont utilisés pour extraire les pics de

la fonction f ( x) , correspondant aux petites zones claires de l’image ou aux vallées

correspondant aux petites zones sombres. Ces zones sont représentées sur le graphe de la

fonction f ( x) par des pics (resp. des vallées étroites) et l’extraction des pics d’épaisseur

inférieure à n exige l’utilisation d’un élément structurant Bn de taille n (Debaine et al., 1988).

On définit ces filtres ainsi :

1) Le Chapeau Haut de Forme Blanc ou White Top Hat : WTH( X) = f ( X) - fBn ( X) . Il est

est obtenu en faisant la différence entre l’image binaire originale et la fermeture de la

même image. La figure 5.7 en présente une illustration.


73

2) Le Chapeau Haut de Forme Noir ou Black Top Hat : BTH( X) = f Bn ( X) - f ( X) . Il est

est obtenu en faisant la différence entre l’image binaire originale et l’ouverture de la

même image. La figure 5.8 en présente une illustration.

Les Chapeaux Haut de Forme Blanc et Noir sont des filtres dits morphologiques et sont

adaptés pour l’extraction d’objets linéaires fins (sombres ou clairs), d’une épaisseur donnée.

Ils ont été exploités par Legeley et Mering (1997) pour extraire les failles à partir d’images

SPOT panchromatiques.
74

Figure 5.7 Chapeau Haut de Forme Blanc d’une portion d’image ERS1 (183 x 159 pixels)

de la région de Douala (source : logiciel VOIR)

Figure 5.8 Chapeau Haut de Forme Noir d’une portion d’image ERS1 (183 x 159 pixels)

de la région de Douala (source : logiciel VOIR)

5.8 La Squelettisation

La squelettisation consiste à réduire l’épaisseur des entités d’une image à la dimension d’un

pixel. Lors du processus de squelettisation, les entités de l’image sont amincies par le biais

d’un élément structurant, jusqu’à ce qu’il y ait stabilité. La squelettisation s’effectue par une
75

succession d’opérations appelées amincissement, jusqu’à l’obtention d’une structure stable ne

pouvant plus être amincie. Ceci peut être réalisé en balayant l’image avec une série de huit

masques obtenus à partir d’un masque B1 par rotation de 45°:

0 0 0 0 0 0 1 0 0 1 1 0
       
B1  0 1 0 B2  1 1 0 B3  1 1 0 B4  1 1 0
1 1 1 1 1 0 1 0 0 0 0 0

1 1 1 0 1 1 0 0 1 0 0 0
       
B5  0 1 0 B6  0 1 1 B7  0 1 1 B8  0 1 1
0 0 0 0 0 0 0 0 1 0 1 1

L’algorithme de squelettisation est présenté ci-dessous (Toumazet, 1990).

Algorithme de squelettisation

1. Créer deux tableaux imab1 et imab2 à valeurs booléennes, et de mêmes dimensions que

l’image binaire initiale ima.

2. Pour tous les pixels (i,j) de niveau de gris ima[i,j] de l’image initiale Faire

Début

ima b1 [i, j]  FAUX


ima b 2 [i, j]  FAUX
Si ima[i, j]  0 Alors ima b1 [i, j]  VRAI

Fin

3. Faire les initialisations suivantes :

Iter  1;
76

Stable  FAUX ("Stable" est une variable booléenne).

4. Tant Que la variable booléenne Stable a la valeur FAUX Faire

Début

Stable  VRAI ;

Iter  Iter+1 ;

//MASQUE Est

Pour tous les pixels (i,j) Faire

Début

SI  Im a [i  1, j  1]
b1

OU  Im a [i  1, j]
b1

OU  Im a [i  1, j  1]
b1

OU ( NON ( Im a b1 [i, j]
ET  Im a b1 [i  1, j  1]
ET  Im a b1 [i  1, j]
ET  Im a b1 [i  1, j  1]))
ALORS Im a b 2 [i, j]  Im a b1 [i, j]
SINON
Début
Im a b 2 [i, j]  FAUX;
Stable  FAUX;
Fin

Fin

//MASQUE Sud-Est

Pour tous les pixels (i,j) Faire

Début
77

SI  Im a [i  1, j]
b2

OU  Im a [i  1, j  1]
b2

OU  Im a [i, j  1]
b2

OU ( NON ( Im a b 2 [i, j]
ET  Im a b2 [i  1, j]
ET  Im a b2 [i  1, j  1]
ET  Im a b2 [i, j  1]))
ALORS Im a b1 [i, j]  Im a b 2 [i, j]
SINON
Début
Im a b1 [i, j]  FAUX;
Stable  FAUX;
Fin

Fin

//MASQUE Sud

Pour tous les pixels (i,j) Faire

Début

SI  Im a [i  1, j  1]
b1

OU  Im a [i, j  1]
b1

OU  Im a [i  1, j  1]
b1

OU ( NON ( Im a b1 [i, j]
ET  Im a b1 [i  1, j  1]
ET  Im a b1 [i, j  1]
ET  Im a b1 [i  1, j  1]))
ALORS Im a b 2 [i, j]  Im a b1 [i, j]
SINON
Début
Im a b 2 [i, j]  FAUX;
Stable  FAUX;
Fin

Fin

//MASQUE Sud-Ouest
78

Pour tous les pixels (i,j) Faire

Début

SI  Im a [i, j  1]
b2

OU  Im a [i  1, j  1]
b2

OU  Im a [i  1, j]
b2

OU ( NON ( Im a b 2 [i, j]
ET  Im a b2 [i  1, j]
ET  Im a b2 [i  1, j  1]
ET  Im a b2 [i, j  1]))
ALORS Im a b1 [i, j]  Im a b 2 [i, j]
SINON
Début
Im a b1 [i, j]  FAUX;
Stable  FAUX;
Fin

Fin

//MASQUE Ouest

Pour tous les pixels (i,j) Faire

Début

SI  Im a [i  1, j  1]
b1

OU  Im a [i  1, j]
b1

OU  Im a [i  1, j  1]
b1

OU ( NON ( Im a b1[i, j]
ET  Im a b1 [i  1, j  1]
ET  Im a b1 [i  1, j]
ET  Im a b1 [i  1, j  1]
ALORS Im a b 2 [i, j]  Im a b1[i, j]
SINON
Début
Im a b 2 [i, j]  FAUX;
Stable  FAUX;
Fin
79

Fin

//MASQUE Nord-Ouest

Pour tous les pixels (i,j) Faire

Début

SI  Im a [i  1, j]
b2

OU  Im a [i  1, j  1]
b2

OU  Im a [i, j  1]
b2

OU ( NON ( Im a b 2 [i, j]
ET  Im a b2 [i  1, j]
ET  Im a b2 [i  1, j  1]
ET  Im a b2 [i, j  1]))
ALORS Im a b1[i, j]  Im a b 2 [i, j]
SINON
Début
Im a b1[i, j]  FAUX;
Stable  FAUX;
Fin

Fin

//MASQUE Nord

Pour tous les pixels (i,j) Faire

Début
80

SI  Im a [i  1, j  1]
b1

OU  Im a [i, j  1]
b1

OU  Im a [i  1, j  1]
b1

OU ( NON ( Im a b1[i, j]
ET  Im a b1 [i  1, j  1]
ET  Im a b1 [i, j  1]
ET  Im a b1 [i  1, j  1]))
ALORS Im a b 2 [i, j]  Im a b1[i, j]
SINON
Début
Im a b 2 [i, j]  FAUX;
Stable  FAUX;
Fin

Fin

//MASQUE Nord-Est

Pour tous les pixels (i,j) Faire

Début

SI  Im a [i  1, j]
b2

OU  Im a [i  1, j  1]
b2

OU  Im a [i, j  1]
b2

OU ( NON ( Im a b 2 [i, j]
ET  Im a b2 [i, j  1]
ET  Im a b2 [i  1, j  1]
ET  Im a b2 [i  1, j]))
ALORS Im a b1[i, j]  Im a b 2 [i, j]
SINON
Début
Im a b1[i, j]  FAUX;
Stable  FAUX;
Fin

Fin

Fin
81

6. Pour tous les pixels (i,j) Faire

Début

Si ima b1[i, j] Alors ima[i, j]  255 (attribution de la couleur blanche au pixel

positionné en (i,j))

Sinon ima[i, j]  0 (attribution de la couleur noire au pixel positionné en (i,j))

Fin

7. Afficher le tableau image ima contenant le résultat de la squelettisation.

La figure 5.7 présente un exemple de squelettisation appliquée sur l’image binaire de la figure

5.2.

Figure 5.9 Squelettisation d’une portion d’image ERS1 (183 x 159 pixels)

De la région de Douala (source : logiciel VOIR)

5.10 Exercices

 Effectuer la binarisation de l’image numérique suivante :


82

Prendre S1 = 0 et S2 = 100 pour seuil bas et seuil haut, et utiliser le principe de symétrie pour

les points de bordure.

 Effectuer l’érosion et la dilatation de l’image binaire obtenue précédemment.

 Programmer tous les opérateurs morphologiques vus dans ce chapitre dans un langage

informatique de votre choix.


83

Chapitre 6. L’analyse de texture

6.1 Introduction

Des objets distincts ayant des propriétés spectrales semblables ou identiques peuvent induire

beaucoup de confusions entre les classes lorsqu’on effectue des classifications se basant

uniquement sur l’information spectrale contenue dans les images. C’est pour cette raison que

des méthodes de classification prenant en compte l’information spatiale ont été développées.

L’analyse de texture est une méthode qui tient compte de la distribution spatiale des niveaux

de gris autour d’un pixel considéré de l’image. Plusieurs méthodes d’analyse de texture ont

été développées au fil des années, la plus classique étant celle de la matrice de cooccurrences

(Haralick, et al. 1973). Dans cette méthode, l’élément S(i,j,v) de la matrice de cooccurrence

est la probabilité d’apparition du couple de niveaux de gris (i,j), étant donné un vecteur de

déplacement v selon une direction et une orientation données. L’inconvénient de cette

méthode est qu’elle ne tient pas compte de toutes les directions autour d’un pixel. Récemment

Wang et He ont proposé l’approche du spectre de texture (Wang and He 1990). Cette

approche est semblable à celle de la matrice de cooccurrence dans le sens de la caractérisation

des propriétés stochastiques de la distribution spatiale des niveaux de gris de l’image, excepté

qu’elle tient compte de tous les huit pixels voisins autour du pixel considéré au lieu d’un seul

vecteur de déplacement. Dans ce qui suit, nous allons d’abord présenter les méthodes

classiques d’analyse de texture, c’est-à-dire les méthodes faisant appel au calcul de la matrice

de cooccurrence. Nous présenterons ensuite la méthode du spectre de texture et celle des

longueurs de plage.

6.2 Les méthodes statistiques du premier ordre


84

Ces méthodes sont basées sur les histogrammes de premier ordre. Un tel histogramme indique

la fréquence d’apparition d’un niveau de gris dans un voisinage considéré. A partir de

l’histogramme on peut extraire des paramètres avec des statistiques de degrés différents. Voici

quelques uns de ces paramètres :

- Moyenne :

L 1
SM   i  P( i) (6.1)
i0

Ce paramètre représente l’emplacement de l’histogramme sur l’échelle des niveaux de gris.

- Entropie :

L 1
Ent    P(i)  Log 2  P(i) (6.2)
i0

L’entropie mesure la complexité de l’image.

- Ecart-type :

1
 L 1
  
2 2
S D   i S M  (6.3)
 i0 

L’écart-type est une mesure de la répartition des niveaux de gris autour de la moyenne.

- Dissymétrie (Skewness) :

1 L1
i SM   P(i)
3
Skw   
S D  i 0
3 (6.4)

Ce paramètre mesure la dissimilarité de l’histogramme (s’il est bien équilibré autour de sa

moyenne ou bien s’il est plus orienté à gauche ou à droite par rapport à sa moyenne).

- Le paramètre "Kurtosis" :

1L1
i SM   P(i)
4
Kurt   
S D  i 0
4 (6.5)

Le paramètre "Kurtosis" donne une indication sur l’aspect pointu et effilé ou plutôt aplati de

l’histogramme.
85

Signification des notations :

P(i) = N(i)/M, où M est le nombre de pixels de la fenêtre, et N(i) le nombre de pixels ayant le

même niveau de gris "i" dans la fenêtre. L est le nombre maximal de niveaux de gris

possibles. Illustrons le calcul du paramètre moyenne, par exemple, avec une image numérique

simple. Considérons l’image numérique de la Figure 6.1.

Figure 6.1. Image numérique et remplissage des points de bordure.

Calculons les valeurs P(i) pour tous les niveaux de gris de l’image en utilisant une fenêtre de

taille 3x3, et la méthode de symétrie pour les points de bordure. Considérons une fenêtre de

taille 3 x 3 centrée autour du pixel de niveau de gris 205. Cette fenêtre contient les valeurs

suivantes :

174 215 174 


 
W205  242 205 242
174 215 174 

Nous avons :

P(174) = N(174)/M = 4/9 ;

P(215) = N(215)/M = 2/9 ;

P(242) = N(242)/M = 2/9 ;


86

P(205) = N(205)/M = 1/9 ;

Le paramètre moyenne a pour valeur au point de niveau de gris 205 :

SM(205) = (174 x 4/9) + (215 x 2/9) + (242 x 2/9) + (205 x 1/9) = 201.66

On prend la partie entière : le pixel considéré aura donc pour niveau de gris 201 dans l’image

résultat. On procède de même pour tous les autres pixels et on obtient les résultats ci-après.

Les masques centrés autour des autres pixels de l’image sont représentés à la Figure 6.2.

Figure 6.2. Différents masques centrés autour des pixels de l’image numérique

De la Figure 6.1.

SM(242) = (215 x 2/9) + (174 x 2/9) + (162 x 2/9) + (205 x 1/9) + (242 x 1/9) + (185 x 1/9)

= 192.66

SM(185) = (174 x 4/9) + (162 x 2/9) + (242 x 2/9) + (185 x 1/9) = 187.66

SM(174) = (205 x 1/9) + (242 x 1/9) + (185 x 2/9) + (215 x 1/9) + (174 x 1/9) + (162 x 1/9)

+ (121 x 1/9) + (144 x 1/9) = 181.44


87

SM(162) = (242 x 2/9) + (185 x 2/9) + (174 x 2/9) + (144 x 2/9) + (162 x 1/9) = 183.55

SM(144) = (215 x 2/9) + (174 x 2/9) + (162 x 2/9) + (121 x 1/9) + (144 x 1/9) + (185 x 1/9)

= 172.44

SM(185) = (174 x 4/9) + (144 x 2/9) + (162 x 2/9) + (185 x 1/9) = 165.88

SM(215) = (242 x 2/9) + (205 x 1/9) + (174 x 2/9) + (215 x 1/9) + (144 x 2/9) + (121 x 1/9)

= 184.55

SM(121) = (174 x 4/9) + (215 x 2/9) + (144 x 2/9) + (121 x 1/9) = 170.55

L’image originale et l’image de texture sont présentées sur la Figure 6.3.

Figure 6.3. Exemple d’image de texture calculée avec le paramètre "moyenne"

6.3 Les méthodes statistiques du deuxième ordre

Ces méthodes sont basées sur l’histogramme de deuxième ordre des niveaux de gris,

communément appelé matrice de cooccurrence de deuxième ordre. La matrice de

cooccurrence exprime la probabilité d’apparition d’un couple de niveaux de gris (i,j) de

l’image dans une fenêtre et dans une direction données. Haralick et al. (1973) proposent 14

paramètres de textures calculés à partir de la matrice de cooccurrence, pour extraire


88

l’information texturale contenue dans l’image. Nous allons présenter quelques uns des

paramètres les plus utilisés. Nous présentons aussi les deux paramètres valeur absolue et

contraste, proposés par Pratt (Pratt, 1991), à cause de leur analogie avec les paramètres

proposés par Hevenor (1985) pour un histogramme de troisième ordre :

- Energie ou second moment angulaire :

L 1 L 1
E     P(i, j, d , )
2
(6.6)
i  0 j 0

- Entropie :

L 1 L 1
Ent    P(i, j, d , )  log 2 ( P(i, j, d , )) (6.7)
i  0 j 0

- Contraste (ou inertie) :

i  j P(i, j, d, )
L 1 L 1 2
Cont    (6.8)
i  0 j 0

- Corrélation :

  
L 1 L 1
Corr    (i   x )( j   y ) P(i, j, d , ) /  x  y (6.9)
i  0 j 0

- Le paramètre "Cluster prominence" :

(i  j  x  y ) P(i, j, d, )


L 1 L 1
Cpr   
4
(6.10)
i  0 j 0

Dans ces expressions, P(i, j, d, ) est la probabilité d’apparition du couple de niveaux de gris

(i,j) dans une direction  , d étant la distance spatiale entre les pixels. x et x représentent
89

respectivement la moyenne et l’écart-type des lignes de la matrice de cooccurrence. y et

y représentent respectivement la moyenne et l’écart-type des colonnes de la matrice de

cooccurrence.

L’énergie mesure l’homogénéité de l’image. Elle a une valeur numérique faible quand les

p(i,j) de la matrice de cooccurrence ont des valeurs très proches et une valeur forte quand

certaines valeurs sont grandes et d’autres petites, par exemple quand les p(i,j) sont

concentrées autour de la diagonale. L’inertie est une mesure du contraste (ou de la variation

locale des niveaux de gris) dans l’image. Ce paramètre a une valeur numérique importante si

les p(i,j) sont concentrées hors diagonale (c’est-à-dire s’il existe de nombreuses transitions

caractérisées par une différence de niveaux de gris (i-j) importante (le facteur (i-j) est

dominant car il est à la puissance deux). Au contraire, si les valeurs de la matrice de

cooccurrence sont centrées sur la diagonale, le contraste est faible. La corrélation a une forte

valeur quand les valeurs sont uniformément distribuées dans la matrice de cooccurrence, et

une faible valeur dans le cas contraire. Elle mesure les dépendances linéaires des niveaux de

gris dans l’image. Quant à l’entropie, elle est grande quand les valeurs de la matrice de

cooccurrence sont presque toutes égales et elle est faible dans le cas contraire. Nous

présentons sur les figures 38, 39, 40 et 41 les algorithmes de calcul de la matrice de

cooccurrence dans les quatres directions : 0°, 45°, 90° et 135°.


90

Sous-Programme MATCOOC-0
Variables d’entrée :
W : Masque centré autour d’un pixel de l’image (W est
Une matrice de taille Tx par Ty) ;
L : Nombre maximal de niveaux de gris de l’image ;
Variable de sortie :
MCOOC : Matrice de cooccurrence (C’est un tableau
Bidimensionnel de réels) ;
Variables locales :
i, j, x, y : Entiers ;
MCOOCs : Tableau de type matrice de cooccurrence ;

Début
Pour j variant de 0 à L-1 Faire
Pour i variant de 0 à L-1 Faire
MCOOC[i,j]  0 ;
Pour y variant de 0 à Ty-1 Faire
Pour x variant de 0 à Tx-2 Faire
Début
I  W[x,y]
J  W[x+1,y]
MCOOC[I,J]  MCOOC[I,J] + 1 ;
Fin
MCOOCs  Symétrique de MCOOC ;
Pour j variant de 0 à L-1 Faire
Pour i variant de 0 à L-1 Faire
MCOOC[i,j]  ((1/2)*(MCOOC[i,j]+MCOOCs[i,j])/(2*Ty*(Tx-
1)));

Figure 6.4. Algorithme de calcul de la matrice de cooccurence dans la direction 0°.


91

Sous-Programme MATCOOC-45
Variables d’entrée :
W : Masque centré autour d’un pixel de l’image (W est
Une matrice de taille Tx par Ty) ;
L : Nombre maximal de niveaux de gris de l’image ;
Variable de sortie :
MCOOC : Matrice de cooccurrence (C’est un tableau
Bidimensionnel de réels) ;
Variables locales :
i, j, x, y : Entiers ;
MCOOCs : Tableau de type matrice de cooccurrence ;

Début
Pour j variant de 0 à L-1 Faire
Pour i variant de 0 à L-1 Faire
MCOOC[i,j]  0 ;
Pour y variant de 0 à Ty-1 Faire
Pour x variant de 0 à Tx-2 Faire
Début
I  W[x,y]
J  W[x+1,y-1]
MCOOC[I,J]  MCOOC[I,J] + 1 ;
Fin
MCOOCs  Symétrique de MCOOC ;
Pour j variant de 0 à L-1 Faire
Pour i variant de 0 à L-1 Faire
MCOOC[i,j]  ((1/2)*(MCOOC[i,j]+MCOOCs[i,j])/(2*(Tx-
1)*(Ty-1)));

Figure 6.5. Algorithme de calcul de la matrice de cooccurence dans la direction 45°.


92

Sous-Programme MATCOOC-90
Variables d’entrée :
W : Masque centré autour d’un pixel de l’image (W est
Une matrice de taille Tx par Ty) ;
L : Nombre maximal de niveaux de gris de l’image ;
Variable de sortie :
MCOOC : Matrice de cooccurrence (C’est un tableau
Bidimensionnel de réels) ;
Variables locales :
i, j, x, y : Entiers ;
MCOOCs : Tableau de type matrice de cooccurrence ;

Début
Pour j variant de 0 à L-1 Faire
Pour i variant de 0 à L-1 Faire
MCOOC[i,j]  0 ;
Pour y variant de 0 à Ty-1 Faire
Pour x variant de 0 à Tx-2 Faire
Début
I  W[x,y]
J  W[x,y-1]
MCOOC[I,J]  MCOOC[I,J] + 1 ;
Fin
MCOOCs  Symétrique de MCOOC ;
Pour j variant de 0 à L-1 Faire
Pour i variant de 0 à L-1 Faire
MCOOC[i,j]  ((1/2)*(MCOOC[i,j]+MCOOCs[i,j])/(2*(Ty-
1)*(Tx)));

Figure 6.6. Algorithme de calcul de la matrice de cooccurence dans la direction 90°.


93

Sous-Programme MATCOOC-135
Variables d’entrée :
W : Masque centré autour d’un pixel de l’image (W est
Une matrice de taille Tx par Ty) ;
L : Nombre maximal de niveaux de gris de l’image ;
Variable de sortie :
MCOOC : Matrice de cooccurrence (C’est un tableau
Bidimensionnel de réels) ;
Variables locales :
i, j, x, y : Entiers ;
MCOOCs : Tableau de type matrice de cooccurrence ;

Début
Pour j variant de 0 à L-1 Faire
Pour i variant de 0 à L-1 Faire
MCOOC[i,j]  0 ;
Pour y variant de 0 à Ty-1 Faire
Pour x variant de 0 à Tx-2 Faire
Début
I  W[x,y]
J  W[x-1,y-1]
MCOOC[I,J]  MCOOC[I,J] + 1 ;
Fin
MCOOCs  Symétrique de MCOOC ;
Pour j variant de 0 à L-1 Faire
Pour i variant de 0 à L-1 Faire
MCOOC[i,j]  ((1/2)*(MCOOC[i,j]+MCOOCs[i,j])/(2*(Tx-
1)*(Ty-1)));

Figure 6.7. Algorithme de calcul de la matrice de cooccurence dans la direction 135°.

Nous présentons ci-dessous un exemple d’algorithme de calcul d’une image de texture pour le

paramètre énergie.

1. Reéchantillonner les niveaux de gris de l’image originale à la valeur maximale L

souhaitée : Pour chaque pixel en (x,y), Faire :

Ima[x,y]  ENT((Ima[x,y]*L) / Max{Ima[x,y]}), Max{Ima[x,y]} étant le niveau de

gris maximal de l’image original.


94

2. Créer un tableau bidimensionnel de réels, ayant les mêmes dimensions que l’image

originale : imaf[].

3. Pour chaque pixel (x,y) de l’image originale, effectuer les opérations 4 à 8.

4. Centrer un masque W de taille Tx par Ty en (x,y). Le masque W contiendra le niveau de

gris du pixel en (x,y) et celui de ses voisins.

5. Calculer la matrice de cooccurence associée à W, selon la direction choisie.

6. Initialiser une variable réelle ENE à zéro et une autre variable réelle ENEmax à zéro.

7. Pour j variant de 0 à L-1 Faire

Pour i variant de 0 à L-1 Faire

ENE  ENE + (MCOOC[i,j] * MCOOC[i,j])

8. Faire les opérations suivantes :

imaf[x,y]  ENE ;

Si (ENE  ENEmax) Alors ENEmax  ENE ;

9. Pour tous les pixels (x,y) modifier les valeurs du tableau ima selon :

Ima[x,y]  ENT((255* imaf[x,y]) / ENEmax). Il s’agit ici d’une remise des niveaux de

gris de l’image résultat à l’échelle correspondant à une valeur maximale de 255.

ENT représente la fonction partie entière, et le tableau ima contient maintenant l’image de

texture.

Il est possible de considérer toutes les directions à la fois, soit en prenant la moyenne des

valeurs des matrices de cooccurence dans les différentes directions, soit en prenant le

maximum des directions. Toutes ces possibilités ont été implémentées dans le logiciel VOIR.

La Figure 6.8 présente des exemples d’images de texture du second ordre obtenues à partir

d’une image ERS1 autour de la région de Douala au Cameroun.


95

Figure 6.8. Exemples d’images de texture du second ordre. De haut en bas, à droite :

L’image originale (ERS1, 12.5 mètres de résolution), l’image d’énergie,

L’image d’homogénéité et l’image de contraste.

(source : logiciel VOIR)

6.3 La méthodes des longueurs de plages

La méthode des longueurs de plage considère un voisinage monodimensionnel de type auto-

adaptatif : un point appartient au voisinage du point courant si son niveau de gris est peu

différent. La taille du voisinage est donc très variable, et elle constitue un paramètre

caractéristique majeur dans cette approche.


96

La méthode des longueurs de plage de niveau de gris consiste à compter le nombre de plages

de niveau de gris d’une certaine longueur, dans une certaine direction  (Dasarathy, 1991).

Une matrice R(  ) de longueurs de plage est associée à une direction d’angle  .


R   ri, j;  (6.11)

où r(i,j) est le nombre de plages de pixels de niveau de gris i, de longueur j et  la direction

de la plage de niveau de gris. 11 paramètres caractérisant la texture ont été extraits de ces

matrices. Nous en présentons 4 introduits en 1991 par Dasarathy et Holder (1991) :

- Le poids des petites plages de faible niveau de gris :

1 M N r (i, j)
SRLGE   (6.12)
nr i 1 j1 i 2 j2

- Le poids des petites plages de fort niveau de gris :

1 M N i 2 r (i, j)
SRHGE   (6.13)
nr i 1 j1 j2

- Le poids des longues plages de faible niveau de gris :

1 M N j2 r (i, j)
LRLGE   (6.14)
nr i 1 j1 i 2

- Le poids des longues plages de fort niveau de gris :

1 M N 2 2
LRHGE    i j r (i, j) (6.15)
nr i 1 j1

M N
La constante nr    r (i, j) est le nombre total de plages dans une fenêtre centrée autour
i 1 j 1

d’un pixel courant. M est le nombre de niveaux de gris dans l’image et N est le nombre de

longueurs de plages rencontrées dans la fenêtre. Pour obtenir l’image de texture, on remplace

le niveau de gris du pixel courant par la valeur du paramètre de texture évalué dans une
97

fenêtre centrée autour de ce pixel. Nous présentons dans les lignes qui suivent les algorithmes

de calcul des matrices de longueurs de plages dans différentes directions.

Sous-Programme R0
Variables d’entrée :
W : Masque centré autour d’un pixel de l’image (W est
Une matrice de taille Tm par Tm) ;
I, J : Entiers ;

Variable de sortie :
R0 : Nombre de plages (dans la direction 0°) de niveau de gris
I et de longueur J dans la fenêtre W de taille Tm x Tm
Variables locales :
C1, C2, x, y, jj : Entiers ;

Début
C1  0 ;
Pour y variant de 0 à Tm-1 Faire
Début
x  0;
Tant Que (x  Tm-J) Faire
Début
C2  0 ;
Pour jj variant de x à x+J-1 Faire
Si (W[jj,y] = I) Alors C2  C2+1; //On compte le nombre
//d'éléments successifs ayant le niveau de gris I
//Si ce nombre est égal à J, ça fait une plage de longueur J et
//on incrémente C1. On fait ensuite un saut de longueur une
//plage et on teste les éléments suivants.
Si (C2 = J) Alors
Début
C1  C1+1;
x  x + J;
Fin
//Si le nombre précédent n’est pas égal à J on passe à l'élément
//suivant et on recommence le processus.
Sinon x  x + 1;
Fin
Fin
R0  C1 ;
Fin du Sous-Programme.

Figure 6.9. Algorithme de calcul de la matrice des longueurs de plages dans la direction 0°.
98

Sous-Programme R45a
Variables d’entrée :
W : Masque centré autour d’un pixel de l’image (W est
Une matrice de taille Tm par Tm) ;
I, J : Entiers ;

Variable de sortie :
R45a : Nombre de plages (dans la direction 45°) de niveau de gris
I et de longueur J dans la fenêtre W de taille Tm x Tm (pour les
Eléments au dessus de la diagonale, la diagonale étant incluse).
Variables locales :
C1, C2, x, y, ii : Entiers ;

Début
C1  0 ;
Pour y variant de J-1 à Tm-1 Faire
Début
x  0;
C2  0 ;
Tant Que (x  y-J+1) Et (x  Tm -1) Faire
Début
Pour ii variant de x à x+J-1 Faire
Si (W[ii,y-ii] = I) Alors C2  C2+1; //On compte le nombre
//d'éléments successifs ayant le niveau de gris I (selon la dir. 45°).
//Si ce nombre est égal à J, ça fait une plage de longueur J et
//on incrémente C1. On fait ensuite un saut de longueur une
//plage et on teste les éléments suivants.
Si (C2 = J) Alors
Début
C1  C1+1;
x  x + J;
Fin
//Si le nombre précédent n’est pas égal à J on passe à l'élément
//suivant et on recommence le processus.
Sinon x  x + 1;
Fin
Fin
R45a  C1 ;
Fin du Sous-Programme.

Figure 6.10. Algorithme de calcul de la matrice des longueurs de plages dans la direction 45°

Pour les éléments au dessus de la diagonale (les éléments de la diagonale étant inclus) dans

une fenêtre centrée autour d’un pixel de l’image originale.


99

Sous-Programme R45b
Variables d’entrée :
W : Masque centré autour d’un pixel de l’image (W est
Une matrice de taille Tm par Tm) ;
I, J : Entiers ;
Variable de sortie :
R45b : Nombre de plages (dans la direction 45°) de niveau de gris
I et de longueur J dans la fenêtre W de taille Tm x Tm (pour les
Eléments au dessus de la diagonale, la diagonale étant excluse).
Variables locales :
C1, C2, x, y, ii : Entiers ;

Début
C1  0 ;
Pour y variant de J-1 à Tm-2 Faire
Début
x  0;
C2  0 ;
Tant Que (x  y-J+1) Et (x  Tm -1) Faire
Début
Pour ii variant de x à x+J-1 Faire
Si (W[ii,y-ii] = I) Alors C2  C2+1; //On compte le nombre
//d'éléments successifs ayant le niveau de gris I (selon la dir. 45°).
//Si ce nombre est égal à J, ça fait une plage de longueur J et
//on incrémente C1. On fait ensuite un saut de longueur une
//plage et on teste les éléments suivants.
Si (C2 = J) Alors
Début
C1  C1+1;
x  x + J;
Fin
//Si le nombre précédent n’est pas égal à J on passe à l'élément
//suivant et on recommence le processus.
Sinon x  x + 1;
Fin
Fin
R45b  C1 ;
Fin du Sous-Programme.

Figure 6.11. Algorithme de calcul de la matrice des longueurs de plages dans la direction 45°
100

Pour les éléments au dessus de la diagonale, les éléments de la diagonale étant exclus (y varie

de J-1 à Tm-2 au lieu de Tm-1 comme précédemment) dans une fenêtre centrée autour d’un

pixel de l’image originale.

Sous-Programme R45
Variables d’entrée :
W : Masque centré autour d’un pixel de l’image (W est
Une matrice de taille Tm par Tm) ;
I, J : Entiers ;

Variable de sortie :
R45 : Nombre de plages (dans la direction 45°) de niveau de gris I
et de longueur J dans la fenêtre W de taille Tm x Tm
Variables locales :
C1, C2 : Entiers ;
Ws : Matrice de même type que W ;

Effectuer les opérations suivantes :


 C1  R45a(I,J,W,Tm);
 Ws  Symétrique de W ;
 C2  R45b(I,J,Ws,Tm);
 R45  C1 + C2 ;
Fin du Sous-Programme.

Figure 6.12. Algorithme de calcul de la matrice des longueurs de plages dans la direction 45°

dans une fenêtre centrée autour d’un pixel de l’image originale (tous les éléments

de la fenêtre sont pris en compte).


101

Sous-Programme Rot45
Variables d’entrée :
W1 : Masque centré autour d’un pixel de l’image (W1 est
Une matrice de taille Tm par Tm) ;

Variable de sortie :
W2 : Masque de même type que W ;

Variables locales :
x, y : Entiers ;

Début
Pour y variant (dans le sens décroissant) de Tm-1 à 0 Faire
Pour x variant de 0 à Tm-1 Faire
W2[Tm-1-y , x]  W1[x , y];
Fin du Sous-Programme.

Figure 6.13. Algorithme de rotation des éléments d’une matrice (masque) d’un angle de 45°.
102

Sous-Programme R135
Variables d’entrée :
W : Masque centré autour d’un pixel de l’image (W est
Une matrice de taille Tm par Tm) ;
I, J : Entiers ;

Variable de sortie :
R135 : Nombre de plages (dans la direction 135°) de niveau de
gris I et de longueur J dans la fenêtre W de taille Tm x Tm

Variables locales :
C1 : Entier ;
W2 : Masque de même type que W ;

Effectuer les opérations suivantes :


 W2  Rot45(W1);
 C1  R45(I,J,W2,Tm);
 R135  C1 ;
Fin du Sous-Programme.

Figure 6.14. Algorithme de calcul de la matrice des longueurs de plages dans la direction

135° dans une fenêtre centrée autour d’un pixel de l’image originale.
103

Sous-Programme R90
Variables d’entrée :
W : Masque centré autour d’un pixel de l’image (W est
Une matrice de taille Tm par Tm) ;
I, J : Entiers ;
Variable de sortie :
R90 : Nombre de plages (dans la direction 90°) de niveau de
gris I et de longueur J dans la fenêtre W de taille Tm x Tm
Variable locale : W1 : Masque de même type que W ;

Effectuer les opérations suivantes :

 W1  Transposée de W;
 R90  R0(I,J,W1,Tm);
Fin du Sous-Programme.

Figure 6.15. Algorithme de calcul de la matrice des longueurs de plages dans la direction 90°

dans une fenêtre centrée autour d’un pixel de l’image originale.


104

Sous-Programme nR0
Variables d’entrée :
W : Masque centré autour d’un pixel de l’image (W est
Une matrice de taille Tm par Tm) ;
L : Entier (nombre maximal de niveaux de gris de l’image);

Variable de sortie :
nR0 : Nombre total de plages (dans la direction 0°) dans la fenêtre
W de taille Tm x Tm (nR0 est une variable entière).

Variables locales :
Som, i, j : Entiers ;

Début
Som  0 ;
Pour i variant de 0 à L-1 Faire
Pour j variant de 1 à Tm-1 Faire Som  Som + R0(i, j, W, Tm) ;
nR0  Som ;
Fin du Sous-Programme.

Figure 6.16. Algorithme de calcul du nombre total de plages dans une fenêtre

Centrée autour d’un pixel de l’image originale, dans la direction 0°.


105

Sous-Programme nR45
Variables d’entrée :
W : Masque centré autour d’un pixel de l’image (W est
Une matrice de taille Tm par Tm) ;
L : Entier (nombre maximal de niveaux de gris de l’image);

Variable de sortie :
NR45 : Nombre total de plages (dans la direction 45°) dans la
fenêtre W de taille Tm x Tm (nR45 est une variable entière).

Variables locales :
Som, i, j : Entiers ;

Début
Som  0 ;
Pour i variant de 0 à L-1 Faire
Pour j variant de 1 à Tm-1 Faire Som  Som + R45(i, j, W, Tm) ;
nR45  Som ;
Fin du Sous-Programme.

Figure 6.17. Algorithme de calcul du nombre total de plages dans une fenêtre

Centrée autour d’un pixel de l’image originale, dans la direction 45°.


106

Sous-Programme nR90
Variables d’entrée :
W : Masque centré autour d’un pixel de l’image (W est
Une matrice de taille Tm par Tm) ;
L : Entier (nombre maximal de niveaux de gris de l’image);

Variable de sortie :
NR90 : Nombre total de plages (dans la direction 90°) dans la
fenêtre W de taille Tm x Tm (nR90 est une variable entière).

Variables locales :
Som, i, j : Entiers ;

Début
Som  0 ;
Pour i variant de 0 à L-1 Faire
Pour j variant de 1 à Tm-1 Faire Som  Som + R90(i, j, W, Tm) ;
NR90  Som ;
Fin du Sous-Programme.

Figure 6.18. Algorithme de calcul du nombre total de plages dans une fenêtre

Centrée autour d’un pixel de l’image originale, dans la direction 90°.


107

Sous-Programme nR135
Variables d’entrée :
W : Masque centré autour d’un pixel de l’image (W est
Une matrice de taille Tm par Tm) ;
L : Entier (nombre maximal de niveaux de gris de l’image);

Variable de sortie :
nR135 : Nombre total de plages (dans la direction 45°) dans la
fenêtre W de taille Tm x Tm (nR135 est une variable entière).

Variables locales :
Som, i, j : Entiers ;

Début
Som  0 ;
Pour i variant de 0 à L-1 Faire
Pour j variant de 1 à Tm-1 Faire Som  Som + R135(i, j, W, Tm) ;
nR135  Som ;
Fin du Sous-Programme.

Figure 6.19. Algorithme de calcul du nombre total de plages dans une fenêtre

Centrée autour d’un pixel de l’image originale, dans la direction 135°.

Il importe de mentionner que tous les algorithmes présentés ne fonctionnent qu’avec un

masque de taille carrée et impaire. Une fois que la matrice des longueurs de plages est

calculée, il est devient aisé de calculer les différents paramètres de texture. Nous allons

présenter un exemple d’algorithme pour l’obtention d’une image de texture, avec le paramètre

appelé poids des petites plages de faible niveau de gris. L’expression permettant de calculer

ce paramètre est rappelée ci-dessous (équation 6.16).

1 M N r ( i, j)
SRLGE    2 2 (6.16)
nr i 1 j1 i j
108

Algorithme d’obtention d’une image de texture avec le paramètre «poids des petites

plages de faible niveau de gris» («Short Run Low Gray level Emphasis» en Anglais)

1. Reéchantillonner les niveaux de gris de l’image originale à la valeur maximale L

souhaitée : Pour chaque pixel en (x,y), Faire :

Ima[x,y]  ENT((Ima[x,y]*L) / Max{Ima[x,y]}), Max{Ima[x,y]} étant le niveau de

gris maximal de l’image original.

2. Créer un tableau bidimensionnel de réels, ayant les mêmes dimensions que l’image

originale : imaf[].

3. Initialiser une variable réelle aSRLGEmax à zéro.

4. Pour chaque pixel (x,y) de l’image originale, effectuer les opérations 5 à 9.

5. Centrer un masque W de taille Tm par Tm en (x,y). Le masque W contiendra le niveau de

gris du pixel en (x,y) et celui de ses voisins.

6. Calculer la matrice des longueurs de plages associée à W, selon la direction choisie.

7. Initialiser une variable réelle aSRLGE à zéro.

8. Pour i variant de 0 à L-1 Faire

Pour j variant de 1 à Tm-1 Faire

aSRLGE  aSRLGE + (RØ(i, j, W, Tm) / [(i + 1)²  (j + 1)²]) ;

// Ø représente la direction choisie (Ø = 0, 45, 90 ou 135).

9. Faire les opérations suivantes :

 aSRLGE  aSRLGE / nRØ(W,Tm,L);

 imaf[x,y]  aSRLGE ;

 SI (aSRLGE  aSRLGEmax) ALORS aSRLGEmax  aSRLGE ;

10. Pour tous les pixels (x,y) modifier les valeurs du tableau ima selon :
109

ima[x,y]  ENT((255* imaf[x,y]) / aSRLGEmax). Il s’agit ici d’une remise des

niveaux de gris de l’image résultat à l’échelle correspondant à une valeur maximale de

255.

ENT représente la fonction partie entière, et le tableau ima contient maintenant l’image de

texture.

Il est possible de considérer toutes les directions à la fois, soit en prenant la moyenne des

valeurs des matrices des longueurs de plages dans les différentes directions, soit en prenant le

maximum des directions. Toutes ces possibilités ont été implémentées dans le logiciel VOIR.

La Figure 6.20 présente des exemples d’images de texture obtenues par la méthode des

longueurs de plages. L’image traitée est une portion d’image ERS1 autour de la région de

Douala au Cameroun.
110

Figure 6.20. Exemples d’images de texture obtenues par la méthode des longueurs de plages.

De haut en bas, à droite : L’image originale (ERS1, 12.5 mètres de résolution), l’image du

poids des petites plages de faible niveau de gris, l’image du poids des petites plages de fort

niveau de gris, l’image du poids des longues plages de faible niveau de gris.

(source : logiciel VOIR)


111

6.4 Exercices

 Etant donné l’image numérique suivante :

Calculer les images de texture des paramètres Moyenne, Ecart-type et Dissymétrie de

l’histogramme du premier ordre.

 Programmer le calcul des images de texture avec les trois méthodes présentées dans ce

chapitre, dans un langage informatique de votre choix.


112

Chapitre 7. La classification des images

7.1 Introduction

Les données de télédétection peuvent être analysées pour extraire des informations

thématiques utiles. La classification multispectrale est l’une des méthodes les plus souvent

utilisées pour l’extraction de ces informations. Cette procédure suppose que les images d’une

région géographique donnée sont réparties dans différentes régions du spectre

électromagnétique. La classification multispectrale peut être effectuée en utilisant une variété

d’algorithmes comprenant :

1) les méthodes de classification statistique ou neuronale, supervisées ou non supervisées;

2) les méthodes de classification floue;

3) les systèmes experts ou les méthodes à base de connaissances;

4) les méthodes de classification hybrides combinant les méthodes précédentes ou utilisant

parfois des données auxiliaires.

Dans une classification supervisée, l’identité et la localisation de certains types de couverture

du sol (par exemple : sol nu, broussailles arbustives, forêt, cultures) sont connues à priori à

travers la combinaison des observations sur le terrain, de l’analyse de photographies aériennes

ou de cartes. L’analyste tente de localiser sur l’image des sites spécifiques représentant des

régions homogènes de ces types de couverture du sol connus. Ces régions homogènes sont

communément appelées des sites d’entraînement, car les caractéristiques spectrales ou

texturales de ces régions sont utilisées pour entraîner le classificateur que l’on utilisera pour

classifier le reste de l’image. Des paramètres statistiques multivariés (moyenne, écart-type,

matrices de covariance, matrices de corrélation, etc.) sont calculés pour chaque site

d’entraînement. Chaque pixel se trouvant à l’intérieur ou à l’extérieur des sites d’entraînement


113

est ensuite examiné et affecté à la classe avec laquelle il a la plus grande vraisemblance

d’appartenance. Ce processus de classification est souvent désigné classification binaire

(figure 7.1a) du fait qu’un pixel est affecté à une seule classe à la fois, même si le capteur

enregistre le flux de radiation provenant d’un mélange d’éléments biophysiques contenu dans

le champ de vue instantané (Instantaneous Field Of View ou IFOV) du pixel, par exemple :

10% de sol nu, 20% de broussailles arbustives et 70% de forêt.

Dans une classification non supervisée, l’identité des types de couverture du sol devant

constituer les classes d’information n’est pas généralement connue à priori. Cette situation

résulte souvent du manque d’informations de référence sur le terrain, ou de l’incertitude quant

à la définition des formes de surface à l’intérieur de la scène analysée. Un programme

informatique devrait donc permettre à l’ordinateur de créer des regroupements de pixels ayant

des caractéristiques spectrales semblables (Jahne, 1991). L’analyste procède ensuite à une

interprétation de ces regroupements pour produire des classes d’information (figure 7.1a).

La logique de classification floue, qui prend en compte la nature hétérogène et imprécise des

données géographiques, peut être utilisée en coopération avec des algorithmes de

classification supervisée ou non supervisée. L’IFOV d’un capteur enregistre normalement le

flux de radiation émis ou réfléchi par des mélanges hétérogènes d’éléments biophysiques tels

que le sol, l’eau et la végétation. Ainsi, les classes de couverture du sol changent

graduellement lorsqu’on parcourt la scène étudiée, sans avoir des frontières claires et précises.

Or, la plupart des algorithmes de classification utilisent la théorie booléenne des ensembles

pour produire des classes d’information homogènes, ignorant complètement l’imprécision

naturelle des données géographiques. Plutôt que d’affecter chaque pixel de l’image à une

seule des m classes d’entraînement, un algorithme de classification floue calcule m nombres

réels indiquant les degrés d’appartenance de chaque pixel aux différentes classes d’intérêt
114

(figure 7.1b). Cette information peut ensuite être utilisée par l’analyste pour extraire des

informations plus précises sur la couverture du sol, telle que la composition des pixels

hétérogènes (Foody, 1993).

Il est parfois nécessaire d’inclure des données auxiliaires non spectrales dans une

classification supervisée ou non supervisée et floue pour extraire les informations voulues. De

nombreuses méthodes existent, comprenant la stratification géographique, la classification

hiérarchique et les systèmes experts ou à base de connaissance.

Dans ce chapitre, les principales approches de classification d’images sont abordées au vu des

considérations qui doivent être prises en compte pour leur mise en œuvre effective, et en

tenant compte de la qualité des résultats attendus. Des illustrations pratiques seront présentées

chaque fois que cela sera nécessaire, pour rendre le texte beaucoup plus compréhensible.
115

Classification binaire en une étape Calcul des degrés d’appartenance flous


d’un pixel dans une classe et classification finale

1 1 Bandes de données
2 2 de télédétection
3 3 superposables
n n

Partition binaire de l’espace des caractéristiques Partition floue de l’espace des caractéristiques
et affectation de pixel dans l’une des m classes où chaque pixel à un degré d’appartenance
en utilisation une logique de classification aux m classes en utilisant une logique de
supervisée et/ou non supervisée classification supervisée et/ou non supervisée

1
2
3
m
Classification finale en m classes

Application d’une logique


additionnelle aux informations
de degrés d’appartenance pour
une classification comprenant
en m classes, si nécessaire
(a) (b)

Figure 7.1. Différence entre la classification binaire classique à une passe, utilisant une

logique de classification supervisée ou non supervisée, et la classification floue.


116

7.2 Elaboration d’un protocole de classification

Une bonne classification supervisée ou non supervisée des données de télédétection peut être

obtenue si les étapes générales résumées sur la figure 7.1 sont comprises et attentivement

suivies. L’analyste sélectionne d’abord une région d’intérêt appropriée sur laquelle les

hypothèses seront testées. Les classes d’intérêt devant être testées dans l’hypothèse vont dicter

la nature de la méthode de classification à utiliser. L’analyste sélectionne ensuite des images

de télédétection appropriées, en gardant à l’esprit les contraintes environnementales et celles

du système d’acquisition des données. Quand les données sont finalement disponibles, elles

sont habituellement corrigées radiométriquement ou géométriquement. Un algorithme de

classification approprié est ensuite choisi et les données d’entraînement initiales sont

collectées. Une réduction de paramètres est souvent effectuée dans le but d’extraire de

nouveaux paramètres (à partir des bandes de données originales) qui discriminent mieux les

classes en présence. Dans le cas d’une classification supervisée, les paramètres retenus à

l’étape précédente sont alors utilisés pour entraîner le système de classification. Des données

d’entraînement additionnelles sont ensuite collectées pour évaluer les performances du

classificateur. Si ses performances sont jugées acceptables, le classificateur est appliqué à

l’image entière pour produire une carte de classification. Une évaluation rigoureuse de

l’erreur de classification est ensuite effectuée. Si les résultats sont acceptables, les cartes de

classification et les statistiques associées sont communiquées aux utilisateurs. Dans les

paragraphes sui suivent, nous passons en revue toutes ces considérations. Les contributions

importantes concernent le développement de nombreux algorithmes de sélection des

paramètres, et l’utilisation de l’algorithme appelé Fuzzy c-Means pour générer les fonctions

d’appartenance des classes d’entraînement, dans une classification par maximum de

vraisemblance et dans une classification bayesienne floue.


117

7.2.1 Elaboration d’un système de classification

Les classes d’intérêt doivent être sélectionnées et définies tel que les données de télédétection

soient transformées avec succès en information de couverture ou d’utilisation du sol (Gong et

al., 1992). Ceci nécessite l’utilisation d’un système de classification contenant des définitions

correctes des classes d’information, lesquelles doivent être organisées selon des critères

logiques. Il est cependant nécessaire pour l’analyste de réaliser qu’il y a une différence

fondamentale entre les classes d’information qu’il recherche sur le terrain et les classes

spectrales observables sur les images (Jensen, 1983).

Les classes d'information sont les catégories d'intérêt pour les utilisateurs des données. Elles

sont, par exemple, les différents types d'unités géologiques, de forêt ou d'utilisation du sol qui

apportent de l'information aux planificateurs, gestionnaires, administrateurs et aux

scientifiques qui utilisent les informations dérivées des données de télédétection. Ces classes

constituent l'information que nous voulons extraire de ces données. Elles sont la finalité du

processus d'analyse. Malheureusement, ces classes ne sont pas directement observables sur les

images. On ne peut les extraire que de façon indirecte, en utilisant les informations contenues

dans les radiomètres associés aux différentes bandes de l'image. Par exemple, l'image ne peut

pas montrer directement des unités géologiques. Par contre, ce sont les différences de

topographie, de végétation, de couleur des sols, des ombres et d'autres facteurs qui peuvent

amener l'analyste à conclure que certaines unités géologiques sont présentes à des endroits

spécifiques.

Les classes spectrales sont des groupes de pixels ayant des caractéristiques spectrales

semblables et directement observables sur l’image. S'il est possible de définir des liens entre

les classes spectrales observables sur l'image et les classes d'information recherchées, alors

l'image constitue une bonne source d'information. Ainsi, la classification par télédétection
118

procède par une mise en correspondance entre les classes spectrales observables sur l’image et

les classes d'information recherchées sur le terrain. Si cette mise en correspondance peut être

effectuée de façon précise, alors la carte de classification résultante sera fiable. Si les classes

spectrales et les classes d'information ne correspondent pas assez, l'image ne constitue pas une

bonne source d'information pour cette forme particulière d'information. En pratique, on

s'attendra rarement à avoir une correspondance parfaite entre les classes spectrales et les

classes d'information. Chaque classe d'information comprend en effet des variations spectrales

dues aux variations naturelles intra classe. Par exemple, une région de la classe d'information

"forêt" reste forêt même si elle présente des variations en âge des arbres et en composition des

espèces. Cependant, ces variations conduisent à des différences dans l'apparence spectrale de

la classe d'information.

En conséquence, les classes d'information sont typiquement composées de groupes de pixels

spectralement distincts. En classification numérique, on doit souvent traiter les classes

spectrales comme des unités distinctes, mais on doit les afficher avec une même étiquette sur

la carte thématique finale.

7.2.2 Remarques générales sur les systèmes de classification

Les informations géographiques (y compris les données de télédétection) sont souvent

imprécises. Par exemple, il y a souvent une transition graduelle à la frontière entre la forêt et

les pâturages (où des pixels mixtes sont rencontrés) alors que la plupart des systèmes de

classification insistent sur des frontières précises entre les classes. Les systèmes de

classification devraient comprendre des définitions floues parce que l’information thématique

qu’ils contiennent est floue. Nous faisons souvent face à des systèmes rigides, basés sur une

connaissance à priori et difficile à utiliser. Néanmoins, ils sont largement utilisés parce qu’ils
119

ont une base scientifique solide. De plus, les personnes utilisant les mêmes systèmes de

classification peuvent comparer leurs résultats.

Finalement, il faut noter qu’il y a une forte corrélation entre le niveau de détail dans un

système de classification et la résolution spatiale des systèmes de télédétection utilisés. Ceci

suggère que le niveau de détail dans le système de classification désiré dicte la résolution

spatiale des données de télédétection qui seront utilisées. La résolution spectrale et les

longueurs d’onde utilisées sont aussi des considérations importantes. Toutefois, elles ne

constituent pas un paramètre aussi critique que la résolution spatiale, dans le cas de la

télédétection optique, étant donné que la plupart des capteurs (Landsat MSS ou SPOT HRV,

par exemple) enregistrent l’énergie approximativement dans les mêmes régions verte, rouge,

et proche infrarouge du spectre électromagnétique (excepté le capteur Landsat TM, qui

comprend des bandes bleu, infrarouge moyen et infrarouge thermique). Dans le cas de la

télédétection radar, la fréquence et la polarisation de l’onde radar utilisée déterminent la

nature des applications réalisables.

7.2.3 Sélection des sites d’entraînement et extraction des statistiques

Un analyste peut sélectionner sur l’image des sites d’entraînement représentatifs des classes

de couverture du sol d’intérêt, après l’adoption d’un système de classification. Les données

d’entraînement seront de qualité si l’environnement dans lequel elles sont obtenues est

relativement homogène. Par exemple, si tous les sols dans une prairie sont composés de sols

bien drainés et sablonneux, alors il est probable que les données d’entraînement collectées sur

cette région soient appréciables. Par contre, si les conditions du sol varient à travers la région

d’étude, les données d’entraînement collectées sur cette région auront une réponse spectrale

non homogène, et on sera confronté à un problème d’extension des signatures spectrales.


120

Une méthode permettant de remédier à cette situation consiste à utiliser la stratification

géographique durant les étapes préliminaires du projet. Dans ce cas, les facteurs

environnementaux permettant de résoudre le problème de l’extension des signatures seront

identifiés. Parmi ces facteurs on peut citer, par exemple :

1) les différences sur les types de sol;

2) la turbidité des eaux;

3) les espèces de cultures;

4) les conditions d’humidité du sol non habituelles, possiblement causées par une tempête

dont les précipitations ne sont pas émises de façon uniforme;

5) les plaques de diffusion des gaz atmosphériques, etc.

De telles conditions environnementales seront clairement annotées sur l’image, et la sélection

des sites d’entraînement sera effectuée sur la base de la stratification géographique de ces

données. Dans de tels cas, il peut être nécessaire d’entraîner le classificateur sur des distances

géographiques relativement faibles. Toutefois, si les conditions environnementales sont

homogènes ou peuvent être maintenues constantes, les signatures spectrales pourront être

étendues sur de vastes régions géographiques. Dans ce dernier cas, le coût de l’effort impliqué

dans l’apprentissage du classificateur est significativement réduit.

Une fois que les facteurs d’extension des signatures sont considérés, l’analyste sélectionne des

sites d’entraînement représentatifs pour chaque classe. Il collecte ensuite les statistiques

spectrales de chaque pixel contenu dans chaque site d’entraînement. La règle générale est que,

si les données d’entraînement sont collectées à partir de n bandes spectrales, alors au moins

10n pixels d’entraînement sont collectés pour chaque classe. Ceci est suffisant pour calculer

les matrices de covariance nécessaires pour certains algorithmes de classification. Si l’analyse

effectue l’entraînement avec n bandes spectrales, alors chaque pixel de chaque site

d’entraînement est représenté par un vecteur de mesures X c tel que :


121

 BVij1 
 
  
Xc    
 
  
 BV 
 ijn 

où BVijk est la valeur de luminance du pixel (i,j) dans la bande k. Les valeurs de luminance de

chaque pixel dans chaque bande sont ensuite analysées statistiquement pour produire un

vecteur de mesures moyen M c pour chaque classe :

  c1 
 
  
Mc    
 
  
 
  cn 

où  ck représente la valeur moyenne de la donnée obtenue pour la classe c dans la bande k.

Les vecteurs de mesure brutes peuvent aussi être analysés pour produire la matrice de

covariance pour chaque classe c :

 Cov cll    Cov cnl 


 
      
Vc        
 
      
 
 Cov cnl    Cov cnn 

où Covckl est la covariance de la classe c entre les bandes k et l.

7.2.4 Remarques sur la sélection des classes d’entraînement

La sélection manuelle des polygones d’entraînement sur l’image résulte parfois en une

collection des données d’entraînement dont l’histogramme de la classe d’entraînement a des

modes multiples. Ceci suggère que plus de deux catégories de couverture du sol différentes

sont présentes dans le site d’étude. Cette condition n’est pas bonne quand on cherche à
122

identifier des classes homogènes d’entraînement, ou lorsqu’on utilise des algorithmes de

classification basés sur un modèle de distribution unimodale des données. Par conséquent, il

est souvent pratique d’éliminer progressivement les données d’entraînement multimodales, et

de ne retenir que des parties spécifiques du polygone d’intérêt, jusqu’à ce que des

histogrammes unimodaux soient obtenus pour chaque classe.

Une auto corrélation spatiale positive existe entre des pixels contigus ou proches (Gong et al.,

1992). Ceci signifie que des pixels adjacents ont de fortes probabilités d’avoir des niveaux de

luminance semblables. Des données d’entraînement collectées à partir des données auto

corrélées tendent à subir une réduction de variance, dûe beaucoup plus à la manière avec

laquelle le capteur collecte les données plutôt qu’aux conditions effectives de terrain. La

solution idéale consisterait à collecter les données d’entraînement dans une région en utilisant

une technique d’échantillonnage. Le but est d’obtenir des données d’entraînement non

corrélées. Malheureusement, la plupart des systèmes de traitement d’images n’offrent pas

cette option dans les modules de collecte des données d’entraînement.

7.2.5 La réduction des paramètres

La représentation des données d’entrée d’un système de classification statistique ou neuronal

est importante et peut affecter significativement les performances du système considéré. Le

choix de la représentation des entrées est lié au processus général de la reconnaissance des

formes. Ce processus consiste à réduire le nombre de variables d’entrée qui affectent la

conception du classificateur. Ceci signifie que si les variables d’entrée présentent des

différences significatives d’une classe à l’autre, le classificateur peut être conçu plus

facilement et avec de meilleures performances. Par conséquent, la réduction des paramètres

est un problème clé en reconnaissance des formes. On distingue deux approches de réduction
123

des paramètres : l’extraction des paramètres (Fukunaga, 1990) et la sélection des paramètres

(Battiti, 1994; Abe et al., 1995).

L’extraction des paramètres est une procédure qui consiste à transformer l’espace des

caractéristiques original en un nouvel espace de dimension plus réduite. Elle peut impliquer

une transformation linéaire ou non linéaire. Si la transformation est linéaire, la fonction de

transformation peut être bien définie. La tâche consisterait alors à trouver les coefficients de la

fonction linéaire pour maximiser ou minimiser un critère. Si un critère approprié existe pour

évaluer l’efficacité des paramètres, on peut utiliser les techniques classiques de l’algèbre

linéaire. Par contre, si le critère est très compliqué pour produire une solution analytique, des

techniques itératives peuvent être appliquées. Dans plusieurs applications de la

reconnaissance des formes, on trouve des paramètres qui sont sont des fonctions non linéaires

des mesures originales. Dans ce cas, le problème de base consiste à trouver une

transformation non linéaire pour les données considérées. Comme il n’existe pas d’algorithme

général pour générer une transformation non linéaire, le processus d’extraction des paramètres

devient très spécifique à chaque problème (Fukunaga, 1990).

7.2.6 L’extraction des paramètres

L'extraction des paramètres est une opération qui consiste à trouver un ensemble de vecteurs

qui représentent une observation en réduisant sa dimensionalité. En reconnaissance de formes,

il est souhaitable d'extraire des paramètres qui se focalisent sur la discrimination des classes.

Bien qu'une réduction de dimensionalité soit désirable, l’erreur qu’elle induit ne doit pas

sacrifier le pouvoir de discrimination du classificateur. Le développement des méthodes

d'extraction des paramètres a été l'un des problèmes les plus importants dans le domaine de

l'analyse des formes. Les méthodes d'extraction de paramètres peuvent être supervisées ou

non supervisées, linéaires ou non linéaires.


124

Trois méthodes linéaires d’extraction des paramètres sont présentées dans les paragraphes qui

suivent. Il s’agit de l’analyse en composantes principales, de l’analyse discriminante et de

l'extraction des paramètres à partir des frontières de décision. Pour toutes ces méthodes, une

matrice des caractéristiques est définie. Les valeurs propres de la matrice et les vecteurs

propres correspondants sont calculés et classés par ordre de grandeur décroissante. La

dimension des données d’entrée correspond au nombre de vecteurs propres retenus. Les

données transformées sont déterminés par l’expression (7.1).

Y  T X (7.1)

Dans l’expression (7.1),  est la matrice de transformation composée des vecteurs propres de

la matrice des caractéristiques, X est le vecteur de données dans l'espace des caractéristiques

original et Y est le vecteur de données transformé dans le nouvel espace des caractéristiques.

7.2.6.1 L'analyse en composantes principales

Certains auteurs ont suggéré l’analyse en composantes principales (ACP) comme une

méthode d’extraction des paramètres pour les réseaux de neurones, mais il a été observé

empiriquement que cette méthode n’est pas optimale en termes de précision de classification.

Pour trouver la transformation nécessaire de X en Y de l’expression (7.1), la matrice de

covariance globale des données originales  x est estimée. Les valeurs propres et les vecteurs

de la matrice de covariance  x sont ensuite déterminés, selon l’expression (7.2).

 x   t (7.2)

Dans l’expression (7.2),  est une matrice diagonale dont les éléments diagonaux sont les

valeurs propres de  x classées par ordre de grandeur décroissante.  est une matrice

normalisée des vecteurs propres correspondants de  x . Avec ce choix de la transformation


125

matricielle de l’équation (7.1), on peut voir que la matrice de covariance des données

transformées est  y   .

Bien que la transformation en composantes principales soit optimale pour la représentation du

signal (elle produit la plus petite erreur quadratique moyenne pour un nombre de paramètres

données), les paramètres définis par cette transformation ne sont pas optimaux du point de vue

séparabilité des classes (Fukunaga, 1990). Dans la sélection des paramètres pour la

classification, ce n’est pas l’erreur quadratique moyenne qui doit être considérée comme le

critère fondamental de l’extraction des paramètres, mais plutôt la précision de la

classification.

7.2.6.2 L'analyse discriminante

La transformation en composantes principales est basée sur la matrice de covariance globale.

Par conséquent, elle est non sensible à la structure interne des classes individuelles. L'analyse

discriminante est une méthode qui cherche à améliorer la séparabilité des classes. Une matrice

de dispersion intraclasses W et une matrice de dispersion interclasses B sont définies

selon les expressions (7.3), (7.4) et (7.5).

 W   p w i  i (7.3)
i

 B   pw i Mi  M0  Mi  M0 
T
(7.4)
i

M 0   p w i M i (7.5)
i
126

Dans ces expressions, Mi est le vecteur moyen de la classe i, i est la matrice de covariance

de la classe i et p w i  est la probabilité à priori de la classe i. Le critère d'optimisation peut

être défini selon l’expression (7.6) (Fukunaga, 1990).

J  tr W
1
 B (7.6)

Dans l’expression (7.6), tr(.) désigne la trace de la matrice. Les nouveaux vecteurs de

paramètres sont choisis de manière à maximiser le critère d'optimisation. La transformation

nécessaire pour passer de X à Y dans l'expression (7.1) est obtenue en prenant la

décomposition caractéristique de la matrice  W1   B . Il faut également considérer la matrice


de transformation comme la matrice des vecteurs propres normalisés, correspondant aux

valeurs propres non nulles dans l'ordre décroissant. Cependant, les vecteurs de paramètres

choisis par l'analyse discriminante ne sont pas précis si les vecteurs moyens sont proches les

uns des autres, du fait que l'analyse discriminante utilise principalement les différences des

vecteurs moyens. En outre, si une classe a un vecteur moyen très différent des vecteurs

moyens des autres classes, cette classe sera dominante dans le calcul de la matrice de

dispersion interclasses, résultant ainsi en une extraction de paramètres non efficace. Comme

la matrice de covariance est utilisée comme critère d’optimisation, l'analyse discriminante

peut perdre des informations contenues dans les différences de covariance de classes. Aussi,

pour M classes, le rang maximal de B est M-1 comme B dépend de M0. Habituellement

W est de rang plein et par conséquent, le rang maximal de  W1   B est M-1. Ceci indique
qu'au maximum M-1 paramètres peuvent être extraits par cette approche. Un autre problème

est que le critère de l'expression (7.6) n'a généralement pas une relation directe avec la

probabilité d'erreur de classification.


127

7.2.6.3 L'extraction des paramètres à partir des frontières de décision

Les paramètres discriminants informatifs et les paramètres discriminants redondants peuvent

être extraits à partir de la frontière de décision elle-même. Les vecteurs de paramètres

discriminants informatifs ont une composante normale à la frontière de décision en au moins

un point de la frontière de décision. En outre, les paramètres discriminants redondants sont

orthogonaux à la frontière de décision en tout point. Une matrice de frontière de décision

(decision boundary feature matrix) est définie pour extraire les paramètres discriminants

informatifs et les paramètres discriminants redondants à partir de la frontière de décision.

Soit Ni le vecteur normal à la surface de la frontière de décision en un point de la frontière de

décision, pour un problème de classification de formes. Soit Ri une collection de points de la

frontière de décision ayant le même vecteur normal Ni. Alors la matrice de frontière de

décision est définie par l’expression (7.7).

 DBFM   N i N Ti WR i  (7.7)


i

W R i  
surface de R i
(7.8)
surface totale de la frontière de décision

On peut montrer que le rang de  DBFM est la plus petite dimension où on obtient la même

précision de classification que dans l'espace des caractéristiques initial. Aussi, les vecteurs

propres correspondant aux valeurs propres non nulles de  DBFM sont les vecteurs de

paramètres nécessaires pour atteindre la même précision que dans l'espace des caractéristiques

initial. Lee et Landgrebe (1993) ont utilisé une procédure non paramétrique pour calculer

numériquement la frontière de décision. A partir de la frontière de décision, des vecteurs

normaux, N(X), sont estimés en utilisant une approximation du gradient de Ni. Ensuite, la

matrice de frontière de décision effective est estimée en utilisant les vecteurs normaux (voir

expression (7.9)).
128

 EDBFM   N i N Ti (7.9)
i

Après cette dernière étape, la décomposition caractéristique de la matrice  EDBFM est

calculée, et les vecteurs propres normalisés correspondant aux valeurs propres non nulles sont

utilisés pour former la matrice de transformation de X en Y de l'expression (7.1).

Théoriquement, les vecteurs propres correspondant aux valeurs propres non nulles doivent

donner la même précision de classification que dans l'espace des caractéristiques initial.

Cependant, en pratique, très peu de valeurs propres de la matrice EDBFM sont effectivement

nulles. Il faut donc procéder à un seuillage pour ne retenir que les valeurs propres les plus

significatives.

7.2.7 La sélection des paramètres

Une des techniques les plus simples de réduction des paramètres consiste à sélectionner un

sous-ensemble de paramètres en écartant les autres. Cette approche peut être utile lorsqu'il

existe des paramètres qui apportent très peu d'informations utiles à la solution du problème,

ou s'il y a de très fortes corrélations entre des ensembles de paramètres tel qu’une même

information se retrouve dans plusieurs variables. Elle peut être appliquée non seulement aux

données de base, mais aussi à tout ensemble de paramètres candidats construits par d'autres

moyens (paramètres de texture, données de pente ou d'élévation, etc.).

Toute procédure de sélection des paramètres doit comporter les deux étapes suivantes :

1) Définir un critère de sélection par lequel il est possible de déterminer si un sous-ensemble

de paramètres est meilleur qu'un autre.

2) Trouver une procédure systématique pour faire la recherche à travers les différents sous-

ensembles de paramètres candidats.

En principe, le critère de sélection sera le même que celui qui sera utilisé pour évaluer le

système de classification final (par exemple le taux de bonne classification). La procédure de


129

recherche pourra aussi consister en une recherche exhaustive de tous les sous-ensembles de

paramètres possibles. Cette dernière approche est en général celle qui offre la garantie de

trouver le sous-ensemble optimal. Dans une application réelle cependant, on est souvent

obligé de considérer des critères de sélection simples, ainsi que des procédures de recherche

non exhaustives, dans le but de limiter la complexité de calcul du processus de recherche.

Nous commençons par l’examen des critères de sélection possibles.

7.2.8 Le critère de sélection

Le sous-ensemble de paramètres optimal qui sera sélectionné à partir d'un ensemble de

paramètres de base dépendra, entre autres, de la forme particulière du modèle mathématique

(méthodes statistiques, réseau de neurones, etc.) qui sera utilisé pour effectuer la

classification. Idéalement, le critère de sélection sera obtenu en entraînant le classificateur

avec toutes les combinaisons de paramètres possibles, et en évaluant chaque fois ses

performances avec un ensemble de données de vérification indépendant. La combinaison de

paramètres qui produira la meilleure classification sera retenue. Cette approche est cependant

trop pénible car le cycle d’apprentissage et de vérification devra être répété pour chaque

combinaison de paramètres, entraînant des temps de traitement très longs. Ceci concerne

particulièrement les réseaux de neurones, qui impliquent en général des procédures

d’optimisation non linéaires pour leur apprentissage. Il est donc convenable d'envisager des

approches de sélection de paramètres plus réalistes, basées sur des critères de sélection

simples.

Pour les problèmes de classification, il est avantageux d’utiliser un critère de sélection basé

sur l'erreur de classification. Ce critère est estimé par utilisation des techniques paramétriques

ou non paramétriques servant à déterminer la probabilité a postériori de chaque classe. En

pratique, le calcul direct de l’erreur de classification est souvent très complexe. On est donc
130

amené à recourir à des critères simples comme ceux basés sur la mesure de séparabilité des

classes. Un ensemble de paramètres produisant une bonne séparation spectrale des classes doit

constituer un bon ensemble de variables d'entrée pour le système de classification. Dans les

paragraphes qui suivent, nous présentons les mesures de séparabilité des classes qui sont

généralement utilisées en analyse des données de télédétection.

7.3 Erreur de classification et mesures de séparabilité

Pour introduire la notion d’erreur de classification ou erreur de Bayes, nous considérons le

problème de classification comme un problème de test d’hypothèse statistique. Le but de la

reconnaissance de formes est de déterminer à quelle catégorie appartient un échantillon. A

travers un processus d’observation ou de mesure, on obtient un ensemble de valeurs qui

constituent un vecteur d’observation attaché à chacun des échantillons que l’on veut classifier.

Le vecteur d’observation sert d’entrée à une règle de décision par laquelle on affecte

l'échantillon à une des classes considérées. Nous supposons que le vecteur d’observation est

un vecteur aléatoire dont la fonction de densité de probabilité conditionnelle dépend de sa

classe. Si la fonction de densité de probabilité de chaque classe est connue, alors le problème

de reconnaissance de formes devient un problème de test d’hypothèse statistique.

7.3.1 La règle de décision de Bayes d’erreur minimum

Soit X un vecteur d’observation. Supposons que notre objectif consiste à déterminer si X

appartient à l’une des classes w1 ,.........., w L . Une règle de décision basée sur les probabilités

est exprimée par l’équation (7.10).

q k  maxq i  X  X w k (7.10)


i

On peut aussi l’exprimer en utilisant le théorème de Bayes (équation (7.11)).

i
 
p w k p k  x  max p w k pi  X  X w k (7.11)
131

Selon la règle de décision (7.10), la probabilité conditionnelle d’erreur sachant X est obtenue

par la sommation exprimée par l’équation (7.12).

r X  q1  X    q k 1  X  q k 1  X    q L  X  1  q k  X (7.12)

L’erreur de Bayes est la valeur moyenne de r(X) sur l’ensemble des valeurs de X (voir

équation (7.13)).

r X  1  maxq i  X et   Er X (7.13)


i

7.3.2 Borne supérieure de l’erreur de classification

En général, le calcul de la probabilité d’erreur est une tâche difficile parce que les fonctions

de densité de probabilité des classes sont rarement connues. Et même lorsque ces fonctions

sont connues, on doit souvent recourir à des techniques numériques trop complexes.

Cependant, une expression simple de la probabilité d’erreur est la solution la plus souhaitable,

puisqu’elle réduit considérablement l’effort de calcul et qu’elle permet aisément de détecter

les sources d’erreur. Cette information est très importante quand on aborde le problème de la

sélection des paramètres. Quand on ne peut pas obtenir une expression simple de la

probabilité d’erreur, une approche alternative peut être envisagée. On peut par exemple

chercher une solution approchée ou une borne supérieure de la probabilité d’erreur. Dans les

paragraphes qui suivent, nous présentons certaines bornes supérieures de la probabilité

d’erreur, qui sont très utilisées en traitement d’images.

7.3.2.1 La borne de Chernoff

Dans un problème de classification à deux classes, l’erreur conditionnelle sachant X est

donnée par l’expression r X  minq c  X , q d  X . Dans ce cas, l’erreur totale ou erreur de

Bayes est obtenue par l’expression (7.14).


132


  Er X   min p w c pc  X , p w d pd  X dX  (7.14)

En considérant l’expression (7.15) pour a, b  0 , on déduit que  peut être bornée

supérieurement par la constante  u obtenue par l’équation (7.16).

mina, b  a s b1s 0 s1 (7.15)

  pw   pX w  pX w 


 u  p w c 
s 1 s s 1 s
d c d dX pour 0  s  1 (7.16)

Cette borne supérieure  u est appelée la borne supérieure de Chernoff. La valeur optimale de

s peut être obtenue en minimisant  u . Lorsque les deux classes suivent des distributions

normales N M c ,  c  et N M d ,  d  , l’intégration de (7.16) produit la valeur de la borne

supérieure  u exprimée par l’équation (7.17).

  pw 
 u  p w c   exp   s 
s 1 s
d (7.17)

avec

s1  s 1  s c  1  s  d 
 s 
2
 T

M c  M d  s c 1  s  d  1
 ln
2   s  1s

 (7.18)
c d 

c et d sont les classes,

Mc , Md , c et  d sont les vecteurs moyens et les matrices de


covariance des classes c et d,

A 1 est l’inverse de la matrice A,

A désigne le déterminant de la matrice A, et

A T désigne la transposée de la matrice A.

Cette expression de (s) est appelée Distance de Chernoff. Dans ce cas, la valeur optimale

de s peut être obtenue en calculant (s) pour différentes valeurs de s. La valeur optimale de s

est celle qui produit la valeur maximale de (s).


133

7.3.2.2 La borne de Bhattacharrya

Si on n'insiste pas sur une sélection optimale de s, on peut obtenir une borne supérieure plus

aisément. Une des possibilités consiste à prendre s  1 2 . Dans ce cas, la borne supérieure est

donnée par l’expression (7.19).

  1 
 u  p w c p w d   p c  X p d  X dX  p w c p w d   exp     (7.19)
  2

En général, et pour les distributions normales, on utilise l’expression (7.20).

1 
 1 1 T    d 
1
1 2 c d 
    M c  M d   c  M c  M d   2 ln  (7.20)
 2 8  2   c d 
 

 1
La quantité Bcd    est appelée Distance de Bhattacharyya et elle constitue une mesure
 2

de la séparabilité entre deux distributions. Quand plusieurs distributions (classes) sont

impliquées, une mesure de séparabilité moyenne de l’ensemble des classes peut être définie

par l’expression (7.21).

m1 m
  p w p w d Bcd
2
Bmoy  (7.21)
m m  1 c1 d c1 c

Dans l’expression (7.21), m est le nombre total de classes impliquées. p w c  et p w d  sont

les probabilités à priori des classes c et d, respectivement.

Comme le montre l’expression (7.20), la distance de Bhattacharyya comprend deux termes.

Ces deux termes s’annulent lorsque Mc  Md et  c   d respectivement. Par

conséquent, le premier terme exprime la séparabilité des classes dûe à la différence des

moyennes, tandis que le second terme exprime la séparabilité des classes dûe à la différence

des covariances. Il est intéressant de connaître lequel de ces deux termes est dominant, car il
134

détermine le type de classificateur qui doit être utilisé pour les distributions considérées. Une

transformation saturante appliquée à la distance de Bhattacharyya produit la distance de

Jeffreys-Matusita (souvent désignée par Distance JM) (voir équation (7.22)).

JM cd  21  e  Bcd  (7.22)

A partir de l’expression (7.22) on voit que JM cd varie entre 0 et 2 , en tendant vers sa limite

supérieure lorsque la distance de Bhattacharrya tend vers l’infini. Lorsque plusieurs classes

sont présentes, une distance de Jeffreys-Matusita moyenne peut être définie par l’expression

(7.23).

m1 m
  pw p w d JMcd
2
JM moy  (7.23)
m m  1 c1 d c1 c

7.3.2.3 Relation entre la distance JM et la probabilité d’erreur

On peut démontrer que la probabilité de commettre une erreur de classification dans un

problème à deux classes c et d, de probabilités à priori égales et de distance de Jeffreys-

Matusita JM cd est bornée par les termes apparaissant dans l’expression (7.24).

1
16

2  JM cd  
2 2
 PC 
1
4
 
2  JM cd  2
(7.24)

Par conséquent, le taux de classification correcte est compris entre les termes apparaissant

dans l’expression (7.25).

1
1
4

2  JM cd    P
2
E  1
1
16
 
2  JM cd 
2 2
(7.25)

A partir de l’expression (7.25), on peut considérer qu’un degré de séparabilité satisfaisant est

obtenu lorsque JM cd est supérieure à 1.25, correspondant à une probabilité d’erreur de 10%.

Lorsque JM cd est supérieure à 1.275, l’erreur sera inférieure à 5%. La mesure de la


135

séparabilité des classes est utile pour l’évaluation préliminaire des paramètres utilisés dans le

processus de classification.

7.3.3 Divergence et divergence transformée

La divergence est une autre mesure de séparabilité des classes. Elle est semblable à la distance

de Bhattacharyya. Plusieurs propriétés de la divergence peuvent être discutées en des termes

semblables à ceux utilisés pour la distance de Bhattacharyya. En reconnaissance de formes, la

variable clé est le rapport de vraisemblance ou le rapport de vraisemblance logarithmique

négatif de deux fonctions de densité. Par conséquent, si on évalue les fonctions de densité du

rapport de vraisemblance pour deux classes w1 et w2, ceci équivaudrait à peu près à évaluer

l'erreur de Bayes. Malheureusement, ceci n'est pas une tâche facile. La version la plus simple

de ce type d'approche peut consister à utiliser les valeurs attendues des rapports de

vraisemblance logarithmique négatif, et à évaluer la séparabilité des classes par la différence

des valeurs attendues pour les deux classes w1 et w2. Ainsi, la divergence se définit par

l’expression (7.26).

  P  X    P  X 
D  E  ln c w d    E  ln d wc   (7.26)
  Pd  X    Pc  X 

Puisqu’on considère uniquement les valeurs moyennes dans la divergence, il est difficile de

trouver une relation simple entre la divergence et l'erreur de Bayes. Quand les deux

distributions suivent des lois normales N M1 ,  1  et N M 2 ,  2  , la définition de la

divergence prend la forme exprimée par l’équation (7.27).

D
1
2
tr  1
c   d1  M c  M d  M c  M d 
T
  21 tr 1
c  d   d1  c  2I (7.27)

Dans cette expression (7.27), tr(A) désigne la trace de la matrice A.


136

Quand plusieurs distributions (classes) sont présentes, une mesure de séparabilité moyenne de

l’ensemble des classes peut être définie par l’expression (7.28).

m1 m
  p w p w d Dcd
2
D moy  (7.28)
m m  1 c1 d c 1 c

Dans l’expression (7.28), m est le nombre total de distributions (classes) impliquées, p w c  et

p w d  sont les probabilités à priori des classes c et d.

La forme de l’expression (7.27) est semblable à celle de la distance de Bhattacharyya. Le

premier et le second termes expriment respectivement la séparabilité des classes dûe à la

différence des moyennes et la séparabilité des classes dûe à la différence des covariances.

L'avantage de la divergence est que le premier et le second termes sont exprimés par la trace

d'une matrice alors que la distance de Bhattacharyya est une combinaison de traces (de

matrice) et de déterminants. Ainsi, il est souvent plus facile d'utiliser la divergence pour des

discussions théoriques. Toutefois, son faible lien avec l'erreur de Bayes limite les applications

pratiques de la divergence.

Une modification utile de la divergence devient apparente en notant la similitude entre la

divergence et le paramètre  de la distance JM. Puisque ces deux grandeurs contiennent des

termes qui sont des fonctions de la covariance seule, il est possible d'utiliser une mesure de

divergence transformée ayant la forme exprimée par l’équation (7.29).

   Dcd  
DTcd  20001  exp 
 8  
(7.29)

Cette mesure a un comportement saturant comme la distance JM. Elle décroît de façon

exponentielle lorsque la divergence entre les classes augmente. Elle permet en outre de

calibrer les valeurs de la divergence transformée entre 0 et 2000. Une divergence transformée
137

de 2000 signifie une séparation parfaite des classes. Des valeurs supérieures à 1900 traduisent

une bonne séparation des classes, tandis que les valeurs inférieures à 1700 expriment une

faible séparation des classes.

7.3.4 Relation entre la divergence transformée et la probabilité d’erreur

On peut démontrer que la probabilité de commettre une erreur de classification dans un

problème à deux classes c et d, de probabilités à priori égales et de divergence Dcd , est bornée

par la grandeur exprimée par l’équation (7.30).

1
PE  e  Dcd 2
(7.30)
8

Cela implique que la probabilité de classification correcte est bornée par le terme de droite de

l’expression (7.31).

1
PC  1  e  Dcd 2
(7.31)
8

Puisque la divergence entre les classes c et d est exprimée par la relation (7.32), la probabilité

de classification correcte est bornée par le terme de droite de l’expression (7.33).

 DT 
Dcd  8 ln1  cd  (7.32)
 2000 

4
1 DT 
PC  1  1  cd  (7.33)
2  2000 

Cette propriété a une grande importance dans l'établissement de la limite supérieure de la

précision de classification que l’on peut atteindre avec un ensemble donné de paramètres.

7.4 Les procédures de sélection des paramètres

Les algorithmes de sélection de paramètres abordent le problème de détermination de la

meilleure combinaison de q bandes parmi n bandes à utiliser dans un processus de


138

classification supervisée. Le nombre de combinaisons possibles de q bandes prises parmi n est

égal à la grandeur exprimée par l’équation (7.34).

 n n!
 
 q q ! n  q !
(7.34)

Donc, si on souhaite sélectionner 3 bandes de données parmi 6, en vue d’une classification

supervisée, on aura à évaluer 20 combinaisons de bandes. Si par contre on ne fixe pas à priori

le nombre de bandes à utiliser et qu’on s’intéresse simplement à la combinaison de bandes qui

produit le degré de séparabilité le plus élevé, on est obligé d’évaluer toutes les combinaisons

possibles de bandes, soit 2 n combinaisons! Ce nombre devient exagérément grand, même

pour des petites valeurs de n. Il est donc très coûteux, même avec l’aide d’un ordinateur, de

procéder à une évaluation exhaustive de toutes ces combinaisons. Dans les paragraphes qui

suivent, nous décrivons un certain nombre d’algorithmes permettant de sélectionner à

moindre coût la meilleure combinaison de bandes pour une application donnée.

7.5 Les algorithmes de recherche séquentielle

Dans cette section, nous présentons deux techniques de recherche par étapes, qui évitent

l’énumération exhaustive. Malgré le fait que ces deux procédures soient simples, elles ne

garantissent pas toujours la sélection de la meilleure combinaison de bandes.

7.5.1 La sélection séquentielle progressive

Cette technique est illustrée à la figure 7.2. La procédure commence par considérer

individuellement chacune des variables, en sélectionnant celle qui produit la plus grande

valeur du critère de sélection. A chaque étape de l'algorithme, un nouveau paramètre est

ajouté à l'ensemble. Ce nouveau paramètre est choisi parmi les paramètres candidats à l’étape
139

courante. C’est le paramètre qui produit la plus grande augmentation du critère de sélection

qui est choisi.

Figure 7.2. Sélection séquentielle progressive illustrée pour un ensemble de quatre

paramètres d'entrée notés 1, 2, 3 et 4. Le seul meilleur paramètre est choisi le premier, ensuite

les paramètres sont ajoutés un à la fois tel qu'à chaque étape la variable retenue est celle qui

produit la plus grande augmentation du critère de sélection.

La forme générale d’un algorithme de sélection progressive de paramètres peut être présentée

de la manière suivante. Soit C un problème de classification et F un ensemble de paramètres

utilisé pour résoudre C. On définit par OAC; S une mesure de la précision de classification

produite par un sous-ensemble S de F. Deux approches de sélection des paramètres peuvent

être envisagées. Dans la première approche, il s’agit de trouver la combinaison qui produit la

meilleure valeur du critère de sélection parmi toutes les combinaisons possibles de k

paramètres (k fixé) (figure 7.3). Dans la deuxième approche, que l’on peut considérer globale,

l’algorithme est utilisé pour déterminer la combinaison qui produit la plus grande valeur du
140

critère de sélection parmi toutes les combinaisons possibles (figure 7.4). Il est possible que la

combinaison retenue soit égale à l’ensemble entier des paramètres.

Dans les algorithmes des figures 7.3 et 7.4, F représente l’ensemble des n paramètres

originaux, F m l’ensemble des m paramètres déjà retenus et Fim1 l’ensemble de m+1

paramètres obtenus par addition temporaire du paramètre fim de F  Fm ; c’est-à-dire

Fim1  Fm  fim  , où fim est le i-ème élément de F  Fm . Fjm1 est le sous-ensemble tel que :

  
OA C; Fjm1  max OAC; Fim1  .
i

141

DEBUT
Fixer la valeur de k (le nombre de paramètres à retenir)

Faire F «ensemble initial des n paramètres»; F0  


(donc m = 0).

Calculer OAC; Fim1  pour i = 1,…,Card(F)

Trouver la combinaison Fjm1 telle que :

  
OA C; Fjm1  max OAC; Fim1 
i

 
Faire F  F  f jm1

Faire Fm  Fjm1 ( f jm est le premier élément de F m )

Faire m = m +1 ;
TANT QUE Card Fm   k FAIRE

DEBUT

Calculer OAC; Fim1  pour i = 1,…,Card(F)

Trouver la combinaison Fjm1 telle que :

  
OA C; Fjm1  max OAC; Fim1 
i

Faire Fm  Fjm1 ( f jm est définitivement ajouté dans

Fm )
Faire m = m + 1
FIN TANTQUE
Sortir l’ensemble F m contenant les k paramètres retenus.
FIN.

Figure 7.3. Algorithme de sélection des paramètres par élimination séquentielle progressive
(première approche).
142

DEBUT

Faire F «ensemble initial des n paramètres»; F0    (donc


m = 0). Fixer un taux de bonne classification cible TOL (par défaut
TOL = 95%);

Calculer OAC; Fim1  pour i = 1,….,Card(F)

Trouver la combinaison Fjm1 telle que :

  
OA C; Fjm1  max OAC; Fim1  ;
i

 
Faire F  F  f jm1

Faire Fm  Fjm1 ( f jm est le premier élément de F m )

Faire m = m +1 ;


TANT QUE OA C; Fm  TOL ET F     FAIRE
DEBUT

Calculer OAC; Fim1  pour pour i = 1,…,Card(F)

Trouver la combinaison Fjm1 telle que :

  
OA C; Fjm1  max OAC; Fim1  ;
i

Faire Fm  Fjm1 ( f jm est définitivement ajouté dans

Fm )
Faire m = m + 1
FIN TANTQUE
Sortir l’ensemble F m contenant les k paramètres retenus.
FIN.

Figure 7.4. Algorithme de sélection des paramètres par élimination séquentielle progressive
(deuxième approche).
143

Une difficulté évidente de l’approche par élimination séquentielle progressive est que, si on a

deux paramètres tel que chacun d’eux pris seul produit une faible discrimination, mais les

deux paramètres pris ensemble produisent une forte discrimination (voir figure 7.5), la

procédure de sélection progressive ne pourra jamais trouver cette combinaison, puisque

chacun des paramètres seul ne sera jamais retenu.

Figure 7.5. Exemple de données de deux classes (représentés par des cercles noirs et blancs)

décrites par deux variables. Si les données sont décrites par une seule des deux variables, on

aura une très grande confusion entre les deux classes. Par contre, si les deux variables sont

utilisées ensemble, les deux classes seront parfaitement séparées.

7.5.2 Les algorithmes d’élimination séquentielle régressive

Une approche alternative consiste à commencer avec l'ensemble complet des n paramètres et

d'éliminer progressivement un paramètre à la fois. Ceci produit la procédure de sélection

séquentielle régressive illustrée à la figure 7.6.


144

Figure 7.6. Elimination séquentielle régressive des paramètres, illustrée une fois de plus dans

le cas de quatre paramètres. En commençant avec l’ensemble complet, les paramètres sont

éliminés un à la fois tel qu’à chaque étape, le paramètre retenu pour être éliminé est celui qui

correspond à la plus petite diminution de la valeur du critère de sélection.

A chaque étape de l’algorithme, un paramètre est retiré de l’ensemble. Le paramètre à

éliminer est choisi parmi tous les candidats possibles comme celui qui procure la plus petite

diminution du critère de sélection. Cette procédure contourne le problème de la méthode de

sélection progressive mentionné précédemment, mais elle ne permet pas toujours de trouver la

combinaison optimale. Toutefois, la procédure de sélection régressive nécessite un grand

nombre d’évaluations, parce qu’elle considère des nombres de paramètres supérieurs au

nombre de paramètres à retenir, alors que la procédure de sélection progressive considère des

nombres de paramètres inférieurs au nombre de paramètres à retenir.

La forme générale d’un algorithme de sélection régressive des paramètres peut être présentée

de la manière suivante. Soit C un problème de classification et F un ensemble de paramètres


145

utilisés pour résoudre C. On définit par OAC; S une mesure de la précision de classification

produite par un sous-ensemble S de F. Deux approches de sélection des paramètres peuvent

être envisagées. Dans la première approche, il s’agit de trouver parmi toutes les combinaisons

possibles de k paramètres (k fixé) celle qui produit la meilleure valeur du critère de sélection

(figure 7.7). Dans la deuxième approche, que l’on peut considérer globale, l’algorithme est

utilisé pour déterminer la combinaison qui produit la plus petite diminution du critère de

sélection parmi toutes les combinaisons possibles (figure 7.8).

Dans les algorithmes des figures 7.7 et 7.8, F représente l’ensemble des n paramètres

originaux, F m l’ensemble des m paramètres restants et Fim1 l’ensemble de m-1 paramètres

obtenus par élimination temporaire de fim dans F m ; c’est-à-dire Fim1  Fim  fim  , où fim est

le i-ème élément de Fm . Fjm1 est le sous-ensemble tel que :

  
OA C; Fjm1  max OAC; Fim1  .
i

146

DEBUT
Faire Fm  F (donc m = N)
Fixer la valeur de k (le nombre de paramètres à retenir)
TANT QUE Card Fm   k FAIRE

DEBUT

Calculer OAC; Fim1  pour i = 1,….,m

Trouver la combinaison Fjm1 telle que :

  
OA C; Fjm1  max OAC; Fim1 
i

Faire Fm  Fjm1 ( f jm est définitivement retiré de F m )

Faire m = m – 1
FIN TANTQUE
Sortir l’ensemble F m contenant les k paramètres retenus.
FIN.

Figure 7.7. Algorithme de sélection des paramètres par élimination séquentielle régressive

(première approche).
147

DEBUT
Faire Fm  F (donc m = N)
Fixer un seuil de tolérance TOL (par défaut TOL = 2%)
TANT QUE OAC; F  OAC; Fm   TOL ET m > 1 FAIRE

DEBUT

Calculer OAC; Fim1  pour i = 1,….,m

Trouver la combinaison Fjm1 telle que :

  
OA C; Fjm1  max OAC; Fim1  ;
i

Faire Fm  Fjm1 ( f jm est définitivement retiré de F m )

Faire m = m – 1
FIN TANTQUE
Sortir l’ensemble F m contenant les k paramètres retenus.
FIN.

Figure 7.8. Algorithme de sélection des paramètres par élimination séquentielle régressive
(deuxième approche).

Les algorithmes de recherche séquentielle que nous venons de décrire peuvent être généralisés

de plusieurs manières, pour permettre à de petits sous-ensembles de paramètres qui sont

collectivement utiles d'être sélectionnés (Fukunaga, 1990). Par exemple, à la k-ième étape de

l'algorithme, on peut ajouter l paramètres en utilisant la procédure d’élimination séquentielle

progressive et écarter r paramètres en utilisant la procédure d'élimination séquentielle

régressive. Il y a plusieurs variantes de cette idée produisant une gamme d'algorithmes de

recherche applicables à de grands ensembles de paramètres, mais au prix d'une augmentation

du coût de calcul.
148

7.6 La procédure de ramification avec coupure

Si on utilise un critère de sélection monotone, c’est-à-dire un critère J tel que J X   J X ,

où X désigne un ensemble de paramètres et X  un ensemble de paramètres plus grand,

contenant X, alors il existe une procédure de sélection rapide connue sous le nom de

procédure de ramification avec coupure (branch and bound) (Fukunaga, 1990). Cette

méthode peut aussi être appliquée dans plusieurs autres domaines tel que la recherche des plus

proches voisins. Dans le contexte actuel, elle garantit de trouver la meilleure combinaison de

paramètres pour une taille donnée, sans nécessiter l’évaluation de toutes les combinaisons

possibles. Pour comprendre cette technique, nous commençons par examiner la procédure de

recherche exhaustive, que nous présentons comme une structure arborescente. Considérons un
~
ensemble original de d paramètres x i , i = 1,….,d et désignons les indices des M  d  d

paramètres qui doivent être éliminés par z1 ,, z k , où chaque z k peut prendre l’une des

valeurs 1,…,d. On notera toutefois que deux z k ne peuvent pas prendre la même valeur, car

cela consisterait à représenter deux fois le même paramètre. De même, l’ordre des z k n’est

pas important dans la définition du sous-ensemble de paramètres. Une condition suffisante

pour satisfaire ces contraintes est que les z k vérifient l’équation (7.35).

z1  z2  z3   z k (7.35)

Ceci nous permet de construire un arbre de recherche, comme le montre la figure 7.9 dans le

cas de cinq paramètres originaux, à partir desquels nous voulons sélectionner un sous-

ensemble de deux paramètres. Les paramètres sont étiquetés 1, 2, 3, 4, 5 et le numéro suivant

chaque nœud désigne le paramètre qui est éliminé au niveau de ce nœud. Le sous-ensemble

possible de deux paramètres choisis parmi les cinq paramètres originaux est représenté par un

des nœuds terminaux de l’arbre (figure 7.9). Au premier niveau au dessous de la racine de
149

l’arbre, la plus grande valeur de z k qui est considérée est 3, car aucune valeur plus grande ne

permettrait à la contrainte (7.35) d’être satisfaite. Des arguments semblables sont utilisés pour

construire le reste de l’arbre. Supposons maintenant que nous voulions maximiser un critère

J  d  et que la valeur de J correspondant au nœud montré en A est enregistrée comme un


~

seuil. Si à un point de la recherche un nœud intermédiaire est rencontré, comme celui montré

en B, pour lequel la valeur de J est plus petite que le seuil, alors on n’a pas besoin d’évaluer

un des sous-ensembles se trouvant au-dessous de ce nœud. En effet, le critère étant monotone,

de tels nœuds ont nécessairement des valeurs de critère inférieures au seuil. Ainsi, les nœuds

présentés en noir sur la figure 7.9 n’ont pas besoin d’être évalués. Si à une étape de la

recherche on rencontre un nœud terminal ayant une valeur de critère plus grande que la valeur

courante du seuil, cette valeur de critère devient le nouveau seuil. L’algorithme se termine

lorsque chaque nœud terminal a été évalué ou exclu en utilisant la relation de monotonie.

Figure 7.9. Un arbre de recherche pour la sélection des sous-ensembles de paramètres dans le

cas d'un ensemble de cinq paramètres, à partir duquel nous voulons trouver le sous-ensemble

optimal de deux variables. Si un critère de sélection strictement monotone est utilisé et qu’un
150

nœud comme B a une valeur de critère plus faible que certains noeuds terminaux comme A,

alors tous les nœuds au-dessous de B (indiqués en cercles pleins) peuvent être éliminés de la

recherche.

Remarquons que, contrairement à la recherche exhaustive appliquée à toutes les combinaisons


~
possibles de d variables, cette méthode nécessite l’évaluation de certains sous-ensembles
~
intermédiaires contenant plus de d variables. Toutefois, elle résulte en un gain de temps car

elle évite d’évaluer les sous-ensembles terminaux qui sont exclus en utilisant la propriété de

monotonie. L’algorithme de ramification avec coupure de base peut être modifié pour générer

un arbre dans lequel les nœuds ayant des valeurs plus petites du critère de sélection tendent à

avoir des nombres plus grands de branches successives (Fukunaga, 1990). Ceci peut résulter

en une amélioration de l’efficacité de calcul, puisque les nœuds ayant des valeurs plus petites

de critère sont plus probables d’être éliminés de l’arbre de recherche. Une implémentation de

cet algorithme est présentée sur la figure 7.10.


151

DEBUT
1) Initialisation : Faire    , le niveau i = 1 et z0  0 .
2) Générer les successeurs : Initialiser LIST(i) qui est la liste des

valeurs possibles de z i , étant donné la séquence  z1 ,, zi 1  ,


C'est-à-dire,

LIST i  zi 1  1, zi 1  2,, m  i i  1,, m .


3) Sélectionner le nouveau nœud : Si LIST(i) est vide, aller à (5).
Sinon faire zi  k , où

J l   z1 ,, zl 1 , k   max J j   z1 ,, zl 1 , j .


jLIST l 

Supprimer k de LIST(i).

(4) Vérifier la borne : Si J i  z1 ,, zi 1 , zi    , aller à (5). Si le


nouveau nœud est i  m , aller à (6), sinon faire i = i+1 et aller à
(2).
(5) Retour au niveau inférieur : Faire i  i 1 . Si i = 0, terminer
l'algorithme, sinon aller à (3).

(6) Dernier niveau : Faire   J m  z1 ,, z m  et prendre

~z ,, ~z   z ,, z  .


1 m 1 m

Aller à (5).
FIN.

Figure 7.10. Algorithme des ramifications avec coupure.

Le fonctionnement de l'algorithme est expliqué dans les lignes qui suivent. En commençant

par la racine de l'arbre, les successeurs du nœud courant sont énumérés dans LIST(i). Le

successeur pour lequel le critère partiel J i  z1 ,, zi  est maximal (le nœud le plus

prometteur) est pris comme le nouveau nœud courant et l'algorithme passe au niveau suivant.
152

Les listes LIST(i) à chaque nœud i gardent la trace des nœuds qui ont déjà été explorés.

Chaque fois qu'on rencontre un critère partiel inférieur à , l'algorithme remonte au niveau

précédent et sélectionne un nœud non encore exploré. Chaque fois que l'algorithme atteint le

dernier niveau m ,  prend la nouvelle valeur J m  z1 ,, z m  et la séquence courante

z ,, z 
1 m est enregistrée comme  ~z1 ,, ~zm  . Quand tous les nœuds contenus dans

LIST(i) pour un i donné sont explorés, l’algorithme revient au niveau supérieur.

7.7 Les algorithmes de classification supervisée

La classification supervisée est l’une des techniques de traitement d’images utilisées en

télédétection. Ce type de classification est utilisé pour convertir les données de télédétection

en une carte thématique et il comprend trois étapes en général. Il ya d’abord l’étape

d’entraînement au cours de laquelle des pixels de classe connue sont identifiés et caractérisés

pour former les statistiques d’entraînement servant à décrire les classes. Ces statistiques sont

ensuite utilisées à la seconde étape, l’étape d’allocation des classes, pour affecter chaque pixel

de l’image la classe avec laquelle il a la plus grande vraisemblance. Troisièmement, la qualité

de la classification est évaluée à l’étape de vérification. Le choix d’une méthode de

classification particulière ou d’une règle de décision dépend de la nature des données d’entrée

et de la classification désirée. Les algorithmes de classification paramétriques supposent que

les données des classes d’entraînement ont une distribution particulière, généralement

gaussienne. Les algorithmes de classification non paramétriques ne font aucune hypothèse sur

la distribution des données d’entraînement. Dans les paragraphes qui suivent, nous présentons

la logique de plusieurs approches de classification communément utilisées en télédétection.

Parmi les algorithmes de classification supervisée les plus utilisés nous pouvons citer :

1) la règle de décision des parallélépipèdes;

2) la règle de décision de la distance minimale;


153

3) la règle de décision des k plus proches voisins;

4) la règle du maximum de vraisemblance.

A toutes ces méthodes classiques nous devons ajouter les méthodes de classification basées

sur les réseaux de neurones artificiels, qui sont devenus depuis quelques années une

alternative importante des méthodes paramétriques conventionnelles.

Le choix d’un algorithme de classification approprié pour une application donnée repose sur

un certain nombre de critères se rapportant à la nature des données analysées d’une part, et

aux propriétés intrinsèques de l’algorithme d’autre part. Par exemple, les méthodes de

classification paramétriques ne peuvent pas être correctement appliquées lorsque l’hypothèse

de distribution normale des données n’est pas vérifiée. L’analyste doit donc disposer d’outils

mathématiques robustes pour tester la normalité des distributions des classes, avant de

procéder au choix d’un algorithme de classification. Différentes stratégies existent pour cela.

On peut par exemple utiliser des méthodes graphiques basées sur l’analyse des histogrammes

des données d’apprentissage, ou des méthodes statistiques plus élaborées. Lorsque ces

histogrammes des données d’apprentissage présentent la forme d’une courbe en cloche

(courbe normale), on peut raisonnablement admettre que les données de la classe

correspondante sont distribuées selon la loi normale. Malgré leur simplicité, ces méthodes ne

revêtent pas un caractère systématique, mais elles peuvent être utilisées comme base à des

méthodes statistiques plus élaborées. Ces méthodes statistiques reposent sur des tests

d’hypothèses statistiques concernant la distribution des données des classes d’entraînement.

7.7.1 La classification par la méthode du parallélépipède

Cette méthode est largement utilisée et elle est basée sur une logique booléenne. Des données

d’entraînement dans n bandes spectrales sont utilisées pour effectuer la classification. Pour
154

  c1 
 
  
chaque classe c on calcule le vecteur M c     où  ck représente le niveau de gris moyen
 
  
 
  cn 

des pixels de la classe c dans la bande k. sck est l’écart type des données d’entraînement de la

classe c dans la bande k. Si on utilise un seuil égal à sck par exemple, l’algorithme du

 BVij1 
 
  
parallélépipède affecte un pixel de vecteur de mesures X c     à la classe c, si et
 
  
 BV 
 ijn 

seulement si l’équation (7.36) est satisfaite.

 ck  sck  BVijk   ck  sck , k (7.36)

Dans l’expression (7.36), c = 1,…,m représente le nombre de classes, et k = 1,…,n représente

le nombre de bandes. Par conséquent, si les frontières de décision inférieure et supérieure sont

définies par Lck   ck  sck et H ck   ck  sck respectivement, la règle de décision du

parallélépipède devient celle qui est exprimée par la relation (7.37).

Lck  BVijk  H ck , k  BVij  w c (7.37)

Ces règles de décision forment un parallélépipède multidimensionnel dans l’espace des

caractéristiques. Si la valeur du pixel est comprise entre la borne inférieure et la borne

supérieure pour toutes les n bandes évaluées pour une classe donnée, il est affecté à cette

classe, et dans le cas contraire il est affecté à une catégorie non classifiée. L’algorithme du

parallélépipède est une méthode de classification simple et efficace. Cependant, puisque que

certains parallélépipèdes peuvent se chevaucher, il est possible qu’un pixel candidat inconnu

vérifie toutes les conditions pour plusieurs classes à la fois. Un tel pixel est habituellement
155

affecté à la première classe pour laquelle il vérifie tous les critères. Une solution plus

adéquate consiste à utiliser la règle de décision de la distance minimale aux moyennes, pour

affecter le pixel à une seule des classes candidates.

La figure 7.11 présente un exemple de classification d’une image SPOT multispectrale de la

ville de Yaoundé par la méthode du parallélépipède. Le traitement a été effectué par le

logiciel SAITEL (Système d’Analyse des Images de TELédétection) développé au LETS.

Figure 7.11. Exemple de classification d’une image SPOT de Yaoundé par la méthode du

parallélépipède (source : logiciel SAITEL).

7.7.2 La classification par la méthode de la distance minimale

Cette méthode est simple et communément utilisée. Quand elle est correctement utilisée, elle

peut produire des classifications comparables à celles produites par d’autres algorithmes plus

coûteux en calculs, comme l’algorithme du maximum de vraisemblance. A l’instar de

l’algorithme du parallélépipède, la méthode de la distance minimale nécessite que l’utilisateur


156

fournisse les vecteurs moyens M c de toutes les classes à partir des données d’apprentissage.

Pour effectuer une classification par distance minimale, un programme doit calculer la

distance (euclidienne, par exemple; voir équation (7.38)) par rapport à chaque vecteur moyen

 
M c , pour chaque pixel inconnu BVijk (Jahne, 1991).

  BVijk   ck 
n 2
Dcij  (7.38)
k 1

La règle de décision de la distance minimale aux moyennes s’exprime alors par la relation

(7.39).

Dcij  min D kij


k
   Xij  w c (7.39)

La figure 7.12 présente un exemple de classification d’une image SPOT multispectrale de la

ville de Yaoundé par la méthode de la distance minimale.

Figure 7.12. Exemple de classification d’une image SPOT de Yaoundé par la méthode de la

distance minimale (source : logiciel SAITEL).


157

7.7.3 La classification par la méthode des K plus proches voisins

Cette règle de décision est simple comme les précédentes et elle est communément utilisée

pour la classification des données de télédétection (Lee et al., 1990). Quand elle est

correctement utilisée, elle peut produire des résultats comparables à ceux d’autres algorithmes

classiques, comme l’algorithme du maximum de vraisemblance (Fukunaga, 1990).

L’algorithme de classification par la méthode des K plus proches voisins nécessite que

l’utilisateur fournisse les vecteurs de mesures X i pour tous les pixels d’entraînement. Pour

effectuer une classification par cette méthode, l’algorithme calcule la distance euclidienne

 
entre chaque pixel inconnu BVijk et chaque vecteur de référence X i , puis il détermine la

fréquence d’apparition fck des pixels de chaque classe c parmi les K plus proches voisins du

pixel considéré (Fukunaga, 1990).

La règle de décision des K plus proches voisins s’exprime alors par la relation (7.40).

fck  maxfck   BVij  w k (7.40)


c

L’application de cette règle de décision nécessite que la valeur de K soit définie. En pratique,

on choisit K  c n où c est une constante appropriée (typiquement c = 1), et n est le nombre

de données d’entraînement. Lorsque K = 1 cette règle de décision correspond à la règle de

classification de la distance minimale. Le principal inconvénient de cette règle de décision est

le long temps de calcul qu’elle implique (Lee et al., 1990).

7.7.4 La classification par maximum de vraisemblance

La règle de décision du maximum de vraisemblance affecte chaque pixel, de vecteur de

mesures X, à la classe c dont les unités sont plus probables de produire le vecteur de mesures

X. Elle suppose que les statistiques des données d’entraînement de chaque classe, dans chaque
158

bande, sont distribuées selon la loi normale. Par conséquent, les données d’entraînement

multimodales dans une bande ne sont pas appropriées. Dans ce cas, les modes individuels

représentent probablement des classes qui doivent être entraînées individuellement, et être

étiquetées comme des classes séparées. Une telle situation produira des statistiques de classes

d’entraînement unimodales, qui vont vérifier la condition de distribution normale. La

classification par maximum de vraisemblance utilise les statistiques des classes déjà calculées,

comprenant le vecteur moyen  c et la matrice de covariance Vc pour chaque classe c. La

règle de décision du maximum de vraisemblance affecte le vecteur X à la classe c, si et

seulement si la condition illustrée par l’ensemble d’équations (7.41) et (7.42) est satisfaite.

j

pc  X  max p j  X   X wc (7.41)

 1 
exp  X   c  Vc1  X   c 
1
p c  X 
T
(7.42)
 2   2 
n2 12
Vc

Dans les expressions (7.41) et (7.42), Vc représente le déterminant de la matrice de

covariance Vc . Par conséquent, pour placer un vecteur de mesures X d’un pixel inconnu dans

une classe, la règle de décision du maximum de vraisemblance calcule la valeur de pc  X

pour chaque classe. Puis, elle affecte le pixel à la classe qui présente la plus grande valeur.

L’équation (7.42) suppose que toutes les classes ont la même probabilité d’exister sur le

terrain. Or en pratique, il arrive souvent que certaines classes soient plus fréquentes que

d’autres sur le terrain. Il peut donc être utile d’inclure ces informations à priori dans le

processus de classification, en pondérant chaque classe c par sa probabilité à priori p w c  . La

règle de décision devient alors celle qui est exprimée par la relation (7.43).

j

pc  X p w c   max p j  X p w j    X wc (7.43)
159

Cette décision Bayesienne est identique à la règle de décision du maximum de vraisemblance,

excepté le fait qu’elle ne suppose pas que toutes les classes aient des probabilités égales d’être

rencontrées dans l’image. A l'exception de certains cas, les fonctions de densité de

probabilités normales ne sont jamais calculées. En effet, des fonctions discriminantes plus

simples, exprimées par les équations (7.44) et (7.45) sont utilisées.

   2
1
2
 
g i  X  ln p w j  ln Vi   X   i  Vi1  X   i 
1 T
(7.44)

Seule la forme quadratique en X est calculée, et il existe des méthodes efficaces pour le faire.

En outre, si on suppose que les classes ont la même probabilité à priori, on obtient encore une

forme plus simple des fonctions discriminantes (équation (7.45)).

g i  X 
1
2
 
ln Vi   X   i  Vi1  X   i 
1
2
T
(7.45)

Dans ce cas, un pixel de vecteur de mesures X sera affecté à la classe c si et seulement si la

condition exprimée par l’équation (7.46) est satisfaite.


g c  X  min g j  X
j
 (7.46)

Les probabilités à priori ont été utilisées avec succès comme un moyen d’incorporer les effets

de relief et d’autres caractéristiques de terrain, dans le but d’améliorer la précision de la

classification. La classification Bayesienne et celle du maximum de vraisemblance nécessitent

beaucoup plus de calculs que les méthodes du parallélépipède et de la distance minimale.

Cependant, elles ne produisent pas toujours les meilleurs résultats. La classification par

maximum de vraisemblance des données de télédétection implique des efforts de calcul

considérables, car elle gère une grande quantité d’informations sur les caractéristiques

d’appartenance aux classes, pour chaque pixel. Malheureusement, une faible partie de toutes

ces informations est disponible dans la sortie conventionnelle, qui indique simplement le

degré d’appartenance à la classe la plus probable pour un pixel donné. La probabilité à

postériori d’un pixel X d’appartenir à la classe c est exprimée par la relation (7.47).
160

p w c p X c
Lc X  (7.47)
 p w i pX i
m

i 1

Dans l’expression (7.47), pX c est la fonction de densité de probabilité pour un pixel X

d’être membre de la classe c, p w c  est la probabilité à priori d’appartenance à la classe c et

m est le nombre total de classes. L’information à postériori peut être utilisée pour évaluer le

degré de confiance à placer dans la classification de chaque pixel.

La figure 7.13 présente un exemple de classification d’une image SPOT multispectrale de la

ville de Yaoundé par la méthode du maximum de vraisemblance.

Figure 7.13. Exemple de classification d’une image SPOT de Yaoundé par la méthode du

maximum de vraisemblance (source : logiciel SAITEL).

7.8 Les algorithmes de classification non supervisée


161

Contrairement à la classification supervisée, la classification non supervisée nécessite

seulement une quantité minimale d’entrée initiales de la part de l'analyste. Avec cette

méthode, des opérations numériques sont effectuées pour déterminer les regroupements

naturels des propriétés spectrales des pixels, dans l’espace multispectral des caractéristiques.

Un programme informatique est utilisé pour calculer les statistiques des segments (moyennes

et matrices de covariances) qui seront utilisées dans la classification. Une fois que les données

sont classifiées, l’analyste tente d’affecter ces classes naturelles ou spectrales aux classes

d’information d’intérêt. Cette tâche peut être difficile. Certains segments peuvent être sans

signification, parce qu’ils représentent des mélanges de classes des éléments de la surface de

la terre. L’analyste devra bien comprendre les caractéristiques spectrales du terrain, pour

considérer certains segments comme représentant des classes d’information. Des centaines de

méthodes de segmentation ont été développées pour une grande variété d’applications, allant

de la reconnaissance de formes à la télédétection. Les algorithmes de segmentation utilisés

pour la classification non supervisée des données de télédétection varient généralement

suivant l’efficacité avec laquelle la segmentation s’effectue. Des critères d’efficacité

différents conduisent à des approches différentes.

7.8.1 La classification par la méthode des modes de l’histogramme

Un histogramme monodimensionnel d’une image est une représentation graphique ayant en

abscisses les valeurs de niveau de gris, et en ordonnées le nombre de pixels associé à chaque

valeur de niveau de gris. Le mode d’un histogramme est un maximum local de cet

histogramme, et une vallée est un minimum local. Le mode d’un histogramme indique un

regroupement de pixels et il sert à détecter des classes. L’algorithme de classification par

mode de l’histogramme monodimensionnel se résume par les étapes suivantes.

1) Construire l’histogramme de l’image (tableau H[ ]);


162

2) Détecter K maximums locaux du tableau H[ ], K étant le nombre de classes souhaité;

Les abscisses des K maximums locaux représentent les noyaux ou centres des différentes

classes à constituer.

3) Regrouper les pixels de l’image selon le critère de distance minimale par rapport aux

différents centres de classes. Chaque pixel est placé dans la classe dont le centre lui est le

plus proche.

4) Attribuer une même couleur aux pixels appartenant à la même classe et afficher l’image

résultat.

La figure 7.14 présente un exemple de classification par cette méthode. L’image traitée est

une image ESAR (programme américain Experimental airborn SAR) de la côte atlantique

camerounaise.
163

Figure 7.14 Image classifiée par la méthode des modes de l’histogramme

(source : logiciel VOIR)

On peut aussi réaliser une classification multibande en réalisant un histogramme

bidimensionnel. Dans ce cas, on compte le nombre de pixels associé à chaque paire de

niveaux de gris. Lorsque ceci est fait, on utilise le même algorithme que celui des modes de

l’histogramme monodimensionnel. La figure 7.15 présente un histogramme bidimensionnel

en vue d’une classification utilisant la méthode des modes de l’histogramme bidimensionnel.

La figure 7.16 présente le résultat de la classification. Les deux images (canaux) utilisées sont

des images de texture obtenues par la méthode des longueurs de plages, d’une sous-scène

ERS1 de la région de Douala au Cameroun. Il est à noter que, dans le logiciel VOIR,

l’algorithme bidimensionnel est représenté en une dimension. Un échantillonnage des niveaux

de gris à la valeur maximale de 99 est d’abord effectué, et ces niveaux de gris sont

représentés, par paires, sur un axe d’abscisses à une dimension.


164

Figure 7.15. Histogramme bidimensionnel en vue d’une classification bi-spectrale

(source : logiciel VOIR)

Figure 7.16. Résultat d’une classification par la méthode des modes

de l’histogramme bidimensionnel (source : Logiciel VOIR)


165

7.8.2 Classification non supervisée utilisant la méthode ISODATA

Une méthode de segmentation très utilisée est la méthode Iterative Self-Organizing Data

Analysis Technique (ISODATA) (Jahne, 1991). La méthode ISODATA représente un

ensemble compréhensible de procédures heuristiques qui ont été incorporées dans un

algorithme de classification itératif. La plupart des étapes incorporées dans l’algorithme sont

le résultat des expériences accumulées à travers des expérimentations. L’algorithme

ISODATA est auto-organisateur parce qu’il nécessite relativement très peu d’entrées de la

part de l’analyste. Un algorithme ISODATA sophistiqué requiert normalement la

spécification des critères suivants, de la part de l’analyste :

1) C max : le nombre maximum de segments à identifier par l’algorithme. Toutefois, il n’est

pas inhabituel que moins de C max segments soient trouvés dans la carte de classification

finale, après que des éclatements et des fusions aient eu lieu.

2) T : le pourcentage maximum de pixels dont les valeurs de classe sont autorisées à rester

inchangées entre des itérations successives. L’algorithme ISODATA se termine lorsque ce

nombre est atteint.

3) M : le nombre maximum de fois que l’algorithme ISODATA classifie les pixels et

recalcule les vecteurs moyens des segments. L’algorithme ISODATA se termine lorsque

ce nombre est atteint.

4) Le nombre minimum de membres (%) dans un segment. Si un segment contient moins de

membres que le minimum spécifié, il est supprimé et ses membres sont affectés à un autre

segment.

5) L’écart-type maximum. Lorsque l’écart type d’un segment dépasse le maximum spécifié,

et que le nombre de membres dans le segment est deux fois supérieur au minimum de

membres spécifiés dans une classe, le segment est éclaté en deux segments.
166

6) La distance minimum entre les segments. Des segments ayant une distance pondérée

inférieure à cette valeur sont fusionnés.

7.8.2.1 Allocation arbitraire initiale des segments

L’algorithme ISODATA est itératif parce qu’il effectue plusieurs passes à travers l’ensemble

de données, jusqu’à ce que les résultats spécifiés soient obtenus. Aussi, ISODATA ne localise

pas ses vecteurs moyens initiaux sur la base de l’analyse des pixels dans la première droite,

comme l’algorithme à deux passes. Au contraire, une affectation arbitraire de tous les Cmax

segments prend place le long d’un vecteur multidimensionnel, joignant deux points

spécifiques de l’espace. La région de l’espace des caractéristiques est définie en utilisant la

moyenne  k et l’écart type  k de chaque bande analysée.

7.8.2.2 Première itération de la méthode ISODATA

Avec les C max vecteurs moyens initiaux en place, une passe est effectuée à travers la base de

données image en commençant par le coin supérieur gauche de la matrice. Chaque pixel

candidat est comparé à chaque moyenne de segment, et il est affecté au segment dont le

vecteur moyen lui est le plus proche. Cette passe crée une carte de classification comprenant

C max classes.

7.8.2.3 Itérations ISODATA d’ordre supérieur

Après la première itération, le nouveau vecteur moyen de chaque segment est calculé sur la

base des localisations spectrales actuelles des pixels affectés à chaque segment. Ceci implique

l’analyse des paramètres suivants : le nombre minimum de membres dans un segment, l’écart

type maximum, et la distance minimum entre les moyennes des segments. Ensuite, le

processus complet est réitéré avec chaque pixel candidat, une fois de plus comparé aux
167

nouveaux vecteurs moyens de segments et affecté au segment le plus proche. Ce processus

itératif continue jusqu’à ce que l’on ait un petit changement dans l’affectation des classes

entre les itérations, ou que le nombre maximum d’itérations soit atteint. Le fichier final est

une matrice contenant au maximum C max segments qui doivent être étiquetés, et recodés pour

que l’ensemble devienne une information de couverture de sol utile.

La figure 7.17 présente un exemple de classification d’une image SPOT multispectrale de la

ville de Yaoundé par la méthode ISODATA.

Figure 7.17. Exemple de classification d’une image SPOT de Yaoundé par la méthode

ISODATA (source : logiciel SAITEL).

7.9 Autres méthodes de classification : la classification par réseaux de

neurones
168

Les réseaux de neurones ont été appliqués avec succès dans plusieurs domaines. Une

caractéristique des réseaux de neurones est qu’ils peuvent nécessiter de longs temps

d’entraînement, mais ils sont des classificateurs relativement rapides. Cependant, la principale

raison qui motive l’utilisation des méthodes neuronales pour la classification des données de

télédétection est que ces méthodes sont non paramétriques. Comme les données multisources

sont en général de types variés, les données provenant des diverses sources peuvent avoir des

distributions statistiques différentes. L’approche neuronale ne nécessite pas une modélisation

explicite des données de chaque source. En plus, il a été montré que les méthodes neuronales

peuvent approcher les probabilités conditionnelles des classes, à partir des données

d’entraînement au sens des moindres carrés. Par conséquent, on n’a pas besoin de traiter

individuellement les sources de données comme dans la plupart des méthodes statistiques.

L’approche neuronale évite aussi le problème qui consiste à spécifier l’influence que chaque

source de données aura dans la classification, contrairement à l’analyse statistique des

données multisources. En définitive, l’utilisation des réseaux de neurones comme outil de

traitement des données de télédétection est principalement motivée par les raisons suivantes :

1) Ils ont la capacité d’opérer avec une plus grande précision que les autres techniques, à

l’exemple des classificateurs statistiques, particulièrement lorsque l'espace des

caractéristiques est complexe, et que les sources de données ont des distributions

statistiques différentes.

2) Ils ont la capacité de traiter plus rapidement des grands ensembles de données, en

comparaison aux classificateurs statistiques.

3) Ils ont la capacité d’incorporer des connaissances à priori et des contraintes physiques

réelles dans le processus d'analyse.

4) Ils ont la capacité d’incorporer différents types de données (y compris des données de

différents capteurs) dans l'analyse, facilitant ainsi des études de synergie.


169

Au regard de ces nombreux atouts, il est clair que l'une des principales opportunités offertes

par les réseaux de neurones est la possibilité de traiter efficacement les grandes quantités de

données de télédétection qui sont actuellement disponibles. Le modèle de réseau de neurones

le plus communément utilisé pour la classification d'images en télédétection est le perceptron

multicouche, entraîné avec l'algorithme de rétro-propagation (Rumelhart, 1986). Un

perceptron multicouche, combinée à l’analyse texturale, a été utilisé par Akono et al. (1996)

pour la classification de la forêt des mangroves dans la côte littorale camerounaise. Ndi et al.

(1997) ont utilisé un perceptron multicouche, combiné à l’algorithme de classification floue

fuzzy c-means pour effectuer la classification de la forêt des mangroves dans la même région.

Ces travaux ont produit des classifications précises à plus de 95%. L'entrée nette d'une unité

dans un tel réseau est une somme pondérée des sorties des unités de la couche précédente

(équation (7.48)).

net j   w ji o i (7.48)
i

Cette somme pondérée est ensuite transformée par la fonction d'activation de l'unité

(habituellement une fonction sigmoïde) pour produire la sortie de l'unité (équations (7.49) et

(7.50)).

1
oj 
 
[tangente exponentielle] (7.49)
1  exp  2net j


o j  tanh net j  [tangente hyperbolique] (7.50)

Dans les expressions (7.49) et (7.50),  est une constante réelle déterminant la pente de la

fonction à l'origine. Les poids sont ajustés pendant l'apprentissage en utilisant la règle du delta

généralisée (équation (7.51)).

 
w ji  n  1    joi  w ji  n (7.51)
170

Dans l’expression (7.51), w ji  n 1 est la correction du poids de la connexion reliant les

nœuds i et j à la (n+1)ème itération.  j est le taux de changement d'erreur par rapport à la sortie

de l'unité j.  est le taux d'apprentissage et  est le terme d'inertie.

La figure 7.18 présente le choix de paramètres et la sélection de l’image vérité-terrain pour la

création et l’entraînement d’un perceptron multi-couches. Le résultat de la classification d’une

image ERS1 par ce perceptron est présenté sur la figure 7.19.

Figure 7.18. Choix de paramètres et sélection de l’image vérité-terrain pour la création et

l’entraînement d’un perceptron multi-couches (source : logiciel VOIR).


171

Figure 7.19 Résultat de la classification d’une image par un perceptron multi-couches.

L’image traitée est une image ESAR de la région de Douala au Cameroun

(512x512x8 bits, 6 m de résolution) (source : logiciel VOIR).

7.10 Evaluation de la précision d’une classification

L’évaluation de la précision d’une classification implique la comparaison de l’image

classifiée avec des données de terrain. Cette comparaison est habituellement basée sur une

matrice de confusion qui indique les agréments et les désagréments entre les ensembles de

données. Des mesures telles que le pourcentage de classification correcte et le coefficient

kappa peuvent être dérivées des éléments d’une matrice de confusion et utilisées pour

exprimer la précision d’une classification.


172

7.10.1 Données d’entraînement et données de vérification

L’expression de la précision d’une classification est un élément essentiel pour la classification

supervisée des images de télédétection. Typiquement la précision d’une classification est

évaluée en comparant la classe d’appartenance trouvée par la procédure de classification avec

la classe d’appartenance effective sur le terrain, pour toutes les données de vérification. Des

indices quantitatifs exprimant la précision peuvent alors être calculés à partir de la matrice de

confusion. Toutefois, la qualité de la classification n’est pas le seul facteur qui influence

l’expression de la précision. La nature des données de vérification peut avoir un effet

significatif sur l’expression de la précision de la classification. Les données de vérification

doivent être représentatives des classes d’entraînement, de même que les données

d’entraînement. Par conséquent, ces données doivent être collectées dans des sites de

vérification, différents des sites d’entraînement. Les échantillons de données doivent être

assez grands pour permettre une évaluation rigoureuse de la précision de la classification.

Il est souhaitable de collecter certaines données de vérification avant la classification,

probablement au moment de la collecte des données d’entraînement. Malheureusement, les

données de vérification sont en général collectées après la classification. Puisque les paysages

changent souvent très rapidement, il est souhaitable de collecter les données de vérification et

les données d’entraînement à des dates aussi proches que possible de la date d’acquisition des

images.

7.10.2 Taille des échantillons

Le nombre effectif de pixels devant être référencés sur le terrain et utilisés pour évaluer la

précision de la classification est souvent difficile à déterminer. Certains analystes utilisent des

équations basées sur la distribution binomiale, ou sur l’approximation normale d’une

distribution binomiale pour calculer la taille des échantillons requise. Ces techniques sont
173

statistiquement appropriées pour trouver la taille des échantillons nécessaire pour évaluer la

précision globale d’une classification. Les équations utilisées sont basées sur la proportion des

données d’entraînement correctement classifiées et sur l’erreur de classification permise. Par

exemple, la taille N des données utilisées pour évaluer la précision d’une classification peut

être déterminée à partir de l’expression (7.52).

Z2 p100  p
N (7.52)
E2

Dans l’expression (7.52), Z est l’écart normal au seuil de confiance de 95%. p est le

pourcentage de précision attendu et E est l’erreur permise dans l’estimation de la valeur de p.

Le choix de E est dans une certaine mesure arbitraire, mais on prend généralement E = 4%.

7.10.3 Méthodes d’échantillonnage

La plupart des mesures robustes d’évaluation statistique d’erreur que nous allons présenter

supposent que les données de référence sont collectées de façon aléatoire. L’échantillonnage

simple sans replacement produit des estimations adéquates des paramètres de la population, à

condition que la taille de l’échantillon soit grand. Toutefois, l’échantillonnage aléatoire peut

sous-échantillonner des petites classes, à condition que la taille de l’échantillon soit

significativement grand. Les techniques d’échantillonnage systématique seront utilisées avec

une grande précaution, car elles tendent à surestimer les paramètres de la population. Pour

cette raison, les analystes préfèrent l’échantillonnage aléatoire par strates, par lequel un

nombre minimum d’échantillons sont sélectionnés de chaque strate (catégorie de couverture

du sol). La combinaison de l’échantillonnage aléatoire et par strates produit le meilleur

équilibre entre la validité statistique et l’application pratique. Un tel système peut utiliser un

échantillonnage aléatoire pour collecter les données de validation au début du projet.

L’échantillonnage par strates, quant à lui, sera utilisé après la classification.


174

7.10.4 Précision globale et coefficient KAPPA

La précision globale s’obtient en divisant le nombre total de pixels bien classifiés (somme des

éléments diagonaux de la matrice de confusion) par le nombre total de pixels de vérification.

La précision d’une catégorie individuelle s’obtient par division du nombre total de pixels bien

classifiés dans cette catégorie par le nombre total de pixels de la catégorie. Cette statistique

indique la probabilité qu’un pixel de référence soit correctement classé et elle est une mesure

de l’erreur d’omission. Elle est appelée la précision du producteur parce que le producteur de

la classification est intéressé par le succès avec lequel une certaine région peut être classifiée.

Si le nombre total de pixels bien classifiés dans une catégorie est divisé par le nombre total de

pixels qui ont été effectivement classifiés dans cette catégorie, le résultat est une mesure de

l’erreur de commission. Cette mesure, appelée la précision de l’utilisateur ou fiabilité, est la

probabilité qu’un pixel classifié dans une catégorie sur la carte de classification représente

effectivement cette catégorie sur le terrain.

L’analyse KAPPA est une technique discrète multivariable, utilisée pour évaluer la précision

d’une classification. L’analyse KAPPA produit une statistique KHAT (une estimation du

KAPPA), qui est une mesure d'agrément ou de précision. La statistique KHAT se calcule

selon l’expression (7.53).

N  x ii    x i   x  i 
r r

^
i 1 i 1
K (7.53)
N    xi  x i 
r
2

i 1

Dans l’expression (7.53), r est le nombre de lignes de la matrice de confusion. x ii est le

nombre d'observations dans la ligne i et la colonne i. x i et x  i sont les totaux marginaux de

la ligne i et de la colonne i, respectivement, et N est le nombre total d'observations.


175

La précision globale et la précision du KAPPA ne sont pas en général égales pour une

classification donnée. Cette différence est dûe au fait que la précision globale utilise

uniquement les éléments diagonaux de la matrice de confusion, ignorant ainsi les erreurs

d’omission et de commission indiquées par les éléments hors diagonaux. Par contre, le KHAT

intègre les éléments hors diagonaux en termes de produit des sommes marginales des

colonnes et des lignes. Ainsi, selon la quantité d’erreur contenue dans la matrice, ces deux

mesures peuvent ne pas correspondre.

7.11 Exercices

 Qu’appelle-t-on classification supervisée?

 Qu’appelle-t-on classification non supervisée?

 Considérons la portion d’image representée sur la figure 7.20 ci-dessous.

Figure 7.20 Portion d’image en niveaux de gris.


176

 Représenter l’histogramme des niveaux de gris de cette image (figure 7.20).

 Combien de modes apparaissent sur l’histogramme de la question precedente?

 Faire une classification de cette image par la méthode des modes de l’histogramme.

 Considérons maintenant cette même portion d’image avec des pixels et des classes de

référence ayant été identifiés sur le terrain comme le montre la figure 7.21.

Figure 7.21 Portion d’image en niveaux de gris avec des pixels et des

classes de référence ayant été identifiés sur le terrain.

 Classifier l’image de la figure 7.21 en utilisant la règle de la distance minimum.

 Classifier l’image de la figure 7.21 en utilisant la règle du maximum de vraisemblance.

 Classifier l’image de la figure 7.21 en utilisant la méthode du parallélépipède.

 Considérons l’image multibande présentée sur la figure 7.22. Cette image comporte 2

bandes spectrales identifiées par Bande 1 et Bande 2. Elle comporte aussi les mêmes
177

pixels et classes de référence que ceux apparaissant sur l’image de la figure précédente

(figure 7.21).

Figure 7.22 Image multibande avec des pixels et des classes de référence

ayant été identifiés sur le terrain.

 Classifier l’image de la figure 7.22 en utilisant la règle de la distance minimum.

 Classifier l’image de la figure 7.22 en utilisant la règle du maximum de vraisemblance.

 Classifier l’image de la figure 7.22 en utilisant la méthode du parallélépipède.


178

Chapitre 8. Analyse d’images de télédétection

8.1 Introduction

Quand les photo-interprètes analysent des images de télédétection, ils prennent en compte la

synergie entre le contexte, les contours, la texture et la variation des niveaux de gris. Or la

plupart des algorithmes de classification numérique actuels exploitent uniquement

l’information spectrale (c’est-à-dire les valeurs des niveaux de gris). Il n’est donc pas

surprenant qu’il y ait une activité intense depuis quelques années pour essayer d’intégrer

d’autres caractéristiques, principalement la texture, dans les procédures de classification

numérique. Le but de ce chapitre consiste à présenter des informations détaillées sur

l’établissement des formules concernant les notions de texture, d’analyse fractale, d’analyse

granulométrique d’une image de texture et du spectre de texture.

L’analyse de texture apporte une information sur l’agencement spatial des niveaux de gris, qui

est nécessaire pour pallier aux faiblesses des méthodes de classification pixel par pixel,

surtout pour les images de haute résolution spatiale. Plusieurs auteurs ont appliqué diverses

méthodes d’analyse de texture dans le traitement et l’interprétation des données de

télédétection. Notons entre autres les applications en cartographie urbaine (Lasse, 1990;

Marceau et al., 1990; Gong et al., 1992; Jukka and Aristide, 1998), en cartographie de la

couverture du sol (Agbu and Nizeyimana, 1991), en cartographie forestière et agricole (Ulaby

et al., 1986; Pult and Brown, 1987; Franklin and Peddle, 1989; Anys and He, 1995; Pichler et

al., 1996) et dans la correction géométrique (Arai, 1991). On trouve aussi des méthodes

basées sur le concept de variogramme (Rubin, 1989) et sur la morphologie mathématique

(Flouzat, 1983; Kwon et al., 1996; Li and Kunt, 1994). Bischof et al. (1992) et Dreyer (1993)

ont montré l’utilité de l’information texturale dans la classification des données de

télédétection basée sur les réseaux de neurones. Dikshit (1996) a effectué une classification
179

texturale dans la classification des classes forestières tropicales basée sur la théorie des

ensembles flous. Une méthode d’analyse de texture, dénommée triangulation du voisinage des

structures fondamentales (TVSF), a été proposée par Hay et Niemann (1994) en introduisant

des données sur la hauteur et la surface des objets, et sur la position des structures

fondamentales. Avec cette méthode, on incorpore une fenêtre de dimension et de forme

variables, pour obtenir des mesures de texture qui se rapprochent de la perception humaine.

Cette approche a été utilisée sur des données de télédétection et elle montre une bonne

corrélation visuelle entre les caractéristiques propres à deux peuplements forestiers d’âges

différents. Notons enfin le récent travail de Pichler et al. (1996) concernant l’extraction des

paramètres texturaux avec les transformées en ondelettes. Les études utilisant les réseaux de

neurones pour réaliser des classifications à base de données texturales ne sont pas nombreuses

à ce jour. La plupart des études de classification par les réseaux de neurones n’utilisent que les

données multispectrales. Ces études se limitent surtout à mettre en évidence certains

avantages comme la capacité d’apprendre avec peu d’exemples et le pouvoir de généralisation

(Salu and Tilton, 1993; Sui, 1994). Cependant, des études récentes démontrent l'importance

de l'information texturale dans la classification par réseaux de neurones (Lee et al., 1990). Le

fait de pouvoir utiliser simultanément plusieurs bandes d’information, dont les

caractéristiques texturales, avec les réseaux de neurones semble un avantage certain. De plus,

la caractère non-paramètrique des réseaux de neurones allège les procédés de classification du

point de vue statistique. Nous savons que les réseaux de neurones sont gourmands en temps

de calcul, cependant la vitesse de traitement toujours croissante des ordinateurs permet de

rester optimiste.

Chen et al. (1997) ont utilisé l’information fractale comme mesure de texture dans la

classification des images SPOT en utilisant les réseaux de neurones. Ils ont reporté que
180

l’information fractale améliore significativement la capacité de discrimination dans les zones

homogènes.

Les caractéristiques texturales ont été progressivement utilisées dans les applications de

classification des images multispectrales et radar (Anys and He, 1995; Asim Roy and

Miranda, 1995). Aucun algorithme combinant efficacité et robustesse n’a encore été

largement adopté. Ainsi, des caractéristiques texturales pertinentes pour un type d’application

donné (classification de l’utilisation du sol dans les zones urbaines et périurbaines, par

exemple) ne le sont pas nécessairement pour un autre type d’application (identification de

classes géomorphiques particulières, par exemple). Enfin, certains paramètres centraux pour

le calcul des caractéristiques texturales sont encore extraits de façon empirique (taille de la

fenêtre d’analyse et choix de certains seuils, par exemple). Ces considérations rendent

difficile la comparaison et la confrontation des études quand les variables utilisées pour la

création des images de texture ne sont pas maintenues constantes.

Le développement des techniques d’analyse d’images de plus en plus sophistiquées suscite

une augmentation continue du nombre de méthodes d’analyse de texture proposées. La

sélection heuristique ou manuelle des paramètres devient par conséquent une activité de plus

en plus difficile. Ces considérations nous conduisent à la recherche des algorithmes

produisant la combinaison la plus appropriée de paramètres pour un problème donné. De tels

algorithmes devront non seulement économiser le temps de traitement, mais aussi réduire la

probabilité de mauvaise classification.

8.2 Les transformations de texture

8.2.1 Introduction

La texture est un concept qui traduit un aspect homogène local de la surface d'un objet. C'est

un concept très important et largement utilisé dans la plupart des domaines du traitement
181

d'images. Malgré cette importance, la notion de texture reste un concept sans définition

universelle satisfaisante. De nombreuses définitions ont été proposées, mais aucune ne

convient parfaitement aux différents types de texture rencontrées. L'une des plus citées a été

introduite par Laws (Unser, 1984). Dans sa définition, la texture est présentée comme une

structure disposant de certaines propriétés spatiales homogènes et invariantes par translation.

Cette définition stipule que la texture donne la même impression à l'observateur, quelle que

soit la position spatiale de la fenêtre à travers laquelle il observe cette texture. Par contre

l'échelle d'observation doit être précisée. On peut le faire par exemple en précisant la taille de

la fenêtre d'observation. Une autre définition précise que la notion de texture est liée à trois

concepts principaux :

1. un certain ordre local qui se répète dans une région de taille assez grande;

2. cet ordre est défini par un arrangement structuré de ses constituants élémentaires;

3. ces constituants élémentaires représentent des entités uniformes, qui se caractérisent par

des dimensions semblables dans toute la région considérée.

On constate que la multiplicité des textures entraîne une multiplication des définitions.

Cependant, toutes s'accordent à séparer les textures en deux classes : les textures structurées

(macrotextures) et les textures aléatoires (microtextures) (Kpalma, 1992). Une texture

qualifiée de structurée est constituée par la répétition d'une primitive à intervalles réguliers.

On peut différencier dans cette classe les textures parfaitement périodiques (carrelage, damier,

...) et les textures dont la primitive subit des déformations ou des changements d'orientation

(mur de briques, grains de café, ...). Les textures qualifiées d'aléatoires se distinguent en

général par un aspect plus fin (sable, laine tissée, herbe, ...). Contrairement aux textures de

type structuré, les textures aléatoires ne comportent ni primitive isolable, ni fréquence de

répétition. On ne peut donc pas extraire de ces textures une primitive qui se répète dans

l'image, mais plutôt un vecteur de paramètres statistiques homogènes à chaque texture. Les
182

textures rencontrées dans les images de télédétection étant généralement de type aléatoire, les

méthodes basées sur une analyse statistique de l'image sont probablement les plus

appropriées. Le but de cette section est de fournir une description consistante des principales

approches d'analyse de texture qui ont trouvé des applications en télédétection. Les différentes

méthodes proposées dans la littérature peuvent se répartir en quatre catégories distinctes :

1) les modèles de processus aléatoire,

2) les méthodes d'analyse des caractéristiques fréquentielles,

3) les méthodes d'analyse des caractéristiques structurelles,

4) les méthodes d'analyse des caractéristiques spatiales.

Les méthodes basées sur la modélisation d’un processus aléatoire considèrent la dépendance

spatiale des niveaux de gris entre pixels voisins dans l’image. Dans ce cas, le type du modèle

et les valeurs des paramètres du modèle caractérisent la texture. On peut tester l’adéquation du

modèle et la fidélité des paramètres en effectuant une synthèse de la texture analysée, et en la

comparant avec la texture originelle. Les méthodes basées sur l'analyse des caractéristiques

spatiales sont nombreuses et elles sont de loin les plus utilisées pour l'analyse des images de

télédétection. Ces méthodes peuvent être groupées en quatre sous-groupes basées sur les

paramètres suivants :

1) les histogrammes généralisés de niveaux de gris;

2) la mesure de l’activité du signal de texture;

3) la morphologie mathématique;

4) l'analyse fractale.

Les histogrammes généralisés mesurent les statistiques de la distribution des niveaux de gris

sur différents n-uplets de pixels voisins. Ainsi, le caractère plus ou moins périodique de la

texture peut être relevé. La taille et l’orientation des primitives des textures structurées

régulières peuvent être obtenues par la fonction d’autocorrélation ou par la méthode des
183

histogrammes de cooccurrence d’ordre deux ou trois. L’activité du signal de texture peut être

estimée par différentes approches. On peut mesurer la densité de contours ou d’extrema

locaux. On peut aussi calculer la longueur curviligne du signal sur un trajet donné. Ces

méthodes ont le mérite de la simplicité. Elles se prêtent donc facilement à des mises en œuvre

sur de petits processeurs.

La morphologie mathématique, développée par Serra (1982), a largement montré son

efficacité sur les images biologiques ou en métallurgie (Analyseur de Texture LEITZ). Des

éléments structurants de formes et de tailles variées permettent de révéler des éléments

particuliers de la texture, à partir desquels on pourra extraire quelques paramètres simples (par

exemple, la moyenne et variance des niveaux de gris). Cette méthode produit de bons résultats

pour certains types de textures (textures structurées en particulier).

Dans l’approche fractale, l’amplitude des niveaux de gris peut être assimilée à l’altitude d’une

surface géométrique. La dimension fractale de cette surface est utilisée pour caractériser la

texture. En général, la dimension fractale est insuffisante pour la discrimination. Elle peut être

complétée par un autre paramètre appelé lacunarité. Cette approche se révèle particulièrement

fructueuse pour des textures aléatoires de type microtexture, mais aussi macrotexture

(échographie des poumons, par exemple).

Les caractéristiques fréquentielles mesurent les composantes de fréquence spatiale de la

texture. Depuis longtemps, la transformée de Fourier a été utilisée pour calculer ces

composantes à partir du spectre de puissance. D'autres transformées plus sophistiquées

comme la transformée en ondelettes et les filtres de Gabor ont été proposées ces dernières

années, dans le but de contourner certaines limites de la transformée de Fourier.

8.2.2 Modélisation par des processus aléatoires

Dans les paragraphes qui suivent, nous présentons quelques modèles de base généraux.
184

8.2.2.1 Modèle de prédiction linéaire 2D

On fait l'hypothèse que la valeur du niveau de gris du pixel considéré est une combinaison

linéaire des valeurs de niveau de gris des pixels voisins. On peut alors caractériser l'image de

 
texture, notée f  f i, j;0  i, j  M  1 , par l’expression de l’équation (8.1).

f i, j  f i, j  i, j



(8.1)

Le terme f i, j apparaissant dans l’équation (8.1) est la prédiction et elle est définie par

l’équation (8.2).

f i, j   k, l  f i  k, j  l

(8.2)
 k ,l R

Dans l’expression (8.2), on a :

k , l : coefficient de prédiction,

R : domaine de prédiction,

i, j : erreur entre prédiction et observation.

Le domaine de prédiction R est causal, semi-causal ou non-causal selon que les points

appartenant au domaine R existent tous ou non avant le point considéré. Ici, la notion de

temps est donnée par le balayage séquentiel (de gauche à droite et de haut en bas) de l'écran

de visualisation.

8.2.2.2 Modèle de filtre linéaire

L'erreur de prédiction i, j est un élément d'un champ aléatoire E. On considère que c'est un

champ de bruit blanc (sa densité spectrale de puissance est une constante). La fonction de

covariance g e m, n s’exprime donc par la relation (8.3) ci-après.


185

g e  m, n  h 2  m, n,
1 si mn (8.3)
avec  m, n  
0 si m n

La texture f(i,j) est considérée comme la sortie d'un système linéaire dont l'entrée est un bruit

blanc (figure 8.1).

Figure 8.1 Représentation schématique d’un système linéaire dont l’entrée est un bruit blanc.

Elle est caractérisée par trois paramètres:

1) la valeur moyenne du signal : m = E{f(i,j)}

2) la fonction de transfert du filtre : H(z) (transformée en z de la réponse

impulsionnelle h(i,j) du système.

3) l’histogramme du bruit.

8.2.2.3 Modèle ARMA (Auto Regressive Moving Average)

La fonction de covariance du champ E est ici tronquée (équation (8.1)).

Ef (i, j)f (i  m, j  n)  0, m  K, n  L (8.4)

Si on se limite au plus petit voisinage en 2D, on obtient l’expression (8.5).

f i, j  rh f i  1, j  rv f i, j  1  rh rv f i  1, j  1  i, j (8.5)

Dans l’expression (8.5), rh et rv sont les coefficients de corrélation en horizontal et en vertical

respectivement. Les paramètres rh et rv correspondent à des propriétés visuelles des textures


186

(taille des primitives de texture). Dans le cas général, l'estimation des paramètres (k , l ) du

modèle de prédiction linéaire est réalisée en minimisant la variance de l'erreur i, j . Le

principe d'orthogonalité (orthogonalité entre  et f) permet d’écrire l’équation (8.6).

 m, n   k, l   m  k, n  l  0 (8.6)


 k ,l R

L’expression  m, n apparaissant dans l’équation (8.6) est la fonction de covariance, définie

 
par  m, n  E f i, j  f i  m, j  n . Cette fonction  m, n est estimée sur un ensemble fini

de données par une méthode d'autocorrélation. Le modèle ARMA donne des résultats valables

pour des textures aléatoires à grain fin ou moyen. Dans la variante à filtre linéaire, l'estimation

de la fonction de transfert du filtre est délicate. De ce fait, le modèle à filtre linéaire est peu

utilisé et on lui préfère le modèle ARMA.

8.2.2.4 Modèle de Markov

On fait l'hypothèse que la valeur de niveau de gris du pixel considéré ne dépend que d'un

voisinage réduit du pixel, ceci suppose que tout le passé du processus est contenu dans ce

même voisinage. Le processus markovien est complètement défini par :

1) un étal initial;

2) un ensemble de probabilités entre états (matrice de transition du processus).

Chaque état du processus correspond à une distribution particulière des niveaux de gris sur le

voisinage. Les champs aléatoires de Markov peuvent être utilisés pour l'analyse et la synthèse

de texture, ainsi que pour la segmentation d'images texturées. Analyser la texture par modèle

de Markov consiste à estimer les paramètres du modèle, qui deviennent des caractéristiques

de la texture. On peut montrer que les valeurs prises par les paramètres qui modélisent la

texture sont des fréquences spatiales. Généralement, les paramètres sont estimés dans les

quatre directions classiques (0°, 45°, 90°, 135°) et ils renseignent sur les fréquences spatiales
187

dans ces quatre directions. Un champ de Markov est un modèle de la dépendance qui existe

entre les niveaux de gris de l'image. La principale propriété d'un champ de Markov exprime

que la valeur de niveau de gris d'un pixel ne dépend pas des niveaux de gris de tous les autres

pixels de l'image, mais seulement d'un certain nombre d'entre eux, qui appartiennent à un

voisinage du pixel considéré. On considère qu’un pixel n'appartient pas à son propre

voisinage. De plus, si un pixel p1 appartient au voisinage d'un pixel p2, alors la réciproque est

vraie. La figure 8.2 présente un exemple de voisinage qui peut être attribué au pixel (i,j) (ici,

on considère le 4-voisinage formé des 4 plus proches pixels).

Figure 8.2 Exemple de voisinage du pixel (i,j) : le 4-voisinage.

Etant donné que le niveau de gris d'un pixel ne dépend que de ses plus proches voisins, il est

intéressant d'étudier cette dépendance et de comprendre comment les paramètres du modèle

markovien évoluent en fonction des relations qui existent entre pixels voisins. A ce niveau, la

notion de clique doit être introduite. Une clique est un ensemble de pixels (souvent un, deux

ou trois mais parfois plus) tels que chacun des pixels appartient au voisinage (qui a été défini

préalablement, et qui peut être un 4-voisinage, un 8-voisinage ou un autre) des autres pixels.

La figure 8.3 montre l'exemple du 4-voisinage et des cliques qui lui sont associées. On

distingue une clique à un pixel (singleton) et 4 cliques à deux pixels (doubletons), chacune

étant orientée dans une des directions classiques (0°,45°,90° et135°).


188

Figure 8.3 Le 4-voisinage et les cliques associées.

A chaque clique est associée une fonction appelée fonction potentiel, qui s'exprime

généralement comme une fonction linéaire du paramètre correspondant à cette clique. La

valeur de la fonction potentiel dépend des relations qui existent entre les niveaux de gris des

pixels de la clique. Un certain nombre de méthodes sont utilisées pour estimer les paramètres

du modèle. Les valeurs estimées des paramètres permettent de connaître les fréquences

spatiales des niveaux de gris dans les directions choisies. Dans la plupart des modèles, plus la

valeur d'un paramètre est faible (voire négative), plus les fréquences spatiales dans la

direction associée sont élevées. Les modèles markoviens sont très utilisés en segmentation

d'images bruitées ou texturées. Pour la caractérisation des textures, peu de résultats probants

ont été obtenus à ce jour. Ceci est dû au fait que la modélisation par processus markovien

suppose une bonne stationnarité du signal et qu’elle ne s'adapte bien qu'aux micro-textures.

Deux modèles dérivés du modèle de Markov sont présentés dans les paragraphes qui suivent.

8.2.2.5 Modèle probabiliste bidimensionnel

En pratique, et pour tenir compte du caractère bidimensionnel de l'image, le voisinage est

limité à trois pixels : les voisins immédiats gauche et supérieur. De plus, pour limiter le

nombre N de probabilités dans la matrice de transition, la texture est quantifiée sur un nombre

réduit (Ng) de niveau de gris. Pour un voisinage de taile u*v, possédant Ng niveaux de gris, le

nombre de configurations différentes est N  Ng u*v  , ce qui montre l'explosion combinatoire

de N avec u*v. Pour estimer les paramètres du modèle, on calcule l'histogramme des

différentes configurations rencontrées, puis on le normalise pour obtenir les probabilités.


189

Cependant, pour obtenir une estimation valable de ces probabilités sur une petite zone

d'image, on doit avoir un nombre réduit de types différents de configurations. Il est donc

nécessaire de d’abord quantifier la texture sur quelques niveaux seulement. En pratique, la

quantification s'effectue localement sur trois niveaux, correspondant à la valeur moyenne et la

valeur moyenne plus ou moins l'écart-type. L'intérêt de ce modèle réside dans la simplicité de

sa mise en œuvre, aussi bien pour l'analyse que pour la synthèse des textures. Les

inconvénients majeurs de ce modèle résident d'une part, dans la taille très limitée du

voisinage, et d'autre part, dans le nombre limité des niveaux de gris. Cet inconvénient a pour

conséquence le fait qu’avec ce modèle, on ne peut bien décrire que des textures de type

aléatoire à grain fin (microtextures).

8.2.2.6 Modèle probabiliste avec quantification vectorielle

La quantification vectorielle permet de limiter les inconvénients précédents en :

1) agrandissant le voisinage (de 2*2 à 4*4 typiquement)

2) augmentant le nombre des niveaux de gris (de 4 à 32 typiquement)

Ces améliorations se font sans augmentation du nombre de paramètres. Le principe de la

quantification vectorielle consiste à quantifier la texture en remplaçant les configurations u*v

par les N configurations u*v les plus fréquemment rencontrées (plus exactement, par les

centres des N amas principaux dans l'espace vectoriel des configurations). On obtient alors

une image vectorielle de dimension 1/u*1/v par rapport à l'image originale, où chaque vecteur

possède N valeurs possibles. L'analyse probabiliste 2D s'effectue sur cette image vectorielle

avec un voisinage U*V, ce qui correspond à un voisinage (U*V)*(u*v) sur la texture. De

même, les N valeurs différentres pour les vecteurs correspondent à beaucoup plus que N

niveaux de gris différents (au maximum à N*(u*v) niveaux de gris). Les résultats obtenus en

analyse et en synthèse de textures mettent en évidence la possibilité de modéliser des textures


190

possédant des primitives fortement aléatoires, et de taille supérieure à quelques pixels

(macrotexture aléatoire).

8.2.3 Analyse des caractéristiques fréquentielles

8.2.3.1 Analyse par la transformée de Fourier

L'analyse de Fourier est une technique mathématique qui permet de séparer une image en ses

différentes composantes fréquentielles (il s’agit ici de la fréquence spatiale). Le théorème de

Fourier stipule que toute fonction continue f(x) peut être représentée par une sommation d'une

série de termes sinusoïdaux de fréquences spatiales variables. Ces termes peuvent être obtenus

par la transformée de Fourier de f(x), qui s’exprime par la relation (8.7).


F u   f  x e 2iux dx (8.7)

Dans cette relation (8.7), u est la fréquence spatiale. Ceci signifie que F(u) est une fonction

dans le domaine de fréquence. La fonction du domaine spatial f(x) peut être retrouvée à partir

de F(u) par la tranformée de Fourier inverse (expression 8.8).



f (x)   F(u)e 2iux dx (8.8)


Pour utiliser l'analyse de Fourier en traitement numérique d'images, on doit considérer deux

extensions des équations (8.7) et (8.8). Les deux transformées peuvent d’abord être

généralisées par un passage à des fonctions à deux dimensions f(x,y) et F(u,v) (expression

(8.9)).

Fu, v    f x, ye 2i ux vy  dxdy


 
(8.9)

On peut aussi généraliser ces deux transformations par un passage à des fonctions discrètes.

La transformée de Fourier discrète bidimensionnelle s’exprime par la relation (8.10).

 ux vy 
1 N 1M 1
 
 2 i   
Fu, v   f x , y e  N M
(8.10)
NM x  0 y 0
191

Dans cette expression (8.10), N est le nombre de pixels dans la direction x et M est le nombre

de pixels dans la direction y. Toute image de télédétection peut être décrite comme une

fonction discrète bidimensionnelle. Par ailleurs, la transformée de Fourier à deux dimensions

peut être utilisée pour calculer la transformée de Fourier d'une image. L'image peut être

reconstruite en utilisant la transformée de Fourier inverse (expression (8.11)).

 ux vy 
1 N 1M 1
f  x, y  
2 i   
 F u , v e  N M
(8.11)
NM u 0 v  0

La fonction F(u,v) contient l'information de fréquence spatiale de l'image originale f(x,y) et

elle est appelée spectre de fréquence. Il est à noter que F(u,v) est une fonction complexe, car

elle contient le terme i dont la valeur au carré est égale à -1. On peut écrire toute fonction

complexe comme la somme d'une partie réelle et d’une partie imaginaire (équation (8.12a)).

Fu, v  Ru, v  iIu, v (8.12a)

L’expression (8.12a), écrite sous forme cartésienne est équivalente à l’expression (8.12b),

écrite sous forme polaire.

Fu, v  Fu, v ei u ,v  (8.12b)

Dans l’expression (8.12b), Fu, v est une fonction réelle définie par l’expression (8.12c).

Fu, v   Ru, v   Iu, v


2 2
(8.12c)

Fu, v , définie par l’expression (8.12c), est appelée amplitude de la transformée de Fourier

et peut être affichée comme une image bidimensionnelle. La transformée de Fourier

représente l'amplitude et la direction des différentes composantes fréquentielles de l'image

f(x,y). Trois types de paramètres peuvent être définis à partir du spectre de fréquence. Le

premier ensemble est dérivé de la distribution radiale des valeurs de Fu, v et est sensible à

la grossièreté de la texture de l'image. Une texture grossière aura des grandes valeurs de
192

Fu, v concentrées autour de l'origine, alors qu’avec une texture fine ces valeurs sont étalées

au-delà de l’origine (Weszka et al., 1976). Les valeurs moyennes de Fu, v prises sur des

régions en forme d'anneaux concentrés autour de l'origine produisent une mesure de la

grossièreté. De même, la distribution angulaire des valeurs de Fu, v est sensible à la

directionnalité de la texture. Par conséquent, les anneaux peuvent être caractérisés par un

ensemble de moyennes de Fu, v prises sur des régions en forme de cale autour de l'origine.

Un deuxième ensemble de caractéristiques, qui sont aussi basées sur le spectre de fréquence,

consiste en quatre mesures statistiques (équations (8.13a), (8.13b), (8.13c) et (8.13d))

rapportées par Marjike et al. (1995).

- L'amplitude maximum : 
f1  max Fu, v , u, v  0,0 (8.13a)

1 N 1M 1
- L'amplitude moyenne : f2    Fu, v (8.13b)
NM u 0 v 0

1
 N 1M 1 2
2
- L'énergie de l'amplitude : f3     Fu, v  (8.13c)
 u0 v0 


1 N 1M 1

2
- La variance de l'amplitude : f4    Fu, v  f2 (8.13d)
NM u 0 v 0

Comme troisième possibilité, les amplitudes d'un ensemble choisi de fréquences peuvent être

utilisées comme un ensemble de caractéristiques. La sélection d'un ensemble approprié

dépend du problème à résoudre. Dans certains cas, les spectres de fréquence de différents

segments peuvent contenir certaines fréquences apparaissant de façon régulière, avec des

amplitudes plus grandes que d'autres fréquences. Celles-ci seront désignées comme des

fréquences dominantes de l'ensemble de texture. Lorsqu'elles sont présentes, les amplitudes

d'un ensemble de fréquences dominantes peuvent produire un ensemble de paramètres

appropriés. D'autres ensembles peuvent aussi être considérés. Les utilisations des
193

caractéristiques texturales dérivées par l’analyse de Fourier sont plutôt rares en analyse des

images de télédétection. Dans une étude récente, Marjike et al. (1995) ont évalué quatre

ensembles de paramètres de texture, pour l'identification de différents types de couverture du

sol dans une image Landsat TM à l'aide d'un classificateur neuronal. Ils ont conclu que

certains paramètres de Fourier constituent un bon choix, en particulier lorsqu'une seule bande

de fréquence est utilisée pour la classification.

Les informations de discrimination des thèmes peuvent être obtenues à partir du spectre de

puissance en termes d’indicateurs de régularité, de directivité, de linéarité et de grosseur. Le

spectre de puissance est calculé à partir de la transformée de Fourier. Soit F I( x, y) { } la

Transformée de Fourier Discrète Bidimensionnelle d’une matrice image (fenêtre image) telle

que :

 I0,0   I0, N  1 
 ux vy   
M 1N 1    
  Ix, ye , avec I x, y   ,
 2 j   
Fu, v  M N

x0 y0      
 
I M  1,0   I M  1, N  1

où I x, y est la fonction des niveaux de gris de la fenêtre d’analyse. On définit le spectre de

puissance par Pu, v  Fu, v  F u, v  Fu, v , où F u, v est la fonction conjuguée de
2

Fu, v .  u, v  représente les fréquences spatiales. La densité spectrale de puissance

P u, v
Du, v est donnée par l’expression D u, v  .
 pu, v
u ,v  0

Des paramètres de texture ont été générés à partir de la densité spectrale de puissance. Ces

paramètres, proposés initialement par D’Astous et Jernigan (1984), ont été repris par Liu et

Jernigan (1990). Quelques uns de ces paramètres sont présentés ci-dessous :

- L’Energie du pic principal :


194

P1  D u1 , v1   100 ,

où  u1 , v1  sont les coordonnées de fréquences de la pointe principale de la densité spectrale

de puissance. Ce paramètre permet de mettre en évidence l’énergie maximum de la fenêtre

d’analyse.

- Le Laplacien discret du pic principal :

P2  2 D u1 , v1   D u1  1, v1   D u1  1, v1   D u1 , v1  1  D u1 , v1  1  4D u1 , v1 

Ce paramètre met en évidence les transitions.

- L’isotropie de la densité spectrale :

u  v
P3  , où  u    u 2 Du, v ,  v    v 2 Du, v ,
     4  2 12
2 u v u v
u v uv

 uv    uvDu, v .
u v

Ce paramètre mesure l’élongation du spectre. Il est maximum pour des textures de lignes

parallèles.

8.2.3.2 Analyse par transformées en ondelettes

La transformée en ondelettes (Grossmann and Morlet, 1984; Mallat, 1989) est analogue à la

transformée de Fourier sur une fenêtre. La différence entre la transformée de Fourier à fenêtre

et la transformée en ondelettes se trouve dans la forme d'une fonction à fenêtre dans la

transformée de Fourier et la forme de la fonction ondelette dans la transformée en ondelettes.

En général, la fonction à fenêtre garde son enveloppe inchangée, indépendamment de la

valeur de la fréquence. Par contre, la fonction ondelette dilate sa forme suivant la fréquence.

Elle est très étroite à des hautes fréquences et elle est plus large à des basses fréquences.

Comme résultat, la transformée en ondelettes peut capturer des signaux de très haute

fréquence à de petites échelles, et elle barbouille le bruit à de grandes échelles.


195

Initialement étudiée en mathématiques pures, la transformation en ondelettes est actuellement

utilisée dans plusieurs domaines d'applications, allant de la compression et la reconstruction

d'images à l'analyse multirésolution des signaux (Mallat, 1989). Un vaste champ

d'applications est continuellement en train d'être exploré (Antoni et al., 1992; Ranchin and

Wald, 1993). La forme générale de la transformée en ondelettes est exprimée par la relation

(8.14) (Daubechies, 1988).


 x  b
 f (x)
1/ 2
Wf (a , b)  a  dx  f (x),  a ,b (x) (8.14)

a 

Dans cette expression (8.14),  ( x ) est la fonction ondelette (ondelette mère) qui varie de zéro

à l’infini. Elle est définie par l’expression (8.15) ci-après.

 x  b
 a , b  x  a
1 2
  (8.15)
 a 

Dans cette même expression, a est le paramètre de dilatation et b est le paramètre de

translation. Lorsque la condition d'admissibilité concernant la fonction de base est satisfaite

(Grossmann and Morlet, 1984), la transformation inverse reconstruit le signal original. La

forme fonctionnelle de la fonction de base  x est changée en variant le paramètre a. Si a>1,

alors  x est dilatée par  a ,b  x . Par contre si a<1,  x est contractée par  a ,b  x . Pour

les signaux numériques, une ondelette discrète  j,k  x obtenue à partir de  x en

échantillonnant les paramètres a et b suivant le théorème de Nyquist est utilisée. Une

ondelette est orthogonale lorsque toutes les paires, formées à partir des fonctions de base

 j,k  x , sont orthogonales deux à deux. Une ondelette orthogonale dont la norme est

normalisée à 1 est appelée ondelette orthonormale. La base de Haar est connue comme la base

orthonormale la plus simple. Daubechies (1990) a trouvé des bases orthonormales à support

compact; celles-ci sont dénommées D2, D4, D6, etc… (D2 est équivalent à la base de Haar).

Plus grand est i dans Di, plus le coefficient du filtre s’éloigne de la valeur 0, c’est-à-dire plus
196

longue est la queue du filtre. Cette dernière situation s’applique dans le cas où les ondelettes

de Daubechies sont implémentées comme des filtres numériques. Mallat (1989) a proposé un

cadre pour l'analyse multirésolution de la transformée en ondelettes. Il a établi que toute

fonction arbitraire f(x), définie dans un espace de Hilbert, peut être correctement décomposée

suivant une règle d'approximation successive. Dans ce cas, la fonction ondelette dans laquelle

s’effectue la procédure de décomposition est donnée par l’expression (8.16).

f  x   A 0n 0,n   A1k 1,k   D1k 1,k (8.16)


n k k

Les coefficients peuvent être obtenus à partir des équations récursives (8.17a) et (8.17b),

A kj   h n  2 k   A nj1
 n

 (8.17a)
 D j   g n  2 k   D j1
 k n n

A j  HA j1
 j j1 (8.17b)
 D  GA

Dans l’expression (8.17b), H est habituellement référencé comme un filtre passe-bas et G

comme un filtre passe-haut. Ces filtres sont appelés filtres mirroirs en quadrature dans la

littérature du traitement du signal (Vaidyanathan, 1989). Cette dénomination vient du fait que

g n    1 h1  n . La décomposition du signal est effectuée récursivement à la sortie du


1 n

~
filtre passe-bas H, à travers une paire de filtres H et G, avec des réponses impulsionnelles h
~
g où h n  h  n et ~
et ~ g n  g  n . Dépendant du choix de H, la fonction d'échelle  x

et l'ondelette  x peuvent avoir une bonne localisation, à la fois dans les domaines spatial et

de Fourier. Daubechies (Daubechies, 1988) a étudié les propriétés de  x et  x en

fonction de H. Il a montré que pour tout n>0, on peut trouver une fonction H telle que

l'ondelette correspondante ait un support compact et soit n fois continûment différentiable.


197

L'extension au cas bidimensionnel s’exprime par les relations (8.18).

A j f  H y H x f j1 D 2j f  H y G x f j1

 (8.18)
 D j f  G H f j1 D j f  G G f j1
 1 y x 3 y x

Les filtres G et H sont appliqués à l'image dans les directions horizontale et verticale, et les

sorties des filtres sont sous-échantillonnées par un facteur de deux, produisant trois sous-

bandes passe-haut dans trois orientations GG, GH, HG et une sous-bande passe-bas HH. En

résumé, la transformée en ondelettes d'une image consiste en quatre sous-images avec un

quart de surface. La sous-image composée des parties basse fréquence suivant la direction des

lignes ou des colonnes est itérativement décomposée en quatre sous-images, niveau par

niveau. Une description détaillée est donnée dans (Mallat, 1989). Les transformées en

ondelettes discrètes sont très appropriées pour le traitement numérique des images. Elles ont

été intensivement utilisées ces dernières années dans la compression, la reconstruction ou la

fusion des données images (Li et al., 1995; Antoni et al., 1992; Cheong et al., 1992). On

dénombre également des applications de ces techniques dans la réduction du chatoiement

dans les images radar (Dong et al., 1998; Fukuda and Hirosawa, 1998; Starck and Bijaoui,

1994). La technique des ondelette a été aussi appliquée en segmentation et en classification

des textures (Laine and Fan, 1993; Salari and Ling, 1995). Récemment, la transformation en

ondelettes à été utilisée par Chen et al. (1997) pour produire les images fractales des trois

canaux d'une image SPOT-HRV dans une classification par réseau de neurones.

8.2.3.3 Utilisation des filtres de Gabor

Les statistiques dérivées de l'histogramme du premier ordre donnent principalement une

information sur la variation des niveaux de gris, alors que les paramètres de texture basés sur

les histogrammes d'ordre supérieur caractérisent les régularités spatiales des pixels à

l'intérieur d'un certain voisinage. Une troisième approche pour la sélection des attributs de
198

base est reliée à la compacité de la représentation du signal. Dans la plupart des cas, les

images sont hautement auto-corrélées. Le degré élevé d'auto-corrélation dans les images est

dû au fait que les objets à classifier tendent à avoir une consistance morphologique. En effet,

les valeurs de luminance localement semblables, les continuations des frontières et les

textures homogènes induisent respectivement des corrélations du premier, du second et

d'ordre supérieur. Pour prendre en compte cette corrélation, la distribution des caractéristiques

devrait être telle que très peu de caractéristiques hautement corrélées soient fortement

présentes dans la représentation du signal. Ceci motive l'utilisation des filtres ou des fonctions

de Gabor (1946), qui peuvent produire une représentation compacte pour les signaux réels.

Les filtres de Gabor x, y; , f  sont des sinusoïdes spatiales, localisées par une fenêtre

gaussienne et définies dans un domaine spatial 2D avec la réponse impulsionnelle exprimée

par la relation (8.19).

 
 f 2  f 2 x2  y2 
 
 x, y; , f   exp i f x x  f y y  exp 


x y

2 2



(8.19)

Dans l’expression (8.19), on a fx  f cos , f y  f sin , où x et y sont les coordonnées du

pixel. i est le nombre complexe tel que i 2  1. Le paramètre f détermine la fréquence

k
centrale du filtre passe bande dans la direction , tel que   , k 0,....., K  1 . Le
K

paramètre  détermine la largeur de l'enveloppe gaussienne le long des directions x et y.

Pour l'extraction des caractéristiques de Gabor, chaque fenêtre d'image W est convoluée avec

des filtres de Gabor de différentes largeurs et orientations, résultant en une image de sortie

exprimée par la relation (8.17).

W x, y, c, , f   Wx, y, c  x, y, , f  (8.20)

En se basant sur les conclusions des travaux de Heikkonen (1994) et de Lampinen (1992),

quatre valeurs de  (c’est-à-dire K = 4) sont habituellment utilisées. Les fréquences f et les


199

largeurs  sont définies telles que les filtres soient sensibles aux composantes de haute

   
fréquence dans l'image. Ainsi on a fixé   et f   , ,  .
2 2 3 4 

Les filtres de Gabor complexes capturent le spectre de fréquence entier, en amplitude et en

phase. Bien que l'information de phase contienne des informations sur la localisation des

frontières et d'autres détails de l'image, elle n'a pas été retenue pour la suite du traitement. Les

amplitudes des résultats de convolution, souvent utilisées à chaque fréquence et à chaque

niveau d'orientation séparément, ont été calculées. Il y a deux principales raisons pour

préférer les amplitudes aux phases des réponses des filtres de Gabor. Premièrement,

l'amplitude des sorties des filtres de Gabor change doucement sur un voisinage local de

l'image, ce qui est de toute vraisemblance une bonne propriété pour la discrimination des

classes naturelles. Deuxièmement, l'amplitude de la transformation de Gabor est connue être

robuste et tolérante à des distorsions de formes spatiales, pour plusieurs applications de

reconnaissance de formes (Lampinen, 1992). Ainsi, les caractéristiques finales de Gabor GW

pour des traitements successifs sont définies selon l’expression (8.21).

Wx 1 Wy 1
  Wx, y, , f 
1
G W , f   (8.21)
Wx Wy x0 y0

En plus des énergies présentées ci-dessus, la somme des énergies G SUM


W dans différentes

orientations du filtre a été calculée. Elle s’exprime par la relation (8.22) et elle produit une

caractéristique additionnelle pour chaque valeur de f.

G SUM
W   G, f  (8.22)

Alors que la transformation en ondelettes utilise une fonction analytique pour filtrer l'image,

les filtres de Gabor effectuent un fenêtrage de l'information spatiale pour une bande de

fréquences donnée. Ces deux transformations sont des méthodes efficaces en analyse

d'images. A l’heure actuelle, les applications des filtres de Gabor en traitement d’images de
200

télédétection sont très peu nombreuses. Dans une étude récente, Jukka et Aristide (1998) ont

utilisé des paramètres texturaux dérivés des filtres de Gabor dans une classification d’images

Landsat TM et ERS1 en milieu urbain. Dennis et al. (1994) reportent une étude sur

l’utilisation des filtres de Gabor pour segmenter une image de texture, en faisant ressortir les

discontinuités entre les frontières de texture. Les résultats expérimentaux obtenus dans cette

étude montrent que les caractéristiques texturales dérivées des discontinuités sont utiles pour

la segmentation d’une image.

8.2.4 Les méthodes basées sur les caractéristiques spatiales

8.2.4.1 Les histogrammes généralisés des niveaux de gris

L'information texturale associée à un pixel est contenue dans les relations spatiales entre le

pixel traité et ses voisins. Il s’agit ici de déterminer le réseau de pixels voisins impliqués dans

l'analyse et la fonction de variation des niveaux de gris entre ces pixels. Cette information

peut être caractérisée statistiquement par un histogramme N-dimensionnel, avec M niveaux de

 
gris, dans lequel chaque entrée p f i1 , f i 2 ,........., f i n  représente une estimation de la

 
probabilité jointe du n-uplet f i1 , f i 2 ,........., f i n  . N est le nombre de voisins utilisés et

f i k  est une fonction du niveau de gris du pixel i k . A partir de ces histogrammes

multidimensionnels, des statistiques de différents ordres peuvent être calculées pour

caractériser la texture d'une image (Wang, 1994). C’est cette approche qui soustend la plupart

des méthodes probabilistes d’analyse de texture que nous présentons dans les paragraphes qui

suivent.

8.2.4.2 La méthode de l’histogramme du premier ordre


201

L'histogramme du premier ordre est surtout utilisé sous le nom d'histogramme d'image. Il

décrit la distribution des niveaux de gris de l'image. Un élément p(i) d'un histogramme du

premier ordre indique la fréquence du niveau de gris i dans l'image. L'histogramme du

premier ordre exploite uniquement l'information de niveaux de gris des pixels et non les

relations spatiales entre eux. Il est souvent utilisé pour la segmentation par seuillage sur le

niveau de gris, dans le cas où l'image présente des zones uniformes en niveau de gris.

Différentes statistiques du premier ordre peuvent être calculées à partir de l'histogramme des

niveaux de gris d'une image. La moyenne et la variance des niveaux de gris sont souvent

calculées pour une première caractérisation de l’image. Des paramètres de degré supérieur

caractérisent la forme de l'histogramme (vitesse de décroissance, etc.). Ces statistiques ne sont

réellement valables que si la distribution des niveaux de gris est assez régulière (histogramme

possédant un seul mode). Quelques paramètres de texture, dérivés de l’histogramme du

premier ordre sont présentés dans les lignes qui suivent (équations (8.23a-g)).

L 1
- La moyenne des niveaux de gris () : F1   i  P i (8.23a)
i0

La moyenne représente l’emplacement de l’histogramme sur l’échelle des niveaux de gris.

L 1
- Entropie : F2    P i  ln P i  (8.23b)
i0

Le paramètre d'entropie mesure le degré de désordre de la texture considérée.

L 1
F3    P i 
2
- Energie : (8.23c)
i0

Plus douce (plus homogène) est la texture, plus grande est la valeur du paramètre d'énergie.

L 1
- La variance des niveaux de gris (  2 ) : F4    i   P i
2
(8.23d)
i0

La variance est une mesure de la variabilité des niveaux de gris autour de la moyenne.
202

1 L1
 
3    i   P i 
3
- Le coefficient de symétrie : F5  (8.23e)
  i0 

Le coefficient de symétrie mesure la symétrie de la distribution des niveaux de gris autour de

la moyenne.

1 L1
 
4    i   P i 
4
- Le coefficient d'aplatissement : F6  (8.23f)
  i0 

Le coefficient d'aplatissement donne une indication sur l’aspect pointu et effilé ou plutôt

aplati de l’histogramme.


- Le coefficient de variation : F7   100% (8.23g)

Le coefficient de variation mesure l'hétérogénéité locale de l'image.

Plusieurs chercheurs ont évalué ces paramètres et d’autres transformations de texture. Par

exemple, Hsu (1978) a utilisé 17 statistiques texturales du premier ordre pour classifier le

niveau 1 de la couverture du sol, à partir de photographies aériennes numérisées. L’étude a

conclu que les statistiques des longueurs de plages des niveaux de gris étaient plus efficaces,

bien que toutes les mesures de texture, à l’exception du coefficient de Pearson, fussent

statistiquement significatives. Prenant en compte ces résultats, Irons et Peterson (1981) ont

appliqué 11 paramètres de Hsu à des données Landsat MSS avec une fenêtre 3 x 3.

Malheureusement, aucune des mesures de texture utilisées, que ce soit dans une classification

supervisée ou dans une classification non supervisée, n’a produit une texture correspondant à

une classe de couverture du sol. Ulaby et al. (1986) ont utilisé des statistiques texturales du

premier ordre pour discriminer la couverture du sol dans les images radar. Gong et al. (1992)

ont utilisé deux paramètres de Hsu (moyenne et variance) et développé un troisième, la

mesure d’entropie. Leurs travaux ont établi que la variance est la meilleure mesure statistique

texturale du premier ordre, mais qu’elle n’est pas aussi efficace que les statistiques de
203

cooccurrence du second ordre. Ndi et al. (1997) ont utilisé les paramètres moyenne, variance

et coefficient de variation dans une classification des mangroves du littoral camerounais en

utilisant des données radar ESAR et ERS1. Ce travail a permis de conclure que cette

combinaison de paramètres offre des performances comparables à celles des paramètres

dérivées des matrices de cooccurrence du second ordre. Dans une étude plus récente, Jukka et

Aristide (1998) ont utilisé les statistiques texturales du premier ordre et du second ordre, ainsi

des statistiques texturales dérivées des filtres de Gabor, dans une expérience de cartographie

de l’utilisation et de l’occupation du sol, en utilisant des données Landsat TM et ERS1

acquises au-dessus de la ville de Lisbonne.

8.2.4.3 La méthode de l'histogramme local

Une utilisation de l'histogramme local a été proposée par Lowitz (1984). Cette méthode se

propose de caractériser l'information spatiale locale d'une image, à travers une fenêtre

glissante qui balaie toute l'image. On calcule l'histogramme h des luminances des points

d'image appartenant à la fenêtre d'observation, puis on caractérise cet histogramme par son

module h et sa phase  h . Supposons une fenêtre de taille n  n centrée sur le pixel (x,y)

dans une image quantifiée sur r niveaux de gris. Les histogrammes locaux doivent alors rester

dans l'hyperplan décrit par l’expression (8.24).

r
 ci  n2 (8.24)
i 1

Dans l’expression (8.24), c i représente le nombre de points d'image au i ème niveau de gris.

Lowitz (1984) a introduit les points remarquables suivants :

n2 n2 n2 
1) l'histogramme centré : h 0   , ,..., 
 r r r 

2) les histogrammes maximaux : h Mj 0  0,..., n 2 ,...,0


204

Le modèle d'un histogramme local est défini comme étant la distance entre l'histogramme

centré h0 et l'histogramme considéré h (expression (8.25)).

r 
n2    n2  
h    ci   logci   log   (8.25)
i 1  r   r 

La phase d'un histogramme local est défini comme étant le plus petit indice j de l'histogramme

maximal h Mj (le plus grand au sens de h ) de l'histogramme local considéré. On a donc

 h  j . Une autre utilisation de l'histogramme local en analyse de texture est celle de

l'histogramme cumulé complémentaire (HCC décrite par Kpalma (1992)). Considérons une

fenêtre d'observation de taille donnée. L'observation de la surface 3D de l'image dans cette

fenêtre montre des structures en relief de forme et de taille variées en fonction de la texture. Si

on découpe ce relief à une hauteur donnée, l'aire résultante (nombre de pixels dont la valeur

est supérieure au niveau de découpe) constitue un attribut discriminant de la texture. Soient

I min et I max les valeurs minimale et maximale de niveaux de gris dans cette fenêtre. La

dynamique maximale de luminance caractérisant la fenêtre considérée est alors obtenue par

I  I max  I min . L'aire de ces sections en fonction du niveau de découpe k ( k 0, I )

correspond à ce qu’on appelle histogramme cumulé complémentaire (HCC). Si H(k) est la

valeur de l'histogramme normalisé de ce signal en une valeur k, HCC(k) s’obtient par

l’expression (8.26).

I
HCC k    H i , k 0, I (8.26)
i k

HCC(k) est la probabilité d'avoir un pixel dont la valeur de niveau de gris est supérieure à k,

dans une fenêtre. C'est une mesure de la distribution des valeurs du signal de luminance sur la

dynamique des niveaux de gris dans un voisinage donné. Des utilisations de l'histogramme
205

local en analyse d'images peuvent être trouvées dans les références (Kpalma, 1992) et

(Raboisson, 1985).

8.2.4.4 La méthode des matrices de cooccurence

Un ensemble de mesures de texture d'ordre supérieur à 1 été proposé par Haralick et

Shanmugan (1973), basé sur le calcul des matrices de cooccurence des niveaux de gris.

Supposons que c  x, y soit un vecteur du plan image (x,y), où x et y sont des

entiers. Alors, pour toute image f(x,y), il est possible de calculer la distribution de probabilité

jointe des paires de niveaux de gris correspondant à des paires de pixels séparés par

c  x, y . Habituellement, le vecteur de séparation c  x, y est défini par une distance

interpixels d et un angle interpixels . Si les valeurs de niveaux de gris varient de 0 au plus

grand niveau de quantification de l'image (par exemple, quant k  255 ), cette probabilité

jointe prend la forme d'une matrice p c , où pc i, j  pi, j; c . La grandeur pi, j; c est la

probabilité que les paires de valeurs de niveaux de gris (i,j) apparaissent à la séparation

c  x, y . C'est une matrice carrée d'ordre quant k . On calcule la matrice p c pour une

image f(x,y) en comptant le nombre de fois que chaque paire de niveaux de gris apparaît dans

l'image à la séparation c  x, y . Il est communément admis que toute l’information

texturale dérivable des matrices de cooccurrence est obtenue pour les angles 0°, 45°, 90° et

135°, avec une distance interpixels égale à 1 ou 2. En règle générale, plus grands sont les

éléments diagonaux de la matrice de cooccurrence, plus la texture est homogène dans la zone

d’image considérée. Pour illustrer le calcul des matrices de cooccurrence, considérons l'image

présentée sur la figure 8.4. Cette image a 5 lignes et 5 colonnes, avec des niveaux de gris

variant de 0 à 3.
206

Figure 8.4 Image numérique servant à illustrer le calcul des matrices de cooccurrence.

L'application de la méthode de calcul de la matrice de cooccurence à cette image produit les

matrices de cooccurrence présentées sur la figure 8.5.

Figure 8.5 Matrices de cooccurrence issues de l’image de la figure 8.4.


207

Ces matrices ont été évaluées pour une distance interpixels égale à 1,

et pour divers angles (0°, 45°, 90° et 135°).

Haralick et Shanmugan (1973) ont proposé une variété de mesures pour caractériser

l'information texturale à partir des matrices de cooccurrence. Les expressions de ces mesures

sont présentées dans les lignes qui suivent (équations (8.27a-o)).

 
Ng Ng

F1    pi, j
2
- Second Moment Angulaire (Energie) : (8.27a)
i  0 j 0

Le second moment angulaire mesure l’homogénéité de l’image. Il a une valeur faible lorsque

les p(i,j) ont des valeurs très proches et une grande valeur lorsque certaines valeurs sont

grandes et d’autres petites, par exemple quand les p(i,j) sont concentrés autour de la

diagonale.

Ng Ng

F2    i  j pi, j
2
- Contraste (Inertie) : (8.27b)
i  0 j 0

Le contraste est une mesure de la variation locale des niveaux de gris dans l’image. Ce

paramètre a une valeur numérique importante si les p(i,j) sont concentrés hors diagonale

(c’est-à-dire s’il existe de nombreuses transitions caractérisées par une différence de niveaux

de gris (i-j) importante). Au contraire, si les valeurs de la matrice de cooccurrence sont

concentrées autour de la diagonale, le contraste sera faible.

Ng Ng i    j     pi, j
F3   
x y
- Corrélation: (8.27c)
i  0 j 0  x y

où  x ,  y ,  x , et  y sont les moyennes et les écart-types. p x et p y sont les distributions

marginales associées à la matrice de cooccurrence pi, j et définies par les expressions

(8.27d) ci-après.
208

 Ng

 p x  i   pi, j
 j 0
 (8.27d)
 Ng

p y  j   pi, j
 i0

Ce paramètre est le coefficient de corrélation des pixels de la fenêtre avec un modèle linéaire,

la droite de régression étant la diagonale de la matrice de cooccurrence. Ce paramètre a une

grande valeur quand les valeurs sont uniformément distribuées dans la matrice de

cooccurrence, et une faible valeur dans le cas contraire.

Ng Ng

F4    i   x   pi, j
2
- Somme des carrés des variances : (8.27e)
i  0 j 0

Ng Ng

 pi, j
1
- Moment Différentiel Inverse : F5    (8.27f)
1  i  j
2
i  0 j 0

2 Ng

- Somme des moyennes : F6   i  p x  y  i (8.27g)


i 2

2 Ng

 i  f8   p x  y  i
2
- Somme des variances : F7  (8.27h)
i2

 
Ng Ng

- Entropie : F8     pi, j  log pi, j (8.27i)


i  0 j 0

 
2 Ng

- Somme des entropies : F9    p x  y  i  log p x  y  i (8.27j)


i 2

L’entropie mesure la complexité de l’image. Elle est grande quand les valeurs de la matrice de

cooccurence sont presque toutes égales et elle est faible dans le cas contraire.

- Variance de Différence : F10  var iance de p x y (8.27k)

 
2 Ng

- Entropie de Différence : F11    p x  y  i  log p x  y  i (8.27l)


i2
209

- Mesures de l'information de corrélation :

HXY  HXY1
F12  (8.27m)
maxHX, HY

F13  1  exp 2 HXY2  HXY 


12
(8.27n)

HX et HY sont les entropies de p x et p y , respectivement.

 
Ng Ng

HXY     pi, j  log pi, j ,


i  0 j 0

 
Ng Ng

HXY1     pi, j  log p x  i p y  j ,


i  0 j 0

 
Ng Ng

HXY2     p x  i p y  j  log p x  i p y  j .
i  0 j 0

Coefficient de corrélation maximal :

F14=[Deuxième plus grande valeur propre de Q]1/2 (8.27o)

pi, k p j, k 
Qi, j  
k p x  i p y  k 

 
Ng Ng

p x  y  k     pi, j; i  j  k , k  2,3,..........,2N g


i  0 j 0

 
Ng Ng

p x  y  k     pi, j; i  j  k , k  0,1,2,3,.........., N g


i  0 j 0
210

A la suite de Haralick et Shanmugan (1973), plusieurs auteurs (Pratt, 1991; Anys and He,

1995; Collorec, 1995) ont proposé d'autres paramètres de cooccurrence du deuxième ordre

dont les plus connus sont présentés ci-après (équations (8.28a-i)).

12
1 
Ng Ng

- Moment Diagonal : F15     i  j pi, j (8.28a)



i  0 j 0 2 

Ng Ng

- Moyenne : F16    i  pi, j (8.28b)


i  0 j 0

Ng Ng

F17    i  j  2 F16   pi, j


3
- Paramètre «cluster shade» : (8.28c)
i  0 j 0

Ng Ng

F18    i  j  2 F16   pi, j


4
- Paramètre «cluster prominence» : (8.28d)
i  0 j 0

Ng Ng
pi, j
- Différence Inverse : F19    (8.28e)
i  0 j 0 1 i  j

Ng Ng

- Dissimilarité ou Valeur Absolue : F20    i  j  pi, j (8.28f)


i  0 j 0

 
Ng Ng

- Covariance : F21    i   x  j   y  pi, j (8.28g)


i  0 j 0

- Probabilité Maximale : F22  max pi, j


0 i , j N g
  (8.28h)

 
Ng Ng

F23    pi, j
3
- Troisième Moment Angulaire : (8.28i)
i  0 j 0

La plupart de ces paramètres ont une signification texturale semblable à celles des précédents.

Cependant, quelques uns de ces paramètres permettent de caractériser un aspect différent de la

texture d'une image. Il est donc courant que l'on procède à une sélection de paramètres pour

déterminer les plus appropriés pour une application donnée.

Gong et al. (1992) ont trouvé que les paramètres second moment angulaire (ASM), contraste

(CON) et corrélation (COR) produisent une information texturale plus consistante que les

mesures statistiques du premier ordre. Agbu et Nizeyimana (1991) ont appliqué une
211

statistique de cooccurrence du second ordre à des données SPOT de l’Illinois. Ils ont

documenté le potentiel des propriétés texturales des images, pour la délimitation des unités

cartographiques dans les phases initiales des programmes détaillés d’inventaire des sols et de

planification de l’utilisation du sol. Barber et LeDrew (1991), et Mohammed (1991) utilisent

des statistiques de cooccurrence du second ordre pour discriminer les glaces marines dans les

données radar. Ils reportent une amélioration de la précision de classification quand on

combine la texture et l’information de niveau de gris. Franklin et Peddle (1989) ont utilisé un

mélange de données spectrales, topographiques (élévation, pente, aspect, courbure, relief) et

des statistiques de cooccurrence du second ordre pour la classification d'images SPOT et radar

en milieu boréal. Leurs travaux ont montré que les matrices de cooccurrence du second ordre

contiennent une information texturale importante, qui améliore la discrimination des classes

ayant une hétérogénéité interne et des formes structurales ou géomorphométriques. Franklin

et Peddle (1989) ont utilisé un mélange de données spectrales et les paramètres second

moment angulaire (ASM), entropie (ENT) et moment différentiel inverse (INV) dans une

classification de la couverture du sol à partir des images SPOT. Des améliorations

substantielles de la précision de classification ont été notées lorsque les données texturales et

spectrales étaient intégrées dans le processus de classification. Les classes homogènes sur le

sol sont caractérisées adéquatement par l’information spectrale seule, mais les classes

contenant des mélanges de types de végétation ont été caractérisées avec plus de précision en

utilisant une combinaison de texture et de données spectrales. Anys et He (1995) ont utilisé

des paramètres de texture dans une classification des cultures. Ils ont noté une augmentation

significative de la précision de classification lorsque l'information texturale a été intégrée dans

le processus de classification.

8.2.4.5 Nouvelle approche dérivée de la matrice de cooccurrence des niveaux de gris


212

La méthode de calcul des paramètres de texture par les matrices de cooccurrence est très

consommatrice en temps de calcul et en espace mémoire. Divers auteurs se sont penchés sur

ce problème, lui trouvant chacun une solution propre, ainsi, Unser (1986) remplace la matrice

de cooccurrence par la somme et la différence d’histogrammes qui définissent les axes

principaux des probabilités de second ordre des processus stationnaires. Marceau et al. (1990)

proposent une approche texturale et spectrale pour la classification de différents thèmes et

adopte la réduction du niveau de quantification (16, 32 au lieu de 256), sans altérer la

précision de la classification. Peckinpaugh (1991) décrit une approche efficace pour le calcul

des mesures de texture basées sur la matrice de cooccurrence permettant un gain de temps

appréciable. Kourgli et Belhadj-Aissa (1999) présentent un nouvel algorithme pour calculer

des paramètres de texture par le biais de différents histogrammes. Cet algorithme nécessite

l’allocation d’un vecteur au lieu d’une matrice, et le calcul des paramètres de texture se fait

selon de nouvelles formules faisant appel à une somme et non à une double somme, ce qui

réduit considérablement le temps de calcul. La méthodologie de cette méthode est présentée

sur les lignes qui suivent.

Pour illustrer cette méthode, considérons l'exemple du calcul de l’élément moyenne. Pour une

fenêtre F de taille N l  N c  3  3 et une MCNG (Matrice de Cooccurrence des Niveaux de

Gris) M symétrique suivant la relation R : (d,), la moyenne s'exprime comme suit :

L 1 L 1
i N
pij
x 
i  0 j 0

Pour une normalisation appropriée chaque probabilité p ij doit être divisé par le nombre total

des p ij . Ainsi, pour un déplacement d horizontal ou vertical, on prendra N  2  N1   N c  d 


213

et N  2   N l  d   N c , respectivement. Pour un déplacement en diagonale, on prendra

N  2   N l  1   N c  1 . Illustrons cette méthode par un exemple.

A la fenêtre F correspond la MCNG M pour R(1,0°), tel qu’illustré ci-dessous.

1 2 3

1 2 3 
1 2 1 2 
F : 2 3 1 

M:2 1 0 2

3 1 1

3 2 2 0

Dans ce cas N  2  N l   N c  1  2  3  2  12 et  x   i 
3 3 p ij
.
i 1 j1 12

1   2  1  2  2  1  0  2  3   2  2  0  1  5  2  3  3  4 23
Soit  x   
12 12 12

Nous noterons, en particulier, que  pij pour un ’i’ donné représente la probabilité

d’occurrence du niveau de gris ’i’ dans la fenêtre suivant Fl additionné à la probabilité

d’occurrence du niveau de gris ’i’ dans la fenêtre F2.

1 2 * * 2 3
F1d  1,   0 : 2 3 * et F2d  1,   180 : * 3 1
3 1 * * 1 1

Ainsi occ1  2  3  5 , occ 2  2  1  3 et occ 3  2  2  4 .

En règle générale, pour une fenêtre F, le calcul de occ(i) reviendra à sommer les fréquences

des occurrences de ‘i’ suivant R(d,) dans cette fenêtre.

occ(i) = fréquence d’occurrence(i) suivant R(d,0).

Evaluation de  x :

Evaluer  x revient à multiplier chaque niveau de gris de la fenêtre image par la fréquence

d’occurrence correspondante :
214

i  occi  1  5  2  3  3  4 23
3
x   12

12

12
,
i 1

L 1
i  occ i L1 j  occ j
ce qui donne la nouvelle formulation de  x :  x    .
i0 N j 0 N

Ainsi, il est possible d'estimer la moyenne sans avoir à calculer la matrice de cooccurrence et

de réduire le calcul d'une double sommation à une simple sommation. De la même façon, il

est possible d’estimer d’autres paramètres de texture moyennant le calcul des fréquences

d’occurrence sur les fenêtres adéquates :

- la variance :

On procède de la même façon.

A l’origine, la variance est définie par :

L 1 L 1 L 1
occi 
 i   x    i   x 2
2 2 pij 2
x  et devient x 
N N
i 0 j 0 i 0

- la corrélation :

Sachant que pour une matrice symétrique  x   y et  x   y , on a :

L 1L 1  L 1 L 1 
i   x  j   x  pij 1  2
 
pij
C   i j   x 
 x . y N  x 2  i  0 j 0 N 
i  0 j 0  

De la même façon, reconsidérons le même exemple pour lequel nous allons

L 1 L 1
i j N .
pij
estimer
i  0 j 0

3 3 p ij 1  1  2  2  1  3  2   2  1  1  2  0  3  2   3  1  2  2  2  3  0
 i j 
i 1 j1 N 12

1  10   2  7   3  6 42 7
  
12 12 2
215

 j pij pour un ‘i’ donné représente la somme des ‘j’ pour lesquels la relation R(d,) est
vérifiée, ce qui revient à considérer les deux fenêtres F l et F2.

1 2 3 1 2 3
F1d  1,   0 : 2 3 1 et F2d  1,   180 : 2 3 1
3 1 1 3 1 1
i, j  j, i 

Ainsi,

 occ' 1   2  1 F1   3  3  1 F2  10

occ'  2   3  3  1  7
 F1 F2

 occ'  3  1  1   2  2  6
 F1 F2

Pour une fenêtre F, le calcul de occ'(i) revient à sommer pour chaque 'i' les 'j' suivant R(d, )

dans cette fenêtre : occ'  i   j suivant Rd,  .

3 3 pij 3
i  occ'  i 1  10  2  7  3  6 7
 i j   
i 1 j1 N i 1 12 12 2

ce qui donne la nouvelle formulation de la corrélation :

L 1
1  i  occi  
C 
 x 2  i  0 N
 x2 

- l'inertie :
216

 L1 L1 2 p ij
L 1 L 1 p L 1 L 1 p

I     i  j N
 2  i 2

ij
 2  i j
ij

j 0 N i  0 j 0 N
 i  0 j 0 i0

 L 1
2 occ i
  L1 occ'  i
 I  2  i  2 i
 i0 N i0 N

- le groupe de nuance :

L 1L 1
 i   x    j   x 3 N
pij
A
i  0 j 0
L 1 L 1 L 1 L 1 L 1 L 1
 i   x    i   x    i   x   N
3 pij 2 pij 2 pij
2 6 j  6 x
N N
i0 j 0 i0 j 0 i0 j 0
L 1 L 1 L 1
occi  occ i  occi  
A2  i   x 3  6  i   x 2
N
6 x  i   x 2
N N
i0 i0 i0
L 1
occi  occi  
2  i   x 2  i  4 x  N
3
N 

i0

- le groupe de prédominance :

 
L 1 L 1
B    i   x    j   x 
4 p ij
i  0 j 0 N

L 1 L 1 L 1 L 1 L 1 L 1
 2  i   x   8  i   x   8 x  i   x 
p ij p ij p ij
  
4 3 3

i0 j 0 N i0 j 0 N i0 j 0 N

L 1 L 1 L 1 L 1 L 1 L 1
 6  i   x   12 x  i   x   6 2x  i   x 
p ij p ij p ij
 j2 j 
2 2 2

i0 j 0 N i0 j 0 N i0 j 0 N

L 1
occ i L1 3 occ'  i
L 1
3 occ i
B  2  i   x   8  i   x   8 x  i   x 
4

i 0 N i0 N i 0 N
217

L 1
occ"  i L 1 L 1
occ'  i L 1
2 occ i
 6  i   x   12 x  i   x    6 2x  i   x 
2 2

i 0 N i 0 j 0 N i 0 N

L 1
2 occ i occ'  i occ"  i 
 2  i   x   i 2  6i x  8 2x   4i  10 x  3 
i0  N N N 

où occ"  i   j2 suivant Rd,  .

Les paramètres que l’on peut estimer grâce à cet algorithme sont des paramètres faisant

intervenir des sommations directes sur les probabilités d’occurrence. Les paramètres tels que

l’énergie, l’entropie et l’homogénéité locale font intervenir des calculs sur les probabilités

prises individuellement. On ne peut donc pas appliquer cette méthode pour les estimer. Cette

méthode a été appliquée avec succès par les auteurs, réduisant le temps de calcul des

paramètres de texture dans un rapport approximatif de 1/60, par rapport à la méthode

classique.

8.2.4.6 La méthode des différences de niveaux de gris

La méthode des différences de niveaux de gris est décrite ci-après (Weszka et al., 1976). Soit

f(x,y) la fonction de niveau de gris d’une image. Pour tout vecteur   x, y de l'espace

image, où x et y sont des entiers ( peut être défini par un angle interpixels  et une

distance interpixels d), on définit f x, y  f x, y  f x  x, y  y . Soit finalement p 

l'estimation de la fonction de probabilité associée aux valeurs possibles de f  , c'est-à-dire

 
pm   p m  Pr f x, y  m . La fonction p  est souvent appelée fonction de densité

des différences de niveaux de gris. Il est communément admis que toute l’information

texturale dérivable de la distribution p  est obtenue pour les angles interpixels 0°, 45°,

90° et 135°, avec une distance interpixels d pouvant prendre la valeur 1 ou 2. A partir de ces
218

distributions de probabilité, plusieurs paramètres statistiques peuvent être calculés pour

caractériser la texture locale de l'image (équations (8.29a-h)).

- Moyenne () : F1   m  p m (8.29a)


m

- Contraste : F2   m2  p m (8.29b)
m

F3    p m 
2
- Second Moment Angulaire : (8.29c)
m

- Entropie : F4   p m  ln p m  (8.29d)


m

p m
- Moment Différentiel Inverse : F5   (8.29e)
m 1  m2

F6    m   p m
2
- Variance (  2 ) : (8.29f)
m

1 
 
3   m    p m 
3
- Coefficient de symétrie (skewness) : F7  (8.29g)
 m 

1 
 
4   m    p m 
4
- Coefficient d'applatissement (kurtosis) : F8  (8.29h)
 m 

Le principal avantage de la méthode des différences de niveaux de gris est qu'elle calcule des

histogrammes d'ordre un tout en contenant réellement des statistiques d'ordre deux.

8.2.4.7 Méthode des longueurs de plage

La méthode des longueurs de plage de niveaux de gris consiste à compter le nombre de plages

de niveaux de gris d'une certaine longueur, dans une certaine orientation (Dasarathy and

Holder, 1991). Une matrice R()  [ r (i, j / )] de longueurs de plage est associée à un angle

 , où r (i, j / ) est le nombre de plages de pixels de niveau de gris i, de longueur j et dans la

direction  . Généralement, cinq paramètres sont extraits de ces matrices (équations (8.30a-

e)).
219

- le poids des plages courtes (short run emphasis) :

1 M N r i, j;
F1   (8.30a)
nr i 1 j1 j2

- le poids des plages longues (long run emphasis) :

  j  ri, j;
1 M N 2
F2  (8.30b)
nr i 1 j1

- la distribution des niveaux de gris :

2
1 M N 
F3    r i, j; (8.30c)
nr i 1  j1 

- la distribution des longueurs de plages :

2
1 N M 
F4    ri, j; (8.30d)
nr j1  i 1 

- le pourcentage des niveaux de gris :

  ri, j;
1 M N
F5  (8.30e)
NB i 1 j1

La constante nr    r i, j; est le nombre total de plages dans l'image, M est le nombre de
M N

i 1 j1

niveaux de gris dans l'image et N est le nombre de longueurs de plages rencontrées dans

l'image.

Deux autres paramètres complètent la liste précédente (équations (8.31a-b)).

- le poids des longueurs de plage de petit niveau de gris :

1 M N ri, j;
F6   (8.31a)
nr i 1 j1 i 2

- le poids des longueurs de plage de grand niveau de gris :


220

  i  ri, j;
1 M N 2
F7  (8.31b)
nr i 1 j1

Quatre autres paramètres ont été proposés par Dasarathy et Holder (1991). Ces paramètres

sont une combinaison de certains des paramètres précédents. Ils tiennent compte à la fois, de

la distribution des niveaux de gris et des longueurs de plage (8.32a-d).

- le poids des courtes plages de petit niveau de gris :

1 M N ri, j;
F8   (8.32a)
nr i 1 j1 i 2 j2

- le poids des courtes plages de grand niveau de gris :

1 M N i 2  r i, j;
F9    (8.32b)
nr i 1 j1 j2

- le poids des longues plages de petit niveau de gris :

1 M N j2  ri, j;
F10    (8.32c)
nr i 1 j1 i2

- le poids des longues plages de grand niveau de gris :

  i j  ri, j;
1 M N 2 2
F11  (8.32d)
nr i 1 j1

Les performances de cette méthode par rapport à la méthode des matrices de covariance sont

controversées. la méthode des longueurs de plage fonctionne mieux que les matrices de

covariance sur des textures contenant des formes plus ou moins allongées dans une direction

ou dans une autre. Par contre, elle est moins efficace sur des textures constituées de micro-

textures (Reuzé, 1995).

8.2.4.8 La méthode des histogrammes du troisième ordre


221

Un histogramme du troisième ordre est aussi appelé matrice de cooccurrence du troisième

ordre. L'élément pi, j, k   pi, j, k; d1 , 1 , d 2 , 2  d'un histogramme du troisième ordre

représente le nombre de fois que le niveau de gris i précède le niveau j selon une distance d1 et

un angle 1 , qui à son tour précède le niveau de gris k selon une distance d2 et un angle  2 .

Un des aspects importants de ce passage des histogrammes du second ordre aux histogrammes

du troisième ordre est que les trois pixels impliqués ne se trouvent pas nécessairement sur une

droite. Les couples d1 ,1  et d 2 ,2  pouvent être totalement différents (Hevenor, 1985), ce

qui résulte en une plus grande prise en compte des relations spatiales existant entre les pixels

de l'image analysée. A partir de ces histogrammes du troisième ordre, plusieurs paramètres de

cooccurrence définis dans le cas des matrices de cooccurrence du second ordre peuvent être

généralisés (équations (8.33a-k)) (Hevenor, 1985).

- Différence Inverse :

Ng Ng Ng
pi, j, k 
F1     (8.33a)
i  0 j 0 k  0 1 i  j  i  k  j  k

- Dissimilarité ou Valeur Absolue :

 
Ng Ng Ng

F2     i  j  i  k  j  k  pi, j, k  (8.33b)
i  0 j 0 k  0

- Entropie :

 
Ng Ng Ng

F3     pi, j, k   ln pi, j, k  (8.33c)


i  0 j 0 k  0

- Contraste :

 
Ng Ng Ng

F4     i  j   i  k    j  k   pi, j, k 
2 2 2
(8.33d)
i  0 j 0 k  0

- Second Moment Angulaire :


222

 
Ng Ng Ng

F5     pi, j, k 
2
(8.33e)
i  0 j 0 k  0

- Moment Différentiel Inverse :

Ng Ng Ng
pi, j, k 
F6     (8.33f)
1  i  j   i  k    j  k 
2 2 2
i  0 j 0 k  0

- Corrélation :

Ng Ng Ng i    j   k   
F7     pi, j, k 
i j k
(8.33g)
i  0 j 0 k  0  2

- Covariance :

 
Ng Ng Ng

F8     i   i  j   j  k   k  pi, j, k  (8.33h)
i  0 j 0 k  0

- Variance :

Ng Ng Ng

F9     i   i  pi, j, k  (8.33i)
i  0 j 0 k  0

- Probabilité maximale :

F10  max
0 i , j, k  N g
pi, j, k (8.33j)

- Troisième Moment Angulaire :

 
Ng Ng Ng

F11     pi, j, k 
3
(8.33k)
i  0 j 0 k  0

A la suite de ces paramètres classiques, de nouveaux paramètres ont été proposés pour tirer le

maximum d'information des histogrammes du troisième ordre (équations (8.34a-c)) (Pratt,

1991).

- Importance des petits nombres :

Ng Ng Ng
pi, j, k 
F12    
i  j2  k 2 
2
(8.34a)
i  0 j 0 k  0
223

- Importance des grands nombres :

Ng Ng Ng

F13     i 2  j2  k 2   pi, j, k  (8.34b)


i  0 j 0 k  0

- Importance de la profondeur :

2
Ng Ng
 Ng 
    pi, j, k 
i 1 j1  k 1 
F14  Ng Ng Ng (8.34c)
   pi, j, k 
i 1 j1 k 1

 2 a la valeur suivante :

 
Ng Ng Ng

     i   i  j   j  k   k   pi, j, k 
2

i  0 j 0 k  0

Les applications de cette méthode en télédétection sont plutôt rares à cause de sa très grande

consommation en temps de calcul et en occupation mémoire. Anys et He (1995) ont évalué la

contribution des statistiques de cooccurrence du troisième ordre dans la classification des

cultures en utilisant les images radar multipolarisation. Leurs travaux ont conclu que la

combinaison des mesures texturales de différents ordres avec les données multipolarisations

produit des améliorations du taux de classification correcte de 98% environ.

8.2.4.9 La méthode du spectre de texture

Wang et He (Wang and He, 1990; He and Wang, 1990) ont proposé une méthode d’analyse

de texture basée sur l’analyse de huit manières possibles de disposer, selon le sens de

déplacement des aiguilles d’une montre, les éléments de la matrice 3 x 3 des valeurs des

pixels montrée sur la figure 8.6. Cette disposition représente un ensemble comprenant neuf

éléments V = {V0, V1, …..,V8}, où V0 représente le niveau de gris du pixel central et Vi le


224

niveau de gris du i-ème voisin. L’unité de texture correspondante est un ensemble contenant

huit éléments, TU = {E1,E2,….,E8}, où E i est évalué selon l’expression (8.35).

0 si Vi  V0

E i  1 si Vi  V0 , pour i  1,2,.......,8 (8.35)
2 Vi  V0
 si

L’élément Ei occupe la même position que le pixel i. Comme chaque élément de TU a une des

trois valeurs possibles, la combinaison de tous les huit éléments résulte en 6551 unités de

texture possibles. Il n’y a pas une manière unique d’étiqueter et d’ordonner les 6551

différentes unités de texture. Par conséquent, l’unité de texture correspondant à un voisinage 3

x 3 de pixels est calculée selon l’expression (8.36).

8
N TU   3i 1  E i (8.36)
i 1

Dans cette expression (8.33), E i est le ième élément de l’unité de texture TU. Le premier

élément, E i , peut occuper n’importe quelle position parmi les huit positions possibles

présentées sur la figure 8.6. Un exemple de transformation d’un voisinage 3 x 3 de niveaux de

gris d’une image en une unité de texture (TU) est présenté sur la figure 8.7. On y calcule le

numéro d’unité de texture correspondant (NTU), selon l’expression (8.36), en utilisant le

rangement (a) de la figure (8.6). Dans cet exemple, le numéro de l’unité de texture du pixel

central a la valeur 6095. Les huit niveaux de gris de la fenêtre considérée sont très variés (il y

a une forte hétérogénéité dans cette petite région de l’image). Par conséquent, il n’est pas

surprenant que le pixel central ait un si grand numéro d’unité de texture. Huit numéros d’unité

de texture différents peuvent être calculés pour ce pixel central, en utilisant les huit

rangements illustrés sur la figure 8.6. Ces huit numéros d’unité de texture peuvent être

combinés de manière à obtenir un numéro d’unité de texture moyen du pixel central. Les

numéros d’unité de texture possibles, qui varient entre 0 et 6560, décrivent la texture locale

d’un pixel en relation avec ses huit voisins. La distribution de fréquence des numéros d’unité
225

de texture associés à une image est appelée spectre de texture. Dans une image classifiée,

chaque classe (ou sous-image) devrait avoir un spectre de texture unique, si sa texture est

réellement différente de celles des autres classes (ou sous-images).


226

Figure 8.6 Présentation des 8 manières possibles de disposer les éléments

d’un voisinage 3 x 3, dans le sens de déplacement des aiguilles d’une montre.

Figure 8.7 Exemple de calcul d’une unité de texture : (a) voisinage 3 x 3 initial;

(b) unité de texture correspondante obtenue selon l’équation (8.32);

on obtient un numéro d’unité de texture égal à 6095, selon l’équation (8.33).


227

He et Wang (He and Wang, 1990) ont résumé les différents algorithmes utilisables pour

extraire des attributs texturaux à partir du spectre de texture d'une image (équations (8.34a-

g)).

 3279 
  p i  p 6561  i 
- La symétrie noir et blanc : F1  1  i  0 6560   100 (8.37a)
 p i  
 i0 

Ce paramètre mesure la symétrie entre la moitié gauche et la moitié droite du spectre de

texture. Une grande valeur de ce paramètre signifie que si on inverse les valeurs de niveaux de

gris de l'image originale, le spectre de texture de l'image résultante sera approximativement le

même que le spectre de texture de l’image originale.

 6560

 1 4  p j  i   p j 4  i  
- La symétrie géométrique : F2  1   i  0 6560   100 (8.37b)
 4 j1 2   p j  i 
 i0 

Ce paramètre mesure la symétrie du spectre de texture sous différents rangements (figure 8.6)

pour une image donnée. Cette mesure donne une information sur la régularité de la forme des

images (He and Wang, 1990). Une grande valeur de symétrie géométrique signifie que le

spectre de texture reste approximativement le même si l'image subit une rotation de 180°.

 6560

 1 3 4  p m  i  p n  i 
- Le degré de direction : F3  1    i0
6560   100 (8.37c)
 6 m1 n  m1
2   p m  i 
 i0 

Une grande valeur du degré de direction indique que le spectre de texture est sensible à

l'orientation des structures de l'image.

Pour les huit éléments d'une unité de texture (figure 8.6), on peut supposer que l'image

originale a une micro-texture avec un alignement horizontal. Pour mesurer cette propriété, les

auteurs définissent une mesure de linéament horizontal (équation 8.37d).


228

6560
- Mesure de linéament horizontal : F4   p i  HM i (8.37d)
i0

où HM i  pa, b, c  pg, f , e .

Une grande valeur de ce paramètre signifie que l'image originale a une forte micro-texture

d'orientation horizontale. De même, ils définissent les autres trois mesures exprimées par les

équations (8.37e), (8.37f) et (8.37g).

6560
- Mesure de linéament vertical : F5   p i  VM i (8.37e)
i0

où VM i  pa, h, g  pc, d, e .

6560
- Mesure de linéament diagonal 1 : F6   p i  DM1 i (8.37f)
i0

où DM1 i  ph, a, b  pf , e, d .

6560
- Mesure de linéament diagonal 2 : F7   p i  DM2 i (8.37g)
i0

où DM2 i  pb, c, d  ph, g, f  .

Les quatre mesures d'orientation définies dans les lignes qui suivent (équations (8.38a),

(8.38b), (8.38c) et (8.38d)) mesurent les propriétés directionnelles de l'image originale. Elles

varient selon l'orientation des structures de l'image.

6560
 p i   K i 
2
- Symétrie centrale : F8  (8.38a)
i0

où K i est le nombre de paires ayant la même valeur pour les éléments  fa , fe  ,  f b , f f  ,

f , f  et f , f  .
c g d h

 6560 ~ 
  p i  p i  
- Anisotropie : F9  1  i  0 6560   100 (8.38b)
  p i 
 i0 
229

~
Dans les expressions (8.38), i représente le numéro d'unité de texture qui est obtenu en

 
permutant les éléments des quatre paires  fa , fe  ,  f b , f f  , fc , fg et  fd , f h  .

 
 p 6560  p1 
- Granularité 1 : F10   6560   100 (8.38c)
  p i 
 i0 

 
 p 3280 
- Granularité 2 : F11   6560   100 (8.38d)
  p i 
 i  0 

De nombreuses applications du spectre de texture ont été reportées dans la littérature par les

auteurs (He and Wang, 1990; Wang and He, 1990; He and Wang, 1992; Wang, 1995). Dans

une étude plus récente (Akono, 1997), la méthode du spectre de texture a été utilisée pour

l'analyse texturale des images radar ERS1 de la région côtière du Cameroun avec des résultats

encourageants.

8.2.4.10 Activité du signal de texture

Une méthode plus simple pour mesurer l’activité du signal de texture consiste à détecter les

extréma par filtrage logique, puis à mesurer leur nombre sur un support d'une certaine taille.

La densité d'extréma ainsi mesurée permet de différencier un certain nombre de textures.

L'inconvénient principal de cette méthode réside dans sa grande sensibilité au bruit. Pour

remédier à ce problème, la densité de contours est préférée. Ceux-ci sont extraits par des

filtres gradients en horizontal et en vertical. Il est préférable de ne pas seuiller la réponse de

ces filtres, ce qui donnerait une image binaire des contours (très dépendante de la valeur du
230

seuil). Il est plutôt souhaitable de prendre en compte l'amplitude du gradient, ce qui offre les

deux avantages suivants :

1) Il n’y a pas de seuil de binarisation à choisir. Ceci implique que la densité des contours ne

varie pas avec la valeur du seuil.

2) Dans la mesure de la densité, on intègre l'amplitude du contour, ce qui renforce la

présence des contours les plus forts.

La mesure de la densité peut s'effectuer pour chaque réponse de filtre séparément, ce qui

permet de mesurer l'activité de la texture en fonction de l'orientation. La technique des

longueurs curvilignes consiste à mesurer la longueur curviligne du signal de luminance le

long de certaines lignes d'analyse Li. L'intégrale curviligne mesure la longueur d'une fonction

spatiale de niveaux de gris, selon une demi-droite dans une direction donnée (Barba, 1983;

Ronsin et al., 1985). Les demi-droites partent de chaque point p de l'image avec des

orientations angulaires différentes i i  1,2,3,......., n couvrant la gamme 0, 2  . Les demi-

droites se terminent lorsque la valeur de l'intégrale curviligne atteint un seuil défini à priori.

La mesure de la texture, le long d'une demi-droite Li est donnée par la valeur ai du

déplacement le long de cette ligne. A chaque point p de l'image, on peut associer un vecteur

d'attributs (équation (8.39)).

V( p)  a 1 , a 2 , ...., a n 
T
(8.39)

 
Dans l’expression (8.39), on a : a i   ds , avec ds  2 dx2  dy2   df  x, y . f  x, y est
Li
2

la fonction de niveau de gris du pixel situé en (x,y) et  est la fonction d'échelle introduite

entre la variation spatiale et la variation des niveaux de gris. Ce vecteur d’attributs peut être

utilisé en segmentation d'images et il peut servir à l'extraction d'attributs en analyse de texture.

8.2.4.11 Analyse par la morphologie mathématique


231

La morphologie mathématique, devenue une nouvelle méthodologie en traitement d'images,

fut initialement étudiée par Matheron (1975), Serra (1982, 1988) et Sternberg (1982, 1986).

Elle est fondée sur la théorie des ensembles et elle fournit une approche basée sur les formes.

Les opérations de base en morphologie mathématique consistent à comparer les objets que

l'on veut analyser à un objet de forme connue, appelé élément structurant, ayant une forme

prédéfinie. L'objectif visé est la simplification des informations contenues dans l'image, tout

en préservant son allure générale (Haralick and Zhuang, 1987). L'originalité de cette

méthodologie réside dans le fait qu'elle présente une analogie avec les mécanismes de la

vision humaine, effectuant la reconnaissance d'objets ou de scènes dans un espace

tridimensionnel. La notion de forme ou d'ensemble correspond aux objets présents dans les

images binaires ou multi-niveaux. Les opérations de la morphologie mathématique

s'expriment en termes de relations ensemblistes telles que l'union, l'intersection, la

complémentation et la différence ensembliste.

La morphologie mathématique est de plus en plus utilisée dans différents domaines du

traitement d'images (Maragos and Schafer, 1990), notamment en traitement d'images

biomédicales et satellitaires (Ogor et al., 1995). Elle est aussi utilisée en inspection

automatique industrielle, en reconnaissance de formes (Dougherty et al., 1992; Jaggi et al.,

1995), en traitement de documents (Liang et al., 1994), en détection de contours (Beucher and

Meyer, 1993) et objets (Geraud et al., 1995), en filtrage des images (Safa and Flouzat, 1989;

Morales et al., 1995), en analyse de texture (Wang et al., 1993), en présentation d'images

(Jeannot et al., 1996) et en codage d'images (Pardas and Salembier, 1994; Wang et al., 1996).

Dans les paragraphes qui suivent, nous rappelons uniquement son utilisation en analyse de

texture.

8.2.4.11.1 La méthode de la morphologie avec des éléments structurants 1D


232

Werman et Peleg (1985) ont proposé en analyse de texture une méthode basée sur la

morphologie mathématique avec des éléments structurants 1D. Ils ont utilisé un groupe

d’éléments structurants E(l,) dont les longueurs sont l et les orientations . Soit f(i,j) une

image de texture. Les sommes respectives des niveaux de gris des images érodées, dilatées,

ouvertes et fermées s’expriment par les relations (8.40) ci-après.


Sd l,    f i, j  El, 
 i, j


S l,    f i, j  El, 
 e i, j


 
(8.40)
 So l,    f i, joEl, 
 i, j

 
 S f l,    f i, j  El, 
 i, j

Six attributs texturaux sont extraits à partir de chacune des matrices S précédentes :

1) toute la matrice;

2) les sommes des lignes;

3) les sommes des colonnes;

4) les dérivées par ligne Sl,   Sl,  1 ;

5) les dérivées par colonne Sl,   Sl 1,  ;

6) les gradients Sl,   Sl  1,   1  Sl  1,   Sl,   1 .

Dans leurs expérimentations, la matrice entière d’érosion se forme par les éléments

structurants E(l,) pour l  2,3,.......,9 et  = 0°, 45°, 90°, 135°. Donc, Se l, constitue une

matrice d’attributs de 8 lignes et de 4 colonnes, soit 32 éléments en tout. En identifiant les

images texturales par les différences de Se l, , une bonne classification a été obtenue.

8.2.4.11.2 La méthode de la fractale morphologique


233

Dans (Peleg et al., 1984), le principe de la mesure de la longueur d’un littoral est étendu à la

mesure de la surface. Un élément structurant en croix, défini par la fonction h(x,y) est utilisé.

Cette méthode se définit d’abord par l’érosion et la dilatation itératives (équation 8.41).

u o i, j  b o i, j  f i, j





 u k i, j   u k 1  hi, j k  1,2,3,...... (8.41)


 b k i, j   b k 1  hi, j

A partir de ces valeurs, on peut calculer les volumes vk entre uk et bk :

 
v k   u k i, j  b k i, j . On peut aussi obtenir la surface de la texture à la résolution k :
i, j

sk   v k  v k 1  2 . Finalement, les textures sont caractérisées par la pente  k  de la droite

     
qui passe au milieu des points log k  1 ,logsk 1  , log k  ,logsk  , log k  1 ,logsk 1  .

 k  s’appelle la dimension fractale de la surface sk à la résolution k. La classification de

texture s’effectue par comparaison des  k  des différentes textures. Pour les textures i et j de

dimensions fractales  i  k  et  j  k  , la différence est mesurée par la distance pondérée

exprimée par l’équation (8.42).

  k  0.5 
 
Di, j    i  k    j  k   log
2
 (8.42)
k   k  0.5 

L’expérience mise en œuvre pour valider cette méthode a consisté à classifier six paires de

textures en prenant k = 2,3,…,49. Cette expérience a résulté en une seule mauvaise

identification.

8.2.4.11.3 La méthode d’analyse granulométrique d’une image texturale


234

La granulométrie morphologique est l’analyse opérée après l’application d’une suite de filtres,

réalisant une décomposition en séquences de plus en plus fines selon la taille des objets

présents. La distribution de taille est observée par la mesure des résidus après chaque itération

d’un filtre de la séquence. Le concept de la granulométrie a été introduit par Matheron (1975)

et son principe est présenté dans les lignes qui suivent.

Des séquences de transformations permettent de calculer la granulométrie si les deux

conditions suivantes sont remplies :

1)   0 ,   est une ouverture algébrique.

2) ,  0 ,   o      o     sup  , 

où une ouverture algébrique est définie par les propriétés suivantes :

1) Anti-extensivité :  f   f

2) Croissance : f  g   f   g

3) Idempotence :  o  f    f 

Dougherty et al. (1992) ont utilisé une séquence d’éléments structurants croissants dans

l’ouverture classique. Après l’ouverture par cette séquence d’éléments structurants, l’image f

traitée devient une série d’images au contenu de taille croissante. Ceci signifie que les détails

de ces images deviennent de moins en moins grands, au fur et à mesure qu’on effectue des

ouvertures avec des éléments structurants de plus en plus grands (voir expression (8.43)).

 1  f    2  f  ..........   k  f .... (8.43)

Dans l’expression (8.40),  représente l’opération d’ouverture et les indices 1, 2, …

représentent la série d’éléments structurants utilisés. Dans ce cas, la séquence  f  x


k

forme la granulométrie de l’image f(x). Plus généralement, supposons une transformation

morphologique qui satisfait les conditions de mesure de la granulométrie de l’image.


235

Supposons en outre que cette transformation est décroissante avec la série d’éléments

structurants croissants. Pour un certain K  k , on a  k  0 . L’information de texture peut

être étudiée par la fonction de distribution de taille  k  . En pratique, l’ouverture par un

élément structurant de taille 1,  1 , doit conserver tous les détails de l’image. Elle doit donc

 k 
donner le nombre total de pixels de l’image, et la normalisation  k   1  peut être
1

considérée comme la fonction de distribution de probabilité. La dérivation discrète de  k 

s’appelle densité discrète. Pour définir la distribution granulométrique locale dans une

segmentation de l’image basée sur une analyse de texture locale, on peut d’abord ouvrir

l’image entière avec une série d’éléments structurants croissants. La distribution en taille est

observée en plaçant une fenêtre Wx centrée sur chaque pixel x de l’image et en comptant la

distribution des tailles dans cette fenêtre. On a alors la distribution granulométrique locale

 x  k  . De manière parallèle, la distribution granulométrique locale normalisée s’exprime par

 x  k
x  k  1  . La densité d x  k  s’appelle spectre local (local pattern spectrum) et sert
 x 1

comme descripteur local de la texture au pixel x. Avec des éléments structurants différents, la

moyenne de d x  k  en chaque pixel constitue une image qui s’appelle le spectre moyen

(pattern spectrum mean) (PSM). Dans l’étape de segmentation des images de texture, les

auteurs ont choisi 17 attributs texturaux dont les principaux sont la moyenne de l’image

PSM PSM  et l'écart-type de l’image PSM PSM  . De façon semblable, Chen et al. (1993)

ont calculé la distribution granulométrique globale et locale en étudiant des images de texture

naturelles et médicales.

8.2.4.11.4 Décomposition morphologique multirésolution


236

Wang et al. (1993) ont proposé une méthode de décomposition morphologique

multirésolution pour segmenter les images texturales. Dans cette méthode, un groupe Bi

d’éléments structurants de différentes tailles est défini dans l’espace euclidien 2D (équation

(8.44)).

Bi 1  Bi  B, i  0,1,......., n  1 (8.44)

Dans ce cas, B0  0,0 est l’origine et B est l’élément structurant élémentaire ayant une

forme simple et régulière (carré, losange, croix, ...). La figure 8.8 montre un groupe Bi obtenu

à partir de l’élément structurant élémentaire B carré de taille 3  3.

Figure 8.8 Génération du groupe Bi d'éléments structurants par l'élément structurant

élémentaire B carré de taille 3 x 3.

L’ouverture de l’image texturale f(x,y) par l’élément structurant Bn (le plus grand dans le

groupe) est d’abord calculée. Toutes les primitives de taille supérieure à cet élément

structurant sont extraites de l’image s(x,y) obtenue après l’ouverture, et toutes les primitives

de taille inférieure sont complètement supprimées. Les primitives un peu moins larges

peuvent alors être extraites par ouverture sur l’image différentielle f(x,y)-s(x,y) avec un

élément structurant Bn-1 un peu moins grand. Ensuite, de façon similaire les primitives de

moins en moins larges sont extraites en utilisant des éléments structurants de plus en plus

petits. Ce processus s’exprime par les relations (8.45).


237

 f 0  x, y  f  x, y



si  x, y   fi o Bn 1  x, y i  0,1,....., n (8.45)


 fi 1  x, y  fi  x, y  si  x, y

Dans les relations précédentes (8.42), les si  x, y résultant de la décomposition forment une

série d'images composantes, dont chacune ne contient que les primitives d’une certaine taille.

Quatre groupes d’attributs texturaux extraits des images composantes si  x, y sont définis :

les moyennes et les variances de niveaux de gris, les moyennes de gradient, et les surfaces des

supports de primitives.

8.2.4.12 Analyse par des paramètres fractals

La géométrie fractale est une façon de modéliser les objets spatiaux irréguliers, complexes et

animés de fluctuations aléatoires tels que les montagnes, les flocons de neige et les côtes

littorales. En effet, ces objets ne suivent pas les lois classiques de la géométrie des illustres

Leibniz, Euclide et Newton. La première caractéristique de la géométrie fractale est de donner

à certains objets des dimensions non entières. La dimension fractale d'un objet est un réel qui

mesure son irrégularité. En analyse de texture, de nombreux auteurs (Sarker and Chaudhuri,

1992; Kpalma, 1992) considèrent la surface des niveaux de gris de l'image comme une

surface fractale.

8.2.4.12.1 La notion d'autosimilarité et la dimension fractale

Parallèlement à l'impossibilité de leur donner une dimension euclidienne, les objets fractals

possèdent la propriété d'avoir un aspect invariant à un changement d'échelle. Cette propriété

s'appelle l'auto-similarité. Elle peut conduire au calcul de la dimension fractale. Prenons

l'exemple d'un segment de longueur l constitué de N segments de longueur r  1 N . Chaque


238

1
sous-segment est la réduction du segment initial par un facteur . Le segment possède donc
N

la propriété d'auto-similarité. On a dans cet exemple :

N  r1  1 pour N=3

De la même façon, si on coupe un carré en N parties, chaque sous-carré est auto-similaire au

1
carré initial par la réduction d'un facteur r  . On a donc :
N

N  r2  1 pour N=4

En généralisant ce principe à une dimension D réelle quelconque, on peut déduire que

N  r D  1 . D est la valeur telle que, quelle que soit la longueur r de l'étalon choisi, on obtienne

toujours la même mesure en multipliant cet étalon par le nombre de fois qu'il est contenu dans

l'objet. Cette dimension D est définie comme la dimension fractale et elle s’exprime par la

relation (8.46).

log N 
D
log1 r 
(8.46)

8.2.4.12.2 Le calcul des attributs fractals

a) La méthode des boîtes

Pour la mesure de la dimension fractale d'une surface telle que la surface des niveaux de gris

d'une image, Voss (1986) a proposé une méthode d'estimation du nombre moyen, noté N(r),

de boîtes cubiques de côté r fixé, centrées sur le signal et nécessaires pour recouvrir l'image.

Celle-ci étant considérée comme une surface dans l'espace. On estime P(m,r), la probabilité

qu'une boîte de taille r, centrée sur un point arbitraire de la surface, contienne m points de

l'ensemble. Ceci conduit à l’expression (8.47).

Np

r ,  pm, r   1 (8.47)
m1
239

Dans l’expression (8.47), N p est le nombre de points possibles dans le cube. Si N(m,r) est le

nombre de boîtes de côté r contenant m points, et si K est le nombre total de points dans

l'image, alors l’expression (8.48) est vérifiée.

m  Nm, r   K  Pm, r  (8.48)

L'estimation du nombre moyen de boîtes disjointes nécessaires pour recouvrir la surface est

donnée par l’expression (8.49).

Np Np
Pm, r 
N r    Nm, r   K  (8.49)
m1 m1 m

L'estimation aux moindres carrés de la pente du nuage de points  ln r  , lnN r   , obtenue

avec des boîtes de taille r croissante, donne l'estimation de la dimension fractale.

b) La lacunarité

Ce paramètre noté  permet de différencier deux objets fractals ayant la même dimension

fractale, mais différents en aspect de texture. A partir des probabilités P(m,r), la lacunarité

d'un objet fractal se définit selon l’expression (8.50).

M 2  r    M r  
2

 (8.50)
M r  2
avec

Np Np

M r    m  Pm, r  et M  r 
2
 m2  Pm, r 
m1 m1

Ce paramètre caractérise la rugosité de la texture. Il est faible quand la texture est fine et fort

pour une texture grossière.

c) Le coefficient de Hurst (H)


240

Les mouvements browniens fractionnaires (MBF) ont été introduits par Mandelbrot (1977)

pour décrire les processus stochastiques de type gaussien. Le MBF est essentiellement

caractérisé par un coefficient de Hurst (H). On obtient H en calculant, pour différentes

valeurs de déplacement x, la moyenne des carrés des écarts entre les pixels situés dans une

fenêtre d'analyse centrée sur le pixel (x,y), et ceux situés dans une autre fenêtre de même

taille, centrée sur le pixel x  x, y  y . Cette opération donne un ensemble de points par

lesquels on peut faire passer une droite. H est la pente de cette droite. Si f(x, y) est une

surface de niveaux de gris, l'équation principale qui sert au calcul de H est donnée par

l’expression (8.51).


E f x  x, y  y  f x, y  
2
x2  y2 
2H
(8.51)

Pour une texture non isotrope, ce qui est souvent le cas dans les textures naturelles, il est

intéressant de mesurer H suivant plusieurs orientations  i , i  1,......., n .

d) Les multifractales

La propriété d'autosimilarité d'un ensemble de points peut être caractérisée par la dimension

fractale, mais elle n'est pas toujours présente dans les textures rencontrées. La dimension

fractale n'est donc pas toujours stationnaire. Un moyen d'estimation de ses variations consiste

à mesurer les dimensions multifractales Dq qui caractérisent des dimensions fractales d'ordre

supérieur (Sarker and Chaudhuri, 1995; Lévy-Véhel and Mignot, 1994). Soit f une fonction

sommable sur un intervalle [a, b] de longueur 1. On divise [a, b] en L intervalles de longueur

1/L. Considérons une mesure définie par f dans chaque sous-intervalle ki(L), par exemple la

mesure exprimée par la relation (8.52).

 k i    f  t  dt (8.52)
k i  L

La dimension multifractale à l'ordre q est définie par l’expression (8.53).


241

 L q 
 log    k i  
1
 lim  
i 1
Dq  (8.53)
1 q L    1 
 log  
  L  

D0 est la dimension fractale du support de la mesure. D1 est la dimension d'information et D2

est la dimension de corrélation.

En appliquant ces modèles fractals aux images de textures naturelles, on peut en extraire la

dimension fractale pour les caractériser. En effet, les images de textures naturelles répondent

bien au modèle du MBF (Kpalma, 1992). Lam (1990) a calculé la dimension fractale de trois

paysages différents à Louisiane, en utilisant sept bandes de données Landsat TM à l’aide de

la méthode des boîtes. Une dimension fractale moyenne pour chaque zone d’étude a été

calculée en prenant la moyenne sur toutes les dimensions fractales des bandes. Il a été noté

que le paysage urbain a la plus grande dimension fractale moyenne (D = 2.609). La région

côtière était deuxième (D = 2.597) et la zone urbaine était troisième (D = 2.539). DeCola

(1989) a calculé les dimensions fractales pour les cartes produites à partir des images Landsat

TM du Vermont en utilisant la méthode des boîtes. Ces résultats montrent que la dimension

fractale obtenue à partir de régions relativement petites peut être utilisée comme mesure de

texture ou de complexité. Ceci peut être utile dans des classifications binaires ou floues,

supervisées ou non supervisées. Lam (1990) révèle que les facteurs tels que le bruit, l’angle

d’élévation et l’effet atmosphérique peuvent affecter les valeurs de luminance et par

conséquent la dimension fractale statistique. Dans une étude récente, Chen et al. (1997) ont

proposé une méthode de calcul de la dimension fractale d'une image basée sur la transformée

en ondelettes, dans la classification d'une image SPOT par intégration des informations

spectrales et fractales. Une amélioration de près de 5% de la classification correcte a été

observée lorsque les deux sources d'information étaient combinées dans une classification par

réseau de neurones. Dans une autre étude récente (Legeley-Padovani et al., 1997), la méthode
242

des multifractales a été combinée à la morphologie mathématique pour extraire des structures

linéaires dans une image RSO du satellite ERS1 sur le Sud Cameroun.

8.3 Les indices de végétation

Dans les programmes de recherche sur les changements à l'échelle du globe, les indices de

végétation dérivés des données de télédétection constituent une information de base précieuse

pour la gestion de l'environnement végétal (Bannari et al., 1995). La collecte des informations

précises et opportunes sur la production agricole mondiale et la santé des cultures reste une

préoccupation constante de l'humanité (Groten, 1993). La collecte de telles informations en

utilisant des techniques in situ est très coûteuse, consommatrice en temps et souvent

impossible (Eastman and Fulk, 1993). Une approche alternative consiste à mesurer la quantité

et la condition de la végétation à partir d'une analyse des données multispectrales (Goel and

Norman, 1992). Plusieurs études dans ce domaine ont impliqué l’analyse des données

multispectrales Landsat MSS (Multispectral Scanner), Landsat TM (Thematic Mapper),

SPOT-HRV (Haute Résolution Visible) ou NOAA-AVHRR (Advanced Very High

Resolution Radiometer) en utilisant des techniques de traitement d’images. Le but visé

consiste souvent à réduire les multiples bandes de données en une seule image transformée,

dans laquelle la valeur d'un pixel prédit et mesure les caractéristiques du paysage. Les

caractéristiques en question peuvent par exemple être : la biomasse, la productivité

(photomasse), le LAI (Leaf Area Index), la quantité de radiation active photosynthétique

(PAR) consommée ou le pourcentage de couverture végétale du sol (Larsson, 1993). Cette

section présente plusieurs algorithmes utilisés pour extraire de telles informations à partir de

certaines données de télédétection appelées indices de végétation. La végétation verte saine

réfléchit généralement entre 40% et 50% de l’énergie proche infrarouge incidente (0.7 à 1.1 

m). La chlorophylle contenue dans les plantes absorbe approximativement entre 80% et 90%
243

de l’énergie incidente dans la partie visible (0.4 à 0.7 m) du spectre (Jensen, 1983). La

végétation morte ou sénescente réfléchit une plus grande quantité d’énergie que la végétation

verte saine à travers le spectre du visible. Par contre, elle réfléchit moins que la végétation

verte dans la région réfléchissante de l’infrarouge. Les sols nus ont généralement une

réflectance plus élevée que la végétation verte et une réflectance plus faible que la végétation

morte dans la région du visible, alors que dans le proche infrarouge, le sol nu a généralement

une réflectance plus faible que la végétation verte ou sénescente. Plusieurs indices de

végétation sont basés sur le fait qu’il y a des différences significatives dans la forme de ces

trois courbes (courbes de réflectance dans le visible, l’infrarouge et le proche infrarouge). La

télédétection ne peut offrir aucune information utile sur la condition de la végétation si ces

trois courbes se superposent les unes sur les autres.

Le premier et le plus simple de ces indices de végétation est le DVI (Difference Vegetation

Index) qui est la différence entre la réflectance du proche infrarouge et la réflectance rouge de

la surface. Cet indice n’a pas été utilisé abondamment, mais le RVI (Ratio Vegetation Index)

défini comme le rapport des réflectances dans le rouge et le proche infrarouge a été utilisé par

plusieurs auteurs. Un des avantages de ce quotient par rapport au DVI est qu’il offre une

normalisation partielle de certaines perturbations de mesures telles que les effets de

calibration de l’instrument. Malgré le développement de plusieurs nouveaux indices adaptés

aux comportements des sols, le NDVI (Normalized Difference Vegetation Index), proposé

par Rouse et al. (1974), reste l’indice le plus utilisé. Kaufman et Tanré (1992) développent un

nouvel indice de végétation, appelé ARVI (Atmospherically Resistant Vegetation Index).

Celui-ci est une version améliorée de l’indice NDVI pour mieux raffiner la diffusion

atmosphérique et il est calculé à partir des réflectances apparentes au capteur. Afin de

minimiser à la fois l’effet du sol et l’effet de l’atmosphère, Pinty et verstraete (1992)

proposent un indice de végétation non linéaire pour une gestion globale de la végétation à
244

partir d’images satellitaires : le GMI (Global Environment Monitoring Index). Un autre

indice de végétation résistant aux effets atmosphériques et à la brillance du sol est défini par

Plummer et al. (1994) : le Angular Vegetation Index (AVI). Cet indice utilise les trois

bandes spectrales vert, rouge et proche infrarouge, ainsi que la longueur d’onde centrale de

chacune de ces bandes  blue ,  red ,  nir  . La dépendance spectrale de cet indice se normalise

par rapport à la bande centrale dans le rouge  red  . Tous ces indices s’expriment par les

relations ci-après (équations (8.54), (8.55), (8.56) et (8.57)).

DVI  PIR  R (8.54)

PIR
RVI  (8.55)
R

PIR  R
NDVI  (8.56)
PIR  R

PIR  aR  b

PIR  RB 
ARVI 
PIR  RB 
(8.57)

ab
avec RB  R   B  R  et   ,
ab  ar

avec les définitions suivantes :

R : réflectance moyenne du canal rouge;

PIR : réflectance moyenne du canal proche infrarouge;

R* : réflectance apparente moyenne du canal rouge;

B* : réflectance moyenne apparente du canal bleu;

PIR* : réflectance moyenne apparente du canal proche infrarouge;

RB* : réflectance apparente combinée à partir des deux canaux bleu et rouge;

 a  r : réflectance intrinsèque de l’atmosphère dans le canal rouge;

 a  b : réflectance intrinsèque de l’atmosphère dans le canal bleu


245

 : facteur d’autocorrélation atmosphérique qui dépend du type d’aérosol.

a : pente de la droite des sols nus dans l’espace R/PIR.

b : ordonnée à l’origine de la droite des sols nus dans l’espace R/PIR.

L : facteur d’ajustement égal à 0.5.

La droite des sols nus dans l’espace spectral apparent rouge-bleu et proche infrarouge

s’obtient par l’expression (8.58) ci-après.

PIR  a rb RB  b rb (8.58)

avec

a rb : pente de la droite des sols nus dans l’espace RB*/PIR*;

b rb : ordonnée à l’origine de la droite des sols nus dans l’espace RB*/PIR*.

1  0,25  R  0,125


GEMI  (8.59a)
1 R

2 PIR 2  R 2   1,5PIR  0,5R



PIR  R  0,5

    red 1      red 1 
AVI  tan 1  blue   PIR  R   tan 1  blue   V  R  (8.59b)
  red    red 

Le degré de résistance de l’indice ARVI dépend du succès de la détermination du paramètre

d’autocorrélation atmosphérique. En se basant sur le modèle radiatif (modèle 5S), Kaufman et

Tanré (1992) montrent que la valeur de l’expression (8.59b) permet un meilleur ajustement

pour la plupart des applications en télédétection, à moins que le modèle des aérosols ne soit

connu à priori.

On dénombre de nombreuses applications des indices de végétation dans la gestion du milieu

naturel par télédétection. Ces applications concernent la gestion du milieu urbain et

périurbain, le suivi de la climatologie de surface et le changement de la couverture du sol en


246

milieu sahélien (Kalifa and Royer, 1992), et la déforestation en milieu tropical. Forster (1983)

est l'un des pionniers de l'utilisation des données de télédétection spatiale pour déterminer les

caractéristiques socio-économiques des quartiers urbains. En utilisant des données Landsat

MSS sur la ville de Sydney (Australie), il définit un indice de qualité résidentielle basé sur le

pourcentage de végétation déterminé à partir de l'indice RVI. En France, sur la ville de

Strasbourg, le RVI permet de séparer le domaine urbain construit du domaine végétal (CNES,

1982). Dans le même sens, Nicoloyanni (1990) utilise l'indice PVI comme information de

base pour une analyse diachronique sur l'agglomération urbaine d'Athènes (Grèce). D'après

lui, cette méthode permet la mise à jour de surfaces de changement de façon très précise.

Selon Collet et Abednego (1987), cet indice caractérise bien la végétation de faible densité en

milieu urbain. L'intégration de l’indice PVI dans un SIG ouvre la porte à des études détaillées

et riches en milieu urbain. Calculé à partir des données AVHRR, le PVI montre une bonne

corrélation entre les îlots de chaleur en milieu urbain et la densité du couvert végétal.

Terrettaz et Collet (1995) ont utilisé l'indice PVI, la morphologie mathématique et le filtrage

contextuel pour la différenciation des tissus résidentiels sur la ville de Genève (Suisse). Pour

une atmosphère urbaine où la taille des aérosols est moyenne ou petite, l’indice ARVI,

caractérisé par une bonne résistance aux effets atmosphériques, pourra offrir de bons résultats

dans le milieu urbain (Kaufman and Tanré, 1992).

La figure 8.9 présente le menu de calcul des images d’indices de végétation avec le logiciel

SAITEL (Système d’Analyse d’Images de Télédétection) réalisé au laboratoire LETS. La

figure 8.10 présente la composition colorée d’une image Landsat TM de la région de Namh

Thanh au Vietnam TM4 (rouge), TM3 (vert) et TM2 (bleu). Sur la figure 8.11, on voit

l’image NDVI de l’image de la Figure 8.10. On observe une nette distinction entre les

surfaces couvertes de végétation et les sols nus.


247

Figure 8.9 Menu de calcul des images d’indices de végétation avec le logiciel SAITEL.

Figure 8.10 Composée colorée d’une image Landsat TM de la région de Namh Thanh au

Vietnam TM4 (rouge), TM3 (vert) et TM2 (bleu).


248

Figure 8.11 Image NDVI de l’image de la Figure 8.10. On observe une nette distinction entre

les surfaces couvertes de végétation et les sols nus (source : logiciel SAITEL).

8.4 L'analyse en composantes principales

Plusieurs études ont démontré l'utilité et l'importance de l'analyse en composantes principales

(ACP) dans l'analyse des données multispectrales (Byrne et al., 1980; Eastman and Fulk,

1993; Gong, 1993; Wang et al., 1993). La transformation des données de télédétection de base

en utilisant l'ACP peut résulter en de nouvelles images composantes qui peuvent être plus

faciles à interpréter que les données originales (Singh and Harrison, 1985). L'ACP peut aussi

être utilisée pour compresser le contenu en information d'un certain nombre de bandes

d'image (les sept bandes Landsat TM, par exemple) en deux ou trois images composantes,

permettant ainsi d'améliorer les performances de la classification par maximum de

vraisemblance (Conese et al., 1993). La capacité de réduire la dimensionnalité (c’est-à-dire le

nombre de bandes de la base de données image qui doivent être analysées pour produire des
249

résultats utilisables) de n à deux ou trois bandes a une considération économique importante,

spécialement si le potentiel de récupération de l'information à partir des données transformées

est aussi élevé que dans les données originales. Une forme d'ACP peut aussi être utile pour

réduire la dimensionnalité des ensembles de données hyperspectrales, contenant des centaines

de bandes. Lee et al. (1990) ont utilisé une transformation ACP modifiée, le MNF (maximum

noise fraction) pour la compression des données et la réduction du bruit des données du

scanneur hyperspectral à 64 canaux en Australie. L'élimination du bruit dans les données

multispectrales est effectuée en les transformant dans l'espace MNF, en lissant ou en rejetant

les composantes les plus bruitées, puis en retransformant l'espace original.

Dans une étude récente, Moisan et al. (1999) ont utilisé l’analyse en composantes principales

pour détecter des changements dans une série d’images ERS1 multidates de la rive sud du

fleuve Saint-Laurent (Québec). Dans leur étude, les variables de départ ont été étalonnées,

superposées, filtrées et soumises ensuite à l’ACP sous forme d’images filtrées, d’une part, et

sous forme d’images de changements de type différence de  0 , d’autre part. Il ressort de cette

étude que, seule l’utilisation des différences de  0 permet d’obtenir de nouvelles variables

qui concentrent les changements temporels. La première composante explique plus de 90%

des changements temporels et les valeurs extrêmes de la première composante correspondent

aux zones de plus forts changements temporels. Les changements redevables à des artéfacts

ont été relégués aux dernières composantes.

Pour effectuer l'analyse en composantes principales, on applique une transformation linéaire à

un ensemble de données multispectrales corrélées. L'application de la transformation aux

données de télédétection corrélées résulte en un autre ensemble de données multispectrales

non corrélées ayant certaines propriétés de variance ordonnées (Singh and Harrison, 1985).

Mathématiquement, le but de l'analyse en composantes principales est de trouver une


250

tranformation linéaire Y  T X d'un espace d-dimensionnel vers un espace M-dimensionnel

(M<d) par optimisation d'un critère d'erreur de représentation.

Soit X n ;1  n  N un ensemble de N vecteurs de l'espace d'entrée d-dimensionnel que nous

supposons euclidien. Tout vecteur X de cet espace peut s'écrire comme combinaison linéaire

d’une famille de d vecteurs orthogonaux u i (équation (8.60)).

d
X   y ju j (8.60)
j 1

Les vecteurs u i vérifient la relation d’orthonormalité exprimée par l’équation (8.61).

uTi u j   ij (8.61)

Dans l’expression (8.58),  ij est le symbole de Kronecker. Les expressions explicites des

coefficients y i dans l’équation (8.60) peuvent être trouvées en utilisant l’équation (8.61), ce

qui permet d’obtenir l’expression (8.62).

y j  u Ti X (8.62)

La transformation exprimée par l’équation (8.62) peut être considérée comme une rotation du

système de coordonnées des x originaux vers un nouvel ensemble de coordonnées donné par

les y. Supposons maintenant qu’on ne retienne que M (M<d) vecteurs de base ui, tel qu’on

n'utilise que M coefficients yi. Les coefficients restants doivent être remplacés par des

constantes bi telles que chaque vecteur X soit approché par une expression de la forme (8.63).

~ M d
X   y ju j   b ju j (8.63)
j1 j M 1

Ceci représente une forme de réduction de dimensionnalité, car le vecteur original X qui

contient d degrés de liberté doit maintenant être approché par un nouveau vecteur Y ayant

M<d degrés de liberté. Considérons maintenant tout l’ensemble de données X n ;1  n  N .

Nous voulons choisir les vecteurs de base ui et les coefficients bi tels que l’approximation
251

donnée par l’équation (8.63) et les valeurs des yi déterminées par l’équation (8.62) produisent

la meilleure approximation du vecteur original X. L’erreur dans le vecteur Xn introduite par la

réduction de la dimensionalité est donnée par l’expression (8.64).

y 
d
~
Xn  Xn   n
i  bj uj (8.64)
j M 1

Nous pouvons alors définir la meilleure approximation comme celle qui minimise l'erreur

quadratique sur tout l’ensemble de données. On cherche à minimiser l’erreur exprimée par

l’équation (8.65) où la relation d’orthonormalité (équation (8.61)) a été utilisée.

1 N n ~n 1 N d
 
2
 X X   yn  b j
2
EM   (8.65)
2 n 1 2 n 1 j M 1 i

Si on annule la dérivée de E M par rapport à bi on trouve l’expression (8.66),

1 N n
b j   y j  u Tj  X (8.66)
N n 1

où on définit le vecteur moyen X par l’expression (8.67).

1 N n
X X (8.67)
N n 1

En utilisant les expressions (8.62) et (8.66), on peut exprimer l’erreur quadratique (équation

(8.65)) par l’expression (8.68) ci-après,


  u j X  X   uTj   u j
1 d N T n 1 d
  
2
EM  (8.68)
2 j M 1 n 1 2 j M 1

où  est la matrice de covariance de l’ensemble de vecteurs xn et est donnée par

l’expression (8.69).

 X n  XX n  X
1 N

T
(8.69)
N  1 n 1

Il ne reste plus qu'à minimiser l'erreur quadratique EM par rapport au choix des vecteurs de

base ui. On montre que le minimum d'erreur est atteint lorsque les vecteurs de base vérifient la

relation (8.70).
252

 ui   i ui (8.70)

Ceci signifie que le minimum d'erreur est atteint lorsque les vecteurs de base sont égaux aux

vecteurs propres de la matrice de covariance. On notera que la matrice de covariance étant

réelle et symétrique, ses vecteurs propres peuvent être choisis orthonormaux pour satisfaire

l'hypothèse de base. En substituant (8.70) dans (8.68) et en utilisant la relation

d’orthonormalité (8.61), on obtient la valeur du critère d’erreur minimum sous la forme de

l’expression (8.71) ci-après.

1 d
EM   i (8.71)
2 i  M 1

Donc, l’erreur minimum est obtenue en choisissant les d-M plus petites valeurs propres et

leurs vecteurs propres comme ceux à éliminer. Chacun des vecteurs propres ui est appelé une

composante principale.

Dans la pratique, l’algorithme précédent s’exécute de la manière suivante :

1) On calcule le vecteur moyen et la matrice de covariance des données originales, puis on

détermine ses valeurs propres et les vecteurs propres correspondants;

2) Les vecteurs propres associés aux M plus grandes valeurs propres sont retenus et les

vecteurs d’entrée X n sont projetés sur l'espace de ces vecteurs propres, pour donner les

composantes des vecteurs transformés Y n dans l’espace M-dimensionnel.

L’erreur introduite par la réduction de la dimensionnalité en utilisant l’analyse en

composantes principales peut être évaluée en utilisant l’expression (8.68). Dans certaines

applications, les données originales ont une très grande dimensionnalité et on souhaite ne

retenir que les toutes premières composantes. Dans ce cas, on peut utiliser des algorithmes

plus efficaces en produisant uniquement les valeurs propres et les vecteurs propres requis.
253

En résumé, la transformation en composantes principales se calcule de la manière suivante, à

partir des données originales :

1) Calculer la matrice de covariance, Cov, des données originales devant être transformées.

L'utilisation directe de la matrice de covariance résulte en une analyse en composantes

principales (ACP) non standardisée, tandis que l'utilisation de la matrice de corrélation

résulte en une ACP standardisée (Eastman and Fulk, 1993).

2) Les valeurs propres E  1 ,........,  n  (classées par ordre décroissant) et la matrice des


vecteurs propres associés EV  a kp ,1  k  n bandes;1  p  n 
composantes de la

matrice de covariance sont calculées (équation (8.72)).

1  0 
 
EV COV EV T        diag 1 ,.....,  n  (8.72)
 n n  n n  n n
 0   n 

Dans l’équation (8.69), EVT est la transposée de la matrice des vecteurs propres EV et E est

une matrice de covariance diagonale dont les éléments diagonaux  i , appelés valeurs

propres, sont les variances des p composantes principales.

Les valeurs propres  i véhiculent une information importante. Par exemple, il est possible de

déterminer le pourcentage % p de la variance totale expliquée par chacune des composantes

principales, en utilisant la relation (8.73) ci-après.

valeur propre  p  100


%p  n (8.73)
 valeur propre k
k 1

Dans l’expression (8.73),  p est la p-ième valeur propre.

Mais, quelle est la signification thématique de ces nouvelles composantes? Que représente par

exemple la première composante? En calculant la corrélation de chaque bande k avec chaque


254

composante p, il est possible de déterminer le degré de contribution de chaque bande dans

chacune des composantes principales (voir expression (8.74)).

a kp   p
R kp  (8.74)
Vark

a kp est le poids de la bande k dans la composante p,

 p est la p-ième valeur propre,

Vark est la variance de la bande k dans la matrice de covariance.

Les calculs précédents résultent en une nouvelle matrice d'ordre n dont les éléments

représentent les degrés de contribution des différentes variables de base (bandes) dans

chacune des composantes principales. L'analyse de cette matrice peut permettre d'identifier les

variables les plus importantes permettant d’exprimer la variance totale des données à analyser.

Maintenant que nous comprenons quelle information est contenue dans chaque composante

principale, il est utile de voir à quoi ressemblent les images de ces composantes. Pour cela il


est d'abord nécessaire d'identifier les valeurs de luminance BVi , j,k  associées à un pixel

donné dans les différentes bandes. On applique ensuite la transformation appropriée à ces

données tel qu'elles soient projetées sur les axes des premières composantes principales. De


cette manière on trouvera la nouvelle valeur de luminance newBVi , j,p  du pixel dans la

composante p en utilisant l’expression (8.75) ci-après.

n
newBVi , j,p   a kp BVi , j,k (8.75)
k 1

où on a :

a kp : vecteurs propres,
255

BVi , j,k : valeur de luminance dans la bande k du pixel à la position (i,j),

n : nombre de bandes.

Cette procédure est exécutée pour chaque pixel de l’image originale pour produire

progressivement les différentes images des composantes principales. Si les composantes 1, 2

et 3 comptent le plus dans la variance de l'ensemble de données, il est possible que les n

bandes de données originales soient écartées et que le reste du processus d'analyse soit

effectué en utilisant seulement ces trois images de composantes principales. Ceci réduit

considérablement la quantité de données à analyser et simplifie le processus, souvent coûteux

et consommateur en temps, de sélection des paramètres dans la classification des données de

télédétection.

Eklundh et Singh (1993) et Eastman et Fulk (1993) ont démontré que l'ACP standardisée

(basée sur le calcul de la matrice de corrélation) est plus appropriée que l'ACP non

standardisée (calculée à partir de la matrice de covariance) dans l'analyse des changements

des ensembles de données d’images multitemporelles. L'ACP standardisée force chaque

bande à avoir un poids égal dans la dérivation de nouvelles composantes images. Elle est

identique à la conversion de toutes les valeurs de l’image à des valeurs standards (en

soustrayant la moyenne et en divisant le résultat par l'écart-type). Eastman et Fulk (1993) ont

traité 36 images mensuelles AVHRR dérivées du NDVI de l'Afrique pour les années 1986 à

1988. Ils ont trouvé que la première composante était toujours fortement corrélée avec le

NDVI, indépendamment de la saison, alors que les deuxième, troisième et quatrième

composantes sont reliées aux changements saisonniers du NDVI. De même, Eklundh et Singh

(1993) ont calculé les composantes principales en utilisant quatre ensembles de données :

1) des composées mensuelles de maximum de valeur NOAA-NDVI;

2) des données NOAA-LAC;

3) des données Landsat-TM;


256

4) des données SPOT-HRV.

Les résultats obtenus révèlent des améliorations significatives du rapport signal sur bruit en

utilisant la matrice de corrélation, en comparaison avec la matrice de covariance dans

l'analyse en composantes principales, pour tous les ensembles de données.

8.5 Exercices

 Quelle est l’utilité de l’intégration de l’information texturale dans le processus de

classification ?

 Plusieurs méthodes d’analyse de texture ont été proposées dans la littérature, notamment :

les méthodes des histogrammes du 1er, du 2ème et du 3ème ordre, et la méthode du spectre

de texture. Quels sont les avantages et les inconvénients de ces méthodes lorsqu’on les

compare les unes par rapport aux autres ?

 Pourquoi est-il souvent nécessaire de procéder à la sélection des paramètres de texture ?

Expliquer les différentes méthodes de sélection des paramètres présentées dans cet

ouvrage.

 Qu’appelle-t-on dimension fractale d’une image ? A quoi sert-elle ?

 Quelle est l’utilité des indices de végétation ? Citer les indices de végétation présentés

dans cet ouvrage et montrer les avantages des uns par rapport aux autres.

 Qu’appelle-t-on analyse en composantes principales ? A quoi sert-elle ?

 Considérons la portion d’image présentée sur la figure 8.12.


257

Figure 8.12 Portion d’image numérique 4 x 4 pixels.

Extraire un 4-voisinage autour de chaque pixel de cette image et indiquer les cliques associées

selon les 4 directions classiques : 0°, 45°, 90° et 135°. Pour la gestion des points de bordure,

utiliser la méthode symétrique (voir chapitre 3, §3.3.2).

 Considérons maintenant la portion d’image présentée sur la figure 8.13.

Figure 8.13 Portion d’image numérique 7 x 7 pixels.

 Modifier les niveaux de gris de l’image de la figure 8.13 de telle sorte que le niveau de

gris maximal de la nouvelle image soit égal à 16.

 Calculer les matrices de cooccurrence associées à la nouvelle image (image

rééchantillonnée) précédemment obtenue. Calculer ces matrices de cooccurrence dans les

4 directions classiques (0°, 45°, 90°, 135°), en prenant une distance interpixels égale à 1.
258

 Considérons à nouveau la portion d’image numérique de la figure 8.12.

 Pour chaque pixel de l’image de la figure 8.12, extraire la matrice 3 x 3 représentant le

voisinage dudit pixel et déduire l’unité de texture et le numéro d’unité de texture

correspondants (voir figure 8.7 et équation 8.33). Considérer le rangement (a) de la figure

8.6 et utiliser la méthode des zéros pour les points de bordure (voir chapitre 3, §3.3.1).

 Ayant calculé les numéros d’unité de texture en chaque pixel, calculer leur fréquence

d’occurrence dans l’image et faire une représentation graphique, en mettant en abscisse les

numéros d’unité de texture et en ordonnée les fréquences d’occurrence. On obtient ainsi le

spectre de texture de l’image de la figure 8.12.


259

Références

Abe, S., and Lan, M.-S. (1995) — «A method for fuzzy rules extraction directly from

numerical data and its application to pattern classification», IEEE Transactions on Fuzzy

Systems, Vol. 3, p. 18-28.

Agbu, P. and Nizeyimana, E. (1991) — «Comparisons between Spectral Mapping Units

Derived from SPOT Image Texture and Field Soil Maps», Photogrammetric Engineering and

Remote Sensing, Vol. 57(4), p.397-405.

Akono, A. (1994) — Approche orientée objet et pyramidale pour le recalage des images

multisources de télédétection, thèse de doctorat en sciences de l’ingénieur, Ecole Nationale

Supérieure Polytechnique de Yaoundé, Université de Yaoundé I, le 16 Décembre 1994.

Akono, A. (1996) — Traitement Numérique des Images Radar : Application à deux images

ERS-1 du Cameroun, Rapport de stage, Laboratoire des Formations Superficielles (LFS),

ORSTOM, Centre de Bondy, France, 57 p.

Akono, A., Tonye, E., Tcheuffa, S. (1996) — «Analyse Texturale des Images Radar par la

Méthode des Réseaux de Neurone et la Logique Floue», Actes du 4ème Colloque Africain sur

la Recherche en Informatque (CARI), Libreville, Gabon, p. 695-704.

Akono, A. (1997) — Vision par Ordinateur des Images Radar : Application à l’interprétation

des Images Radar à Synthèse d’Ouverture, Rapport de stage, Centre d’Applications et de

Recherches en Télédétection (CARTEL), Université de Sherbrooke, Québec, Canada, 53 p.

Antoni, M., Barlaud, M., Mathieu, P., and Daubechies, I. (1992) — « Image coding using

wavelet transform», IEEE Transactions on Image Processing, Vol. 1, p. 205-220.

Anys, H., He, D.-C., Wang, L. et Gwyn, Q.H.J. (1994) — «Classification d'images radar

multipolarisations en milieu agricole», International Journal of Remote Sensing, Vol. 15

n°18, p.3831-3838.
260

Anys, H. and HE, D.-C., (1995) — «Evaluation of textural and multipolarization radar

features for crop classification», IEEE Transactions on Geoscience and Remote Sensing, Vol.

23 n°5, p. 1169-1181.

Arai, K. (1991) — «GCP acquisition using simulated SAR and evaluation of GCP matching

accuracy with texture features», International Journal of Remote Sensing, Vol. 12 n°11,

p.2389-2397.

Asim Roy, S. G., and Miranda, R. (1995) — «An algorithm to generate radial basis function

(RBF)-like nets for classification problems», Neural Networks, Vol. 8, n°2, p. 179-201.

Bannari, A., Morin, D. and He, D.C. (1995) — «Caractérisation de l'environnement urbain à

l'aide des indices de végétation dérivés des données de hautes résolutions spatiale et

spectrale», Actes des Journées Scientifiques du Réseau Télédétection de l'AUPELF-UREF,

Liège 1995, p.47-64.

Barba, D. and Ronsin, J. (1983) — «New method in texture analysis in the context of image

segmentation», Proceedings of EUSIPCO-83, Erlangen, Germany, p. 283-286.

Barber, D.G., and Le Drew, E.F. (1991) — «SAR Sea Ice Discrimination Using Texture

Statistics : A Multivariate Approach», Photogrammetric Engineering and Remote Sensing,

Vol. 57 n°4, p.385-395.

Beucher, S. and Meyer, F. (1993) — «The morphological approach to segmentation : the

watershed transformation», In : Mathematical Morphology in Image Processing (E.R.

Dougherty Eds.), p. 433-481.

Burt, P.J. (1984) — «The Pyramid as a structure for efficient computation», Multiresolution

Image Processing and Analysis, edited by Rosenfeld, A., Spring Verlag, Berlin, p. 6-35.

Chen, Y., Dougherty, E.R., Totterman, S.M. and Hornak, J.P. (1993) — «Classification of

trabecular structure in magnetic resonance images based on morphological granulometries»,

Magnetic Resonance in Medecine, Vol. 29, p. 358-370.


261

Chen, K.S., Yen, S.K. and Tsay, D.W. (1997) — «Neural classification of SPOT imagery

through integration of intensity and fractal information», International Journal of Remote

Sensing, Vol. 18(14), p. 763-783.

Cheong, C.K., Aizawa, K., Saito, T. and Hatori, M. (1992) — «Subband image coding with

biorthogonal wavelets», IEICE Transactions Fundamentals, Vol. E75-A, no.7, p. 871-881.

Centre national d'études spatiales (CNES) (1982) — Quelques formes urbaines et linéaments

à travers SPOT-Simulé et Landsat-3, Rapport final, CNES n°81/0208 & ATP CNRS n° 1080,

France, 32 p.

Collorec, R. (1995) — Images numériques - Segmentation, LTSI Campus de Beaulieu,

Université de Rennes I, France.

Collet, C. and Abednego, B. (1987) — «L'évaluation du paysage urbain étudiée à l'aide d'un

indice de végétation», In J.-P. Donnay (dir.), Actes de la journée de recherches F.N.R.S du

Groupe de géographie humaine théorique et quantitative : Télédétection satellitaire et espace

urbain, Université de Liège, Société de géographie de Liège, notes de recherche n° 9, p.3-16.

Conese, C., Maracchi, G. and Maselli, F. (1993) — «Improvement in maximum likelihood

classification performance on highly rugged terrain using principal components analysis»,

International Journal of Remote Sensing, Vol. 14 n°7, p. 1371-1382.

Dasarathy, B.V. and Holder, E.B. (1991) — «Image characterization based on joint gray

level-run length distributions», Pattern Recognition Letters, Vol. 12, p. 497-502.

D’Astous, D. and Jernigan, M.E. (1984) — «Texture discriminate based on detailed measures

of the power spectrum», 7th International Conference on Pattern Recognition, Montreal, July

30 – August 2, p. 83-86.

Daubechies, I. (1988) — «Orthonormal bases of compactely supported wavelets»,

Communication on Pure and Applied Mathematics, XLI, p. 909-966.


262

Daubechies, I. (1990) — «The wavelet transform, time-frequency localization and signal

analysis», IEEE transactions on Information Theory, Vol. 36, p. 961-1005.

DeCola, L. (1989) — «Fractal Analysis of a Classified Landsat Scene», Photogrammetric

Engineering and Remote Sensing, Vol. 55 n°6, p. 601-610.

Debaine, F., Mering, C. et Poncet, Y. (1988) ) — «La morphologie mathématique en teinte de

gris appliquée à la mise en évidence de réseaux», Photo-interprétation, Vol. 5 n°2, p. 17-26.

Dennis, D., Higgins, W.E. and Wakeley, J. (1994) — «Texture segmentation using 2D Gabor

elementary functions», IEEE Transactions on Pattern Analysis and Machine Intelligence,

Vol. 16(2), p. 130-149.

Dikshit, O. (1996) — «Textural classification for ecological research using ATM images»,

International Journal of Remote Sensing, Vol. 17 n°5, p. 887-915.

Dong, Y., Forster, B.C., Milne, A.K. and Morgan, G.A. (1998) — «Speckle suppression using

recursive wavelet transforms», International Journal of Remote Sensing, Vol. 19 n°2, p. 317-

330.

Dougherty, E.R., Newell, J.T. and Pelz, J.B. (1992) — «Morphological texture-based

maximum-likelihood pixel classification based on local granulometric moments», Patterns

Recognition, Vol. 25(10), p. 1181-1198.

Dreyer, P. (1993) — «Classification of land cover using optimized neural nets on SPOT

data», Photogrammetric Engineering and Remote Sensing, Vol. 59 n°5, p. 615-621.

Eastman, J.R. and Fulk, M. (1993) — «Long sequence time series evaluation using

standardized principal components», Photogrammetric Engineering and Remote Sensing, Vol.

59 n°6, p. 991-996.

Eklundh, L. and Singh, A. (1993) — «A comparative analysis of standardized and

unstandardized principal components analysis in remote sensing», International Journal of

Remote Sensing, Vol. 14 n°7, p. 1359-1370.


263

Flouzat, G. (1983) — «Modélisation de l'extraction manuelle d'éléments texturaux par

morphologie mathématique», Photo-Interprétation, Vol. 6 n°6, p. 150-155.

Foody, G.M., Campbell, N.A., Trood, N.M., and Wood, T.F. (1993) — «Non-classificatory

analysis and representation of heathland vegetation from remotely sensed imagery»,

GeoJournal, Vol. 29 n°9, p. 1335-1341.

Forster, B.C. (1983) — «Some urban measurements from Landsat data», Photogrammetric

Engineering and Remote Sensing, Vol. 49 n°12, p. 1693-1707.

Franklin S.E. and Peddle R.D. (1989) — «Spectral texture for improved class discrimination

in complex terrain», International Journal on Remote Sensing, Vol. 10 n°8, p. 1437-1443.

Fukuda, S. and Hirosawa, H. (1998) — «Suppression of speckle in synthetic aperture radar

images using wavelet», International Journal of Remote Sensing, Vol. 19 n°3, p.507-519.

Gabor, D. (1946) — «Theory of communications», IEEE Communication.

Geraud, T., Mangin, J.F., Bloch, I. and Maitre, H. (1995) — «Segmenting internal structure in

3D MR images of the brain by markovian relaxation on a watershed based adjacency graph»,

IEEE International Conference on Image Processing, Vol. 3, p. 548-551.

Goel, N.S. and Norman, J.M. (1992) — «Biospheric models, measurements, and remote

sinsing of vegetatio», International Journal of Remote Sensing, Vol. 47, p. 165-188.

Gong, P., Marceau, D. J., and Howarth, P.J. (1992) — «A comparison of spatial feature

extraction algorithms for land-use classification with SPOT HRV data», Remote Sensing of

Environment, Vol. 40, p. 137-151.

Gong, P. (1993) — «Change detection using principal component analysis and fuzzy set

theory», Canadian Journal of Remote Sensing, Vol. 19 n°1, p. 22-29.

Grossmann, A. and Morlet, J. (1984) — «Decomposition of Hardy functions into square

integrable wavelets of constant shape», SIAM Journal of Mathematics, Vol. 15, p. 723-736.
264

Groten, S.M. (1993) — «NDVICrop monotoring and early warning yield assessment of

Burkina Faso», International Journal of Remote Sensing, Vol. 14 n°8, p. 1495-1515.

Haralick, R.M. and Shanmugam, K. (1973) — «Textural features for image classification»,

IEEE Transactions on Systems, Man, and Cybernetics, Vol. SMC-3, no. 6, p. 610-621.

Haralick, R.M. and Zhuang, X. (1987) — «Image analysis using mathematical morpholy»,

IEEE Transactions on Pattern Analysis and Machine Intelligence, Vol. 9, p. 532-550.

Hay, G.J. and Niemann, K.O. (1994) — «Visualization 3-D texture : a three-dimensional

structural approach to model forest texture», Canadian Journal of Remote Sensing, Vol. 20

n°2, p. 90-101.

He, D.C. and Wang, L. (1990) — «Texture Unit, Texture Spectrum, and Texture Analysis»,

IEEE Transactions on Geoscience and Remote Sensing, Vol. 28 n°4, p.509-512.

He, D.C. and Wang, L. (1992) — «Unsupervised textural classification of images using the

texture spectrum», Pattern Recognition, Vol. 25 n°3, p. 247-255.

Heikkonen, J. (1994) — Subsymbolic Representations, Self-Organizing Maps, and Object

Motion Learning, PhD. Technical Thesis, Lappeenranta University of Technology, Finland.

Horaud, R. et Monga, O. (1995) — Vision par ordinateur. Outils fondamentaux, 2ème édition

revue et augmentée; Hermes; 1995.

Hevenor, R.A. (1985) — Third-Order co-occurrence texture analysis applied to samples of

high resolution synthetic aperture radar imagery, U.S. Army Corps of Engineers.

Engineering Topographic Laboratories. Fort Belvoir, Virginia 22060-5546.

Hsu, S. (1978) — «Texture-tone analysis for automated landuse mapping», Photogrammetric

Engineering and Remote Sensing, Vol. 44, p. 1393-1404.

Irons, J.R. and Peterson, G.W. (1981) — «Texture Transforms of Remote Sensing Data»,

Remote Sensing of Environment, Vol. 11, p.359-370.


265

Jain, A.K. (1989) — Fundamentals of Digital Image Processing, Prentice Hall, Englewood

Cliffs, New Jersey, 1989.

Jaggi, S., Willsky, A.S., Karl, W.C. and Mallat, S. (1995) — «Multiscale geometrical feature

extraction and object recognition with wavelets and morphology», IEEE International

Conference on Image Processing, Vol. 3, p. 372-375.

Jahne, B. (1991) — Digital Image Processing, New York: Springer-Verlag, 383 p.

Jeannot, R., Wang, D. and Haese-Coat, V. (1996) — «Binary image representation and

coding by a double-recursive morphological algorithm», Signal Processing : Image

communication, Vol. 8 n°3, p. 241-266.

Jensen, J.R. (1983) — «Biophysical Remote Sensing», Annals of the Association of American

Geographers, Vol. 73, p.111-132.

Feb. 1998.

Jukka, H. and Aristide V. (1998) — «Land cover/land use classification of urban areas: a

remote sensing approach», International Journal of Pattern Recognition and Artificial

Intelligence, Vol. 12 n°4, p.475-489.

Kalifa, G. and Royer, A. (1992) — «Land surface climatology and land cover change

monitoring since 1973 over a north-sahelian zone (Asongo-Mali) using Landsat data»,

Geocarto International, Vol. 8 n°2, p. 15-28.

Kaufman, Y.J. and Tanré, D. (1992) — «Atmospherically Resistant Vegetatioin Index

(ARVI) for EOS-MODIS», IEEE Transactions on Geoscience and Remote Sensing, Vol. 30

n°2, p. 261-270.

Kourgli, A. et Belhadj-Aissa, A. (1999) — «Nouvel algorithme de calcul des paramètres de

texture appliqué à la classification d’images satellitaires», Actes des VIIIèmes Journées

Scientifiques du Réseau Télédétection de l’Agence Universitaire de la Francophonie (AUF),

Lausanne, du 22 au 25 novembre 1999 (à paraître).


266

Kpalma, K. (1992) — Analyse fractale de textures naturelles dans un context multirésolution:

application à la segmentation d'images multirésolution, thèse de doctorat en traitement du

signal, Institut National des Sciences Appliquées de Rennes.

Kwon, J.-S., Hong, H.-K. and Choi, J.-S. (1996) — «Obtaining a 3-D orientation of projective

textures using a morphological method», Pattern Recognition, Vol. 29(5), p. 725-732.

Laine, A. and Fan, J. (1993) — «Texture classification by wavelet packet signatures», IEEE

Transactions on Pattern Analysis and Machine Intelligence, Vol. 15, p. 1186-1191.

Lam, N.S. (1990) — «Description and Measurement of Landsat TM images Using Fractals»,

Photogrammetric Engineering and Remote Sensing, Vol. 56 n°2, p.187-195.

Lampinen (1992) — Neural pattern recognition : Distorsion tolerance by self-organizing

maps, PhD. Tech. Thesis, Lappeenranta University of Technology, Lappeenranta, Finland.

Larsson, H. (1993) — «Regression for canopy cover estimation in acicia woodlands using

Landsat TM, MSS, and SPOT HRV XS data», International Journal of Remote Sensing, Vol.

14 n°11, p. 1297-2136.

Lasse, M.,J. (1990) — «Knowledge-based classification of an urban area using texture and

context information in Landsat TM imagery», Photogrammetric Engineering and Remote

Sensing, Vol. 56, p. 899-904.

Lee, J.S. (1980) — «Digital image enhancement and noise filtering by use of local statistics»,

IEEE Transactions On Pattern Analysis and Machine Intelligence, Vol. 2 n°2.

Lee, J., R.C. Weger, S.K. Sengupta and R.M. Welch (1990) — «A neural network approach

to cloud classification», IEEE Transactions on Geoscience and Remote Sensing, Vol. 28,

p.846-855, 1990.

Lee, C., and Landgrebe, D.A. (1993) — «Decision boundary feature extraction for

nonparametric classification», IEEE Transactions on Systems, Man, and Cybernetics, Vol. 3,

p. 433-444.
267

Legeley-Padovani, A., Beauvais, A., Seyler, F., Volkoff, B., Sailhac, P., Akono, A., Rudant,

J.P. (1997) — «Texture analysis of SAR-ERS1 images from south Cameroon»,

communication presented at the 3rd ERS Symposium of the European Spatial Agency (ESA),

Florence (Italy), from the 16/03/1997 to the 21/03/1997.

Legeley, P.A. et Mering, C. (1997) — «Apport des opérateurs de morphologie mathématique

à l’extraction des failles à partir d’images Spot panchromatique», Photo-interprétation, Vol. 3

n°4, p. 209-223.

Lévy-Véhel, J. and Mignot, P. (1994) — «Multifractal segmentation of images», Fractals,

Vol. 2 n°3, p. 371-377.

Li, W. and Kunt, M. (1994) — «Morphological segmentation applied to displaced frame

difference coding», Signal Processing, Vol. 38 n°1, p. 45-56.

Li, H., Manjunath,B.S. and Mitra, S.K. (1995) — «Multisensor image fusion using the

wavelet transform», Graphical Models and Image Processing, Vol. 57 n°3, p. 235-245.

Liang, S., Ahmadi, M. and Shridhar, M. (1994) — «A morphological approach to text string

extraction from regular periodic overlapping text/background images», CVGIP : Graphical

Models and Image Processing, Vol. 56 n°5, p. 402-413.

Liu, S.S. and Jernigan, M.E. (1990) — «Texture analysis and discrimination in additive

noise», Computer Vision Graphics and Image Processing, Vol. 49, p. 52-67.

Lowitz, G.E. (1984) — «Mapping the local information content of a spatial image», Premier

Colloque Image, Traitement, Synthèse, Technologie et Applications, p. 577-583, Biarritz,

France, Mai 1984.

Mallat, S.G. (1989) — «A theory of multiresolution signal decomposition : the wavelet

representation», IEEE Transactions on Pattern Analysis and Machine Intelligence, Vol.

PAMI-11, n°7.
268

Mandelbrot, B.B. (1977) — Fractals : form, chance and dimension, San Francisco, CA,

Freeman.

Maragos, P. and Schafer, R.W. (1990) — «Morphological systems for multimensionnal signal

processing», Proceedings of the IEEE, Vol. 78 n°4, p. 690-709.

Marceau D., Howarth P.J., Dubois J.M. and Gratton D.J. (1990) — «Evaluation of the grey-

level cooccurence method for land-cover classification using SPOT imagery», IEEE

Transactions on Geoscience and Remote Sensing, Vol. 28 n°4, p.513-519.

Marjike, F.A., Laura, E.C. and Kelly, A.S. (1995) — «Performance evaluation of texture

measures for ground cover identification in satellite images by means of a neural network

classifier», IEEE Transactions on Geoscience and Remote Sensing, Vol. 33 n°3, p. 616-626.

Matheron, G. (1975) Random Sets and Integral Geometry, New York : Wiley.

Mohammed, E.S. (1991) — «Evaluation of second-order texture parameters for sea ice

classification from radar images», Journal of Geophysical Research, Vol. 96, n°C6, p. 10625-

10640.

Moisan, Y., Bernier, M., Dubois, J.M. (1999) — «Détection des changements dans une série

d’images ERS-1 multidates à l’aide de l’analyse en composantes principales», International

Journal of Remote Sensing, Vol. 20 n°6, p. 1149-1167.

Morales, A., Acharya, R. and Ko, S. (1995) — «Morphological pyramids with alternating

sequential filters», IEEE Transactions on Image Processing, Vol. 4 n°7, p. 965-977.

Ndi Nyoungui, A., Tonye, E. and Akono, A. (1997) — «Land cover classification in SAR

images by means of a backpropagation neural network classifier and the fuzzy c-means

clustering algorithm», Proceedings of the Geomatics in the Era of Radarsat (GER’97)

Symposium, Ottawa, Canada, 25-30 May 1997.


269

Nicoloyanni, E. (1990) — «Un indice de changement diachronique appliqué à deux scènes

Landsat MSS sur Athènes (Grèce)», International Journal of Remote Sensing, Vol. 11 n°9, p.

1617-1623.

Ogor, B., Haese-Coat, V. and Kpalma, K. (1995) — «The cooperation of morphological

morphology and region growing for remote sensing image segmentation», Proceedings of

EUROPTO : Image and Signal Processing for Remote Sensing II, p. 375-386.

Pardas, M. and Salembier, P. (1994) — «3D morphological segmentation and motion

estimation for image sequences», Signal Processing, Vol. 38 n°1, p. 31-44.

Peckinpaugh, S.H. (1991) — «An improved method for computing grey-level co-occurence

matrix based texture measures», CVGIP: Graphical Models and Image Processing, Vol. 53

n°6, p. 574-580.

Peleg, S., Naor, J., Hartley, R. and Avnir, D. (1984) — «Multiple resolution texture analysis

and classification», IEEE Transactions on Pattern Analysis and Machine Intelligence, Vol. 6,

p. 518-513.

Pichler, O., A. Teuner and B.J. Hosticka (1996) — «A comparison of texture feature

extraction using adaptive Gabor filtering, pyramidal and tree structured wavelet transforms»,

Pattern Recognition, Vol. 29, p. 733-742.

Pinty, B. and Verstraete, M.M. (1992) — «GEMI : a non-linear index to monitor global

vegetation from satellites», Vegetation, Vol. 101, p.15-20.

Plummer, S.E., North, P.R. and Briggs, S.A. (1994) — «The angular vegetation index : an

atmospherically resistant index for the second along track scanning radiometer (ATSR-2)»,

Proceedings of the Sixth International Symposium on Physical Measurements and Signatures

in Remote Sensing, Val d'Isère, France, p.717-722.

Pratt, W.K. (1991) — Digital image processing, Second edition, Wiley, New-York, NY.
270

Pultz, T.J. and Brown, R.J. (1987) — «SAR image classification of agricultural targets using

first- and second-order statistics», Canadian Journal of Remote Sensing, Vol. 13 n°2, p.85-91.

Raboisson, S. (1985) — Traitements numériques d'images par caractérisation de textures.

Application à la segmentation d'images échographiques, thèse de doctorat de troisième cycle,

Institut National des Sciences Appliquées de Rennes.

Ranchin, T., and Wald, L. (1993) — «The wavelet transform for the analysis of remotely

sensed images», International Journal of Remote Sensing, Vol. 14, p. 615-619.

Reuzé, P. (1995) — Analyse d'images de résonance magnétique : application à la

segmentation des vaisseaux et à la caractérisation des textures, thèse de doctorat en

traitement du signal et télécommunications, Université de Rennes I, Juillet 1995.

Ronsin, J., Barba, D. and Raboisson, S. (1985) — «Segmentation d'images par intégrales

curvilignes», 10ème Colloque GRETSI, Nice, Mai, 1985.

Rosenfeld A. and Kak A.C. (1982) — Digital Image Processing, Academic Press, Vol. 1 et 2,

1982.

Rouse, J.W., Haas, R.H., Schell, J.A. and Deering, D.W. (1974) — «Monitoring vegetation

systems in the great plains with ERTS», Proceedings, 3rd ERTS Symposium, Vol. 1, p.48-62.

Rubin, T. (1989) — «Analysis of radar texture with variograms and other simplified

descriptors», Image Processing'89, Proc., SPARKS, NV, p. 185-195.

Rumelhart, D.E. (1986) — «Learning internal representations by error propagation», In :

Parallel Distributed ProcessingExplorations in the Microstructure of Cognition., MA/ MIT

Press, Cambridge, Vol. 1 (D.E. Rumelhart, J.L McClelland and the PDP Research Group,

eds.), p. 318-362.

Safa, F. and Flouzat, G. (1989) — «Speckle removal on radar imagery based on mathematical

morphology», Signal Processing, Vol. 16 n°4, p. 319-333.


271

Salari, E. and Ling, Z. (1995) — «Texture segmentation using hierarchical wavelet

decomposition», Pattern Recognition, Vol. 28 n°12, p.1819-1824.

Salu, Y. and Tilton, J. (1993) — «Classification of multispectral image data by the binary

diamond neual network and nonparametric pixel by pixel methods», IEEE Transactions on

Geoscience and Remote Sensing, Vol. 31 n°3, p. 606-617.

Sarker, N. and Chaudhuri, B.B. (1992) — «An efficient approach to estimate fractal

dimension of textural images», Pattern Recognition, Vol. 25 n°9, p. 1035-1041.

Sarker, N. and Chaudhuri, B.B. (1995) — «Multifractal and generalized dimension of gray-

tone digital images», Signal Processing, Vol. 42, p. 181-190.

Schalkoff, R.J. (1989) — Digital Image Processing and Computer Vision, John Wiley et

Sons, 1989.

Serra, J. (1982) — Image analysis and mathematical morphology, Academic Press, 1982.

Singh, S. and Harrison, A. (1985) — «Standardized principal components», International

Journal of Remote Sensing, Vol. 6 n°6, p. 883-896.

Starck, J.-L. and Bijaoui, A. (1994) — «Filtering and deconvolution by the wavelet

transform», Signal Processing, Vol. 35, p. 195-211.

Sternberg, S.R. (1982) — «Cellular computers and biomedical image processing», In

Biomedical Images and Computers (J. Sklansky and J.C. Bisconte Eds.), Lecture Notes in

Medical Informatics, Vol. 17, p. 294-319.

Sternberg, S.R. (1986) — «Grayscale morphology», Computer Vision, Graphics and Image

Processing, Vol. 35, p. 333-355.

Sui, D.Z. (1994) — «Recent applications of neural networks for spatial data handling»,

Canadian Journal of Remote Sensing, Vol. 20 n°4, p. 368-379.

Terrettaz, P. and Collet, C. (1995) — «Différenciation des tissus résidentiels à l'aide de

l'indice PVI, de la morphologie mathématique et du filtrage contextual : exemple de Génève


272

(Suisse)», Actes des Journées Scientifiques du Réseau Télédétection de l'AUPELF-UREF,

Liège 1995, p.123-131.

Tonye, E., Akono, A., Tricot, P. et Awono, O. (1994) — «La didactique de l’image»,

International Journal of Remote Sensing, Vol. 15 n°10, p. 1957-1980.

Tonye, E., Akono, A. et Jean-Michel Jolion (1994) — «Approche orientée objet et pyramidale

dans la classification non supervisée des images de télédétection», Actes du 2ème Colloque

Africain sur la Rechercherche en Informatique (CARI’94), Ouagadougou, Burkina Faso, 12-

18 Octobre 1994, p. 203-218.

Tonye, E., Ndi Nyoungui, A., Akono, A. (1998) — «Evaluation comparative de plusieurs

méthodes de réduction du chatoiement et de plusieurs méthodes d’analyse de texture pour la

classification des images RSO», Actes du 4ème Colloque Africain sur la Recherche en

Informatique (CARI’98), Dakar (Sénégal), du 12 au 15 Octobre 1998, p. 675-686.

Tonye, E., Akono, A., Ndi Nyoungui, A., Nlend, C., Rudant, J.P. (1999) — «Cartographie de

la Ligne de Rivage par Analyse Texturale d’Images Radar à Synthèse d’Ouverture de ERS-1

et de E-SAR», Télédétection, Gordon and Breach Publishers, Vol. 00, p. 1-21.

Toumazet, J.J. (1990) — Traitement de l’image par l’exemple. Editions Sybex.

Ulaby, F.T., Kouyate F., Brisco B. and Lee W.T.H. (1986) — «Texture information in SAR

images», IEEE Transactions. on Geoscience and Remote Sensing, Vol. 24 n°2, p. 235-245.

Vaidyanathan, P.P. (1993) — Multivariate Systems and Filter Banks, Englewood Cliffs :

Prentice Hall.

Unser, M. (1984) — Description statistique de textures : application à l’inspection

automatique, thèse de l’Ecole Polytechnique Fédérale de Lausanne.

Unser, M. (1986) — «Sum and difference histogram for texture classification», IEEE

Transactions on Pattern Analysis and Machine Intelligence, Vol. PAMI-8 n°1, p. 118-125.
273

Voss, R. (1986) — Random fractals : characterization and measurement. Scaling Phenomena

and Desorded Systems, R. Pynn and Skjeltorp, Eds. New York : Plenum.

Wang, L. and He, D.C. (1990) — «A new statistical approach for texture analysis»,

Photogrammetric Engineering and Remote Sensing, Vol. 56 n°1, p. 61-66.

Wang, D., Haese-Coat, V., Bruno, A. and Ronsin, J. (1993) — «Texture classification and

segmentation based on iterative morphological decomposition», Journal of Visual

Communication and Image Representation, Vol. 4 n°3, p. 197-214.

Wang, L. (1994) — «Un nouvel espace de texture», International Journal of Remote Sensing,

Vol. 15 n°8, p.1713-1723.

Wang, L. (1995) — «Automatic identification of rocks in thin sections using texture

analysis», Mathematical Geology, Vol. 27 n°7, p. 847-865.

Wang, D., Labit, C. and Ronsin, J. (1996) — «Region-based motion compensated video

coding using morphological simplification», Proceedings of International Picture Coding

Processing, Vol. 3, p. 37-40.

Werman, M. and Peleg, S. (1985) — «Min-Max operators in texture analysis», IEEE

Transactions on Pattern Analysis and Machine Intelligence, Vol. 7 n°6, p. 730-733.

Weszka, J.S., Dyer, C.R. and Rosenfeld, A. (1976) — «A comparative study of texture

measures for terrain classification», IEEE Transactions on Systems, Man and Cybernetics,

Vol. SMC-6, p. 269-285.


274

Présentation des auteurs

Emmanuel TONYE, né le 10 mars 1952, est marié et père de trois enfants. Monsieur
Emmanuel TONYE est Professeur des Universités Camerounaises, Maître de Conférences en
poste à l’Ecole Nationale Supérieure Polytechnique (ENSP) de l’Université de Yaoundé I. Il
est actuellement Coordonnateur de la Recherche à l’ENSP et directeur du Laboratoire
d’Electronique et de Traitement du Signal (LETS) de l’ENSP. Monsieur Emmanuel TONYE
est Docteur d’Etat ès-sciences (1987) et Docteur 3ème cycle en électronique (1981) de l’Institut
National Polytechnique de Toulouse. Il est spécialiste des aspects physiques de la
télédétection et du traitement des images. Il est membre du Comité du Réseau Télédétection
de l’AUPELF-UREF et partenaire de l’Agence Spatiale Européenne.

Alain AKONO , né le 03 août 1962, est marié et père de trois enfants. Il a obtenu un diplôme
d’ingénieur en électricité à l’Université du Québec à Trois-Rivières (Canada) en 1989. Il a
ensuite été admis au cycle de doctorat en sciences de l’ingénieur à l’Ecole Nationale
Supérieure Polytechnique de l’Université de Yaoundé I en 1990, et il a soutenu sa thèse de
doctorat le 16 décembre 1994 (spécialité : traitement du signal et de l’image). Monsieur Alain
AKONO a bénéficié d’une bourse de l’ORSTOM pour un stage de haut niveau à Bondy
(France) en 1996, dans le domaine de la télédétection. Il a également bénéficié d’une bourse
d’excellence post-doctorale de l’AUPELF-UREF pour un stage de télédétection au Centre
d’Applications et de Recherches en Télédétection (CARTEL) de l’Université de Sherbrooke
(Canada) en 1997. Monsieur Alain AKONO est actuellement chargé de cours à l’Ecole
Nationale Supérieure Polytechnique de l’Université de Yaoundé I.

André NDI NYOUNGUI , né le 4 août 1961, est marié et père de 3 enfants. Monsieur André
NDI est titulaire d’un doctorat de 3ème Cycle en informatique dans le domaine de l’imagerie
radar. Monsieur André NDI a bénéficié de deux bourses doctorantes de l’AUPELF-UREF
pour des stages de télédétection au Centre d’Applications et de Recherches en Télédétection
(CARTEL) de l’Université de Sherbrooke (Canada), en 1996 et en 1998. Monsieur André
NDI est actuellement assistant à l’Université de Ngaoundéré.

Vous aimerez peut-être aussi