Vous êtes sur la page 1sur 147

UNIVERSITÉ MOHAMMED V – AGDAL

FACULTÉ DES SCIENCES


Rabat

N° d’ordre : 2458

THÈSE DE DOCTORAT

Présentée par

IDBRAIM Soufiane

Discipline : Sciences de l’ingénieur


Spécialité : Informatique & Télécommunications

Titre :

Méthodes d’extraction de l'information spatiale et de classification


en imagerie de télédétection : Applications à la cartographie
thématique de la région d’Agadir (Maroc)

Soutenue le 16 juillet 2009. Devant le jury

Président :
Pr. Driss ABOUTAJDINE Professeur à la Faculté des Sciences de Rabat

Examinateurs :
M. Lhoussain MASMOUDI Professeur à la Faculté des Sciences de Rabat
M. Christian Puech Professeur Habilité CEMAGREF – ENGREF, Montpellier, France
M. Aziz EL FAZZI Professeur à la Faculté des Sciences SEMLALIA de Marrakech
M. Yannick Deville Professeur à l'université Paul Sabatier de Toulouse, France
Mme. Danielle DUCROT Professeur Habilité à l'université Paul Sabatier de Toulouse, France
M. Driss MAMMASS Professeur à la Faculté des Sciences d’Agadir

Faculté des Sciences, 4 Avenue Ibn Battouta B.P. 1014 RP, Rabat – Maroc
Tel +212 (0) 37 77 18 34/35/38, Fax : +212 (0) 37 77 42 61, http://www.fsr.ac.ma
Avant propos

Le travail de thèse dans ce mémoire a été effectué dans le cadre d’une co-tutelle entre le
laboratoire LRIT (Laboratoire de Recherche en Informatique et Télécommunications) de la
Faculté des Sciences de Rabat sous la direction du Professeur Driss ABOUTAJDINE et le
centre français CESBIO (Centre d'Etudes Spatiales de la BIOsphère) sous la direction du
Professeur Danielle DUCROT.

Je tiens en particulier à exprimer ma plus sincère gratitude à mes directeurs de thèse,


Professeur Driss ABOUTAJDINE et Professeur Danielle DUCROT pour avoir accepté de
diriger mes recherches, et pour m’avoir apporté leur expertise avec la plus grande
disponibilité tout au long de cette thèse. Cette co-direction a donné lieu à des échanges riches,
à des confrontations de points de vue différents, et c'est réellement de la synthèse de ces
points de vue que sont nées les idées et les méthodes développées dans ce mémoire. Je leur
suis profondément reconnaissant de la confiance qu'ils m'ont accordé en autorisant mes
recherches à prendre cette orientation variée.

Je remercie Monsieur Aziz EL FAZZIK Professeur à la Faculté des Sciences SEMLALIA


de Marrakech pour m’avoir fait l’honneur d’être rapporteur de ma thèse et Monsieur Christian
Puech Professeur Habilité Chargé de recherches au Laboratoire Commun de Télédétection
CEMAGREF – ENGREF, Maison de la télédétection à Montpellier pour avoir apporté son
point de vue sur cette thèse en acceptant d'en être rapporteur

Je voudrais exprimer ma profonde reconnaissance envers mon co-directeur Monsieur Driss


MAMMASS Professeur et Responsable du laboratoire IRF-SIC, à la Faculté des Sciences
d’Agadir pour toute l’attention et le soutien qu’il m’a porté pendant ces années de thèse.

Je tiens à remercier Monsieur Lhoussain MASMOUDI Professeur à la Faculté des


Sciences de Rabat pour avoir accepté de participer au jury de cette thèse et Monsieur
Yannick Deville Professeur à l'université Paul Sabatier de Toulouse pour avoir accepté le rôle
d’examinateur et d’avoir fait le déplacement malgré son temps chargé.

Je voudrais enfin remercier tous ceux qui m'ont entourée durant ces années de thèse. Les
personnes du CESBIO avec qui j'ai eu l'occasion de travailler ou d'échanger des idées,
permanents, postdoc, thésards ou stagiaires, pour l’ambiance très chaleureuse qu’ils ont su
créer; les collègues et amis du LRIT et IRF-SIC à qui je souhaite beaucoup de bien.
Résumé

Les travaux de cette thèse s’articulent autour de deux axes : la classification pour la
cartographie de l’occupation du sol et l’extraction du réseau routier à partir des images
satellitaires et aériennes.

Le premier axe a pour objectif de proposer une méthode de classification visant à prendre
en compte le contexte spatial de l’information contenue dans une image satellitaire. Ainsi,
nous avons développé une méthode de classification markovienne, avec recherche de la
solution optimale par l’algorithme d’ICM (Iterated Conditional Mode). Cette méthode est
paramétrée par un facteur de température qui va permettre, premièrement, de régler la
tolérance des configurations désavantageuses dans le processus d’évolution de la
classification, et deuxièmement, d’assurer la convergence de l’algorithme en un temps de
calcul raisonnable. Parallèlement, nous avons introduit une nouvelle contrainte contextuelle
de segmentation dans l’algorithme. Cette contrainte va permettre au fil des itérations d’affiner
la classification en accentuant les détails détectés par les contours de segmentation.

Le second axe de cette thèse est l’extraction du réseau routier à partir des images
satellitaires et aériennes. Nous avons proposé une méthodologie complètement automatique à
travers un système d’extraction par blocs qui agissent séparément et indépendamment sur
l’image, le premier bloc opère un filtrage directionnel adaptatif, permettant ainsi de détecter
les routes dans chaque fenêtre de l’image selon les directions dominantes. Quant au deuxième,
il applique une segmentation, puis, il sélectionne les segments représentant des routes selon
un critère de forme. Ces deux blocs apportent ainsi un type d’informations différent sur la
scène étudiée. Ces résultats sont confrontés puis complétés dans un troisième bloc afin de
générer une image du réseau routier.

Les performances des méthodologies proposées sont vérifiées à travers des exemples sur
des images satellitaires et aériennes. Les résultats expérimentaux sont encourageants.

Mots clés : image de télédétection, Classification, Champs de Markov, ICM, extraction des
routes, filtrage directionnel, segmentation.
Abstract
The work of this thesis focuses around two axes: the classification for the mapping of land
cover and the extraction of roads from satellite and aerial images.

The first axis aims to propose a method of classification which takes in account the spatial
information contained in a satellite image. Thus, we developed a method of Markov
classification with the search for the optimal solution by an ICM (Iterated Conditional Mode)
algorithm. This method is parameterized by a new factor of temperature, this parameter will
allow, first, to rule the tolerance of the disadvantageous configurations during the evolution of
the classification process, and secondly, to ensure the convergence of the algorithm in a
reasonable time of calculation. In parallel, we introduced a new contextual constraint of the
segmentation in the algorithm. This constraint will allow, over the iterations, to refine the
classification by accentuating the detected details by the segmentation contours.

The second axis of this thesis is the extraction of roads from satellite and aerial images. We
proposed a completely automatic methodology with an extraction system in blocks which act
separately and independently on the image. The first block operates a directional adaptive
filtering, allowing detecting roads in each window of the image according to the dominant
directions. The second one applies segmentation, and then selects the segments representing
roads according to a criterion of the segment form. These two blocks provide a different type
of information on the studied image. These results are then complemented with a third block
to generate an image of the road network.

The performances of the proposed methodologies are verified through examples of satellite
and aerial images. In general, the experimental results are encouraging.

Key words: Remote sensing image, Classification, Markov Random Fields, ICM, road
extraction, directional filtering, segmentation.
Sommaire

Sommaire ............................................................................................................................... 1
Introduction .......................................................................................................................... 5
Partie I ..................................................................................................................................... 9
Classification contextuelle ................................................................................................ 9
Chapitre 1................................................................................................................................ 11
Classification non contextuelle en imagerie de télédétection ............................................. 11
1.1 Introduction ........................................................................................................................ 12
1.2 Les catégories des classifications....................................................................................... 12
1.3 Classification par minimisation de distance....................................................................... 13
1.3.1 Méthodes non itératives .............................................................................................. 13
1.3.1.1 Classification par la méthode du parallélépipède................................................. 13
1.3.1.2 Classification par la méthode barycentrique ou K plus proches voisins .............. 14
1.3.1.3 Classification selon la distance de Mahalanobis .................................................. 16
1.3.2 Méthodes itératives ..................................................................................................... 17
1.3.2.1 Classification par Kmeans.................................................................................... 18
1.3.2.2 Classification par ISODATA ............................................................................... 18
1.4 Machines à Support Vecteurs............................................................................................. 19
1.4.1 Principe de base des SVM........................................................................................... 20
1.4.2 Cas non linéairement séparable................................................................................... 21
1.5 Classification par réseaux de neurones .............................................................................. 22
1.6 Classification statistique non contextuelle : maximum de vraisemblance......................... 24
1.7 Conclusion.......................................................................................................................... 26
Chapitre 2................................................................................................................................ 27
Le contexte spatial dans la classification : utilisation des champs de Markov................. 27
2.1. Introduction ....................................................................................................................... 28
2.2 Un Modèle markovien général d’images ........................................................................... 28
2.2.1 Description de l'image................................................................................................ 28
2.2.2 Modélisation Markovienne de l'image ....................................................................... 30
2.2.3 Champs de Markov - Champs de Gibbs...................................................................... 30
2.2.3.1 Définition d'un champ de Markov........................................................................ 30
2.2.3.2 Equivalence entre champs de Markov et champs de Gibbs ................................. 30
2.2.4 Echantillonnage de MRF............................................................................................. 32
2.2.4.1 L'échantillonneur de Gibbs................................................................................... 32
2.2.4.2 L'algorithme de Metropolis ................................................................................. 33
2.2.5 Recherche de la configuration la plus probable .......................................................... 34
2.2.5.1 Distribution de Gibbs avec température.............................................................. 34
2.2.5.2 Algorithme du recuit simulé................................................................................ 35
2.2.5.3 Algorithme des modes conditionnels itérés (ICM) .............................................. 36
2.2.6 Quelques MRF fondamentaux .................................................................................... 37
2.2.6.1 Modèle d'lsing ...................................................................................................... 37
2.2.6.2 Modèle de Potts.................................................................................................... 38
2.2.6.3 Modèle markovien gaussien................................................................................. 40
2.3 Application dans la classification....................................................................................... 40
2.3.1 Règle de Bayes ............................................................................................................ 40
2.3.2 La classification........................................................................................................... 41
2.4 Estimateurs dans un cadre markovien................................................................................ 44
2.4.1 Modélisation bayésienne et fonction de coût .............................................................. 44
2.4.2 Maximum A Posteriori (MAP) ................................................................................... 44
2.4.3 Mode à posteriori des marginales (MPM)................................................................... 45
2.5 Quelques travaux concernant la classification des images satellitaires par MRF.............. 46
Chapitre 3................................................................................................................................ 49
Méthode contextuelle et validation des résultats................................................................. 49
3.1 Introduction ........................................................................................................................ 50
3.2 La méthode ICM avec contraintes contextuelles ............................................................... 50
3.2.1 La solution MAP ......................................................................................................... 50
3.2.2 Minimisation de l’énergie par l’ICM .......................................................................... 51
3.2.3 Introduction des contraintes ........................................................................................ 52
3.2.3.1 Contrainte de régularisation ................................................................................. 53
3.2.3.2 Contrainte de contour (segmentation) .................................................................. 53
3.2.3.3 Paramètre de température..................................................................................... 58
3.2.3.4 L’algorithme général ............................................................................................ 62
3.3 Validation de la méthode et résultats ................................................................................. 63
3.3.1 Présentation des scènes d’étude et des images............................................................ 63
3.3.1.1 Les images Landsat - région de Souss ................................................................. 63
3.3.1.2 Les images Formosat – région toulousaine - Est de Marrakech (Maroc) ............ 65
3.3.1.3 Critère d’évaluation.............................................................................................. 65
3.3.2 Contrôle de la régularisation ....................................................................................... 67
3.3.3 Le paramètre de température....................................................................................... 69
3.3.4 Comparaison avec la classification non contextuelle.................................................. 71
3.3.5 Utilisation de la contrainte de segmentation ............................................................... 73
3.4 Conclusion.......................................................................................................................... 76
Partie II ................................................................................................................................. 79
Extraction automatique des routes ............................................................................. 79
Chapitre 4................................................................................................................................ 81
Etat de l’art sur l’extraction des routes ............................................................................... 81
4.1 Introduction ........................................................................................................................ 82
4.2 Variabilité des réseaux routiers .......................................................................................... 82
4.2.1 Variabilité intrinsèque et extrinsèque des routes......................................................... 82
4.2.2 Variabilité typologique par rapport à l'environnement ............................................... 82
4.2.3 Variabilité due au mode d'acquisition ......................................................................... 83
4.2.3.1 L'angle de prise de vue ......................................................................................... 83
4.2.3.2 La résolution spatiale et spectrale du capteur....................................................... 84
4.3 Méthodes semi-automatiques ............................................................................................. 85
4.3.1 Méthodes de suivi et filtrage ....................................................................................... 85
4.3.2 Contours Actifs ........................................................................................................... 86
4.3.3 Programmation dynamique ......................................................................................... 87
4.4 Méthodes automatiques...................................................................................................... 87
4.4.1 Méthodes de segmentation et de classification .......................................................... 87
4.4.2 Morphologique mathématique .................................................................................... 88
4.4.3 Détecteurs de lignes .................................................................................................... 89
4.4.4 Champs de Markov sur graphe.................................................................................... 89
4.4.5 Méthodes fondées sur l’analyse multi-échelle (multi-résolution)............................... 89
4.4.6 Systèmes d'interprétation............................................................................................. 90

2
4.4.7 Apport de données cartographiques ............................................................................ 91
4.5 Conclusion.......................................................................................................................... 91
Chapitre 5................................................................................................................................ 93
Extraction semi-automatique des routes par contour actif................................................ 93
5.1 Introduction ........................................................................................................................ 94
5.2 Principe du suivi par contour actif ..................................................................................... 94
5.2.1 Modélisation et énergie ............................................................................................... 94
5.2.2 Contrôle de la rigidité et l’élasticité du contour actif.................................................. 96
5.2.3 Évolution temporelle du contour actif......................................................................... 98
5.3 Application du contour actif pour l’extraction des routes.................................................. 99
5.3.1 Paramètres d’initialisation........................................................................................... 99
5.3.2 Résultats expérimentales ........................................................................................... 100
5.4 Conclusion........................................................................................................................ 103
Chapitre 6.............................................................................................................................. 104
Une nouvelle méthode d’extraction automatique des routes ........................................... 104
6.1 Introduction ...................................................................................................................... 105
6.2 Vue globale de la méthodologie d’extraction .................................................................. 105
6.2.1 Schéma général ......................................................................................................... 105
6.2.2 Prétraitement ............................................................................................................. 106
6.3 Description des blocs de la méthodologie........................................................................ 107
6.3.1 Bloc de filtrage directionnel adaptatif....................................................................... 107
6.3.2 Bloc de segmentation ................................................................................................ 110
6.3.2.1 Filtrage Shen-Castan .......................................................................................... 110
6.3.2.2 Segmentation par Ligne de Partage des Eaux (LPE : watersheds) .................... 111
6.3.3 Intégration et liaison.................................................................................................. 113
6.3.3.1 Intégration des résultats des blocs de filtrage et de segmentation...................... 113
6.3.3.2 Liaison des segments routes.............................................................................. 113
6.4 Résultats et évaluations .................................................................................................... 114
6.4.1 Critère d’évaluation................................................................................................... 114
6.4.2 Evaluation des résultats............................................................................................. 115
6.5 Conclusion........................................................................................................................ 117
Conclusion.......................................................................................................................... 119
Liste des publications et communications .............................................................. 123
Bibliographie ..................................................................................................................... 125
Annexes ............................................................................................................................... 133
A. Présentation des données satellitaires FORMOSAT-2 et LANDSAT........................... 135
B. Segmentation par ligne de partage des eaux .................................................................. 139
C. Segmentation automatique par seuillage........................................................................ 142

3
4
Introduction

Contexte

On s’accorde à considérer que la télédétection a apporté une véritable révolution pour la


connaissance et le suivi de la surface du sol. Le besoin en cartes fiables et actualisées est
grandissant, le flux des images de télédétection est croissant, les systèmes d’information
géographique (SIG) ont connu une évolution extrêmement rapide au cours de la dernière
décennie. Ainsi, il devient nécessaire de développer des outils automatiques performants
d'analyse de toutes ces données, et particulièrement les images.

L'interprétation des images de télédétection constitue pour les photo-interprètes un outil


très important, et parfois indispensable, pour optimiser le temps passé sur le terrain tout en
améliorant d'une façon très sensible la précision du document cartographique final. Jusqu'à
l'avènement de l'image numérique, le photo-interprète identifiait sur les photos aériennes, plus
tard, spatiales. Les thèmes d'intérêt, déterminait leur contour et, généralement, reproduisait les
résultats de son analyse sur une carte sous forme d'unités spatiales ponctuelles, linéaires ou
zonales. Ce processus est lent et coûteux, et par conséquent ne permet pas de répondre à la
demande. Un besoin urgent d’automatiser la photo-interprétation sollicitant des techniques de
compréhension d’images par ordinateur s’est avéré indispensable.

De nombreuses méthodes ont été développées pour répondre aux différents problèmes
d’interprétation et d'extraction de l’information à partir d'images de satellites et aériennes,
notamment dans les cas particuliers : de l’occupation du sol, de la détection et l’extraction
d'objets surfaciques ou linéiques tel que les réseaux routiers.

Objectif

Dans cette thèse, nous considérons les deux principaux problèmes cités ci-dessus : le
premier est lié à la cartographie de l’occupation du sol, le deuxième concerne l’extraction des
routes à partir de l’imagerie satellitaire. Ce travail de thèse est organisé suivants deux
objectifs principaux :

− le développement d’une méthode robuste, permettant d’effectuer la classification


d’images de télédétection de façon contextuelle non supervisée ;
− la mise en oeuvre d’une méthode complètement automatique permettant de répondre à
la problématique de l’extraction des routes ;

Ce premier objectif du travail de recherche consiste à proposer une méthode de


classification non supervisée, sans aucune connaissance a priori de l’utilisateur. Dans cette
étude, nous profitons de l’intérêt de traiter l’image contextuellement à travers une
modélisation par champs de Markov. Cette méthode se distingue bien des méthodes
classiques par la prise en compte des interactions locales entre chaque pixel et ses pixels
voisins pour définir les différentes régions de l'image. Egalement, elle se caractérise par sa

5
faculté d’introduire, de manière souple, des contraintes du contexte spatial grâce à leur
modélisation par des fonctions potentielles. Nous avons introduit, en supplément d’une
contrainte de régularisation, une contrainte de segmentation afin d’affiner la classification.
Ces contraintes contextuelles sont contrôlées par un nouveau paramètre de température dans
un algorithme d’optimisation itératif ICM (Iterated Conditional Mode).

Dans le deuxième axe de la thèse, nous nous situons dans la catégorie d'approche, qui se
propose de fournir une extraction complètement automatique du réseau routier. Ainsi,
l’intervention d’un opérateur extérieur pour contrôler, corriger ou initialiser l’extraction, est
réduite ; et la plupart des informations nécessaires au processus d’extraction sont obtenues
directement de l’image. Dans le cas des méthodes semi-automatiques, l’initialisation
s’effectue de telle sorte que les points de départ soient proches de la route à extraire, donc, les
fausses détections sont exclues et c’est la précision de détection que l’on cherche à améliorer.
Dans notre cas, automatique, la qualité de l'extraction se mesure alors en terme d'exhaustivité
et de limitation des fausses détections et non en terme de précision. Un exemple de ces
méthodes « modèle contour actif » fait partie des méthodes implémentées dans les travaux de
cette thèse.

Afin d’obtenir le plus d’informations représentant les routes de l’image, nous proposons un
système d’extraction avec deux blocs parallèles qui agissent séparément et indépendamment
sur l’image, le premier bloc opère un filtrage directionnel adaptatif, permettant ainsi de
détecter les routes dans chaque fenêtre de l’image selon la direction prédominante, ou bien les
directions dominantes, s’il y en a plusieurs. Quant au deuxième, il applique une segmentation,
puis, il sélectionne les segments représentant des routes selon un critère de forme. Ces deux
approches apportent ainsi un type d’informations différent sur la scène étudiée. Les deux
résultats peuvent, alors, se compléter pour remplir au mieux la mission de détection des
routes.

Organisation du manuscrit

Ce document est divisé en deux parties. La première partie concerne la classification non
contextuelle pour une élaboration de la carte d’occupation du sol. Elle est organisée comme
suit :

− Nous dressons, au chapitre 1, un panorama des méthodes de classification non


contextuelles des images de satellites. Nous constatons que ces approches n'exploitent
pas le deuxième niveau d'information contenu dans une image c'est-à-dire, le contexte
spatial du pixel, qui joue un rôle important dans la classification de l’occupation du
sol, étant donné l’homogénéité des classes parcellaires.

− Dans le chapitre 2, nous décrivons le « background » du formalisme Markovien sur le


quel se base une classification contextuelle, puis, nous présentons quelques modèles de
cet aspect contextuel, ainsi que leurs avantages et leurs inconvénients. Nous terminons
avec un état d’art des travaux liés à l’imagerie satellitaire.

− Le chapitre 3 présente le principe détaillé de la méthode de classification développée,


puis, expose les résultats des applications sur deux types d’images de satellites et des
évaluations et comparaisons des résultats.

6
La deuxième partie est consacrée à l’extraction des routes. Elle est organisée de la façon
suivante :

− Le chapitre 4 présente en premier lieu, une description des caractéristiques principales


des réseaux routiers et de leur variabilité dans les images satellitaires et aériennes, puis,
il expose un état de l’art sur l'extraction de réseaux routiers.

− Dans le chapitre 5, nous décrivons de manière plus précise une technique semi-
automatique d’extraction des routes appelée contour actif. Nous présentons son
implémentation et son évaluation.

− Enfin, le chapitre 6 concerne l’extraction automatique des routes. Dans ce chapitre,


nous présentons la méthodologie développée en décrivant en détails ces différentes
étapes, et à la fin nous évaluons ces performances en utilisant des données de
référence.

Cadre de la thèse

Cette thèse réalisée en cotutelle est le fruit d’une coopération franco-marocaine entre le
LRIT-Faculté des Sciences-Université Mohammed V Agdal, le CESBIO-Université Paul
Sabatier et le IRF-SIC -Faculté des Sciences-Université Ibn Zohr.

7
8
Partie I
Classification contextuelle

9
10
Chapitre 1

Classification non contextuelle en imagerie de


télédétection

Sommaire

1.1 Introduction ........................................................................................................................ 12


1.2 Les catégories des classifications....................................................................................... 12
1.3 Classification par minimisation de distance....................................................................... 13
1.3.1 Méthodes non itératives .............................................................................................. 13
1.3.1.1 Classification par la méthode du parallélépipède ........................................................ 13
1.3.1.2 Classification par la méthode barycentrique ou k plus proches voisins ......................... 14
1.3.1.3 Classification selon la distance de Mahalanobis ......................................................... 16
1.3.2 Méthodes itératives ..................................................................................................... 17
1.3.2.1 Classification par Kmeans ........................................................................................ 18
1.3.2.2 Classification par ISODATA .................................................................................... 18
1.4 Machines à Support Vecteurs............................................................................................. 19
1.4.1 Principe de base des SVM........................................................................................... 20
1.4.2 Cas non linéairement séparable................................................................................... 21
1.5 Classification par réseaux de neurones .............................................................................. 22
1.6 Classification statistique non contextuelle : maximum de vraisemblance......................... 24
1.7 Conclusion.......................................................................................................................... 26

11
1.1 Introduction

L’objectif du traitement d’images de satellite est d’en extraire le maximum d’information


qui intéresse le futur utilisateur de l’image, et d’évacuer tout ce qui est superflu.
Un but réaliste est la classification thématique de ces images.

Le processus de classification est souvent rapproché de celui de la segmentation, mais les


différences entre les deux sont grandes : le but de la segmentation est d’opérer une partition
de l’image en zones connexes homogènes sans aucune sémantique, alors que celui de la
classification est de déterminer, pour chaque pixel ou groupe de pixels de l’image à traiter, la
classe de référence à laquelle il appartient, c’est-à-dire dans le cas des images de
télédétection, c’est la partition de l’image en ensembles de pixels représentant une même
occupation du sol.

Dans ce chapitre, on s’intéresse aux méthodes de classification non contextuelles. Les


méthodes de classification conventionnelles sont décrites dans une première étape dans
l’ordre : la classification supervisée et la classification non supervisée. Une attention
particulière est accordée ensuite à deux méthodes de classification apparues plus récemment
en traitement d’images de télédétection : la classification basée sur les Machines à Support
Vecteurs (SVM) et la classification par réseaux neuronaux. En dernier lieu, nous présentons
un exemple de méthode de classification statistique très utilisée : celle du maximum de
vraisemblance.

1.2 Les catégories des classifications

Une première partition des méthodes de classification peut être faite, entre les méthodes
dites de classification supervisées et les méthodes non supervisées. Dans le premier cas
l’algorithme nécessite l’intervention d’un utilisateur à un (ou plusieurs) stade(s) (le cas le plus
fréquent étant l’apport d’échantillons d’apprentissage), alors que dans le second cas, aucune
intervention n’est nécessaire.

La classification est un problème souvent étudié en télédétection, et il existe diverses


façons d’effectuer cette opération. On distingue principalement dans le cas non
contextuel deux catégories : les méthodes paramétriques dites approches de classification
statistiques et les méthodes non paramétriques.

Un classifieur est dit paramétrique s'il associe à la signature spectrale une distribution
statistique connue, le plus fréquemment pour le traitement d'images, la loi normale ou
multinormale. Cette association offre la possibilité d'affecter à chaque pixel une probabilité
d'appartenance à une classe donnée. Un classifieur probabiliste est donc généralement
paramétrique. L'algorithme le plus connu de cette catégorie est celui du maximum de
vraisemblance.

Un classifieur non paramétrique se définit alors en négatif de la première catégorie.


Aucune distribution statistique paramétrique n'est exploitée; seule la distance spectrale est
prise en compte. Cette catégorie comprend notamment : les méthodes fondées sur la
minimisation de distance (hyperboîte ou parallélépipédique, la distance minimale et la
distance de Mahalanobis, K plus proches voisins, Kmeans, ISODATA, etc), ainsi, de

12
nouvelles méthodes apparues récemment s’ajoutent à cette catégorie comme les réseaux
neuronaux et les Machines à Support Vecteurs (SVM).

1.3 Classification par minimisation de distance

Le principe des méthodes reposant sur la minimisation de distance consiste à chercher la


classe la plus proche pour chaque pixel, ou groupe de pixels si l’on travaille dans une fenêtre
d’analyse centrée sur le pixel courant. La notion de proximité est liée à la distance considérée.
Ces méthodes sont très simples et souvent utilisées, mais ne sont pas robustes au bruit car
elles ne comportent pas le terme de régularisation.

1.3.1 Méthodes non itératives

1.3.1.1 Classification par la méthode du parallélépipède

Cette méthode est basée sur une logique booléenne. Des données d’entraînement dans d
bandes spectrales sont utilisées pour effectuer la classification. Pour chaque classe λ , on
( )
calcule le vecteur µ λ = µ λ1 L µ λd où µ λk représente le niveau de gris moyen des
pixels de la classe λ dans la bande k.
σ λk est l’écart type des données d’entraînement de la classe λ dans la bande k. Si on utilise
un seuil égal à σ λk par exemple, l’algorithme du parallélépipède affecte un pixel de vecteur
(
de mesures X λ = xij1 ... xijd ) à la classe λ , si et seulement si l’équation suivante est
satisfaite :
µ λk − σ λk p xijk p µ λk + σ λk , ∀k (1.1)

k = {1...d } représente le nombre de bandes et xijk est la luminance du pixel (i,j) dans la bande
k. Par conséquent, si les frontières de décision inférieure et supérieure sont définies par
Lλk = µ λk − σ λk et H λk = µ λk + σ λk respectivement, la règle de décision du parallélépipède
devient :
Lλk p xijk p H λk , ∀k (1.2)

Ces règles de décision forment un parallélépipède multidimensionnel dans l’espace des


caractéristiques. Si la valeur du pixel est comprise entre la borne inférieure et la borne
supérieure pour les d bandes évaluées pour une classe donnée, il est affecté à cette classe, et
dans le cas contraire il est affecté à une catégorie non classée.

On prend garde que les classes ne se recoupent pas au moins dans une bande spectrale. Les
seuls paramètres pris en compte sont le minimum et le maximum de luminance par classe et
par bande spectrale. La figure 1.1 illustre le cas à deux dimensions.

13
Figure 1.1 Méthode parallélépipédique

Pour des dimensions supérieures à deux, on peut répéter l'opération par couple de bandes
spectrales. Dans la pratique, la séparation des classes n'est pas aussi aisée qu'il parait dans la
situation construite de la figure précédente. On doit généralement admettre des zones de
superposition des signatures spectrales.

1.3.1.2 Classification par la méthode barycentrique ou K plus proches voisins

Cet algorithme [Cover et Hart, 1967], communément utilisé pour la classification des
données de télédétection [Lee et al, 1990] se base sur la distance euclidienne simple. À partir
des zones d'échantillonnage, les moyennes (centre de gravité) µ i de chaque classe sont
calculées. Il consiste à parcourir l’image et à déterminer la classe la plus proche parmi les K
possibles. En chaque site s de valeur xs, nous calculons les K distances aux différentes classes.
Le pixel est affecté à la classe la plus proche, c'est-à-dire la plus proche de son centre de
gravité. Autrement dit, l’étiquette k associée à la classe λ k est attribuée au site s selon la
formule :

k = arg min d ( x s , λi ) (1.3)


i=1...K
avec
d ( x s , λi ) = ( x s − µ i )2 (1.4)
c’est-à-dire
( )
x s ∈ λi si d ( x s , λi ) p d x s , λ j pour tout i ≠ j (1.5)

Sans fixer des limites à chacune des classes ou de critères d'appartenance, cet algorithme
partage l'espace spectral en polygones de Thiessen ou de Voronoï, comme l'illustre la figure
1.2. Tout point de l'espace est rattaché au centre de classe le plus proche à l'exception des
points situés sur les lignes de séparation., La totalité de l'image sera classée sous le nombre de
signatures introduites.

14
Figure 1.2 Partition de l'espace selon la méthode barycentrique ou distance minimale

Cette forme de division n'est évidemment pas réaliste, car un pixel très éloigné du centre de
classe est probablement fort dissemblant de la classe à laquelle il est censé appartenir. Il est
donc nécessaire de fixer un seuil, une distance limite au-delà de laquelle le pixel n'est plus
classé.

Si le seuil est posé indépendamment des bandes spectrales, il forme, dans un espace formé
par deux bandes, une circonférence centrée sur le pixel moyen et de rayon égal à la distance
limite admise. L'espace spectral est découpé alors tel qu'il apparaît sur la figure 1.3.

Figure 1.3 Partition de l'espace selon la méthode barycentrique avec un seuil de classe uniforme pour toutes les
bandes spectrales

Le modèle du cercle pour circonscrire une classe dans l'espace spectral s'avère simpliste,
dans la mesure où il ne tient pas compte de la dynamique propre à chaque bande. Une
amélioration est apportée en .fixant un seuil, en unité d'écart type, spécifique à chaque bande.
La limite de classe devient alors une ellipse dont les axes sont parallèles à ceux des bandes
spectrales, comme représenté à la figure 1.4.

15
Figure 1.4 Partition de l'espace selon la méthode barycentrique avec limite de classe spécifique à chaque bande
spectrale

Malgré une nette amélioration, on observe que l'orientation des axes ne coïncide pas encore
avec celle de la distribution de certaines classes (classe 2, particulièrement), Cette méthode est
une étape intermédiaire qui conduit en douceur à la distance de Mahalanobis.

1.3.1.3 Classification selon la distance de Mahalanobis

Ce classifieur recourt à la distance euclidienne généralisée. Le poids accordé à chacun des


éléments du calcul de la distance est posé égal à l'inverse des variances et des covariances. La
distance dite de Mahalanobis s'écrit alors, sous forme matricielle

d ( x s , λi ) = (x s − µ i )t ∑i (x s − µ i )
−1
(1.6)

Notons que la distance de Mahalanobis est similaire à la distance euclidienne calculée dans
l'espace des variables décorrelées des luminances et ce, pour chaque classe prise séparément.
La limite de classe est fixée en unité d'écart type pour chaque classe séparément. La figure 1.5
schématise la partition de l'espace spectral par classe selon le classifieur Mahalanobis.

16
Figure 1.5 limite de classe selon une classification basée sur la distance de Mahalanobis

Il existe autres distances possibles (voir [Basseville, 1985][Fukunaga, 1972][Kittler, 1975]


par exemple)

− La distance de Bhattacharyya permet de mesurer la distance entre deux lois de


distribution selon la formule

1 (m s − µ i )
2
1 m +σi
d B ( x s , λi ) = + log s (1.7)
4 ms + σ s 2 2 m sσ i

La classe λi étant définie par sa moyenne µ i et son écart-type σ i , ms et σ s sont


respectivement la moyenne et l’écart type calculés dans le site s.

− La distance de Kullback dans le cas gaussien s’exprime de la façon ci-dessous, elle


retourne la distance entre deux lois de probabilité

1 (m s − µ i )
2
1⎛m µ ⎞
d K ( x s , λi ) = + ⎜⎜ s + i − 2 ⎟⎟ (1.8)
2 ms + σ s 2 ⎝ µi ms ⎠
L’article [Basseville, 1985] passe en revue un grand nombre de distances permettant de
déterminer en chaque pixel la classe la plus proche et d’attribuer ainsi l’étiquette
correspondante.

1.3.2 Méthodes itératives

Nous présentons ici deux algorithmes très utilisés dans les logiciels de traitement d’images
de télédétection, connus sous les noms de Kmeans (ou K moyennes) [MacQueen, 1967] et
ISODATA [Ball et Hall, 1965].

17
1.3.2.1 Classification par Kmeans

Cette méthode est supervisée dans le sens où le nombre de classes doit être donné, mais
pas nécessairement leurs paramètres. Son algorithme est le suivant.

- Initialisation des paramètres µ i0 et σ i0 pour i = 1...K


- Répéter n ← n − 1 tant que le critère d’arrêt n’est pas vérifié
en chaque site s calculer :
(
k n = arg min d x s , λin
i=1...K
)
pour i = 1...K recalculer µ i et σ in de
n
chaque classe λin
test sur le critère d’arrêt

Lorsque les paramètres des classes ne sont pas connus, l’étape d’initialisation peut se
résumer à sélectionner K sites de l’image pour initialiser les valeurs de µ i0 , et
prendre σ i0 = 1.0, ∀i . Puis, on effectue des itérations jusqu’à convergence de l’algorithme. A
chaque itération, on balaye l’image en attribuant une étiquette par minimisation de distance. Il
s’agit en général de la distance euclidienne, mais d’autres distances peuvent être choisies,
notamment pour prendre en compte les écart-types des classes. Une fois les étiquettes
attribuées, on calcule les nouvelles valeurs µ in et σ in pour les K classes trouvées à l’itération
n:
1
µ in = ∑ xs
( )
card λin xs∈λin
(1.9)

∑( )
1 2
σ in = − µ in
card ( )
λin xs∈λin
xs . (1.10)

On réitère ces opérations jusqu’à ce que le critère d’arrêt soit vérifié. Le critère d’arrêt peut
porter sur le nombre relatif de sites dont l’étiquette a changé entre deux étapes, ou sur la
variation relative des paramètres µ in et σ in entre les étapes n et n+1.

1.3.2.2 Classification par ISODATA

C’est une version améliorée de l’algorithme Kmeans, cet algorithme, nommé “Iterative
Self-Organizing Data Analysis Technics” ISODATA [Ball et Hall, 1965], autorise, au cours
des itérations, la fusion entre de nuages proches, la division d’un nuage à variance élevée et la
suppression de nuage de petite taille.

L’utilisateur doit spécifier donc les paramètres suivants :

− Le nombre minimum de membres dans un segment nmin. Si un segment contient


moins de membres que le minimum spécifié, il est supprimé et ses membres sont
affectés à un autre segment
− L’écart type maximum σ max . Lorsque l’écart type d’un segment dépasse le
maximum spécifié, et que le nombre de membres dans le segment est deux fois

18
supérieur au minimum de membres spécifiés dans une classe, le segment est
éclaté en deux segments.
− La distance minimum entre les segments dmin. Des segments ayant une distance
pondérée inférieure à cette valeur sont fusionnés.

Après l’initialisation, le nouveau vecteur moyen de chaque segment ms est calculé sur la
base des valeurs spectrales actuelles des pixels affectés à chaque segment. Ceci implique
l’analyse des paramètres suivants : nmin, σ max et dmin. Ensuite, le processus complet est réitéré
avec chaque pixel candidat, une fois de plus comparé aux nouveaux vecteurs moyens de
segments et affecté au segment le plus proche. Ce processus itératif continue jusqu’à ce que
l’on ait un petit changement dans l’affectation des classes entre les itérations, ou que le
nombre maximum d’itérations soit atteint.

Figure 1.6 l’initialisation et la variation du centre de gravité des classes au cours des itérations de l’ISODATA

1.4 Machines à Support Vecteurs

La classification par Support Vector Machines est une autre méthode non paramétrique
récente [Vapnik, 1998]. Elle consiste à résoudre un problème de classification binaire en
plaçant un hyperplan dans l’espace des données comme frontière de décision de manière à ce
que :
− cet hyperplan maximise le taux de bonne classification des échantillons
d’apprentissage,
− La distance entre le plan et le pixel le plus proche est maximisée.

19
Ce plan est alors défini par une combinaison des échantillons les plus proches de ce plan,
qui sont appelés les vecteurs supports. Cette approche est intéressante, puisque l’optimisation
est supposée maximiser directement la classification, mais ses développements concernent
principalement le problème à deux classes. Néanmoins, les résultats sont satisfaisants, comme
le montre certaines applications sur des images de télédétection [Huang et al, 2002] [Melgani
et Bruzzone, 2004] [Roli et Fumera, 2001] [Zhang et al, 2001]

1.4.1 Principe de base des SVM

Initialement les approches SVM ont été proposées pour rechercher la séparation optimale
entre deux classes. Un problème de classification en deux classes peut s’énoncer de la façon
suivante : Soit X un ensemble de N exemples d’apprentissage dont chaque élément est
r
représenté par une paire ( xi , yi ) avec i = 1...N , yi un label de classe pouvant prendre la valeur
r
( )
+1 ou −1 et xi un vecteur de dimension k xi ∈ ℜ k . L’objectif du classifieur est de déterminer,
à l’aide de ces données d’apprentissage, une fonction de décision f ( x, α ) → y (avec
α paramètres du classifieur) et de l’utiliser ensuite pour classifier de nouvelles données.

Dans le cas d’un classifieur linéaire, la fonction f peut être définie à l’aide d’un hyperplan
r r
d’équation w ⋅ X + b = 0 (où w et b désignent les paramètres de l’hyperplan soit
r
respectivement un vecteur normal au plan et le biais). La classification d’un vecteur xi est
[ r
]
alors donnée par le signe de la fonction f, sgn f wr ,b ( xi ) , c’est-à-dire yi = +1 si
[ ]r
[ ] r
sgn f wr ,b ( xi ) > 0 ou yi = −1 si sgn f wr ,b ( xi ) < 0 .

Le principe des approches SVM est de trouver l’hyperplan optimal parmi l’ensemble des
hyperplans possibles (figure 1.7-a) permettant de classifier correctement les données (i.e. les
données des classes de label +1 et −1 se trouvent de chaque côté de l’hyperplan) mais
également tel que sa distance aux vecteurs (exemple d’apprentissage) les plus proches soit
maximale (i.e. le plus loin possible de tous les exemples). Les vecteurs les plus proches sont
alors dénommés "vecteurs supports" et la distance constitue la marge optimale.

Les vecteurs supports sont situés sur deux hyperplans parallèles (H1 et H2) à l’hyperplan
r r
optimal d’équation w ⋅ X + b = 0 et ont pour équation respective w ⋅ X + b = −1 et
r
w ⋅ X + b = +1 (figure 1.7-b). Aucun exemple d’apprentissage ne devant être situé dans la
marge, ils satisfont les équations suivantes :
r r
w ⋅ xi + b ≥ +1 si yi = +1,
r r (1.11)
w ⋅ xi + b ≤ −1 si yi = −1 ∀i = 1,..., N
r r
Ces contraintes peuvent être regroupées en une seule inégalité suivante : y i (w ⋅ xi + b ) − 1 ≥ 0 .
2
Ainsi, la marge est au moins égale à la distance entre les deux hyperplans H1 et H2 soit r ,
w
r r
où w fait référence à la norme du vecteur w . Maximiser cette marge revient donc à
r
minimiser w sous la contrainte que l’hyperplan reste séparateur c’est-à-dire
r r
y i (w ⋅ xi + b ) − 1 ≥ 0, ∀i = 1,..., N (on retrouve ici la justification de l’appellation de
"séparateur à vaste marge").

20
On peut ainsi montrer, en utilisant des méthodes d’optimisation adaptées (principe de
r
dualité et multiplicateurs de Lagrange), que le vecteur w ∗ réalisant l’optimum peut s’écrire
r r
sous la forme w∗ = ∑i =1α i∗ yi xi . Les α i∗ sont les multiplicateurs de Lagrange déterminés et
N
r
sont non nuls uniquement pour les points xi se trouvant exactement "sur la marge" c’est-à-dire
les vecteurs supports.

Le calcul de b ∗ s’effectue soit en prenant un i particulier (un exemple d’apprentissage) soit


en calculant la moyenne de tous les b ∗ obtenus pour chaque vecteur support.

{ }
Soit vs = j ∈ {1,2,..., l} tel que α ∗j ≠ 0 l’ensemble des indices des vecteurs supports. Une
r
fois les paramètres α ∗ et b ∗ calculés, la règle de classification d’une nouvelle observation x
( r r
basée sur l’hyperplan à marge maximale est donnée par sgn ∑ j∈vs yiα ∗j x ⋅ x j + b ∗ . )

Figure 1.7 Principe des SVM : (a) Recherche de l’hyperplan optimal ; (b) Hyperplan optimal, marge et vecteurs
supports

1.4.2 Cas non linéairement séparable

Cependant, dans de nombreux cas, les échantillons d’entraînement ne sont pas linéairement
séparables. La procédure consiste alors à introduire une fonction Φ permettant de projeter les
données dans un espace de dimension supérieure (D) où elles deviennent linéairement
séparables (voir figure 1.8) :
ℜ d → ℜ D avec D >> d
r r (1.12)
x → Φ(x )

21
Figure 1.8 Représentation de l’astuce du noyau (Trick Kernel)

De la même façon que précédemment, on recherche dans ce nouvel espace, l’hyperplan


optimal donné cette fois par :
r r r
f ∗ ( x ) = w∗ ⋅ Φ ( x ) + b ∗ (1.13)
v∗ r r r r
avec w = ∑i =1α i yi Φ( xi ) soit f ∗ ( x ) = ∑i =1α i yi Φ(xi ) ⋅ Φ( x ) + b ∗ .
n n
(1.14)

Une observation importante est que la seule connaissance des produits scalaires entre
points est suffisante pour trouver et calculer la fonction f ∗ .On n’a donc pas besoin de trouver
r
une représentation Φ( x ) explicitement. Il suffit d’être capable de calculer
r
( ) (
r r r
) (
r r
)
Φ (xi ) ⋅ Φ x j = k xi , x j . Le terme k xi , x j est appelé noyau. Vapnik [Vapnik, 1998] a
montré que toute fonction satisfaisant les conditions (symétrique, définie positive) peut être
utilisée comme noyau. Parmi les noyaux les plus classiquement utilisés pour la classification
des images de télédétection, on trouve, le noyau gaussien ou noyau RBF (pour Radial Basis
Function)
⎛ x− y 2 ⎞
k ( x, y ) = exp⎜ − ⎟ (1.15)
⎜ 2σ 2 ⎟
⎝ ⎠
ou encore le noyau polynomial [Gualtieri et Chettri, 2000] [Huang et al, 2002] [Camps-Valls
et al., 2006].
k ( x, y ) = ( x ⋅ y + 1) p (1.16)

1.5 Classification par réseaux de neurones

Les classifieurs neuronaux offrent d'emblée un intérêt d'ordre pratique. Contrairement aux
classifieurs précédents, ils n'exigent pas que la signature spectrale extraite des zones
d'entraînement s'ajuste à une distribution statistique paramétrisable. Les paramètres du
système neuronal s'adaptent progressivement aux propriétés de la signature, au fur et à mesure
qu'on lui fournit des exemples connus, c'est-à-dire des pixels des zones d'entraînement et la
catégorie thématique associée. Ils ne se basent sur aucune considération de propriétés
physiques reliant une zone d'entraînement à sa catégorie thématique. Après la phase
d'apprentissage, le système agit en « boîte noire»: à un pixel d'entrée correspond une catégorie
en sortie. Aussi, les performances d'un tel système ne se jugent qu'en termes d'efficacité et de
robustesse, ce dernier terme étant pris dans son sens statistique. Les réseaux neuronaux sont
donc des classifieurs non paramétriques d'autant plus robustes que la distribution des pixels
d'apprentissage n'est pas normale [Lippmann, 1987]

22
Le modèle de réseau de neurones le plus communément utilisé pour la classification
d'images en télédétection est le perceptron multicouche, entraîné avec l'algorithme de rétro-
propagation [Rumelhart et al, 1986].

Le perceptron multicouche comprend une couche d'entrée et de sortie, mais entre les deux
s'intercalent une ou plusieurs couches appelées couches cachées. L'architecture d'un
perceptron à trois couches présentée à la figure 1.9 propose une seule couche cachée située
entre celle d'entrée et de sortie.

Figure 1.9 Perceptron à trois couches

Le nombre de paramètres internes ajustables croît avec le nombre de couches et de


neurones par couche. L'exemple d'un réseau à trois couches met en évidence cette propriété.
La couche d'entrée dispose de i possibilités, la couche cachée, de q neurones et la couche de
sortie, de k neurones. Chaque entrée est connectée à tous les neurones et chaque neurone est
connecté à tous ses suivants. Le nombre de poids à ajuster est donc de i × j × k . Prenons le cas
d'une configuration adaptée à une classification d'une image TM de Landsat (six entrées) en
10 classes. En supposant que la couche cachée dispose de huit neurones, le système
contiendra 480 paramètres d'ajustement.

La fonction du perceptron est de faire correspondre à un vecteur d'entrée x, un vecteur de


sortie y. Les composantes du vecteur d'entrée sont les luminances ou d'autres variables dont
dépendent les classes affectées aux sorties ; en règle générale, les entrées sont normalisées de
sorte que ses valeurs soient comprises entre 0 et 1. Le vecteur de sortie représente les classes
spectrales ou thématiques dans le sens d'une classification supervisée.

L'entrée nette d'une unité dans un perceptron multicouche est une somme pondérée des
sorties des unités de la couche précédente selon l’équation

net j = ∑ wij oi (1.17)


i

23
Cette somme pondérée est ensuite transformée par la fonction d'activation de l'unité
(habituellement une fonction sigmoïde) pour produire la sortie de l'unité selon les équations
suivantes.
1
oj = [Tangente exponentielle] (1.18)
(
1 + exp − 2 β net j )
( )
o j = tanh β net j [Tangente hyperbolique] (1.19)

Dans les deux expressions précédentes, β est une constante réelle déterminant la pente de
la fonction à l'origine. Les poids sont ajustés pendant l'apprentissage en utilisant la règle du
delta généralisée.
( )
∆wij (n + 1) = η δ j oi + α∆wij (n ) (1.20)

∆wij (n + 1) est la correction du poids de la connexion reliant les nœuds i et j à la (n + 1) ème


itération. δ j est le taux de changement d'erreur par rapport à la sortie de l'unité j. η est le taux
d'apprentissage et α est le terme d'inertie.

La correspondance attendue entre entrée et sortie ne pouvant être absolue, le perceptron se


comporte comme approximateur. Le lecteur intéressé trouvera plus de détails sur les
algorithmes utilisés pour la procédure de rétropropagation de l'erreur et leur démonstration
dans [Caloz et Collet, 2001].

1.6 Classification statistique non contextuelle : maximum de vraisemblance

Les méthodes statistiques consistent à déterminer des frontières de décision partitionnant


l’espace des pixels en différentes zones étiquetées grâce aux échantillons d’apprentissage. La
détermination des frontières de décision est faite à travers une modélisation probabiliste des
pixels, et les notions de distances associées à ces modélisations. Ensuite, la classification peut
se faire simplement pour chaque pixel en considérant la zone à laquelle il appartient, ou par
des méthodes plus complexes impliquant le contexte de chaque pixel, à travers des champs de
Markov (Chapitre 2), ce qui permet une prise en compte du contexte spatial pour aboutir à des
classifications plus régulières.

Dans ce paragraphe on s’intéresse au cas non contextuel, une méthode très courante (que
nous décrivons) est la classification par maximum de vraisemblance, avec modélisation
gaussienne.

Notations

Une image est constituée d’un ensemble S de si ou pixels. Soit Λ l’ensemble des classes
parmi lesquelles on choisit les étiquettes de chaque pixel. Une classe sera notée λ . L’espace
des états est noté E, sa dimension est égale au nombre de critères sélectionnés.
Soit ys le vecteur de E associé au site s de l’image S.

Soient y = ⎛⎜ y s1 ,..., y s S ⎞⎟ , x = ⎛⎜ x s1 ,..., x s S ⎞⎟ xs la classe dans Λ attribuée à s.


⎝ ⎠ ⎝ ⎠
Ys , Y , X s et X sont des processus aléatoires associés respectivement à y s , y, x s et x .

24
Ecriture du problème

Sous l’hypothèse gaussienne de la loi de probabilité P( y s / x s = λi ) et l’hypothèse


d’indépendance conditionnelle des probabilités (détaillées ultérieurement dans Chapitre 2),
nous cherchons à déterminer la meilleure classification des pixels de l’image, xopt . Pour cela,
on dispose de l’état global de l’image, y, et on cherche à déterminer :

xopt = arg max P( X = x / Y = y ) (1.21)


x

P(Y = y / X = x )P( X = x )
xopt = arg max (1.22)
x P(Y = y )

xopt = arg max P(Y = y / X = x )P( X = x ) (1.23)


x

En supposant que l’on ne dispose d’aucune information a priori sur les probabilités
relatives d’occurrence des classes, P( X s = λ ) est constant, pour tout s et tout λ .

xopt = arg max P(Y = y / X = x ) (1.24)


x

xopt = arg max ∏ P(Ys = y s / X s = x s ) (1.25)


x s

Le problème global est donc ramené à un problème d’optimisation local, grâce à


l’hypothèse d’indépendance conditionnelle des pixels.

x s opt = arg max P(Ys = y s / X s = x s ) (1.26)


xs

Et sous l’hypothèse gaussienne, on obtient l’équation suivante :

⎛ 1 ⎞
exp⎜ − ( y s − µ i )t [∑ i ]−1 ( y s − µ i )⎟
x s opt = arg max ⎝ 2 ⎠ (1.27)
λi∈Λ det (∑ i ) ⋅ (2π )
12 d 2

où d est la dimension de l’espace des états (nombre de bandes spectrales), soit le nombre de
critères choisis. Pour des raisons pratiques, on préférera calculer le logarithme de l’expression
ci-dessus.
( )
x s opt = arg min ( y s − µ i )t [∑ i ]−1 ( y s − µ i ) + log det (∑ i ) (1.28)
λi∈Λ

Comme dans le cas du classifieur de Mahalanobis, les surfaces de décision du maximum


de vraisemblance sont des hyperellipsoïdes dans l'espace spectral.

25
1.7 Conclusion

Toutes les méthodes de classification décrites dans ce chapitre regroupent les pixels sous le
seul critère de la ressemblance spectrale estimée par la distance euclidienne simple,
généralisée ou autre. Les réseaux neuronaux ne dérogent pas à ce principe dans la mesure où
les poids sont accordés aux seules luminances du pixel. De même pour SVM, où on résout le
problème de classification binaire en plaçant un hyperplan dans l’espace spectral des données
comme frontière de décision. Ces approches n'exploitent donc pas le deuxième niveau
d'information contenu dans une image : soit le contexte spatial du pixel qui se traduit parfois
par un aspect textural.

La dimension spatiale joue pourtant un rôle prépondérant en analyse visuelle. Elle permet
souvent de tracer avec une bonne précision les contours d'une zone malgré l'hétérogénéité
spectrale des pixels qui la composent. L'interprète agit à la manière d'un filtre moyen ou
modal en affectant un pixel isolé à la classe qui l'entoure, car la probabilité qu'il constitue à lui
seul une autre classe thématique est faible. Il en est de même pour une petite région voisine ou
entourée d'une classe différente. Si leur degré de similarité est proche, il est légitime de les
fusionner.

De manière surprenante, la plupart des logiciels commerciaux de traitements d'images de


télédétection n'offrent pas de procédures de classification contextuelles. La situation est
différente dans le domaine de la recherche, où divers auteurs se sont penchées très tôt sur cette
approche et que des procédures très performantes ont été proposées. Dans le cadre de ces
travaux de thèse, nous nous sommes intéressés à cette catégorie de classification intégrant la
contrainte spatiale en utilisant les champs de Markov.

26
Chapitre 2

Le contexte spatial dans la classification : utilisation des


champs de Markov

Sommaire

2.1. Introduction ....................................................................................................................... 28


2.2 Un Modèle markovien général d’images ........................................................................... 28
2.2.1 Description de l'image................................................................................................ 28
2.2.2 Modélisation Markovienne de l'image ....................................................................... 30
2.2.3 Champs de Markov - Champs de Gibbs...................................................................... 30
2.2.3.1 Définition d'un champ de Markov........................................................................ 30
2.2.3.2 Equivalence entre champs de Markov et champs de Gibbs ................................. 30
2.2.4 Echantillonnage de MRF............................................................................................. 32
2.2.4.1 L'échantillonneur de Gibbs................................................................................... 32
2.2.4.2 L'algorithme de Metropolis ................................................................................. 33
2.2.5 Recherche de la configuration la plus probable .......................................................... 34
2.2.5.1 Distribution de Gibbs avec température.............................................................. 34
2.2.5.2 Algorithme du recuit simulé................................................................................ 35
2.2.5.3 Algorithme des modes conditionnels itérés (ICM) .............................................. 36
2.2.6 Quelques MRF fondamentaux .................................................................................... 37
2.2.6.1 Modèle d'lsing ...................................................................................................... 37
2.2.6.2 Modèle de Potts.................................................................................................... 38
2.2.6.3 Modèle markovien gaussien................................................................................. 40
2.3 Application dans la classification....................................................................................... 40
2.3.1 Règle de Bayes ............................................................................................................ 40
2.3.2 La classification........................................................................................................... 41
2.4 Estimateurs dans un cadre markovien................................................................................ 44
2.4.1 Modélisation bayésienne et fonction de coût .............................................................. 44
2.4.2 Maximum A Posteriori (MAP) ................................................................................... 44
2.4.3 Mode a posteriori des marginales (MPM)................................................................... 45
2.5 Quelques travaux concernant la classification des images satellitaires par MRF.............. 46

27
2.1. Introduction

Le chapitre précédent a permis d’évoquer le souci d’introduire l’aspect contextuel dans les
approches de classification des images multi-spectrales. Dans ce contexte, nous proposons
l’utilisation du formalisme Markovien (Markov random field, MRF) . L’essor des
modélisations markoviennes en classification d’images date des années 80 [Kirkpatrick et al,
1982][ Geman et Geman, 1984][Besag, 1986]. Les MRF se sont bien distingués des méthodes
classiquement utilisées (méthodes non contextuelles : chapitre 1) par la prise en compte des
interactions locales entre chaque site (pixel) avec les pixels voisins pour définir les différentes
régions de l'image.

Le modèle des MRF, qui suppose que l’image peut être représenté par un champ de
Markov (processus 2D), nécessite le recours à des méthodes itératives du type de
l’échantillonneur de Gibbs pour estimer la loi du champ ; de plus, le calcul des solutions
bayésiennes n’étant pas explicite, ces dernières sont approchées grâce à des estimateurs
(MAP, MPM,…) et à la mise en oeuvre des algorithmes itératifs type recuit simulé et ICM.

Dans ce chapitre, nous introduisons tout d'abord de façon intuitive la notion d'énergie
locale avant de définir plus formellement un champ de Markov et d'énoncer le théorème
d'équivalence entre champs de Markov et champs de Gibbs. Les algorithmes
d'échantillonnage d'un champ de Markov et de calcul des configurations les plus probables
sont ensuite présentés, ainsi que les modèles markoviens les plus courants. L'utilisation des
champs markoviens dans la classification est ensuite décrite. A la fin, nous abordons deux
exemples d’estimateurs (MAP et MPM).

Ce chapitre nous permettra d’appréhender les avantages et les inconvénients de chacune


des méthodes évoquées, de proposer et de justifier les grandes lignes de l’approche de
classification présentée dans ce mémoire.

2.2 Un Modèle markovien général d’images

2.2.1 Description de l'image

L’image est représentée comme une grille rectangulaire finie bidimensionnelle de taille
m × n = N contenant un ensemble de sites S = s i avec 1 < i < N appelés pixels. Á chaque site
est associé un descripteur, représentant l’état du site et pouvant être un scalaire (niveau de
gris, label (ou étiquette)) ou encore un vecteur (spectre), et prenant ses valeurs dans l’espace
des états E.

La notion d'interactions locales nécessite de structurer les relations spatiales entre les
différents sites du réseau. Pour ce faire, on munit S d'un système de voisinage ϑ défini de la
façon suivante:

⎧s ∉ ϑ s
ϑ s = {t} tels que ⎨ (2.1)
⎩t ∈ϑ s ⇒ s ∈ ϑt

28
A un système de voisinage donné correspond un ensemble de cliques, une clique étant un
ensemble de points du treillis mutuellement voisins, l’ordre d’une clique étant le nombre de sites
qui la compose (on s’intéresse en général aux cliques d’ordre 2). En fonction du système de
voisinage utilisé, le système de cliques sera différent et fera intervenir plus ou moins de sites
comme illustré sur la figure 2.1. On notera C l'ensemble des cliques relatif à ϑ , et Ck
l'ensemble des cliques de cardinal k.

Figure 2.1. Les cliques associées à deux systèmes de voisinage en dimension 2

Les interactions locales entre niveaux de gris (ou descripteurs) de sites voisins peuvent
alors s'exprimer comme un potentiel de clique. Soit c une clique, on lui associe le potentiel Uc
dont la valeur dépend des niveaux de gris des pixels constituant la clique. En poursuivant ce
raisonnement, on peut définir l'énergie globale de l'image comme la somme des potentiels de
toutes les cliques:

U= ∑U c (2.2)
c∈C

et l'énergie locale en un site comme la somme des potentiels de toutes les cliques auxquelles il
appartient:
U s = ∑U c . (2.3)
c∈C s∈c

29
2.2.2 Modélisation Markovienne de l'image

Dans la modélisation Markovienne, l'image est considérée comme une réalisation x d'un
champ aléatoire. Soit s un site de l'image, on peut en effet lui associer une variable aléatoire
(v.a) Xs prenant ses valeurs dans E. Le niveau de gris xs en s est donc une réalisation de la v.a
Xs. On définit alors le champ aléatoire X = ( X s , X t , K) prenant ses valeurs dans Ω = E
S
.

La probabilité globale de x, P( X = x ) , permet d'accéder en quelque sorte à la


vraisemblance de l'image et les probabilités conditionnelles locales d'une valeur en un site
permettent de mesurer le lien statistique entre un niveau de gris et le reste de l'image.

2.2.3 Champs de Markov - Champs de Gibbs

2.2.3.1 Définition d'un champ de Markov

Considérons Xs la valeur prise au site s et x s = ( x t )t ≠ s la configuration de l'image excepté


le site s. Un champ de Markov X est un champ aléatoire si et seulement si il vérifie la
propriété suivante :

⎧ P( X = x ) > 0∀x ∈ Ω

( )
⎩ P X s = x s / x = P( X s = x s / xt , t ∈ ϑ s )
s (2.4)

Cela signifie que la probabilité en un site s conditionnellement au reste du champ est égale
à la probabilité en ce site connaissant uniquement ses voisins. Ainsi, tout l’intérêt d’une
modélisation Markovienne réside donc dans la possibilité de spécifier localement un modèle
qui est en fait global.

Cette hypothèse markovienne se justifie bien dans le cas des images satellitaires et plus
généralement dans le cas de la plupart des images naturelles constituées de zones homogènes
ou texturées.

2.2.3.2 Equivalence entre champs de Markov et champs de Gibbs

La modélisation markovienne prend toute sa puissance grâce au théorème Hammersley-


Clifford [Besag, 1974]. En effet, Il permet d'établir une correspondance entre un champ de
Markov et un champ de Gibbs lorsqu’aucune réalisation de X n'est de probabilité nulle. Il nous
faut au préalable définir un certain nombre de notions relatives aux mesures et champs de
Gibbs.

Définition 2.1 (mesure de Gibbs).


La mesure de Gibbs de fonction d'énergie U : Ω → ℜ est la probabilité P définie sur Ω par:

1
P( X = x ) = exp(− U ( x )), (2.5)
Z
avec
U (x ) = ∑ U c (x ), (2.6)
c∈C

30
où C est le système de cliques associé au système de voisinage ϑ de U. Z est une constante
de normalisation sur l’ensemble des réalisations de Ω de cette fonction d’énergie, elle est
appelée fonction de partition et peut être exprimée par :

Z= ∑ exp(− U (x )) (2.7)
x∈Ω

Nous pouvons maintenant définir le champ de Gibbs de potentiel associé au système de


voisinage ϑ : c'est le champ aléatoire X dont la probabilité est une mesure de Gibbs associée
au système de voisinage ϑ , ce qui implique:
1 1 ⎛ ⎞
P( X = x ) = exp(− U ( x )) = exp⎜⎜ − ∑ U c ( x )⎟⎟ . (2.8)
Z Z ⎝ c∈C ⎠

La probabilité d’une configuration dépend donc d’un ensemble d’interactions locales (au
niveau des cliques). Plus l’énergie totale U(x) est grande, moins la configuration est probable.

Un résultat fondamental est l’équivalence des champs de Markov et des champs de Gibbs
grâce au théorème suivant :

Le théorème de Hammersley-Clifford [Besag, 1974]

Sous les hypothèses :


- S fini ou dénombrable;
- le système de voisinage ϑ est borné;
- l'espace des états E est discret.

X est un champ de Markov relativement à ϑ si et seulement si X est un champ de Gibbs de


potentiel associé à ϑ .

En fonction du système de voisinage, U(x) peut prendre diverses formes ; par exemple, si
nous considérons un champ de Markov de voisinage 4-connexe, nous pouvons écrire l'énergie
de la configuration x sous la forme :

U (x ) = ∑ Uc (x s ) + ∑ Uc (x s , xt ). (2.9)
c = ( s )∈C1 c = ( s ,t )∈C2

où C1 et C2 sont respectivement les cliques d’ordre 1 et 2.


Si nous cherchons à écrire la probabilité conditionnelle locale P x s / X s = x s , nous avons ( )
grâce au résultat précédent :

(
P X s = xs / X s = x s = ) P( X = x )
=
( ( ))
exp − U x s , x s
( ) ∑ exp(− U (x , x ))
(2.10)
P X s = xs s
s
xs ∈E

Définissons l'énergie locale Us par:

U s (x s / xt , t ∈ ϑ s ) = ∑ Uc (x s , xt , t ∈ ϑ s ) = ∑ U c (x s , ϑ s ) (2.11)
c∈C / s∈c c∈C / s∈c

31
Notons désormais Vs = ( xt , t ∈ ϑs ) . On peut alors écrire l'énergie globale U(x) sous la
forme :

U (x ) = ∑ Uc (x ) + ∑ U c (x ) = ∑ U c (x ) + U s (x s / V s ) (2.12)
c∈C / s∉c c∈C / s∈c c∈C / s∉c

En simplifiant on obtient :
⎛ ⎞
exp⎜⎜ − ∑ U c ( x ) − U s ( x s / V s )⎟⎟
(
P X s = xs / X s = x s ) =
⎝ c∈C / s∉c



∑ exp⎜⎜ − ∑ U c (x ) − U s (x s / V s )⎟⎟
xs ∈E ⎝ c∈C / s∉c ⎠
( (
exp − U s x s / V s ))
= (2.13)
∑ exp(− U s (x s / V s ))
xs ∈E

Cette expression ne fait intervenir que les potentiels des cliques contenant le site s. Le
calcul de la probabilité conditionnelle locale est donc rendu possible. Ceci nous permettra de
simuler des champs markoviens que nous verrons dans la section suivante.

2.2.4 Echantillonnage de MRF

Etant défini un champ de Markov, la question qui se pose est :


Comment pouvons-nous réaliser le tirage d'une configuration en suivant la loi de probabilité
de Gibbs caractéristique de ce champ?
Deux algorithmes ont été proposés pour synthétiser des réalisations d'un champ de Markov
qui sont : l'échantillonneur de Gibbs et l'algorithme de Metropolis.

2.2.4.1 L'échantillonneur de Gibbs

Cet algorithme, proposé par Geman et Geman [Geman et Geman, 1984], repose sur la
construction itérative d'une suite d'images. A la convergence, les images construites sont des
réalisations tirées selon la loi de Gibbs globale selon l’algorithme suivant :

Partant de l'image à l'itération n - 1, construction de l'image à l'itération n se fait par mises à


jour successives des sites de l'image. A l'étape n :

- choix d'un site s;


- au site s, selon la configuration des voisins Vs pour l'image x(n-1) calcul de la probabilité
conditionnelle locale:
exp(− U s ( x s / V s ))
P( X s = x s / V s ) = ;
∑ exp(− U s (ξ / V s ))
ξ ∈E
- mise à jour du site s par tirage aléatoire selon la loi P( X s = x s / V s ) .

L'algorithme converge après un grand nombre d'itérations ou lorsque le nombre de


changements est faible.

32
Le choix du site s considéré à l'étape n peut se faire de n'importe quelle façon à condition
de balayer tous les sites un très grand nombre de fois (théoriquement un nombre infini de
fois). Les méthodes usuelles consistent à tirer un site selon une loi uniforme, ou à effectuer un
balayage classique de l'image, ligne par ligne.

Cet algorithme construit en réalité une suite d'images x(n) qui sont les observations d'une
suite X(n) de champs aléatoires constituant une chaîne de Markov pour un certain noyau de
transition. On peut montrer le théorème suivant, lorsque la séquence balaye chaque site une
infinité de fois :
( )
∀x (0 )∀x ∈ Ω lim P X (n ) = x / X (0 ) = x (0 ) = P( x )
n →∞
(2.14)

où P est la mesure de Gibbs associée au champ de Markov considéré. Ainsi, après un grand
nombre d'itérations, les images x(n) générées sont des réalisations de la loi globale P(x), et cela
indépendamment de la configuration initiale x(0).

La preuve de ce théorème, et donc de la convergence de l'algorithme, est donnée dans


[Winkler, 1995].

On parle de l'échantillonneur de Gibbs comme d'un algorithme de relaxation probabiliste


car il procède par mises à jour successives des sites et que cette procédure est fondée sur un
tirage aléatoire.

2.2.4.2 L'algorithme de Metropolis

L'échantillonneur de Gibbs est un algorithme très utilisé en traitement d'images pour la


synthèse de champs de Markov. Néanmoins, un algorithme antérieur et issu de la physique
statistique avait été mis au point dans les années 1950 par Metropolis [Metropolis et al, 1953].

Cet algorithme repose sur un principe similaire à l'échantillonneur de Gibbs et il s'agit


également d'un algorithme de relaxation probabiliste. Le principe est là encore de construire
une suite d'images qui seront des tirages selon la loi du champ de Markov après un nombre
suffisamment grand d'itérations. Mais la mise à jour en un site s'effectue de façon différente
selon l’algorithme suivant :

A l'étape n :

- choix d'un site s ;


- tirage aléatoire d'un descripteur λ dans E selon une loi uniforme ;
- calcul de la variation d'énergie pour le passage du label du site s de x(n-l) à λ :

( ) ( )
∆U = U s λ / V s(n −1) − U s x s(n −1) / V s(n −1) ;
- deux cas sont alors possibles :
- ∆U < 0 , le changement est accepté : x s(n ) = λ ;
- ∆U ≥ 0 , le changement est accepté ou refusé par tirage selon les probabilités
p = exp(− ∆U ) et 1- p.

Le système de balayage des sites et le critère d'arrêt sont similaires à ceux de


l'échantillonneur de Gibbs. La différence avec l'échantillonneur de Gibbs réside dans le tirage

33
au sort du nouveau niveau de gris, au lieu de considérer la loi définie par tous les niveaux.
Comme on ne considère que la variation énergétique entre les 2 configurations, l'algorithme
de Metropolis est plus rapide à chaque étape que l'échantillonneur de Gibbs qui quant à lui
nécessite le calcul de la fonction de partition locale. Mais la convergence peut être plus lente
car le taux d'acceptation est strictement inférieur à 1 (les transitions ne sont pas toujours
acceptées, contrairement au cas de l’échantillonneur de Gibbs).

Là encore, le principe est de construire une chaîne de Markov selon un certain noyau de
transition (différent de celui intervenant dans l'échantillonneur de Gibbs). Le théorème
précédent est alors encore vérifié pour l'algorithme de Metropolis.

2.2.5 Recherche de la configuration la plus probable

Après l’échantillonnage selon la loi de probabilité de Gibbs, une nouvelle réalisation est
obtenue. Il peut être utile également de pouvoir calculer la ou les configurations les plus
probables qui correspondent aux états d'énergie minimale. Il existe plusieurs méthodes pour
trouver ces réalisations : des algorithmes déterministes, comme l’ICM, et des algorithmes
stochastiques comme le recuit simulé.

Les modèles de relaxation stochastiques ont de meilleures performances que les modèles
déterministes pour l'optimisation de fonctions présentant de multiples extrema locaux. Avec
les méthodes déterministes, on obtient des solutions optimales locales par rapport à des
méthodes stochastiques qui obtiennent des solutions optimales globales. Cependant les
méthodes déterministes s'avèrent être plus intéressantes en raison de la vitesse de convergence
vers la solution ce qui les rend plus rapide que les méthodes stochastiques. Si les problèmes
d’initialisation de la méthode sont bien gérés, cette méthode donne de très bons résultats.

Avant de développer le principe de ces deux algorithmes (recuit simulé et ICM), des
résultats sur les distributions de Gibbs avec paramètre de température sont nécessaires et
présenté ci-après.

2.2.5.1 Distribution de Gibbs avec température

Une distribution de Gibbs avec paramètre de température s'écrit comme suit:

1 ⎛ U (x ) ⎞
PT ( X = x ) = exp⎜ − ⎟, (2.15)
Z (T ) ⎝ T ⎠

⎛ U (x ) ⎞
avec Z (T ) = ∑ exp⎜ − ⎟ et T > 0 . Le terme de température provient de l'analogie avec la
x ⎝ T ⎠
physique statistique utilisé, notamment, en thermodynamique( §2.2.2.5.2).

Etudions le comportement de cette distribution pour des valeurs extrêmes du paramètre de


température.
⎛ U (x ) ⎞
- Pour T → ∞ on a exp⎜ − ⎟ → 1 et comme ∑ PT ( X = x ) = 1 , on obtient :
⎝ T ⎠ x
1
PT ( X = x ) → (2.16)
card (Ω )

34
Donc PT converge vers la probabilité uniforme sur Ω, c'est-à-dire pour une température
infinie, tous les états sont équiprobables.
- Pour T → 0 on note U* l'énergie minimale et Ω* l'ensemble des configurations
atteignant l'énergie minimale Ω = {x1 , K , x k }(x1,…xk sont les minima globaux de
l'énergie). On peut écrire :
⎛ U (x ) − U * ⎞
⎛ U (x ) ⎞ exp⎜ − ⎟
exp⎜ − ⎟ ⎜ ⎟
⎝ T ⎠ ⎝ T ⎠
PT ( X = x ) = =
⎛ U (y) ⎞
∑ exp⎜ − T ⎟ ∑ exp⎜⎜ − U ( y ) − U ⎟⎟
⎛ * ⎞
y ⎝ ⎠ T
y ⎝ ⎠
⎛ U (x ) − U * ⎞
exp⎜ − ⎟
⎜ T ⎟
⎝ ⎠
= (2.17)
⎛ U (y) −U * ⎞
∑ * exp⎜⎜ − T ⎟ + ∑1

y∉Ω ⎝ ⎠ y∈Ω*

⎛ U (x ) − U * ⎞
- Si x ∉ Ω * , on a U ( x ) −U * > 0 et exp⎜ ⎟ → 0 pour T → 0
⎜ T ⎟
⎝ ⎠
Donc PT (x ) → 0 si x n’est pas un minimum global de l’énergie.
1
- Si x ∈ Ω * , on a : PT ( x1 ) = PT ( x 2 ) = K = PT ( x k ) = (il y a une somme
k
finie de termes qui tendent vers 0 au dénominateur).

Ce qui signifie que, lorsque la température est nulle, PT est uniformément distribuée sur les
minima globaux de l'énergie, c'est-à-dire sur les configurations les plus probables. C'est ce
résultat qui est à la base de l'algorithme de recuit simulé.

2.2.5.2 Algorithme du recuit simulé

Le recuit simulé (simulated annealing) a été initialement proposé par Kirkpatrick


[Kirkpatrick et al, 1982] et repris par Geman et Geman [Geman et Geman, 1984] est une
métaheuristique1 inspirée d'un processus utilisé en thermodynamique. Ce processus alterne
des cycles de refroidissement lent et de réchauffage (recuit) qui tendent à minimiser l'énergie
du matériau, dans notre cas, cela correspond à obtenir les extrema de la fonction d’énergie. Le
circuit simulé permet de sortir d’un minimum local en acceptant avec une certaine probabilité
une augmentation de la fonction. C’est un algorithme de relaxation stochastique, qui
recherche des configurations les plus probables dans l’image des classes.

Comme les algorithmes de simulation, c'est un algorithme itératif qui construit la solution
au fur et à mesure. Le déroulement de l'algorithme est le suivant (en notant n le numéro de
l'itération) :

1
Les métaheuristiques sont généralement des algorithmes stochastiques, qui progressent vers un optimum par
échantillonnage d'une fonction.

35
- choix d'une température initiale T(0) suffisamment élevée;
- choix d'une configuration initiale quelconque x (0) ;
- à l'étape n :
U (x )
- simulation d'une configuration x(n) pour la loi de Gibbs d'énergie ; à partir de la
T (n )
configuration x (n-1) ; la simulation peut se faire par l'échantillonneur de Gibbs ou
l'algorithme de Métropolis; on réalise en général un balayage complet de l'image à la
température T(n) ;
c
- diminution lente de la température T (n ) > ;
log(1 + n )
- arrêt lorsque le taux de changement est faible.

En théorie la décroissance logarithmique est utilisée de façon optimale par [Guyon, 1992],
mais en pratique des décroissances géométriques donnent des résultats assez proches. La
constante c intervenant dans la décroissance dépend de la variation énergétique globale
maximale sur l'espace des configurations.

Le recuit simulé permet d'atteindre un optimum global, car il accepte des remontées en
énergie. Avec la décroissance de la température, ces sauts énergétiques sont progressivement
supprimés au fur et à mesure qu'on se rapproche de l'optimum global. La descente en
température doit donc se faire suffisamment lentement pour que l'algorithme ne reste pas
piégé dans un minimum local de l'énergie.
2.2.5.3 Algorithme des modes conditionnels itérés (ICM)

Malheureusement, l'algorithme du recuit simulé est très lourd en temps de calcul puisqu'il
demande la génération d'un grand nombre de configurations au fur et à mesure que la
température décroît. Des algorithmes sous-optimaux sont donc souvent utilisés en pratique.
Besag [Besag, 1986] a ainsi proposé un autre algorithme, beaucoup plus rapide. Il s'agit de
l'lCM, lterated Conditional Mode, c’est un algorithme itératif modifiant de façon déterministe
à chaque étape les valeurs xs de l'ensemble des sites de l'image.

On construit donc, partant d'une configuration initiale x(0) , une suite d'images x(n )
convergeant vers une approximation de la configuration x̂ recherchée. On appelle « tour », la
visite de tous les sites de l'image, on parlera dans la suite d'itérations à chaque mise à jour d'un
site et d'étape à chaque mise à jour de toute l'image (c'est-à-dire accomplissement d'un tour).

Le déroulement de l'étape n s'effectue de la façon suivante : on parcourt tous les sites et, en
chacun, on effectue les deux opérations suivantes :
- calcul des probabilités conditionnelles locales, pour toutes les valeurs possibles de λ dans
E du site: P( X s = λ / xˆ r (k ), r ∈ ϑ s )
(en pratique, calcul plus simplement des énergies conditionnelles locales) ;
- mise à jour de la valeur par le λ maximisant la probabilité conditionnelle locale:
xˆ s (k + 1) = Arg max λ P( X s = λ / xˆ r (k ), r ∈ ϑ s )
(ou de façon équivalente, minimisant l'énergie conditionnelle locale).
Le processus s'arrête lorsque le nombre de changements d'une étape à l'autre devient
suffisamment faible.

36
On peut montrer que l'énergie globale de la configuration x diminue à chaque itération.
Contrairement au recuit simulé, cet algorithme est très rapide (une dizaine de balayages
permettent d'arriver à convergence) et peu coûteux en temps de calcul puisqu'il ne nécessite
que le calcul des énergies conditionnelles locales. En contrepartie, ses performances
dépendent très fortement de l'initialisation puisqu'il converge vers un minimum local. L'ICM
s'apparente à une descente en gradient (on fait baisser l'énergie à chaque itération) ou à un
recuit simulé gelé à température nulle, il peut donc rester bloqué dans le minimum
énergétique local le plus proche de l'initialisation. Le recuit simulé, au contraire, grâce au
paramètre de température et aux remontées en énergie qu'il autorise, permet d'accéder au
minimum global.

2.2.6 Quelques MRF fondamentaux

Nous présentons ici quelques uns des champs de Markov les plus utilisés. Comme indiqué
précédemment, ces champs sont définis par leur voisinage et leurs fonctions de potentiel. Ils
sont illustrés par le tirage de réalisations selon l'échantillonneur de Gibbs.

2.2.6.1 Modèle d'lsing

Ce modèle est le plus ancien [Ising, 1925] et a été développé lors de l'étude du ferro-
magnétisme en physique statistique. L'espace des descripteurs est celui des états des spins,
c'est-à-dire E = {− 1,1} (espace binaire), et le voisinage est constitué par les 4 ou 8 plus
proches voisins dans un espace bidimensionnel.

Figure 2.2. Le modèle d’Ising

Les potentiels sont des potentiels en tout ou rien:

U c =(s ,t ) ( xt , xt ) = − β si x s = xt
= + β si x s ≠ xt (2.18)
ce qui s'écrit également U c =(s ,t ) ( xt , xt ) = − β x s xt .
Les potentiels des cliques d'ordre 1 (clique constituée par un seul spin) sont de la forme − Bx s .
L'énergie totale s'écrit :
U ( x ) = − β ∑ x s xt − h ∑ x s (2.19)
c =(s ,t )∈C s∈S

avec

37
⎧+ 1 si ( x s , x t ) = (↑, ↑ ), (↓, ↓ ), U (x ) ↓
x s xt = ⎨ (2.20)
⎩− 1 si ( x s , x t ) = (↑, ↓ ), (↓, ↑ ), U (x ) ↑

β est la constante de couplage entre sites voisins et h représente un champ magnétique


externe. Lorsque β est positif, les configurations les plus probables (c'est-à-dire d'énergies
plus faibles) sont celles pour lesquelles les spins sont de même signe (ferromagnétisme), alors
que dans le cas de β négatif, au contraire, on favorisera l'alternance de spins de signes
opposés (anti-ferromagnétisme). La valeur de β conditionne donc la régularité du modèle
d'Ising. Quant au champ magnétique externe relatif au potentiel d'ordre 1, il favorise a priori
par son signe un spin ou un autre.

La figure 2.3 montre des réalisations de modèles d'Ising pour différents paramètres (la
régularisation appelée critique correspond à l'apparition des zones homogènes).

Figure 2.3. Le modèle d'lsing plan et 4-connexe pour différentes valeurs deβ - Simulations en raccordement
torique ; en haut à gauche : image aléatoire β = 0 ; en haut à droite: régularisation faible, β = 0,2 ; en bas à
gauche : régularisation critique, β = 0,44 ; en bas à droite : régularisation forte β = 4. [Source : thèse M. Sigelle]

2.2.6.2 Modèle de Potts

Il s’agit d’une généralisation du modèle précèdent [WU, 1982] pour un espace m-aire, c'est-à-
dire E = {0, m − 1}. Il peut s'agir de plusieurs niveaux de gris mais, plus souvent pour ce
modèle, d'étiquettes (labels) pouvant représenter une classification de l'image (par exemple les

38
classes eau, forêt, champ, ville). Le voisinage considéré est 4- ou 8-connexes et les potentiels
sont comme précédemment en tout ou rien mais définis seulement pour les cliques d'ordre 2 :

U c =(s ,t ) ( xt , xt ) = − β si x s = xt
= + β si x s ≠ x t (2.21)
Lorsque β est positif, les configurations les plus probables correspondent à des sites voisins de
même niveau de gris, ce qui donne des réalisations constituées par des larges zones
homogènes. La taille de ces régions est gouvernée par la valeur de β. Des exemples de
réalisations pour différentes valeurs de β sont montrés dans la figure 2.4.

Figure 2.4. Le modèle de Potts 2D et 4-connexes pour différentes valeurs de β (m = 4) - Simulations en


raccordement torique ; en haut à gauche : image aléatoire, β = 0 ; en haut à droite: régularisation faible, β = 0.2 ;
en bas à gauche : régularisation critique, β = 1,099 ; en bas à droite: régularisation forte, β = 4. [Source : thèse
M. Sigelle]

Il est possible de définir des modèles utilisant des pondérations β différentes en fonction
des directions des cliques et de privilégier ainsi certaines directions.

Ce modèle permet également de prendre en compte différentes relations entre les régions
(c'est-à-dire entre différentes valeurs des niveaux de gris). On peut par exemple définir des
pondérations β (e s , et ) pour e s , et ∈ E . Dans notre exemple de classification en 4 étiquettes
eau, forêt, champ, ville, une configuration de sites avec les étiquettes champ / forêt peut être

39
supposée plus probable qu'une configuration ville / forêt, d'où des valeurs β (champ, forêt) et
β (ville, forêt) différentes [Sigelle, 1993].

2.2.6.3 Modèle markovien gaussien

Ce modèle est réservé aux images en niveaux de gris E = {0, K ,255}et ne convient pas
bien aux images d'étiquettes. Le voisinage est 4 ou 8-connexes et l'énergie est de la forme:

U (x ) = β ∑ ( x s − xt )2 + α ∑ ( x s − µ s )2 (2.22)
c = ( s ,t ) s∈S

Le premier terme correspondant aux cliques d'ordre 2 est un terme de régularisation, qui
favorise les faibles différences de niveaux de gris entre sites voisins pour β > 0 . Le second
terme peut correspondre à un terme d'attache aux données dans le cas où on possède une
α
image de données extérieures. Le rapport pondère les influences respectives de l'attache
β
aux données et de la régularisation, et les valeurs absolues des paramètres caractérisent le
caractère plus ou moins piqué ou au contraire équiréparti de la distribution.

2.3 Application dans la classification

2.3.1 Règle de Bayes

Pour cette application, on peut modéliser le problème dans un cadre bayésien de la façon
suivante. Nous disposons d'une image que nous noterons y et que nous pouvons considérer
comme une réalisation d'un champ aléatoire Y. Nous cherchons une réalisation x de l'image
classée, que nous pouvons modéliser comme un champ de Markov , où X est le champ des
étiquettes (labels). Les espaces de configurations ne sont donc pas nécessairement les mêmes
pour X et Y. La classification a pour objectif de remonter à une réalisation de X à partir de
l'observation des données y. On parle dans ce contexte de champ de Markov caché pour X, ou
de données incomplètes puisque y n'est pas une réalisation de X.

On peut par exemple utiliser le critère du maximum a posteriori et rechercher la


configuration x̂ maximisant la probabilité de X conditionnellement à la donnée y c'est-à-
dire P( X = x / Y = y ) . Or la règle de Bayes permet d'écrire:

P(Y = y / X = x )P( X = x )
P( X = x / Y = y ) = (2.23)
P(Y = y )

expression dans laquelle il s'agit alors d'analyser chacun des termes P(Y = y / X = x )
et P( X = x ) , sachant que P(Y ) est une constante (indépendante de la réalisation x). Le premier
terme P(Y = y / X = x ) décrit justement le processus d'observation et d'acquisition des
données. L'hypothèse la plus courante consiste à supposer l'indépendance conditionnelle des
pixels :

P(Y = y / X = x ) = ∏ P(Ys = y s / X s = xs ) . (2.24)


s

40
On fait sur le champ X recherché une hypothèse markovienne selon un voisinage ϑ et un
modèle donné dépendant de l'application. On peut alors écrire:

exp(− U ( x ))
P( X = x ) = (2.25)
Z
Si on revient maintenant à la distribution a posteriori, celle-ci s'exprime par:

P ( X = x / Y = y ) ∝ P(Y / X )P( X ) ∝ e ln P (Y / X )−U ( X )


∝ e −W ( x / y ) (2.26)

avec
W (x / y ) = ∑ − ln p( y s / x s ) + ∑ U c (x ) (2.27)
s∈S c∈C

Par conséquent, sous les hypothèses précédentes, on constate que la distribution a


posteriori est une distribution de Gibbs et que donc le champ X conditionnellement à Y est
également un champ de Markov (théorème de Hammersley-Clifford). Ainsi, il est possible de
simuler des réalisations de ce champ à l'aide de l'échantillonneur de Gibbs ou de l'algorithme
de Metropolis. Mais la configuration x qui nous intéresse est celle qui maximise la probabilité
a posteriori, donc la réalisation la plus probable du champ de Gibbs, ou encore celle qui
minimise l'énergie W(x / y).

2.3.2 La classification

Le champ markovien X est défini sur un autre espace de configurations que Y car seules
quelques étiquettes sont considérées: E = {1, K , m − 1} (correspondant aux différentes classes
cherchées). Le terme P(Y = y / X = x ) traduit donc la probabilité de réalisation d'une
configuration donnée connaissant son étiquetage (c'est-à-dire connaissant la classe de chaque
pixel). En supposant l'indépendance des sites les uns par rapport aux autres et en supposant
que le niveau de gris ys en un site s ne dépend que de l'étiquette xs en ce site, on a :

P(Y = y / X = x ) = ∏ P( y s / x s ) (2.28)
s

Les valeurs des probabilités conditionnelles sont données par l’histogramme conditionnel
des niveaux de gris pour une classe donnée. Par exemple, si on suppose que chaque classe i a
une distribution gaussienne de moyenne µ i et d'écart-type σ i , on a :

1 ⎛ ( y s − µ i )2 ⎞
P( y s / x s = i ) = exp⎜ − ⎟ (2.29)
2π σ i ⎜ 2σ i2 ⎟
⎝ ⎠

La probabilité a priori P( X = x ) permet d'introduire les contraintes que nous souhaitons


imposer à la solution. En faisant l'hypothèse que X est markovien nous nous restreignons à des
contraintes locales, le plus souvent de régularité entre sites voisins. On se limite fréquemment
aux cliques d'ordre 2, on a :

41
1 ⎛ ⎞
P( X = x ) =
exp⎜ − β ∑ φ ( x s − xt )⎟ (2.30)
Z ⎜ ( ) ⎟
⎝ s , t ∈C 2 ⎠
On a alors l'énergie suivante correspondant à la distribution de Gibbs du champ a
posteriori :
(y s − µ x )2
W (x / y ) = ∑ s
( )
+ log 2π σ xs + β ∑ φ (x s , xt ) (2.31)
s 2σ x2 (s ,t )∈C2
s

Le champ des étiquettes conditionnellement à y est markovien et d'énergie de Gibbs


W ( x / y ) . La constante β pondère l'influence entre le terme d'attache aux données (cliques
d'ordre 1) qui impose des niveaux de gris xs de l'image classée, proches de ys, et le terme qui
exprime la contrainte de régularisation introduite (cliques d'ordre 2) et qui impose une
solution constituée de zones homogènes. On choisit souvent un modèle de Potts pour X, ce qui
donne une image classée avec de larges zones homogènes. La fonction φ modélise les
potentiels des cliques d'ordre 2 : U c =(s ,t ) = φ ( x s − x t ) .

La figure 2.5 montre un exemple de classification d'une image de satellite optique.


L'utilisation du modèle de Potts pour le terme d'attache aux données produit des régions
compactes.

Dans classification, il est nécessaire de pouvoir déterminer le ou les états d'énergie


minimale qui correspondent au maximum de la probabilité d'un champ markovien. Dans la
section suivante nous présentons deux estimateurs permettant de trouver la solution.

42
Figure 2.5. Exemple de classification markovienne sur une image satellitaire optique (région Haouz, Marrakech)

43
2.4 Estimateurs dans un cadre markovien

2.4.1 Modélisation bayésienne et fonction de coût

Partant de la règle de Bayes citée précédemment on montre que, sous certaines hypothèses
(indépendance des sites dans la probabilité conditionnelle P(Y / X ) et hypothèse markovienne
pour le champ X), la distribution a posteriori est une distribution de Gibbs et donc que le
champ X, conditionnellement à la donnée y, est markovien. Cette propriété n'est pas
nécessaire pour les notions suivantes, mais elle sera primordiale pour les algorithmes de
résolution.

Le problème est alors de déterminer une estimation x̂ optimisant un certain critère, où x̂


est une fonction déterministe φ de la donnée y :

xˆ = φ ( y ) avec φ : Ω → Ω (2.32)

L'estimation bayésienne procède alors comme suit. On se donne une fonction de coût, L
définie de Ω × Ω dans ℜ + , qui représente le coût de remplacer x par φ ( y ) , et qui possède les
propriétés suivantes:

∀x , x ′ ∈ Ω × Ω :
− L( x, x ′) ≥ 0;
(2.33)
− L( x, x ′) = 0 ⇔ x = x ′.

L'estimateur optimal, c'est-à-dire la fonction φ optimale, est alors la fonction minimisant


l'espérance (notée E) du coût, c'est-à-dire :

Ε[L( X , φ ( y )) / Y = y ] = ∑ L(x, φ ( y ))P(x / y ) (2.34)


x∈Ω
La fonction φ opt minimise donc l'erreur moyenne conditionnellement à y, et l'estimateur
optimal est xˆ = φ opt ( y ) .

Suivant les fonctions de coût envisagées, on obtient différents estimateurs et différentes


méthodes de résolution associées, dans notre étude on s’intéresse à deux estimateurs : MAP et
MPM.

2.4.2 Maximum A Posteriori (MAP)

Considérons la fonction de coût suivante :

L( x, x ′) = 1 si x ≠ x ′,
(2.35)
L( x, x ′) = 0 sinon.

Cette fonction consiste donc à pénaliser toute différence entre deux configurations, et ce,
quel que soit le nombre de sites en lesquels elles diffèrent. Nous pouvons alors écrire :

44
Ε[L( X , φ ( y )) / y ] = ∑ L(x, φ ( y ))P(x / y )
x∈Ω
= 1 − P( X = φ ( y ) / y ) (2.36)
Par conséquent, la fonction φ opt minimisant l'espérance pour cette fonction de coût est
celle qui maximise la probabilité a posteriori :

xˆ = φ opt ( y ) = Arg max φ [P ( X = φ ( y ) / y )] (2.37)

Il nous faut donc trouver la réalisation x̂ , fonction de y, maximisant la probabilité a


posteriori P( X / y ) . On parle de l'estimateur MAP (maximum a posteriori) ou de maximum
de vraisemblance a posteriori.

Les solutions algorithmiques associées à cet estimateur sont le recuit simulé et l'lCM que
nous avons présenté dans le paragraphe 2.2.5, utilisés avec la distribution a posteriori.

2.4.3 Mode à posteriori des marginales (MPM)

Considérons maintenant la fonction de coût définie par :

L( x, x ′ ) = ∑ L(x s , x ′s ) = ∑ Ι xs ≠ x′s (2.38)


s∈S s∈S

La fonction de coût pénalise cette fois-ci une configuration proportionnellement au nombre


de différences entre deux configurations. Elle paraît donc plus naturelle que la fonction de
coût en tout ou rien précédente.

Dans le cas d'une fonction de coût définie comme somme de coûts en chaque site, on peut
montrer le résultat suivant :

Ε[L( X , φ ( y )) / Y = y ] = ∑ L(x, φ ( y ))P(x / y )


x∈Ω
= ∑ ∑ L(x s , φ ( y )s )∑s P(x s , x s / y ) (2.39)
s∈S xs x
( )
Or, ∑ P x s , x s / y = P( X s = x s / y ) , donc on peut faire apparaître les probabilités
xs
conditionnelles et espérances en chaque site s :

Ε[L( X , φ ( y )) / Y = y ] = ∑ ∑ L(x s , φ ( y )s )P( X s = xs / y)


s∈S xs
= ∑ Ε[L(X s , φ ( y )s ) / y ] (2.40)
s∈S

On passe donc de la probabilité conditionnelle globale d'une configuration à la probabilité


conditionnelle en un site. Il s'agit d'une somme de termes positifs, et par conséquent la
fonction φ optimale minimise en chaque site l'espérance conditionnelle du coût local
Ε[L( X s , φ ( y ) s ) / y ]. Ce résultat est valable pour toutes les fonctions de coût définies par une
somme de coûts en chaque site.

45
Dans le cas de la fonction définie ci-dessus, on a alors comme précédemment :

Ε[L( X s , φ ( y ) s ) / y ] = 1 − P( X s = φ ( y ) s / y ) (2.41)

Ainsi, la valeur optimale de φ ( y ) ou de x̂ en chaque site est telle que :

xˆ s = φ opt ( y ) s = Arg max φ [P ( X s = φ ( y ) s / y )] (2.42)

c'est-à-dire que l'on maximise en chaque site la marginale a posteriori P( X s / y )

On obtient donc des estimateurs locaux du maximum a posteriori, à calculer en chaque


pixel contrairement à la recherche précédente qui était globale. L'estimateur est appelé
maximum de vraisemblance a posteriori local ou maximum posterior marginal (pour
maximum a posteriori de la marginale) abrégé en MPM.

L'estimation au sens du MPM est alors donnée en chaque site en choisissant la valeur de xs
dans Ω maximisant P( X s / y ) .

2.5 Quelques travaux concernant la classification des images satellitaires par


MRF

Dans le domaine de la télédétection, l’utilisation de l’approche markovienne dans la


classification des images satellitaires dans un but de cartographie thématique ou d’extraction
d’objets présente un domaine prolifique de recherche. [Keuchel et al, 2003] comparent une
méthode qui se base sur le modèle MRF dont l’estimation par le maximum a posteriori est
calculée itérativement en utilisant ICM, avec deux approches statistiques non contextuelles :
la classification du maximum de vraisemblance (ML) et les machines à vecteurs de support
(SVM), pour la classification automatique de la couverture du sol à partir d’images du
satellite Landsat 5.

De même, [Arbia et al, 1999] montre les performances de la technique de classification par
ICM en contraste avec la technique du maximum de vraisemblance ordinaire (ML). Les deux
méthodes sont comparées en termes de précision globale (global accuracy) [Congalton 1991]
et en terme de continuité des propriétés spatiales des erreurs de classification. L’auteur a
montré que l’ICM dépasse ML dans la plupart des expériences, en termes de précision
globale. Toutefois, dans certains cas, quelques erreurs de classification sont dues à une
régularisation un peu trop importante, dans des zones très hétérogènes. Il est alors possible de
minimiser cet effet de lissage grâce à l’introduction de paramètres.

Rellier [Rellier, 2002] utilise également les champs de Markov dans le cadre de la
classification d’images hyperspectrales texturées de zones urbaines. La modélisation de la
texture est réalisée par un modèle markovien Gaussien vectoriel appelé modèle champ de
Markov Gaussien Multivarié ou MGMRF tel que proposé initialement par Hazel [Hazel,
2000] où les données vectorielles constituent les observations aux différentes longueurs
d’onde d’un même site.

Prony [Prony et al, 2000] utilise les champs de Markov dans le cadre de la régularisation
d’une classification d’image hyperspectrale de zone rurale et périurbaine obtenue par

46
maximum de vraisemblance. Le champ Markovien est construit sur la base d’un modèle de
Potts et un l’algorithme ICM puis de recuit simulé. Le terme d’attache aux données est
calculé, sous l’hypothèse d’égalité des probabilités a priori par la log-vraissemblance a priori.

D’autres travaux ont appliqués des modèles MRF utilisant l’ICM ou le recuit simulé avec
succès dans le contexte de la télédétection [Cortijo et al, 1998][Solberg et al, 1996][Hubert et
al, 2001].

Pour réduire la complexité spectrale des images de satellites, Landgrebe [2003] commence
par une analyse discriminante d'extraction des caractéristiques (DAFE). Ensuite, il effectue
une caractérisation spatiale par modélisation spatiale du voisinage d'un pixel comme une
distribution spatiale d’un processus aléatoire (MRF) avec une régularisation par minimisation
de la fonction d'énergie.

Dans [Nishiia et Eguchib, 2006] la classification d'image satellitaire est basée sur un
champ aléatoire de Markov (MRF), où le champ aléatoire proposé adopte la divergence de
Jeffreys [Jeffreys, 1946] entre les densités de probabilité des catégorie spécifiques. Cette
méthode de classification se présente comme une prolongation de la méthode de
régularisation de Switzer [Switzer, 1980], qui est appliquée dans la télédétection et le
géospatial.

Une autre approche fondée sur les champs de Markov et l'estimation bayesienne, en
particulier l'estimation de Maximum A Posteriori (MAP) est proposée Dans [Kato,
1994][Kato et al,1999]. Les auteurs présentent aussi les modèles pyramidaux qui réduisent le
temps de calcul et améliorent le résultat final. Ils ont appliqué quelques méthodes connues à
l'estimation des paramètres du modèle monogrille et proposent un nouveau algorithme : récuit
multi-température (MTA) pour la minimisation de la fonction d'énergie du modèle
hiérarchique. Pour le MTA, ils ont prouvé la convergence vers un minimum global dans le cas
le plus général où chaque clique a sa propre loi de température.

Les modèles MRF de type hiérarchique sont aussi utilisés dans les travaux de Barker et
Rayner [Barker et Rayner, 2000], où ils présentent deux algorithmes de classification non
supervisée basées sur ces modèles. Chaque algorithme trouve le nombre le plus probable de
classes, leurs paramètres associés du modèle et génère la classification correspondante de
l'image. Ce résultat est obtenu selon le critère de maximum a posteriori. Pour faciliter cela, un
algorithme MCMC est formulé de manière à permettre une estimation directe de tous les
paramètres afin que le recuit simulé puisse être utilisé pour estimer la solution MAP. Cette
méthode est similaire à celle utilisée dans [Geman et Geman, 1984] pour segmenter une
image en utilisant un modèle MRF connu.

Dans le cas de données multitemporelles et multisources, l’approche MAP associée à la


modélisation markovienne, proposée initialement par A. Solberg [Solberg et al, 1996], permet
de considérer la contrainte temporelle pour retrouver le stade phénologique des cultures, c'est-
à-dire l’état de la végétation suivant les dates [Ducrot, 2005]. Cependant, cette approche peut
être généralisée pour générer une carte d’évolution temporelle de tous les thèmes de la zone
d’étude. [Kasetkasem et Varshney, 2002] [Bruzzone et Prieto, 2000] appliquent également le
modèle MRF dans la classification d’images pour la détection des problèmes de changement.

Les MRF sont aussi utilisés pour résoudre l’occurrence de présence des pixels mélangés
« mixel » dans les images de satellites, ce qui présente un problème majeur en particulier dans

47
le cas de la basse résolution spatiale. L’un des travaux réalisés dans ce contexte est
[Kasetkasema et al, 2005] où les auteurs utilisent le concept des modèles de MRF pour la
classification par sous-pixel connue sous le nom en anglais « super-resolution mapping ».
L'approche est basée sur un algorithme d’optimisation utilisant le recuit simulé pour lequel les
images sont d'abord utilisés pour générer une première classification en sous-pixel, qui est
ensuite affiné itérativement pour caractériser avec précision la dépendance spatiale entre les
proportions de la classe des pixels voisins.

De nombreux autres travaux s’intéressent à la régularisation ou à la classification d’images


satellitaires par champs de Markov, on peut citer [Descombes et al, 1995] [Morris et al, 1996]
ou encore parmi les plus récents [Huang et al, 2008] et [Smartt and Tyo, 2006].

De même, en imagerie Radar à Synthèse d'Ouverture (SAR), les MRF ont été utilisé pour
différents cas d’études, à titre d’exemple, on cite le cas du problème récurrent de réduction du
speckle [Xie et al. 2002] notamment pour la classification et la fusion d’images [Ducrot,
2005].

48
Chapitre 3

Méthode contextuelle et validation des résultats

Sommaire

3.1 Introduction ........................................................................................................................ 50


3.2 La méthode ICM avec contraintes contextuelles ............................................................... 50
3.2.1 La solution MAP ......................................................................................................... 50
3.2.2 Minimisation de l’énergie par l’ICM .......................................................................... 51
3.2.3 Introduction des contraintes ........................................................................................ 52
3.2.3.1 Contrainte de régularisation…………………………………………………….…….53
3.2.3.2 Contrainte de contour (segmentation)……………………………………………… 53
a) La méthode de segmentation utilisée (élaboration de la carte de contour) .............. 53
b) Introduction de la segmentation dans la classification ............................................ 55
c) Sélection de la carte fiable de contour ..................................................................... 56
3.2.3.3 Paramètre de température………………………………………………………..58
a) Principe du paramètre T ........................................................................................... 58
b) La loi de décroissance du paramètre T..................................................................... 59
3.2.3.4 L’algorithme général…………………………………………………………….62
3.3 Validation de la méthode et résultats ................................................................................. 63
3.3.1 Présentation des images utilisées et les scènes d’étude............................................... 63
3.3.1.1 Les images Landsat……………………………………………………………...........63
3.3.1.2 Les images Formosat………………………………………………………………….65
3.3.1.3 Critère d’évaluation…………………………………………………………………...65
a) La vérité terrain ........................................................................................................ 65
b) La matrice de confusion........................................................................................... 67
3.3.2 Contrôle de la régularisation ....................................................................................... 67
3.3.3 Le paramètre de température....................................................................................... 69
3.3.4 Comparaison avec la classification non contextuelle.................................................. 71
3.3.5 Utilisation de la contrainte de segmentation ............................................................... 73
3.4 Conclusion.......................................................................................................................... 76

49
3.1 Introduction

L’information contenue dans une image de satellite est généralement sous forme d’objets
homogènes. En effet, une image de zone rurale est composée souvent de grandes parcelles
homogènes, et par conséquent, une image classée acceptable doit respecter cette propriété.
Ainsi, l’utilisation des champs de Markov permet de tenir compte de cette propriété
d’influence du voisinage d’un point sur ce dernier et d’insister donc sur la cohérence entre la
classe d’un pixel et celle de ces voisins. C’est un outil mathématique performant pour
régulariser la classification d’images satellitaires.

En outre, le formalisme Markovien constitue une passerelle pour introduire plusieurs


contraintes (contexte spatial, carte de contours, contexte temporel, etc.), et c’est pour cette
raison que nous avons introduit en plus de la contrainte de régularisation une contrainte de
segmentation afin d’affiner la classification, ces contraintes contextuelles sont contrôlées par
un paramètre de température dans un algorithme d’optimisation itératif ICM.

Ce chapitre est organisé de la façon suivante, nous présentons, dans un premier temps, le
principe détaillé de la méthode ICM, nous exposons par la suite, les contraintes introduites et
le paramètre de température, et à enfin, nous enchaînons avec les expériences réalisées tout en
analysant les résultats obtenus.

3.2 La méthode ICM avec contraintes contextuelles


3.2.1 La solution MAP

Le MAP et le MPM présentent des performances à peu près équivalentes [Rignot et


Chelappa, 1988]. Cependant, sous certaines conditions, le calcul du MAP par recuit simulé ou
l’ICM peut donner un résultat qui soit plus satisfaisant pour l’oeil que le MAP exact (calculé
pour des cas simples), ce dernier présentant un caractère trop régularisant, et donc plus
sensible à des erreurs de paramètres [Guyon, 1992].

Pour cette raison, nous avons opté pour une solution MAP approchée par l’ICM avec
initialisation par maximum de vraisemblance car, étant donné la grande taille des images à
traiter, cette méthode déterministe s'avère être plus intéressante en raison de la vitesse de
convergence vers la solution ce qui la rend plus rapide que la méthode du recuit simulé.

Initialement, l’ICM est une simulation de Gibbs à température constante et nulle.


L’originalité de la version implémentée, est :

− Premièrement, la variabilité de la température comme dans le recuit simulé. Au fil des


itérations, l’influence de certains paramètres et en particulier les paramètres de
contexte, de segmentation (contour) vont augmenter. La méthode développée affine la
classification en ré-estimant les statistiques des classes en fonction de l’itération
précédente et en accordant de plus en plus d’importance à l’information contextuelle
par le biais, du paramètre de température T.

− Deuxièmement, l’introduction d’une nouvelle contrainte contextuelle : de


segmentation qui va permettre au fil des itérations d’affiner la classification en
accentuant les détailles détectés par les contours de segmentation.

50
3.2.2 Minimisation de l’énergie par l’ICM

Pour notre étude, on dispose de l’état global de l’image y, et on cherche la solution MAP
qui maximise la probabilité a posteriori :

x opt = arg max x [P ( X = x / Y = y )] (3.1)

⎡ P(Y = y / X = x )P( X = x ) ⎤
xopt = arg max x ⎢ ⎥ (3.2)
⎣ P(Y = y ) ⎦

Puisque P(Y = y ) est indépendante de X et constante, la formule précédente se réduit à :

x opt = arg max x [P (Y = y / X = x )P ( X = x )] (3.3)

Grâce à l’hypothèse d’indépendance conditionnelle des pixels (Chapitre 2, § 2.3.1). Le


problème global est donc ramené à un problème d’optimisation local.

xopt = arg max x [P (Ys = y s / X s = x s )P ( X s = x s )] (3.4)

Pour calculer la probabilité P(Ys = y s / X s = x s ) , nous allons poser l’hypothèse suivante :

Soit L l’ensemble des classes parmi lesquelles on choisit les étiquettes de chaque pixel. Une
classe sera notée λi
Pour chaque classe λi , la loi de probabilité P( y s / x s = λi ) est gaussienne. Ainsi, chaque
classe est définie par un vecteur moyen µ i et une matrice de covariance ∑ i dans l’espace des
états E.
Donc,
1
P(Ys = y s / X s = x s ) = 12
(2π )d 2 ∑ xs
⎡ 1
(
× exp ⎢− y s − µ xs )T ∑ −x1 (ys − µ x )⎤⎥ (3.5)
⎣ 2 s s

avec d est le nombre des bandes spectrales de l’image. Sachons que la distribution de Gibbs
avec paramètre de température de P(xs ) s’écrit de la façon suivante :

1 ⎛ U (xs ) ⎞
P( x s ) = exp⎜ − ⎟ (3.6)
ZT ⎝ T ⎠
Donc,
xopt = arg max xs [η exp(− E (x / y ))] (3.7)
1
avec η = est une constante et E ( x / y ) est l’expression de l’énergie a posteriori :
Z T (2π )d 2

51
1
E (x / y ) =
T
1
(
× U ( x s ) + y s − µ xs T ∑ −1
2
) (
xs y s − µ xs )
1
+ log ∑ xs
2
( )
1
(
= × U ( x s ) + f y s , µ xs , ∑ xs
T
) (3.8)

Cette expression intègre un terme lié aux contraintes introduites et un terme d’attache aux
données. Puisque la fonction exponentielle est monotone et η est une constante indépendante
de X l’équation précédente devient :

xopt = arg min xs [E ( x / y )] (3.9)

ce qui correspond à cherche la configuration qui minimise cette fonction d’énergie.

3.2.3 Introduction des contraintes

Le formalisme Markovien permet d’introduire, de manière souple, les contraintes du


contexte spatial grâce à leur modélisation par des fonctions potentielles. Nous avons introduit
deux contraintes, la première est celle du modèle de Pott et la deuxième est celle de contour,
ces contraintes vont permettre de minimiser l’énergie postérieure dans la classification, avec
possibilité de moduler l’importance que l’on veut donner à l’une ou l’autre de ces contraintes.

La fonction d’énergie globale associée à un site de l’image des classes peut s’exprimer de
la manière suivante:

U (xs ) = ∑ U lissage (xs ) + U contour (xs ) (3.10)


toutes _ contra int es

Deux contraintes spatiales sont introduites à travers la fonction d’énergie : une contrainte
de régularisation (lissage) opérant sur le voisinage 8-connexes et une contrainte de contours
lié au contour et au voisinage par segment. La figure 3.1 montre le voisinage par connexité et
par segment.

Figure 3.1 (a) voisinage 8-connexes ; (b) voisinage par contour (segment)

52
3.2.3.1 Contrainte de régularisation

Pour la contrainte de régularisation, la classe la plus présente dans le voisinage du pixel est
favorisée. Ainsi, la fonction potentielle suivante sur le voisinage (8-connexes) est introduite :

U lissage ( x s ) = β lissage ∑ δ ( x s , xt ) (3.11)


( s ,t )∈C
δ est le symbole de Kronecker, il s’exprime :

⎧− 1 si x s = xt
δ ( x s , xt ) = ⎨ (3.12)
⎩ 0 si x s ≠ xt

La régularisation est pondérée par le paramètre β lissage . Plus β lissage est grand, plus le
terme de régularisation est fort. Concrètement, une grande valeur de β lissage favorise le
reclassement d’un pixel isolé dans la classe la plus présente parmi ses voisins. Une valeur de
β lissage faible nous ramène au problème de classification brute (si on ne tient pas compte de
l’autre contrainte), qui correspondrait à β lissage = 0 c’est-à-dire à une classification par
maximum de vraisemblance. L’énergie diminue lorsque la fréquence d’apparition de la classe
augmente.

3.2.3.2 Contrainte de contour (segmentation)

a) La méthode de segmentation utilisée (élaboration de la carte de contour)

L’approche locale de détection de contours consiste à balayer l’image avec une fenêtre
définissant la zone d’intérêt. Un opérateur est appliqué sur les pixels de la fenêtre afin
d’estimer s’il y a une transition significative au niveau de l’attribut choisi. L’opérateur choisi
est celui de Shen et Castan [Shen et Castan, 1992], car, il permet d’obtenir de très bons
résultats selon des critères de détection de contours efficace : robustesse au bruit, bonne
localisation, et faible multiplicité des maxima dus au bruit. Cet opérateur consiste à calculer la
différence entre les moyennes calculées de chaque côté du pixel central, en introduisant une
pondération exponentielle négative au niveau des moyennes de support infinie.

Figure 3.2 processus d’élaboration de la carte de contours

Une fois l’image de puissance de contour créée, il faut en extraire des contours fermés et
amincis pour établir une segmentation. L’algorithme de ligne de partage des eaux [Vincent et
Soille, 1991] (Annexe B), est une méthode issue de la morphologie mathématique, qui extrait
directement des contours fermés et squelettisés à partir d’une image de puissance de contour
(image de module de gradient). L’image de puissance est interprétée comme une surface, dont
les lignes de crête, sont supposées correspondre aux contours de l’image d’origine. Pour
détecter les lignes de crête, on simule une inondation de la surface. Comme la méthode crée
une région pour chaque minimum local dans l’image de puissance de contour, elle a tendance

53
à être sur-segmentée, d’autant plus que l’image est bruitée. Une méthode plus robuste au bruit
est appliquée : le seuillage des dynamiques de bassin à partir d'une carte de puissance de
contour, réalisant ainsi une représentation hiérarchique des différents niveaux de segmentation
de l'image [Fjørtoft, 1999] [Lemaréchal et al, 1998]. Cette méthode est particulièrement
intéressante pour réduire le nombre de faux contours. La dynamique du bassin associée à un
minimum local est définie comme la différence d'altitude entre ce minimum et le point de
crête le plus bas qui doit être franchi pour arriver dans un bassin ayant un minimum plus bas
que le premier. On définit la dynamique d'un arc de contour comme étant la valeur maximale
du seuil pour lequel cet arc de contour subsiste lorsqu'on supprime tous les bassins ayant une
dynamique inférieure au seuil.

L'image de dynamique de contour n'est pas binaire. Chaque arc de contour a la valeur de sa
dynamique de contour. Le concept de dynamique de contour permet de créer une
représentation hiérarchique et compacte des segmentations obtenues en appliquant différents
seuils aux dynamiques de bassin.

Les limites sont fermées et ainsi définissent des régions (taches ou segments). Le
programme crée une représentation hiérarchique de toutes les segmentations possibles, en
attribuant à chaque pixel du contour la dynamique de contour de l'arc auquel il appartient. La
méthode permet de créer plusieurs niveaux de segmentation plus ou moins fins, correspondant
à un seuil donné. Au fur et à mesure que le niveau de segmentation grandit, les régions seront
moins finement définies. Pour obtenir la segmentation correspondant à un seuillage des
dynamiques de bassin, il suffit d'effectuer un simple seuillage sur l'image de dynamique de
contour, en ne gardant que les pixels dont la dynamique de contour est supérieure ou égale au
seuil.

Figure 3.3 (a) Extrait d’une image Landsat ETM+ en composition colorée (4-3-2) ; (b) niveau de segmentation
10 ; (c) niveau de segmentation 3 (sur-segmentation) ; (d) niveau de segmentation 20.

54
b) Introduction de la segmentation dans la classification

Dans cette contrainte, le lissage sera contrôlé par les contours de la carte de segmentation,
donc, les pixels de même contour sont encouragés à être affectés à la même classe, et
sanctionnés si ils sont affectés à différentes classes, c’est à dire, pour chaque pixel, on
favorise l’affectation à la classe dominante (de l'itération précédente) du segment où il se
trouve. Cela peut être réalisé par :
− L'utilisation de processus ligne qui permet de lisser une image sauf à des
discontinuités dans les niveaux de gris.
− Le calcul du tableau des poids des classes par segment à chaque itération afin de
favoriser par poids les classes dominantes dans chaque segment.

Pour le processus ligne, on a utilisé la méthode [Solberg et al, 1996], en se basant sur une
carte de contours fiable, les auteurs vont imposer des contraintes pour que la classification
résultante ait des contours s’approchant le plus possible de ceux de la carte. Pour cela, ils
utilisent deux processus de ligne. Le premier est celui de la carte des contours,
{ }
L g = l g (i, j ),1 ≤ i ≤ M ,1 ≤ j ≤ N est fixe durant tout le traitement. Le deuxième,
Lc = {lc (i, j ),1 ≤ i ≤ M ,1 ≤ j ≤ N } est amené à varier pendant le traitement, lc (i, j ) = 0 si les
deux pixels qu’il sépare appartiennent à la même classe, 1 sinon. Les auteurs définissent alors
une mesure de similarité entre ces deux processus:

⎧0 si l c (i, j ) = l g (i, j )
( )
W lc (i, j ), l g (i, j ) = ⎨ (3.13)
⎩1 si l c (i, j ) ≠ l g (i, j )

La fonction d’énergie s’exprime alors par :

( )
U lc (i, j ), l g (i, j ) = − β g ∑ ( )
W lc (i, j ), l g (i, j ) (3.14)
(i , j )∈Vijg

On voit que l’énergie d’une classe diminue lorsque l’affectation du pixel à cette classe crée
des contours de classes différents de ceux de la segmentation. Le paramètre β g permet de
moduler le poids que l’on veut donner à cette contrainte. Dans la méthode implantée, cette
énergie s’exprime de la façon suivante

U contour ( x s ) = β contour ∑ (1 − δ (lc (xt ), l g (xt ))) (3.15)


( s ,t )∈C

La régularisation est contrôlée par les contours de la segmentation. La probabilité d’une


classe diminue lorsque l’affectation du pixel à cette classe crée des contours de classes
différents de ceux de la segmentation. Si la carte de contours est fiable, les contraintes
permettront d’obtenir une classification qui ait des contours s’approchant le plus possible de
ceux de la carte. La question qui se pose est : comment sélectionner une carte fiable de
contour? Autrement dit, qu’il est le seuil de segmentation à choisir pour avoir une carte de
contour proche de celle des contours de la classification résultante ?

55
c) Sélection de la carte fiable de contour

Pour le choix du seuil de segmentation de l'image de contours qui nous donne une carte
fiable de contours à utiliser plus tard dans le processus de classification, nous avons adopté
deux mesures, qui s’utilisent pour l'évaluation des méthodes d'extraction de routes à partir des
images de satellite (Partie II, Chapitre 6, §6.4.1), ces deux mesures sont définies comme suit :

longueur du contour de référence en accord avec le contour de segmentation


Complétude =
longueur du contour de référence
(3.16)
longueur du contour de segmentation en accord avec le contour de référence
Exactitude =
longueur du contour de segmentation
(3.17)
Le principe (présenté dans la figure 3.4) est de comparer les contours de chaque seuil de
segmentation avec les contours de référence qui sont les contours de la classification par
l'ICM développée avec paramètre de température. La comparaison se fait à travers le calcul de
ces deux mesures. La contrainte imposée est que le seuil sélectionné est celui dont les
contours de segmentation s’approchent le plus possible des contours de la classification de
référence. La méthode d'évaluation mise en œuvre dans notre étude a une de tolérance d'une
largeur de trois pixels le long des contours de références et de segmentation.

56
Figure 3.4 Sélection de la carte fiable de contours

La figure 3.5 montre les résultats obtenus pour les différents seuils. Nous remarquons que
lorsque nous dépassons le seuil 10 l'exactitude augmente, et inversement, la complétude
diminue, ce qui est normal, lorsque le nombre de segments diminue on se rapproche plus de
l'image de référence. Donc, d'une part, le choix du seuil ne doit pas dépasser la valeur 10, et
d'autre part, puisque nous voulons proportionnellement une exactitude et une complétude
satisfaisantes, il est nécessaire de prendre un seuil intermédiaire entre 8 et 10. Pour l’image
Landsat ETM+ nous avons choisi le seuil de 10.

57
Figure 3.5 évaluation des seuils de la segmentation

3.2.3.3 Paramètre de température

a) Principe du paramètre T

Dans la méthode implantée, le principe est similaire à celui du recuit simulé. Il faut
décroître à partir d’une position élevée de la température jusqu’à une contrainte basse
température. Une descente trop rapide de la température provoque une cristallisation dans des
minima locaux d’énergie. Ces contraintes sont contrôlées à chaque itération par le paramètre
de température.

La température initiale est prise élevée, elle est régulièrement diminuée jusqu’à
stabilisation des résultats, ce qui lui permet de favoriser le voisinage du pixel. La diminution
de température entre deux itérations doit suivre un schéma lent pour que la méthode soit
efficace. Au fur et à mesure des itérations, on fait intervenir de plus en plus l’effet des
contraintes de contexte, ce qui affine le résultat.

Si l’on diminue brusquement la température, on risque de se fixer sur un mauvais


minimum local d’énergie (maximum de probabilité). Il faut donc éviter les brusques
changements de température entre deux itérations, les itérations dites « intérieures » dans
notre cas (voir 3.2.3.4).

Toutefois cet algorithme ne comporte pas la caractéristique essentielle du recuit simulé qui
est de visiter plusieurs puits d’énergie avant de se stabiliser dans l’un d’eux. Il ne peut être
adapté qu’à des énergies pour lesquelles on peut disposer d’une configuration initiale
convenable. Le nombre d’itérations nécessaires pour l’ICM est en général très nettement
inférieur à celui nécessaire à un recuit simulé (de l’ordre de 1% à 10% du temps du recuit
simulé).

D’après l’équation de l’énergie a posteriori vue précédemment :

58
E (x / y ) =
1
T
( )
× U ( x s ) + f y s , µ xs , ∑ xs . (3.18)

Lorsque la température est maximale, c’est la probabilité estimée qui prédomine sur les
prises en compte du contexte spatial, puis peu à peu (itérations après itérations), lors de la
diminution de la température, le contexte spatial prend de l’importance pour définitivement
classer les points encore en balance entre plusieurs classes. Si la température atteint un seuil
assez bas ou que le système devient figé, l'algorithme s'arrête.

b) Loi de décroissance du paramètre T

La principale difficulté réside dans le choix de la température initiale, du rythme de


décroissance, éventuellement la durée de relaxation (le nombre d’itérations de la
transformation par palier de température), des critères d'arrêt. Ces paramètres sont en général
choisis expérimentalement.

La température initiale T0 ne doit pas être choisie trop faible, pour assurer la convergence,
mais pas non plus trop élevée, pour assurer un temps de calcul raisonnable. Tout au long de
l'algorithme, on va donc faire décroître T, ni trop vite pour éviter de rester bloqué autour d'un
minimum local, ni trop lentement si on veut avoir un résultat en un temps raisonnable. En
théorie, la décroissance logarithmique Figure 3.7 est utilisée de façon optimale par [Guyon,
1992] :
T0 Ti
Ti+1 = ou Ti +1 = (3.19)
ln (i + 1) ln (i + 1)

Mais en pratique des décroissances géométriques (Figure 3.6) donnent de bons résultats :

Ti +1 = α × Ti avec 0.8 ≤ α ≤ 0.9 (3.20)

Dans nos tests, la décroissance logarithmique a donné de meilleurs résultats, toutefois la


décroissance géométrique donne des résultats assez proches avec un rythme de décroissance
raisonnable.

59
(a)

(b)

(c)
Figure 3.6 Décroissance géométrique du paramètre de température : (a) Ti +1 = 0.8 × Ti ; (b)
Ti +1 = 0.85 × Ti ; (c) Ti +1 = 0.9 × Ti

60
(a)

(b)

(c)
Figure 3.7 Décroissance logarithmique du paramètre de température : (a) T = T0 ; (b) Ti +1 = Ti ;
i+1
ln (i + 1 ) ln(i + 1)
⎛ T ⎞
(c) T = T × exp⎜ log f
i +1 i ⎜ (nbitext − 1)⎟⎟ avec nbitext = 30; T0 = 3.0; T f = 1.0
⎝ T0 ⎠

61
3.2.3.4 L’algorithme général

La méthode a été développée suivant le mode non supervisé (elle peut être adaptée
facilement au cas supervisé). Elle fonctionne avec plusieurs types d’images optiques (Landsat,
Spot, Formosat,…) ou radar. Le champ des classes est markovien sous contrainte de
continuité spatiale. L’initialisation est réalisée par un maximum de vraisemblance ponctuel
avec possibilité de pondération par une gaussienne. La méthode de minimisation de l'énergie
est l’ICM, le nombre de classes est choisi par l’utilisateur ou calculé automatiquement, les
échantillons sont créés automatiquement (aléatoirement ou régulièrement). L’algorithme
général de la méthode est le suivant :

Apprentissage
Echantillonnage
Les échantillons sont créés automatiquement de différentes façons suivant
l’utilisation :
- espacés régulièrement de taille variable en fonction des dimensions de l’image,
l'écart entre les échantillons de forme carrée est variable afin d’éviter le
chevauchement.
- tirés aléatoirement.
Estimation initiale des statistiques
Cette partie correspond à la détermination des vecteurs statistiques des différents
attributs (canaux,…)
Poser, la température initiale T = T0
Classification initiale
Chaque pixel est classé selon la règle du maximum de vraisemblance et une loi de
distribution gaussienne. Puis il est affecté à la classe dont la moyenne des probabilités
est la plus élevée. Cette classification initiale est effectuée de manière ponctuelle ou
contextuelle. Elle peut également être initialisée par un principe barycentrique.
Itérations extérieures
Balayer l’ensemble des sites s de Ω, et en chaque site :
- Calculer l’ensemble des probabilités conditionnelles.
- Le type de règle de classification gaussien (peut être barycentrique).
Itérations intérieures
Ces itérations consistent à classer selon la règle du maximum de vraisemblance, en
tenant compte du contexte (voisinage proche), des contours (contrainte spatiale à
partir de la segmentation) et de la température.
Ré-estimation des statistiques
Il s'agit des mêmes calculs que ceux effectués lors de l'estimation initiale des
statistiques.
Faire décroître la température
Tk +1 = αTk où k est le numéro de l’itération.
Poursuivre les balayages pour un nombre déterminé d’itération ou jusqu’à la
réalisation d’un critère d’arrêt (taux de changement des pixels est au dessous de 0.1%)

62
Des itérations extérieures, sans contrainte sont d’abord exécutées seules. Les itérations
intérieures avec contraintes sont ensuite effectuées à température constante, puis la
température est diminuée avec la nouvelle itération extérieure ainsi de suite jusqu’à la
convergence vers la solution.

La partie d’initialisation a particulièrement été étudiée [Ducrot, 2005] car de cette


initialisation dépend la convergence plus ou moins rapide et, surtout, correcte de la solution
de la classification. Plus l’échantillonnage est cohérent dès le départ, plus la classification se
stabilise rapidement. Des classes sont prises aléatoirement et sont parfois très proches
statistiquement. Nous avons implantés des traitements qui permettent d’améliorer la
séparabilité des classes, de corriger ce manque de cohérence lors de la création automatique
des échantillons, afin de commencer avec un échantillonnage plus représentatif, pour avoir
une meilleure configuration initiale.

L’amélioration de l’apprentissage consiste en : la fusion des classes similaires, la


suppression des classes ayant trop peu d’effectifs et la division des classes trop hétérogènes.
Pour cela, nous avons cherché à optimiser :
− Le critère de différenciation : afin que les classes soient le plus hétérogènes possibles
entre elles, par la maximisation de la variance inter classes, qui correspond aux
fluctuations d’une classe à l’autre.
− Le critère de similarité : afin que les signatures spectrales de chaque pixel appartenant
à une classe soient le plus homogène possible, par la minimisation de la variance intra
classe, qui correspond aux fluctuations des valeurs des pixels à l’intérieur d’une même
classe.
− La distribution spatiale des classes ayant peu d’effectifs, apporte une information pour
déterminer si une classe est à conserver ou à éliminer.

3.3 Validation de la méthode et résultats

Dans ce paragraphe, nous verrons plusieurs exemples de classification avec différentes


images et différentes valeurs des deux paramètres : régularisation et température, et avec
l’utilisation de la segmentation. Afin de pouvoir comparer les résultats, une appréciation
visuelle critique permet un premier jugement sur la qualité des diverses images classée
obtenues. Toutefois une matrice de confusion a permis d’évaluer, de façon rigoureuse, la
qualité de certaines classifications dont nous disposions de vérités terrain.

3.3.1 Présentation des scènes d’étude et des images

3.3.1.1 Les images Landsat - région de Souss

La première scène d’étude est localisée dans la région d’Agadir prés de Souss (Maroc).
Géologiquement parlant, c’est le bassin alluvial de l'Oued Souss, séparé du Sahara par les
montagnes de l'Anti-Atlas. La végétation courante est la savane dominée par l'arganier, arbre
endémique local. Une partie de la région des arganiers est actuellement une réserve de la
biosphère de l'UNESCO qui tente de protéger cet habitat unique.

En outre, la région est la première zone du pays connue par ses cultures sous abri (serres),
en particulier les tomates et les fleurs. Aujourd'hui, la part du Souss dans les exportations
marocaines est de 55% des agrumes, 95% de tomates et 70% des légumes et fruits. Ainsi, la
région a une variété de couvertures au sol qui sont proches radiométriquement.

63
Les deux images utilisées dans cette étude proviennent des satellites Landsat (Annexe A)
de résolution spatiale de 28,5 mètres, coordonnées (Path 203, Row 39). La première est de
type Landsat TM et la deuxième est de type Landsat ETM+, elles ont été prises
respectivement, le 9 février 1988 et le 19 mars 2002. Les dates d'acquisition correspondent à
un bon état de la végétation et permettent a priori une réponse optimale de la couverture de
végétation. La figure 3.8 montre une visualisation 3D de la région (la scène d’étude est
encadrée en rouge) et les deux images utilisées.

Figure 3.8 Images Landsat : (a) visualisation 3D du bassin de Souss (le rectangle représente la zone d’étude);
(b) composition colorée de l’image de date 09/02/88 ; (c) composition colorée de l’image de date 19/3/02

64
3.3.1.2 Les images Formosat – région toulousaine - Est de Marrakech (Maroc)

Le deuxième type d’image utilisé pour tester la méthode de classification développée est
sont des images du satellite FORMOSAT (Annexe A) de résolution de 8 mètres. La première
image représente une scène de la région de Toulouse au sud ouest de la France, prise le 21
Août 2008, et la deuxième représente une scène située dans la plaine du Haouz, dans la région
Sidi Rahal à environ 40km à l’Est de Marrakech au Maroc, prise le 28 Avril 2006.

Figure 3.9 Images Formosat : (a) composition colorée de la zone de Toulouse ; (b) composition colorée de zone
de Haouz (Maroc).

3.3.1.3 Critère d’évaluation

a) La vérité terrain

Des vérités terrain ont été acquises afin de mesurer la qualité de classification non
supervisée obtenue, parce que cette dernière donne des étiquettes, mais elle doit être
interprétée sémantiquement. D’habitude, les échantillons de vérité terrain s’utilisent, pour une
classification supervisée, au début dans l’étape d’apprentissage et à la fin dans l’étape de
validation, mais dans notre étude, on les utilise uniquement à la fin pour l’évaluation d’une
classification non supervisée.

Pour valider qualitativement la méthode de classification pour les deux types d’images de
satellite, on dispose de vérités terrain des deux images : celle de la région d’Agadir, Landsat
de 2002 (Table 3.1) et celle de la région de Toulouse, Formosat 2008 (Table 3.2). En raison
du manque de vérité terrain des deux autres images, l’interprétation des classifications sera
uniquement visuelle.

65
TABLE 3.1
TAILLE DES ECHANTILLONS DE VERITE TERRAIN
DE L’IMAGE LANDSAT - région d’Agadi

Nom de Classe Nombre de pixels


Mer (Eau) (W) 25062
Forêt claire (CF) 1023
Forêt dense (DF) 768
Culture irriguée (IC) 2223
Champs labour (LF) 1285
Serres (GH) 1483
Arganier à forte densité (ASt) 2680
Arganier à densité moyenne (AAv) 1042
Arganier à faible densité (ASp) 1398
Végétation naturelle (Jujubier dominant) (NJ) 594
Végétation naturelle (Rétame dominant) (NR) 2967
Végétation naturelle (Chiendent dominant)
(NC) 336
Eucalyptus à forte densité (ESt) 789
Eucalyptus à faible densité (ESp) 1171
Dunes de sable (SD) 2575
Dunes consolidées (CD) 3479
Sol nu (BA) 1115
Sol sableux (SG) 1121
Bâti/Oued (B) 1178

TABLE 3.2
TAILLE DES ECHANTILLONS DE VERITE TERRAIN
DE L’IMAGE FORMOSAT - région de Toulouse

Nom de Classe Nombre de pixels


Feuillus (Fe) 6906
Résineux (Re) 1337
Eucalyptus (E) 786
Blé (B) 17242
Colza (C) 5613
Orge (O) 2600
Maïs (M) 14957
Tournesol (T) 4279
Soja (S) 6642
Jachère/surfaces gel (J) 805
Friche (Fr) 377
Prairie (Pr) 4917
Eau libre (W) 1735
Bâti dense (Bd) 588
Graviers (G) 9813
Peupliers (Pe) 4722

66
Figure 3.10 Echantillons à partir des vérités terrain de: (a) image Landsat - région d’Agadir; (b) image
Formosat - région de Toulouse

b) La matrice de confusion

La précision d’une classification est fournie par une matrice de confusion. Le but est de
comparer le résultat de la classification avec l’information de réalité de terrain. C’est une
matrice carrée de taille égale au nombre de classes, et dont un élément mij est égal au
pourcentage de pixels classés λ j qui auraient dû appartenir à la classe λi . Normalement, une
matrice de confusion a des valeurs proches de 1 sur la diagonale, et des valeurs proches de 0
ailleurs. Idéalement, c’est la matrice identité

A partir de cette matrice, différents indicateurs de précision (locaux et globaux) peuvent


être déterminés, mais les plus importants sont : le taux moyen de pixels correctement classés
et le paramètre Kappa. Le taux moyen de pixels correctement classés OA (Overall Accuracy)
appelé aussi la précision globale, représente le rapport entre le nombre total des pixels
correctement classés (positionnés sur la diagonale de la matrice de confusion) et le nombre
total des pixels de la matrice de confusion. Dans notre étude, nous avons retenu cet
indicateur comme paramètre d’évaluation statistique des résultats de chaque classification.

3.3.2 Contrôle de la régularisation

Dans cette partie, nous allons étudier l’influence du paramètre β sur la régularisation par
l’algorithme ICM développé. Pour effectuer des tests comparables, nous avons fixé le
paramètre de température à (T0 = 3 et Tf = 1). Le critère d’arrêt est une stabilisation du taux de
changement de pixels (< 0.1%).

67
Figure 3.11 Région d’Agadir - image Landsat classifiée pour (a) β = 1 ; (b) β = 3 ; (c) β = 5

A première vue, nous pouvons constater que la régularité de la solution augmente avec le
paramètre β, cette régularisation s’exprime dans le sens où les régions obtenues sont très
homogènes avec des frontières relativement lisses. Concrètement, une grande valeur de β
favorise le reclassement des petites régions ce qui signifie une perte de détailles surtout dans
le cas des image de type Landsat où la résolution spatiale est plus basse.

Figure 3.12 Région de Toulouse - image Formosat classifiée pour (a) β = 0.6 ; (b) β = 1 ; (c) β = 3

La régularisation dans le cas des images Formosat permet aussi d’homogénéiser le contenu
des parcelles en reclassant tout pixel isolé dans la classe de ces voisins, mais lorsque la valeur
de β augmente, les parcelles perdent leur forme et certaines petites parcelles disparaissent,
ainsi la qualité de la classification se dégrade. Le tableau 3.3 montre le pourcentage de la
précision globale pour différentes valeurs de régularisation. On préférera donc une valeur
égale à 1.

68
TABLE 3.3
COMPARAISON POUR DIFFERENTES VALEURS DE β

β Précision globale (%)


1 87.05
Landsat 3 83.52
5 76.42
0.6 76.08
Formosat 1 75.82
3 63.21

3.3.3 Le paramètre de température

Le paramètre de température T règle la tolérance des configurations désavantageuses dans


le processus d’évolution de la classification. Grâce à une décroissance géométrique adéquate
(§ 3.2.3.3 b) et à une bonne initialisation de la température, l’algorithme assure la
convergence, cette température ne doit pas être trop élevée, pour assurer un temps de calcul
raisonnable. Le tableau 3.4 montre les résultats de tests de différentes valeurs de température.

TABLE 3.4
COMPARAISON POUR DIFFERENTES VALEURS DE TEMPERATURE

Température
Précision globale (%)
T0 Tf
3 1 87.05
5 3 73.56
Landsat
6 10 61.49
10 20 59.20
3 1 76.08
5 3 71.12
Formosat
6 10 69.11
10 20 68.59

Nous pouvons constater que la température initiale idéale semble être environ 3. Pour des
températures supérieures, nous enregistrons une décroissance dans la précision globale. Cela
se voit clairement dans la classification, pour le cas d’image Landsat de la figure 3.13,
lorsqu’on augmente la température initiale, des nouvelles zones de la classe champs labour
(LF) en jaune apparaissent dans la zone représentant la ville : bâti (BO) en rose, ce qui est
contradictoire avec la réalité terrain. De même, pour l’image Formosat, une température
élevée perturbe l’affectation des classes.

69
β = 1 avec température
Figure 3.13 Région d’Agadir - Classifications régularisées de l’image Landsat pour
initial ; (a) T0 = 3 ; (b) T0 = 5 ;(c) T0 = 10 ;(d) T0 = 20

70
Figure 3.14 Région de Toulouse - Classifications régularisées de l’image Formosat pour β = 1 avec
température initial ; (a) T0 = 3 ; (b) T0 = 5 ;(c) T0 = 10 ;(d) T0 = 20

3.3.4 Comparaison avec la classification non contextuelle

Dans ce paragraphe nous évaluons la méthode d’ICM développée, en la comparant avec


deux méthodes de classification non contextuelle à savoir : ISODATA et Kmeans. Pour
exécuter ces deux classifications, nous avons utilisé le logiciel ENVI, nous avons pris un
nombre d'itérations suffisamment grand afin d'assurer la convergence, et nous avons fixé le
taux minimum de changement de pixels au cours d’une itération à 0,1%, les autres paramètres
ont été pris de telle sorte que les conditions initiales soient similaires pour les trois
classifications.

Dans nos expériences, la classification par ICM devrait améliorer la classification


résultante de ISODATA et Kmeans par utilisation du contexte spatial, le choix des paramètres

71
initiaux est très influant sur le résultat de la classification, d’après les précédents tests, nous
avons fixé β = 1 et T0 = 3 .

Figure 3.15 Région d’Agadir - Classification par : (a,d) ICM; (b,e) ISODATA ; (c,f) Kmeans (légende dans
Fig 3.17)

À première vue, nous constatons que nous avons une grande différence entre les deux
classifications. Les résultats de ces classifications sont représentés dans la figure 3.15. La
classification résultante de l'ICM est visuellement plus satisfaisante que celles d’ISODATA et
de Kmeans (qui se ressemblent), car l’ICM est moins bruitée, tandis que dans les deux autres,
nous avons un effet de pointillisme (salt and pepper). Ainsi, il est nécessaire de compléter par
un traitement de post classification, ce qui va produire une dégradation de l'information. Le
résultat par l’ICM correspond bien à la carte de couverture de sol, les parcelles sont bien
dessinées, avec très peu de mélange avec d’autres classes. Le léger excès de lissage que nous
remarquons est désiré, il est contrôlé par le paramètreβ.

TABLE 3.5
MATRICE DE CONFUSION DE LA CLASSIFICATION PAR ISODATA EN %

W DF IC GH ASt AAv ASp NJ NR NC ESt ESp SD CD BA SG BO


W 99.17 0.36 0.00 0.00 0.00 0.00 0.00 0.00 0.40 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.06
CF 0.00 0.00 0.00 0.00 3.42 11.14 58.16 0.00 0.10 0.10 0.00 6.74 2.83 12.12 5.18 0.20 0.00
DF 4.69 45.31 0.65 0.00 27.47 3.65 0.78 0.13 16.02 0.00 0.00 0.65 0.26 0.39 0.00 0.00 0.00
IC 0.00 0.31 90.37 0.00 1.89 0.00 0.00 2.74 0.40 0.00 2.70 1.39 0.04 0.04 0.04 0.00 0.04
LF 0.00 0.00 9.03 0.00 12.61 0.62 0.00 14.40 0.08 0.08 0.00 49.73 0.78 12.06 0.00 0.00 0.62
GH 0.00 0.00 3.57 84.22 0.00 0.00 0.00 0.27 0.07 0.07 0.00 0.07 0.81 0.27 0.00 0.00 10.65
ASt 0.00 0.00 2.20 0.11 89.78 1.98 0.04 0.11 3.32 0.00 0.00 1.98 0.00 0.49 0.00 0.00 0.00
AAv 0.00 0.00 2.11 0.00 25.72 41.55 9.88 2.02 0.00 0.00 0.00 11.23 1.63 5.47 0.00 0.00 0.38
ASp 0.00 0.00 0.36 3.79 1.50 21.60 61.30 0.43 0.00 0.14 0.00 1.14 1.57 2.93 4.15 0.00 1.07
NJ 0.00 0.00 48.99 0.00 22.73 0.67 0.17 15.49 0.67 0.00 3.03 6.90 0.17 1.01 0.00 0.00 0.17
NR 0.00 8.56 1.24 0.00 6.03 0.00 0.00 0.10 83.73 0.00 0.00 0.23 0.00 0.03 0.00 0.00 0.07
NC 0.00 0.00 0.89 0.00 0.30 1.49 19.05 0.30 0.00 20.54 0.00 1.49 36.61 17.86 0.00 1.49 0.00
ESt 1.39 11.79 28.26 0.25 0.00 0.00 0.51 2.28 1.14 0.25 52.22 0.25 0.51 0.38 0.00 0.00 0.76
ESp 0.00 0.00 4.53 0.00 21.86 0.68 0.00 5.47 1.88 0.00 0.00 53.71 1.71 9.56 0.00 0.00 0.60
SD 0.00 0.00 27.88 0.04 0.04 0.23 0.12 0.04 0.00 21.83 0.00 0.74 32.54 3.34 0.00 11.69 1.51
CD 0.00 0.00 0.06 0.03 0.92 7.62 5.63 0.03 0.17 2.13 0.00 1.24 35.44 46.25 0.00 0.06 0.43
BA 0.00 0.00 0.18 0.00 5.65 22.15 44.93 0.00 0.00 0.63 0.00 0.09 1.35 0.09 23.77 1.17 0.00
SG 0.00 0.09 0.00 0.00 0.00 0.00 0.00 0.00 0.00 10.44 0.00 0.00 0.00 0.00 0.00 88.31 1.16
BO 0.00 0.08 1.78 0.00 0.42 0.42 1.53 0.25 0.85 8.23 0.00 0.68 20.54 13.92 0.51 6.71 44.06

72
Comme le montre le tableau 3.5, la classification par ISODATA a une précision globale de
51,17 %, cette méthode n’a pas correctement attribué les échantillons à leurs classes de
couverture du sol correspondantes. Les pourcentages des affectations des classes sont assez
bas et le problème des classes mixtes domine le résultat. Par exemple, 45,31 % des pixels de
l'échantillon forêts denses (DF) appartiennent à la classe forêt dense (DF) , mais, également
27,47 % appartiennent à la classe Arganier à forte densité (ASt). De nombreuses classes
montrent la même représentation. On remarque aussi qu’il y a des classes qui ne sont pas
détectées, telles que la classe forêt claire (FC) et la classe champs labour (FL), par
conséquent, leurs échantillons sont dispersés dans d'autres classes.

Généralement, on peut dire que les résultats non contextuels ne permettent pas la
différenciation entre les classes de couverture du sol,les différentes classes thématiques
présentent des mélanges avec d’autres classes, surtout lorsqu’elles sont proches
radiométriquement.

Par contre, pour la méthode de l'ICM développée, une précision globale de 87,05 % a été
atteinte. La comparaison de la matrice de confusion de l'ICM, donnée dans le tableau 3.6 avec
celle de ISODATA indique de grandes différences, la classification par l'ICM parvient dans la
plupart des cas à atteindre un haut pourcentage de bonne affectation des classes de couverture
du sol qui dépasse souvent 77%, sauf pour les classes (NC) et (BA), qui ont un pourcentage
respectivement de 66,67 % et 57,13 %.

TABLE 3.6
MATRICE DE CONFUSION DE LA CLASSIFICATION PAR ICM EN %

W CF DF IC LF GH ASt AAv ASp NJ NR NC ESt ESp SD CD BA SG BO


W 99.92 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.01 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.06
CF 0.00 99.02 0.00 0.00 0.00 0.00 0.00 0.00 0.20 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.78 0.00 0.00
DF 3.12 1.82 94.27 0.00 0.00 0.00 0.39 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.39 0.00 0.00 0.00
IC 0.00 0.18 0.00 77.06 0.13 0.22 0.54 0.63 0.00 0.58 0.00 0.00 0.45 0.13 0.04 0.00 19.88 0.09 0.04
LF 0.00 0.00 0.08 2.96 89.57 1.09 0.00 0.93 0.00 1.09 0.08 0.00 0.39 0.23 0.16 3.35 0.00 0.00 0.08
GH 0.07 0.00 0.00 3.71 0.07 95.01 0.00 0.00 0.00 0.13 0.00 0.07 0.00 0.20 0.13 0.00 0.07 0.07 0.47
ASt 0.00 0.00 0.19 0.26 0.00 0.52 96.46 0.19 0.11 1.83 0.11 0.00 0.07 0.00 0.00 0.00 0.00 0.00 0.26
AAv 0.00 0.96 0.58 0.00 0.00 0.00 4.22 86.37 5.37 0.29 0.00 0.00 0.00 0.00 0.00 0.10 1.73 0.00 0.38
ASp 0.00 0.00 0.07 0.29 0.00 5.22 0.00 9.44 79.40 0.14 0.00 0.00 0.07 0.50 0.00 1.72 2.93 0.00 0.21
NJ 0.00 0.00 0.00 9.43 0.00 0.51 2.86 1.18 0.00 80.98 0.00 0.00 3.37 0.00 0.00 0.00 0.00 0.00 1.68
NR 0.00 0.00 0.02 0.00 0.00 0.00 0.00 0.00 0.00 0.27 99.66 0.00 0.00 0.00 0.00 0.02 0.03 0.00 0.00
NC 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 66.67 0.00 0.00 0.00 33.33 0.00 0.00 0.00
ESt 1.01 0.00 0.00 3.04 0.00 0.00 0.00 0.00 0.00 0.00 3.42 0.00 78.96 1.14 0.00 0.00 10.14 0.00 2.28
ESp 0.00 0.09 0.09 0.43 4.78 0.00 0.00 0.00 0.00 0.34 3.59 0.00 0.34 86.93 0.09 1.11 0.77 0.00 1.45
SD 0.00 0.16 0.00 4.35 0.08 0.12 0.00 0.00 0.04 0.12 0.00 0.23 0.04 0.93 84.62 0.31 0.12 8.85 0.04
CD 0.00 0.14 0.26 0.46 0.46 0.17 0.00 0.89 1.52 0.00 0.89 0.00 0.00 0.14 0.11 94.88 0.00 0.00 0.06
BA 0.00 0.00 0.00 0.00 0.00 0.00 5.20 30.58 7.09 0.00 0.00 0.00 0.00 0.00 0.00 0.00 57.13 0.00 0.00
SG 0.18 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 1.69 0.00 0.00 97.59 0.54
BO 0.08 0.17 0.59 2.29 0.08 0.17 2.12 0.00 0.42 0.08 0.08 0.17 0.25 0.08 0.59 0.42 1.87 0.93 89.56

3.3.5 Utilisation de la contrainte de segmentation

Pour améliorer la qualité de la classification ICM, nous avons introduit la contrainte de


segmentation, nous l’avons appliquée sur l’image Landsat. Les résultats pour différents seuils
figurent dans le tableau 3.7.
Il est à noter que la précision est meilleure pour le seuil 10, sélectionné automatiquement
(§ 3.2.3.2 c). Elle est légèrement meilleure, presque égale au résultat obtenu par la
classification précédente par l’ICM sans segmentation pour les deux seuils 6 et 12. Lorsqu’on
s’éloigne de ce centre la précision globale diminue.

73
TABLE 3.7
COMPARAISON POUR DIFFERENTS SEUILS DE SEGMENTATION

Seuil de segmentation Précision globale (%)


4 75.09
6 87.06
Landsat
10 90.27
12 87.00

Figure 3.16 Région d’Agadir - (a,d) classification par ICM ; (b,e) classification par ICM avec segmentation ;
(c,f) carte de segmentation sur composition colorée de l’image à classer

TABLE 3.8
MATRICE DE CONFUSION DE LA CLASSIFICATION PAR ICM AVEC SEGMENTATION EN %

W CF DF IC LF GH ASt AAv ASp NJ NR NC ESt ESp SD CD BA SG BO


W 99.56 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.44
CF 0.00 98.92 0.00 0.00 0.00 0.00 0.00 0.29 0.59 0.00 0.10 0.00 0.00 0.10 0.00 0.00 0.00 0.00 0.00
DF 3.12 0.39 95.18 0.00 0.00 0.00 0.78 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.52 0.00 0.00 0.00
IC 0.00 0.09 0.00 97.26 0.00 0.18 0.31 1.26 0.00 0.36 0.00 0.09 0.31 0.04 0.00 0.00 0.00 0.09 0.00
LF 0.00 0.00 0.00 1.09 90.04 1.01 0.00 1.79 0.00 0.93 0.08 0.00 0.31 0.00 0.39 4.36 0.00 0.00 0.00
GH 0.00 0.00 0.00 3.51 0.00 95.48 0.00 0.00 0.00 0.07 0.00 0.07 0.00 0.13 0.27 0.07 0.00 0.07 0.34
ASt 0.00 0.00 0.22 0.19 0.00 0.56 97.43 0.19 0.00 1.04 0.07 0.00 0.07 0.00 0.00 0.00 0.00 0.00 0.22
AAv 0.00 0.29 0.29 0.00 0.00 0.00 4.51 79.85 14.01 0.58 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.48
ASp 0.00 0.00 0.00 0.29 0.00 5.22 0.00 7.22 85.05 0.14 0.00 0.00 0.14 0.29 0.00 1.36 0.29 0.00 0.00
NJ 0.00 0.00 0.00 7.41 0.00 0.51 6.90 0.84 0.00 79.97 0.00 0.00 3.03 0.17 0.00 0.00 0.00 0.00 1.18
NR 0.00 0.00 0.00 0.05 0.00 0.00 0.00 0.00 0.00 0.23 99.65 0.00 0.00 0.00 0.00 0.02 0.05 0.00 0.00
NC 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 100.0 0.00 0.00 0.00 0.00 0.00 0.00 0.00
ESt 0.89 0.00 0.00 3.04 0.00 0.13 0.00 0.00 0.00 0.00 0.76 0.00 82.38 1.14 0.00 0.00 9.63 0.00 2.03
ESp 0.00 0.09 0.00 0.00 6.58 0.00 0.00 0.00 0.00 1.02 4.18 0.00 0.34 81.81 0.00 4.10 0.26 0.00 1.62
SD 0.00 0.00 0.19 0.97 0.23 0.12 0.00 0.04 0.00 0.00 0.00 0.23 0.04 0.70 90.80 0.43 0.12 5.94 0.19
CD 0.00 0.09 0.23 0.32 0.26 0.17 0.06 1.01 0.32 0.00 0.86 0.00 0.00 0.09 0.03 96.44 0.09 0.06 0.00
BA 0.00 0.00 0.00 0.00 0.00 0.00 4.75 29.69 10.49 0.00 0.00 0.00 0.00 0.00 0.00 0.00 55.07 0.00 0.00
SG 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.54 0.00 0.00 98.66 0.80
BO 0.08 0.00 0.59 2.29 0.00 0.00 1.95 0.00 0.93 0.17 0.00 0.17 0.00 0.00 0.51 0.34 1.36 0.00 91.60

74
Comme prévu, des améliorations dans la matrice de confusion sont observables pour la
classification par ICM avec l’utilisation de la contrainte de segmentation (tableau 3.8.). 12
classes parmi les 19 ont montré une amélioration de la précision du pourcentage des biens
classés par rapport à la méthode de l'ICM sans segmentation, les autres classes sont proches,
sauf pour les classes (AAv), (ESp) et (BA), dans lesquelles on remarque une diminution
d’environ 2 et 6 %. La classification montre une amélioration, 90,27 % de précision globale,
légèrement supérieure à celle de 87,05 % obtenue par la classification par l'ICM sans
segmentation.

Figure 3.17 La carte d’occupation du sol de la région d’Agadir

La figure 3.17 présente la carte d’occupation du sol finale avec la légende des principales
classes. L’occupation du sol de la région étudiée est composée de thématiques diverses et
variées. La gestion de celle-ci, précisément les plantations d’arganier et les cultures sous abri,
est une aide précieuse dans les prises de décision tant au niveau politique, écologique, socio
économique, culturel pour la Maroc et le patrimoine mondial.

Etant donné les résultats acquis, il apparaît que les images satellites constituent un support
intéressant pour une cartographie des occupations du sol systématique et avec précision. A
titre d’exemple : 95,48 % de précision pour les serres et (97,43% ; 79,85% ; 85,05%) pour les
trois types de couverture d’arganiers

Ainsi, il est intéressant de suivre de manière régulière l’évolution des plantations


d’arganier, ce qui permet entre autre de gérer efficacement l'utilisation des sols, d’anticiper

75
leurs dégradations ; également, de suivre l’expansion que connaît le maraichage de serres, afin
de mener des études statistiques pour la surveillance de l’environnement, de l’aménagement
du territoire, dans le but d’organiser leur installation, de surveiller leur impact sur
l’environnement, veiller à la répartition des zones urbaines et des zones protégées.

3.4 Conclusion

Dans ce chapitre, nous avons présenté, dans un premier temps, le principe détaillé de la
méthode développée, dans un second temps, les contraintes introduites et le paramètre de
température. Par la suite, nous avons exposé avec les résultats des applications. Différentes
classifications contextuelles et non contextuelles, ont été étudiées, évaluées et comparées, en
utilisant deux types d’images de satellite multispectrales (Landsat et Formosat).

Dans nos tests nous avons constaté que l’ensemble des classifications non contextuelles
présentent bien un phénomène de « salt and pepper » qui gène l’interprétation des résultats.
En choisissant une température initiale adéquate et une valeur optimale pour le paramètre de
régularisation β, ce phénomène est considérablement réduit et les classifications qui en
résultent sont plus fines, plus homogènes, et donc beaucoup plus faciles à interpréter. Notons
toutefois, que la régularisation est opérée plus particulièrement au niveau des zones
hétérogènes plus lissées et mieux reconnues. D’autre part, nous avons vu que l’intégration de
la contrainte de segmentation dans la classification améliore le résultat de la classification,
une évaluation quantitative de ce résultat, montre que la classification est affinée de 3%.

En résumé, la modélisation markovienne constitue un cadre méthodologique adéquat pour


introduire toutes sortes de contraintes (contexte spatial, carte de contours, contexte temporel,
etc.) pour améliorer le résultat de la classification non contextuelle. Elle permet ainsi
l’obtention de cartes thématiques plus précises et donc plus fiables pour une utilisation
pratique.

Parmi les perspectives pour cette partie de notre recherche, nous pensons d’abord, affiner
les résultats de classification que nous venons de présenter. Il s’agit de réfléchir sur une
procédure permettant d’atténuer l’apport du contexte spatial et de l’adapter à chaque type
d’image de satellite. Nous envisageons la réflexion sur une approche contextuelle non
supervisée pour l’étude de l’évolution, c'est-à-dire des changements entre deux images à des
années différentes et qui s’affranchirait des vérités terrain de la première image. Nous
disposons de deux images Landsat (1988 et 2002), de la région d’Agadir, afin d’étudier
l’évolution des arganeraies et des cultures dans cette région, ce qui concourt à la surveillance
de cette zone protégée

En effet, l'arganeraie marocaine régresse en termes de superficie et de densité : en moins


d'un demi-siècle, la densité moyenne de l'arganeraie nationale est passée de 100 arbres/ha à
30 arbres/ha, tandis que les superficies couvertes régressaient en moyenne de 600 ha par an.
Ces chiffres ne sont que des estimations.

L'aire de l'arganier se dégrade d'année en année sous l'effet conjugué de l'accroissement de


la population (surtout autour d'Agadir), de l'apparition des cultures intensives (notamment le
maraîchage sous serres). On retrouve également l’utilisation sauvage du bois d'arganier pour
produire du charbon de bois.

76
La production d'huile d'argan représente une ressource économique très importante pour
les coopératives actives dans l'arganeraie. Ces coopératives ont des méthodes de
fonctionnement aussi variées qu'il en existe. Certaines ont des pratiques issues du commerce
équitable et peuvent être en partie financées par de grands organismes

Le manque de collaboration entre les aménageurs forestiers et territoriaux, et les


chercheurs universitaires n’ont pas permis de mettre en place des projets de transplantations.

La poursuite des ces travaux devrait être une aide à la prise de conscience de l’importance
de la préservation de ce patrimoine marocain, tant au point de vue écologique que culturel, et
économique.

77
78
Partie II
Extraction automatique des routes

79
80
Chapitre 4

Etat de l’art sur l’extraction des routes

Sommaire

4.1 Introduction ........................................................................................................................ 82


4.2 Variabilité des réseaux routiers .......................................................................................... 82
4.2.1 Variabilité intrinsèque et extrinsèque des routes......................................................... 82
4.2.2 Variabilité typologique par rapport à l'environnement ............................................... 82
4.2.3 Variabilité due au mode d'acquisition ......................................................................... 83
4.2.3.1 L'angle de prise de vue ......................................................................................... 83
4.2.3.2 La résolution spatiale et spectrale du capteur....................................................... 84
4.3 Méthodes semi-automatiques ............................................................................................. 85
4.3.1 Méthodes de suivi et filtrage ....................................................................................... 85
4.3.2 Contours Actifs ........................................................................................................... 86
4.3.3 Programmation dynamique ......................................................................................... 87
4.4 Méthodes automatiques...................................................................................................... 87
4.4.1 Méthodes de segmentation et de classification .......................................................... 87
4.4.2 Morphologique mathématique .................................................................................... 88
4.4.3 Détecteurs de lignes .................................................................................................... 89
4.4.4 Champs de Markov sur graphe.................................................................................... 89
4.4.5 Méthodes fondées sur l’analyse multi-échelle (multi-résolution)............................... 89
4.4.6 Systèmes d'interprétation............................................................................................. 90
4.4.7 Apport de données cartographiques ............................................................................ 91
4.5 Conclusion.......................................................................................................................... 91

81
4.1 Introduction

La détection de routes dans les images satellitaires et aériennes a fait l'objet de nombreuses
recherches depuis plus de quinze ans. En effet, l'importance croissante des Systèmes
d'Information Géographique (SIG) et surtout le besoin d'acquérir des données de façon
automatique ont motivé ces études. L'extraction de réseaux routiers est une tâche délicate
puisque les routes dans les images peuvent apparaître de manière très différente.

Ce chapitre propose un état de l’art sur l'extraction de réseaux routiers à partir d'images
satellitaires et aériennes. Après une description des caractéristiques principales des réseaux
routiers et de leur variabilité (section 4.2), nous présenterons les deux catégories de méthodes
proposées dans la littérature : les méthodes semi-automatiques (section 4.3) par opposition
aux méthodes complètement automatiques (section 4.4).

4.2 Variabilité des réseaux routiers

Un réseau routier se définit généralement pour un système de reconnaissance de formes


comme un ensemble de lignes qui s'entrecroisent plus ou moins régulièrement. Ainsi, avant de
procéder à une extraction de ce type de réseau, il convient de citer les principales
caractéristiques des routes et dans quelle mesure ces caractéristiques varient d’un type
d’image à un autre.

4.2.1 Variabilité intrinsèque et extrinsèque des routes

Les caractéristiques géométriques et radiométriques d’une route sont très variables quel
que soit son environnement. En effet, la radiométrie d'une route est étroitement liée à son type
de revêtement. Dans une même image, on peut trouver des portions de route sombres et
d'autres qui apparaissent claires.

Quand aux caractéristiques géométriques des routes (largeur, courbure, longueur...), on


observe également une forte variabilité selon le type de routes que l'on cherche à extraire
(autoroutes, routes, rues ou chemins) et leur contexte (rural, péri-urbain, urbain ou forestier).
Egalement, les propriétés des réseaux routiers varient d’un pays à un autre. A titre d'exemple,
les réseaux routiers présents dans les villes américaines diffèrent fortement de ceux présents
dans les villes européennes et nord africaines. En effet, les réseaux américains sont
caractérisés par une structure de grille, une particularité qui peut être exploitée de façon
efficace lors de l’extraction.

4.2.2 Variabilité typologique par rapport à l'environnement

La variabilité typologique de la route est aussi très dépendante du contexte, leur aspect est
lié à l'environnement dans lequel elle se situe. On peut ainsi trouver des courbures faibles et
variant peu pour des routes nationales ou pour des autoroutes, alors qu'une route en montagne
pourra comporter de nombreux virages à fortes courbures. Le contexte urbain présente aussi
des particularités comparées aux milieux péri-urbains ou ruraux. On peut se rendre compte
que la difficulté d’extraction des routes augmente lorsque l'environnement s'urbanise comme
le montre la figure 4.1.

82
Figure 4.1 représentation de milieux urbains (a), péri-urbains (b) et ruraux (c) dans la région d’Agadir (Maroc)
(Photographie aérienne)

Également, dans l'analyse du milieu urbain, l'infrastructure de la ville étudiée joue


également un grand rôle. Ainsi, les récentes zones de la ville caractérisées par des structures
urbaines espacées et par un réseau quadrangulaire sont relativement faciles à cartographier.
En revanche, la partie ancienne de la ville aux trames serrées et aux réseaux routiers tortueux
nécessite une résolution spatiale plus fine.

Cette dernière remarque nous amène alors à parler des conditions d'acquisition, qui jouent
aussi un rôle important pour l’apparence du réseau routier dans l'image.

4.2.3 Variabilité due au mode d'acquisition

L'apparence des routes dans l'image est directement liée au mode d'acquisition.

4.2.3.1 L'angle de prise de vue

En milieu urbain, la route étant très souvent située entre deux rangées de bâtiments. Une
prise de vue qui n'est pas au nadir peut produire des occlusions partielles, voire totales Elle
induit aussi des distorsions géométriques.

Figure 4.2 Effet de l’angle de prise de vue : (a) schéma d’acquisition d’image, (b) effet d’une prise de vue
oblique (Image Ikonos)

83
4.2.3.2 La résolution spatiale et spectrale du capteur

L'apparence des routes dans l'image est directement liée à la résolution spatiale du capteur
satellite ou aéroporté. Ainsi, le réseau routier, qui apparaît comme un réseau linéique de un à
trois pixels de large sur les images de faible résolution (Landsat, Spot, Formosat…) figure 4.3
(b), apparaît comme un réseau surfacique à haute résolution (Ikonos, QuickBird,…) figure 4.3
(a). Cette variabilité d'apparence induit une variabilité dans les méthodes proposées. Bien que
la plupart des travaux en extraction du réseau routier concernent l'extraction des réseaux
linéiques, la récente augmentation de la résolution spatiale en imagerie satellitaire a fait naître
un intérêt accroissant pour l'extraction précise des routes, mais, cette précision rend le
problème d'extraction beaucoup plus complexe.

Figure 4.3 Exemples de réseaux routiers sur des images à différentes résolutions spatiales et spectrales : (a)
image à haute résolution QuickBird de 0.6 mètre de résolution, (b) bande panchromatique Landsat ETM+ à
14.25 mètre de résolution, (c) image radar ERS.

La nature spectrale des données est également importante lors de la détection des routes sur
les images. Par exemple, le bruit présent dans une image radar diffère fortement de celui
présent dans les images optiques (figure 4.3). De plus, sur certaines bandes spectrales des
capteurs optiques, l'apparence des routes diffère d’une bande à une autre, elles peuvent se
présenter par rapport à leur environnement comme des lignes brillantes ou bien comme des
lignes sombres selon la résolution spectrale de la bande. Sur une image radar les routes sont
sombres (sauf en montagne).

Notre cadre d'étude est le milieu urbain et les images utilisées sont de basse et moyenne
résolution spatiale (image Landsat ETM+ et images aériennes). Ainsi, nous cherchons à
extraire les routes de l'image en tant qu'éléments linéaires. Différents travaux menés dans ce
contexte concernent le milieu rural, péri-urbain ou urbain. Le classement des différentes
techniques d'extraction des routes utilisées est très difficile, étant donné la variété des
propositions existantes dans la littérature. Cependant, nous pouvons les classer en deux
principaux groupes : les méthodes semi-automatiques et les méthodes automatiques.

84
4.3 Méthodes semi-automatiques

4.3.1 Méthodes de suivi et filtrage

Les méthodes de suivi consistent à «suivre» la route en comparant ses caractéristiques avec
un modèle théorique (souvent par corrélation des profils radiométriques de la route le long de
son axe principal). Leur rôle est principalement d'assister en quasi temps-réel l'opérateur
humain lors de la saisie du réseau routier. Les algorithmes de suivi nécessitent des points
d’amorce. Ces amorces peuvent soit être sélectionnés manuellement ou automatiquement. De
cette manière, alors que dans [Sakoda et al, 1993] les points d’amorce sont définies par
l'utilisateur, dans [Zlotnick et Carnine, 1993] un algorithme automatique es t présenté pour
choisir ces points.

[Geman et Jedynak, 1996] proposent une approche originale fondée sur la théorie de
l'information pour le suivi rapide de routes à partir d'un point d'amorce et d'une direction. Des
tests à effectuer sont choisis afin de réduire autant que possible l'incertitude sur l'hypothèse de
« position correcte de la route » selon les résultats des premiers tests. Ce choix est effectué de
façon dynamique selon la distribution jointe des tests et des hypothèses. Le problème
d'optimisation correspond à un problème de minimisation d'entropie. Cette méthode est
performante pour ce qui est du suivi des autoroutes sur de grandes distances.

Considérant les routes comme des surfaces sans discontinuité apparente plutôt que des
lignes, [Airault et Jamet, 1995][Ruskoné, 1996] proposent d'effectuer un suivi reposant sur un
critère d'homogénéité directionnelle. Ce critère est fondé sur une hypothèse de variance
minimale dans la direction longitudinale de la route. A partir d'un point et d'une orientation
d'origine, l'algorithme recherche le chemin optimal parmi un arbre de chemin possible.
Chaque chemin est composé de segments de droite choisis localement suivant le critère
d'homogénéité.

[Couloigner et Ranchin, 2000][Péteri et al, 2001] présentent une méthode semi-


automatique pour extraire les réseaux routiers urbains par hiérarchie de classes de routes.
L'algorithme se focalise sur les réseaux en grille. Il comprend deux étapes. La première étape
est l'extraction des deux bords de la route en utilisant les approximations de l'image à
différentes résolutions spatiales. Le procédé consiste à rechercher les points d'intersection des
profils transversaux de la route sur l'image à la résolution originale et les deux premières
approximations. L'utilisateur doit fournir les points d'initialisation et la classe de la route à
extraire. L'algorithme suit ensuite la route dans une procédure «estimation recalage» utilisant
pour chaque point, supposé appartenir à la route, les profils radiométriques provenant de la
décomposition à différentes résolutions. La deuxième étape permet ensuite d'extraire les
caractéristiques de la route. Ce procédé itératif utilise à cette étape la transformation en
ondelettes pour localisation.

[Tesser et Pavlidis, 2000] propose le RFFES (Road Finder Front End System) : un système
complètement automatisé qui identifie les routes de l'imagerie à haute résolution. Récemment,
dans [Yoon et al, 2002] une méthode semi-automatique d'extraction des routes qui utilise
l'imagerie IKONOS est présenté. En outre récemment, [Baumgartner et al, 2002] et [Zhao et
al, 2002] proposent d’autres prototypes d’extraction semi-automatique des axes routiers.
Enfin, dans [Bonnefon et al, 2002] l’extraction des routes et des objets linéaires est réalisée à
partir d'un ensemble de points d’amorce directionnels et utilisant les valeurs radiométriques
des pixels dans le processus de suivi de la route.

85
Parmi les travaux utilisant des techniques de filtrage, [Chiang et al, 2001] présente une
méthode d'extraction de routes qui se repose sur la détection des contours et l'utilisation du
filtre de Kalman pour génération du contour actif. [Vosselman et De Knech, 1995] proposent
aussi d'utiliser un filtrage récursif de Kalman pour estimer la position de la route à chaque
instant. L'algorithme est initialisé par un segment fourni par un opérateur à partir duquel un
profil caractéristique de la route est défini. La prédiction d'un nouveau segment se fait à partir
des estimations de la direction et la courbure de la route. Une mise en correspondance entre le
profil caractéristique de la route et le profil courant permet d'évaluer la distance entre les deux
profils. La position du nouveau segment est mise à jour selon cette distance. En incorporant
les positions obtenues antérieurement, les autres paramètres tels que la direction et la courbure
de la route peuvent être également mis à jour.

4.3.2 Contours Actifs

Les modèles des contours déformables (contours actifs) se basent sur une approche
analysée dans [Kass et al, 1987]. En effet, c'est une méthode précise et efficace. Les contours
actifs doivent néanmoins être initialisés près de l'objet à détecter. Le contour évolue ensuite
selon un algorithme de minimisation d'énergie qui favorise en général une faible courbure et
un fort gradient au niveau du contour. Cette méthode est largement utilisée pour la détection
et la localisation des frontières afin de faciliter le problème de segmentation d'images, et aussi
pour l'extraction des structures telles que les routes et les bâtiments à partir des images en
niveaux de gris.

Les contours actifs sont utilisés dans [Cohen, 1991] ainsi que [Gruen et Li, 1997] [Li,
1997] où des méthodes semi-automatiques pour l'extraction d'objets linéaires et l'extraction
des routes sont, respectivement, présentées. Plus tard [Zafiropoulos et Schenk, 1998] aborde
le problème d'inclure l'information couleur de l'image, provenant des différents canaux dans le
modèle déformable de type contour pour l'extraction et la localisation des structures routières
de petite largeur. [Mayer et al, 1997,1998] et [Laptev et al, 2000] présentent également
l’application du contour actif pour l'extraction d'objets cartographiques. Le dernier papier
propose une approche pour l'extraction automatique des routes à partir de l'imagerie aérienne
en utilisant les contours actifs avec une stratégie essentiellement basée sur la détection multi-
échelle en combinaison avec une contrainte géométrique d’extraction de contour. On trouve
aussi les contours actifs dans [Chiang et al, 2001] et d'autres modèles d'énergie dans [Ferraro
et al, 1999].

[Fua et Leclerc, 1990] utilisent les contours actifs pour l'extraction des routes et des
bâtiments. Les contours sont modélisés par des rubans définis par des points centraux
successifs et une troisième composante correspondant à la largeur du ruban. Les auteurs
montrent que les courbes optimisées sont de bonnes approximations des contours.

[Neuenschwander et al, 1997] présentent une stratégie d'optimisation originale permettant


à l'utilisateur de ne fournir que les extrémités du contour à détecter. Le contour est divisé en
deux parties : une active et une passive. Au cours de l'optimisation, seule la partie active
prend en compte le potentiel d'attache aux données. La partie active est initialisée au niveau
des extrémités du contour et se propage progressivement vers le centre du contour selon le
fonctionnement d'une fermeture éclair (ziplock, en anglais).

86
4.3.3 Programmation dynamique

De nombreux travaux d'extraction de réseaux linéiques reposent sur une optimisation par
programmation dynamique, technique efficace permettant d'optimiser une fonction de coût
dans un graphe, ce qui revient à la recherche d'un chemin optimal.

Dans [Dal Poz et al, 2000] une méthode semi-automatique pour l’extraction des routes en
utilisant la programmation dynamique est présentée. En effet, un modèle générique de route
est formulé, et résolu séquentiellement par un algorithme de programmation dynamique. Dans
ce travail, quelques points extrémaux décrivant la route doivent être fournis par l'opérateur.
De même, ce travail propose une solution pour le problème d'optimisation, qui consiste à
chercher le plus court chemin entre deux points d'un objet.

[Fischler et al, 1981] utilisent cette technique d'optimisation pour la détection précise des
routes et des structures linéaires dans des scènes rurales. Les auteurs proposent de combiner
l'information locale de plusieurs opérateurs de détection de ligne et de contour afin d'établir
un masque permettant de restreindre la recherche et de fournir plusieurs cartes de coût
définies sur ce masque. L'algorithme de programmation dynamique proposé, appelé F*, est
appliqué à chaque carte fournissant plusieurs chemins optimaux. Le chemin de coût normalisé
minimal est alors sélectionné. Cet algorithme, référence dans le domaine de l'extraction de
réseaux linéiques, donne de très bons résultats sur des images aériennes de faible résolution.

[Merlet et Zerubia, 1996] présentent une amélioration de cet algorithme avec une
modélisation sous-jacente par champs de Markov. L'algorithme permet d'obtenir, par
construction, des lignes minces et continues. Cette méthode est étendue à des cliques d'ordre
supérieur pour tenir compte du contraste route/environnement, et à des voisinages d'ordre
supérieur pour introduire la notion de courbure. De plus, un modèle dynamique permet
d'utiliser cette information de courbure de manière plus globale et naturelle. La méthode est
semi-automatique, où les points de départ de l'algorithme sont définis par l'utilisateur.

[Gruen et Li, 1995] proposent un schéma d'extraction de routes semi-automatique qui


combine une transformée en ondelettes et un algorithme de programmation dynamique. La
transformée en ondelettes adaptée aux caractéristiques radiométriques de la route est
construite de façon à rehausser le contraste des routes par rapport à leur environnement. La
route est modélisée par modèle générique fondé sur des propriétés géométriques et
photométriques et résolu itérativement par programmation dynamique.

4.4 Méthodes automatiques

4.4.1 Méthodes de segmentation et de classification

Ces méthodes utilisent la segmentation et la classification supervisée ou non supervisée


d'une image afin d'extraire le réseau routier. Souvent, le processus de segmentation est basé
sur l'analyse de texture qui peut offrir une image binaire assez propre pour servir comme
entrée d’un processus de vectorisation postérieure. En liaison avec le sujet d'extraction des
routes, [Benjamin et Gaydos, 1990] présente un système de segmentation d'une image
infrarouge utilisant la technique de classification par maximum de vraisemblance. Dans
[Haala et Vosselman, 1992] des méthodes de classification par croissance de région
appliquées sur les bandes spectrales infrarouge et visible sont présentées. Plus récemment,

87
[Faber et Forstner, 1999] propose l'analyse de texture pour la segmentation des zones urbaines
de l'imagerie multi-spectrale à haute résolution. Dans ce travail, la texture est définie par les
trois paramètres : l'énergie, la direction et l'anisotropie [Haralick, 1979]. Dans [Agouris et al,
2001] une technique d'analyse spatiospectral utilisant la classification pour l'extraction des
routes est présentée. La classification non supervisée est aussi appliquée dans [Chen et al,
2002].

[Roggero, 2002] aborde le problème de la segmentation d'objet et de reconnaissance de


forme à partir des données bruitées. Ici, deux différents algorithmes combinant la technique
de croissance de région et l'analyse en composantes principales sont appliqués à des zones
urbaines. Une nouvelle méthode où l'analyse de texture est le facteur principal dans le
processus de segmentation pour l’extraction des routes, peut être trouvée dans [Mena et
Malpica, 2003]. Dans ce papier la segmentation binaire est obtenue en utilisant une nouvelle
technique nommée Analyse Progressive de Texture (TPA) dans le cadre de la théorie
d'évidence de Dempster-Shafer.

[Bhattacharya et Parui, 1997] conçoivent l'extraction de routes sur les images de


télédétection comme un problème de classification, où les pixels doivent être classés en
"route" et " non route", ils proposent d'utiliser un réseau de neurones multicouches. Les
entrées du réseau sont des fenêtres de taille n x n centrées sur chaque pixel p de l'image. Le
réseau calcule par lui-même des valeurs discriminantes dans les noeuds de l'unique couche
cachée à partir des n2 entrées, puis classifie le pixel p à partir des noeuds cachés dans le noeud
de sortie. Ce réseau est entraîné par un algorithme de type rétro-propagation à partir de
quelques échantillons de type "route" et "non route" sélectionnés manuellement par
l’utillisateu, à partir d'une image provenant d'un certain type de capteur. Le réseau entraîné est
ensuite utilisé pour l'extraction de routes dans d'autres images provenant du même capteur.

4.4.2 Morphologique mathématique

La Morphologie mathématique est une approche de la théorie des ensembles développée


par [Matheron, 1975] et [Serra, 1982]. Basée sur un cadre mathématique formel, elle fournit
une approche pour le traitement des images numériques, qui se base sur la forme géométrique.
Elle utilise un ensemble d’opérations telles que l'union, l’intersection et la complémentation,
ainsi que la dilatation, l'érosion, l'amincissement et d'autres opérations dérivées.

Dans [Zhang et al, 1999] une approche sur l’extraction automatique du réseau routier à
partir des images à haute résolution est proposée. Cette méthode classifie premièrement
l'image pour trouver les régions du réseau routier, puis des ouvertures morphologiques
triviales sont utilisées successivement pour filtrer le bruit des objets qui ont des
caractéristiques spectrales semblables à celles des surfaces des routes. Dans [Chanussot et
Lambert, 1998] [Katartzis et al, 2001] la morphologie mathématique est également appliquée.
Le deuxième travail décrit un modèle pour l'extraction automatique des éléments linéaires de
l'imagerie aérienne, combinant et prolongeant deux approches antérieures de détection des
routes en imagerie satellitaire radar (SAR). Dans [Amini et Saradjian, 2000][Amini et al,
2002] la morphologie mathématique au niveaux de gris est utilisée pour l'extraction
automatique des routes.

88
4.4.3 Détecteurs de lignes

Un des opérateurs les plus connus pour la détection de ligne est l'opérateur DUDA,
proposé par [Duda et Hart, 1973]. Il utilise quatre masques à convoluer avec l'image
correspondant à des structures linéaires de trois pixels de long et les pixels voisins associés.
Des scores sont calculés pour chaque masque mesurant conjointement l'homogénéité du
niveau de gris le long de la structure et le contraste avec le voisinage. Le score maximal est
assigné au pixel central du masque. Cet opérateur est sensible à l'orientation de la route, à la
discrétisation, aux changements brutaux d'orientation ainsi qu'au faible contraste par rapport à
l'environnement. De plus, cet opérateur détecte les profils de type contour simple et engendre
donc un nombre significatif de fausses détections. Afin d'éviter la détection des contours
conjointement aux lignes, [Roux, 1992] propose une version modifiée de l'opérateur DUDA
en ne tenant compte que du groupe de voisins le moins contrasté avec l'axe central dans le
calcul du score. Dans [Tupin et al, 1998] les auteurs présentent un algorithme qui réalise une
détection locale de lignes à partir de deux détecteurs de lignes. Les résultats de ces deux
détecteurs sont ensuite fusionnés pour donner un ensemble de segments candidats. Puis, les
segments sont connectés en utilisant une méthode fondée sur l'utilisation d'un modèle de
champ de Markov défini sur les segments.

4.4.4 Champs de Markov sur graphe

Les champs de Markov sur graphe sont un outil puissant pour la détection automatique de
réseau. Le réseau est modélisé dans sa totalité par un graphe où chacun des arcs correspond à
une section du réseau. On entre dans le cadre d'une approche objet par opposition aux
approches par champ de Markov usuelles, dans lesquelles le champ est défini sur une grille de
pixels (Chapitre 2). Tout en bénéficiant des bonnes propriétés des approches par champ de
Markov, comme la robustesse au bruit, cette modélisation permet d'introduire des contraintes
géométriques fortes sur le réseau. L'inconvénient de cette méthode est qu'elle nécessite une
phase d'initialisation exhaustive : un arc non détecté dans la phase d'initialisation ne pourra
pas l'être par la suite.

Dans [Tupin et al, 1998] la détection des structures linéaires initialise un champ de Markov
sur graphe pour la détection des routes en imagerie radar. On remarque que les liens reliant les
structures linéaires détectées sont incorporés dans le graphe ce qui permet de combler
certaines omissions. De plus, la méthode permet d'éliminer de nombreuses fausses détections.

[Géraud, 2003] propose quant à lui une phase d'initialisation fondée sur des prétraitements
morphologiques. Plus exactement, un traitement de bas-niveau fournissant pour chaque pixel
un potentiel d'appartenance à une route est tout d'abord appliqué. Puis, il propose de réaliser
une sur-segmentation de l'image par la méthode de « ligne de partage des eaux » (watershed)
appliquée sur l'image de potentiel (filtrée pour réduire la présence de minima locaux). Un
champ de Markov est ensuite défini sur un graphe d'adjacence de courbes, calculé sur les
lignes de partage des eaux et supposé contenir le réseau routier. L'intérêt de cette initialisation
est qu'elle est fondée sur des primitives de haut niveau (approche région).

4.4.5 Méthodes fondées sur l’analyse multi-échelle (multi-résolution)

L’extraction des routes au moyen d'analyse multi-échelle offre un contrôle sur la largeur
des routes dans l'image. Ainsi, c’est un outil efficace pour la détection de route étroite à partir
des images à haute résolution (grande échelle) et également pour l'identification des

89
autoroutes dans les images de basse résolution (petite échelle). Certains auteurs proposent
d'utiliser les techniques multi-échelles, par exemple en fusionnant le résultat de l'extraction de
l'axe central à basse résolution, moins sensible au bruit géométrique, avec le résultat de
l'extraction des bordures de route à haute résolution fournissant une meilleure localisation du
réseau [Heipke et al, 1995][Baumgartner et al, 1996].

Dans [Heipke et al, 1995] les caractéristiques des différents objets tels que les routes sont
détectés dans différentes échelles. Les auteurs proposent de réaliser une première détection à
basse résolution fondée sur une hypothèse de fort contraste entre les routes et le fond. Puis un
modèle haute résolution fondé sur les hypothèses de contours parallèles et d'homogénéité
interne est appliqué.

Dans les travaux de [Baumgartner et al, 1996, 1999], les auteurs définissent des modèles
de routes afin de contraindre l'extraction sur les régions qui ont le plus de chance de contenir
des routes de manière fiable. Ces modèles prennent en compte le contexte (rural, péri-urbain
ou urbain) et les interactions avec les autres objets (bâtiments, arbres, véhicules). À partir de
l'image de résolution dégradée, les lignes les plus fiables représentant les routes sont extraites
et sont utilisées pour extraire les segments candidats de l'image à haute résolution. À partir de
critères géométriques, radiométriques et du contexte, les segments parallèles extraits sont
ensuite appariés, les segments proches sont alors groupés et les discontinuités sont comblées
de manière à rendre le réseau connexe. Enfin, les intersections sont reconstruites, en utilisant
la technique de Ziplock Snakes [Neuenschwander et al, 1997].

[Laptev et al, 2000] reprennent l'approche multi-échelle des travaux précédents et se


concentrent sur le traitement des occlusions (en utilisant les contours actifs) et des
intersections (en utilisant les Ziplock Snakes). Le procédé se révèle efficace pour combler les
«trous» laissés par l'étape de détection des segments parallèles, ainsi que pour extraire les
intersections avec précision.

4.4.6 Systèmes d'interprétation

Les systèmes d'interprétation (nommés aussi systèmes d'exploitation et de valorisation


d'images) ne cherchent pas directement à extraire les objets d'une image, mais plutôt à
interpréter la scène qu'elle contient. Ils se basent sur le principe de pensée d'un interprète
d'images face à une recherche d'objets particuliers dans une image. Ainsi, l'extraction du
réseau est réalisée via une interprétation de la scène observée.

Dans son algorithme d'extraction du réseau routier, [Ruskoné, 1996] propose un système
reposant sur deux phases : une phase ascendante guidée par les données reposant sur des
critères de bas niveau et une phase descendante de validation reposant sur des modules
successifs de haut niveau guidée par l'objectif. Cette étape de validation passe par une
interprétation locale du contexte qui par la reconnaissance d'un objet donné permet de déduire
la position de la route.

[Zhang, 2004] propose un système de reconstruction 3D du réseau routier à partir d'images


stéréo aériennes, se focalisant sur les aires rurales. Le système incorpore des informations
sémantiques, contextuelles, des règles et des modèles pour restreindre l'espace de recherche et
traite les sous-classes de route de façon spécifique à chacune. Le fait de travailler avec des
images stéréo permet de générer directement les hypothèses de route dans l'espace 3D.

90
[Hinz et Baurngartner, 2003] proposent d'incorporer une connaissance détaillée des routes
et de leur contexte dans un système d'extraction automatique des routes sur des images
aériennes haute résolution. Les modèles utilisés prennent en compte des informations
sémantiques de type marquage au sol ou présence de véhicule. Plusieurs vues de la même
scène permettent l'exploitation des redondances, la prédiction et le traitement des occlusions,
et la description de la scène par objet dans l'espace 3D.

4.4.7 Apport de données cartographiques

L’intégration des données complémentaires a pour but de parvenir à une extraction fiable
des objets d'intérêt. Les informations peuvent être symboliques: une base de données
cartographiques ou une carte topographique de la scène par exemple.

[Pierrot-Deseilligoy et al, 1993] utilise une carte scannée pour reconstruire le graphe du
réseau de routes. Le système utilise l'information portée par le réseau partiellement extrait de
l'image, ainsi que des connaissances a priori sur la topologie du réseau. Une approche
algorithmique de résolution est ensuite choisie. Elle comprend plusieurs étapes, ordonnées
séquentiellement selon le sous-ensemble des règles sur les connaissances a priori qu'elles
traitent.

[Rellier et al, 2002] propose une méthode de mise en correspondance locale des cartes avec
des images SPOT, en utilisant un champ markovien sur un graphe. La carte est utilisée pour
initialiser le graphe. Ensuite, le graphe est modifié en minimisant une fonction d'énergie.
L'énergie comporte des termes d'attache aux données relatifs à la carte et l'image, et un terme
de structure imposant des contraintes topologiques.

[Bordes, 1997] propose un système utilisant des données externes fournies par une base de
données cartographiques pour l'extraction des routes d'images aériennes. La démarche
générale d'interprétation proposée est une démarche descendante. La base de données est
utilisée pour générer des hypothèses de route. L'interprétation de la scène consiste alors à
extraire dans l'image les routes correspondant à différentes hypothèses, c'est-à-dire à trouver
la position exacte de la route dans l'image. Pour chaque hypothèse, l'extraction de route
consiste à choisir l'algorithme le plus adapté et à régler ses paramètres en fonction des
caractéristiques intrinsèques et contextuelles de l'hypothèse de route.

4.5 Conclusion

Au cours de ce chapitre, la grande variabilité des types de réseaux routiers a été présentée.
Plusieurs raisons ont été avancées, notamment les caractéristiques géométriques et
radiométriques des routes, le changement de résolution spatiale et spectrale des capteurs et le
contexte de prise de l’image. Cette grande variabilité a conduit à un grand nombre de
méthodes d’extraction, utilisant un large champ des techniques de reconnaissances de formes
et de traitement d’images. Ainsi, ce chapitre présente un état des travaux récents menés sur
l’extraction des routes. Nous avons décrit principalement deux catégories de méthodes. La
première regroupe les méthodes dites semi-automatiques, pour lesquelles un opérateur humain
ou bien, plus rarement, un algorithme de détection a préalablement marqué des points de
départ et d'arrivée pour les routes. La seconde regroupe les méthodes automatiques, qui
n'utilisent aucune connaissance a priori sur la localisation des routes.

91
La multitude de méthodes proposées pour ce problème dérivant de ces deux catégories
souligne bien la difficulté de l'extraction des routes dans les images de télédétection. Nous
présentons dans le prochain chapitre (Chapitre 5) un exemple de la première catégorie ; une
méthode d’extraction semi-automatique utilisant le contour actif. Ensuite, une nouvelle
approche automatique proposée sera l’objet du chapitre 6.

92
Chapitre 5

Extraction semi-automatique des routes par contour


actif

Sommaire

5.1 Introduction ........................................................................................................................ 94


5.2 Principe du suivi par contour actif ..................................................................................... 94
5.2.1 Modélisation et énergie ............................................................................................... 94
5.2.2 Contrôle de la rigidité et l’élasticité du contour actif.................................................. 96
5.2.3 Évolution temporelle du contour actif......................................................................... 98
5.3 Application du contour actif pour l’extraction des routes.................................................. 99
5.3.1 Paramètres d’initialisation........................................................................................... 99
5.3.2 Résultats expérimentales ........................................................................................... 100
5.4 Conclusion........................................................................................................................ 103

93
5.1 Introduction

Les contours actifs ou “Snakes” ont été introduits par Kass, Witkin et Terzopoulos dans
leur article [Kass et al, 1988]. Ils se présentent comme un modèle pour l’extraction de
caractéristiques visuelles dans une image comme les contours d’objet ou les éléments de
frontières.
L’idée de base est de positionner, au voisinage du contour à détecter, une courbe qui sera
l’initialisation du contour actif. Cette détection n’est pas immédiate, elle requiert une phase
dynamique du contour (d’où la dénomination “actif”) qui évoluera itérativement au cours du
temps artificiel t, de sa position initiale vers les bords de l’objet à extraire. Ce processus de
déformation se fait suivant des critères qui doivent traduire les buts désirés, eux-mêmes
intégrés dans la formulation propre du modèle. Le critère utilisé par Kass et ses collaborateurs
correspond à la minimisation d’une fonctionnelle appelée communément Energie, modélisant
l’énergie d’un phénomène physique qui sera la déformation d’une courbe pour extraire des
points de contour d’un objet dans l’image.
Cette fonctionnelle d’énergie peut être schématisée comme la somme de deux classes de
termes énergétiques. La première classe concerne l’énergie interne du contour visant à
contrôler des contraintes intrinsèques à celui-ci, comme par exemple sa régularité. La
deuxième classe est relative au terme d’attache aux données qui fera interagir le contour actif
avec des caractéristiques extraites de l’image. Le minimum de cette fonctionnelle sera associé
au contour final devant représenter la frontière de l’objet. Le processus est itératif et le
minimum correspond à l’état de la courbe en phase de convergence.
Les domaines d’utilisations sont nombreux tant en 2D qu’en 3D tels que : la
reconnaissance de formes, la simulation, le suivi de scènes, la segmentation d’images. Dans
ce chapitre, nous allons voir tout d’abord le principe des contours actifs en posant quelques
définitions puis nous verrons leur application dans le domaine d’extraction des routes.

5.2 Principe du suivi par contour actif

5.2.1 Modélisation et énergie

Le contour d’un objet est défini comme étant l’ensemble des points de l’image pour
lesquels la norme du gradient de l’image est maximale dans la direction du gradient de
l’image. Contrairement à l’approche consistant à appliquer un masque à l’image pour extraire
les points correspondants aux gradients élevés, et ensuite appliquer à ces points un processus
de chaînage suivant un critère de connexité, de forme ou autre, on va combiner ces deux
étapes en une seule en cherchant une courbe connexe C qui s’appuiera sur des points de
gradients d’image élevés; c’est cette courbe qui va représenter le contour de l’objet auquel on
s’intéresse.
En adoptant une formulation continue, si l’on choisit une représentation paramétrique de la
courbe C du contour actif comme suit :
C = {v(s ) = (x(s ), y(s )); s ∈ [a, b]} (5.1)

94
alors l’énergie que l’on va chercher à minimiser est une fonctionnelle E qui à chaque courbe
C associe un réel E(C). Cette énergie doit faire apparaître d’une part les caractéristiques du
contour et de la courbe, d’autre part celles de l’image ou de points qui nous intéressent dans
l’image et l’interaction entre la courbe et l’image. On peut l’écrire sous la forme suivante :

E (C ) = Einterne (C ) + Eimage (C ) (5.2)

Einterne(C) et Eimage(C) désignent respectivement l’énergie interne de la courbe C et l’énergie


image appelée aussi énergie externe de la courbe C.

Spécifions maintenant chaque terme de cette énergie globale:

L’énergie image (énergie extérieure) traduit les caractéristiques que l’on cherche dans
l’image dont I désigne l’intensité ; si l’on cherche des lignes de faible intensité s’appuyant sur
des points sombres (de faibles niveaux de gris) alors Eimage(C) peut être de la forme :

Eimage (C ) = ∫ I (v(s )) ds
b
(5.3)
a

de sorte que le minimum donne les points de faible intensité.

Dans notre cas, on est intéressé par la détection de contours composés d’éléments de la
frontière, alors un choix de l’énergie image pourrait s’écrire tout naturellement comme :
2
Eimage (C ) = − ∫ ∇I (v(s )) ds
b
(5.4)
a

Le signe moins apparaît car on veut maximiser la norme du gradient de l’image, afin de
procéder à la détection des frontières dont les points possèdent un gradient d’image élevé.

L’énergie interne est un terme régularisant dont l’introduction est due au fait que les
problèmes de détection de contours sont des problèmes mal posés “au sens de Hadamard ”
comme beaucoup de problèmes en vision [Terzopoulos, 1986]. Rappelons qu’un problème est
dit bien posé au sens de Hadamard, si sa solution existe, est unique, et dépend continûment
des données (c’est-à-dire stable), et il est mal posé, s’il faillit à l’une des conditions
précédentes.
Aussi on veut régulariser le problème et limiter le champ d’investigation pour la recherche
de la solution afin de rendre le problème bien posé ou tout du moins essayer de le poser ou de
le formuler correctement. Une autre raison pour introduire ce terme régularisant réside dans le
fait que nous cherchons en général un contour assez régulier réduisant le mieux possible les
oscillations dues aux nombreux sauts d’intensité dans l’image, afin d’avoir une meilleure
visualisation.
Pour ceci, on utilise souvent un opérateur régularisant de type Thikonov [Thikonov et
Arsenine, 1974] dont l’expression est donnée par :
2
p
∂ r v (s )
Einterne (C ) = ∑ ∫a α r (s )
b
ds (5.5)
r =0 ∂s r

95
où p désigne l’ordre du stabilisateur et les fonctions α r , sont des fonctions de pondérations.
Le choix de p est fonction de la régularité imposée à la solution.

Pour notre cas, l’énergie interne du contour actif est celle choisie par Kass, qui s’écrit de la
façon suivante:
2
Einterne (C ) = ∫
bα (s ) ∂v(s )
2
+
β (s ) ∂ 2 v(s )
ds (5.6)
a 2 ∂s 2 ∂s 2

La pondération par les fonctions positives α (s ) et, β (s ) permet de donner plus


d’importance à l’un ou à l’autre des termes suivant la forme de l’objet à détecter, de même
que mettre, β (s ) à 0 permet d’introduire une discontinuité de première espèce ou d’ordre un.
Ceci permet par exemple de générer un coin ou un point anguleux, alors qu’affecter à α (s ) et
β (s ) la valeur 0 permet d’introduire une discontinuité d’ordre zéro (discontinuité dans la
courbe).
En pratique, on prend α et β constantes durant le processus de déformation parce qu’on
ignore localement comment se comporte la courbe, et même si l’on voit que le contour
cherché admet un point anguleux, on ne sait pas où il se situe sur la courbe paramétrée, et
c’est à l’utilisateur de régler convenablement ces paramètres.

5.2.2 Contrôle de la rigidité et l’élasticité du contour actif

On cherche donc une courbe C qui minimise la fonctionnelle d’énergie:

E (C ) = ∫
a
b1
2
(α v′(s ) 2
+ β v ′′(s )
2
)− ∇I (v(s )) 2
ds (5.7)

où α et β ont des valeurs positives ou nulles représentant respectivement les poids


contrôlant la rigidité et l’élasticité de la courbe C (paramètres internes au contour actif).
La dérivée première de la courbe donne bien une idée de sa rigidité. En effet, nous avons
v(s + ∆s ) − v(s )
v ′(s ) = lim . Supposons avoir les deux courbes suivantes :
∆s → 0 ∆s

96
Figure 5.1 Rigidité d’une courbe

Nous avons :
v 2′ (s ) v 2 (s + ∆s ) − v2 (s )
= lim .
v1′ (s ) ∆s →0 v1 (s + ∆s ) − v1 (s )

Or v(s + ∆s ) − v(s ) représente la distance entre le point correspondant à s et celui


correspondant à s + ∆s . Nous voyons que cette distance est plus faible pour la première
v 2′ (s )
courbe (qui est plus rigide) que pour la seconde. Nous avons par conséquent ≥ 1 Plus
v1′ (s )
une courbe sera rigide et plus la norme de la dérivée première sera faible. D’ailleurs, si nous
considérons la somme de la norme de la dérivée première le long de la courbe,
1
soit ∫ v ′(s ) ds , elle est bien entendu plus faible pour la courbe v1 que pour la courbe v2, car
0
nous savons que le chemin le plus court pour relier deux points est la ligne droite, c’est-à-dire,
dans le cas d’une courbe, la rigidité absolue.
Plus la valeur de α sera élevée, et plus le contour actif devra être rigide pour minimiser la
fonction d’énergie. A l’inverse, une valeur de α nulle n’impliquera aucune contrainte de
rigidité.
De même, la dérivée seconde donne une idée de l’élasticité de la courbe. Nous avons
v ′(s + ∆s ) − v ′(s )
v ′′(s ) = lim . Pour une même courbe, mais à deux valeurs de s distinctes,
∆s → 0 ∆s
nous avons donc le rapport suivant :
v ′′(s1) v(s1 + 2∆s ) − 2v(s1 + ∆s ) + v(s1)
= lim
v ′′(s 2) ∆s →0 v(s 2 + 2∆s ) − 2v(s 2 + ∆s ) + v(s 2 )

Considérons la courbe suivante possédant une élasticité qui varie avec la valeur de s :

97
Figure 5.2 Elasticité d’une courbe

Nous constatons que v(s1 + 2∆s ) − 2v(s1 + ∆s ) + v(s1) , à cause de la plus grande
élasticité en s1 qu’en s2, est supérieur à v(s 2 + 2∆s ) − 2v(s 2 + ∆s ) + v(s 2) . Plus une
courbe est élastique en un point, et plus la norme de la dérivée seconde en ce point est élevée.
Plus la valeur de β sera importante, et plus la courbe devra être tendue. Une valeur de β
nulle peut permettre une élasticité infinie.

5.2.3 Évolution temporelle du contour actif

Une courbe qui minimise l’énergie E de l’équation (5.7) satisfait l’équation d’Euler :
α × v ′′(s ) − β × v ′′′′(s ) − ∇P(v(s )) = 0 (5.8)

où P(v(s )) = ∇I (v(s )) .
2

Il s’agit donc de déplacer la courbe jusqu’à ce que cette équation soit vérifiée. Pour cela, il
nous faut tout d’abord savoir comment déplacer cette courbe.
Nous rajoutons la variable de temps t à notre équation du contour actif, représentant sa
position à l’instant t. Nous devons choisir la façon dont nous faisons évoluer la position du
contour actif dans le temps afin d’atteindre la convergence. Quand le contour actif minimise
la fonction d’énergie E, il ne doit plus se déplacer, et donc la dérivée de son équation par
rapport au temps t doit devenir nulle. Or nous avons par l’équation (5.8) une expression qui
doit être également nulle lorsque le contour actif minimise la fonction d’énergie. Il nous reste
alors à imposer que la dérivée du contour actif par rapport au temps soit égale à cette
expression, c’est-à-dire :
vt (s, t ) = α × v ′′(s, t ) − β × v ′′′′(s, t ) − ∇P(v(s, t )) (5.9)
Lorsque nous avons les expressions de tous les termes de l’équation (5.9), nous obtenons
alors l’expression de v(s, t + ∆t ) en fonction de v(s, t ) , c’est-à-dire : comment déplacer le
contour actif par rapport à sa position précédente. Lorsque celui-ci se stabilise, l’énergie E est
minimisée.
La principale difficulté à résoudre est de trouver une bonne énergie extérieure au contour
actif, de façon à converger convenablement vers les contours de la forme recherchée, et
d’avoir un bon équilibre entre énergie intérieure et extérieure ce qui implique de choisir de
bonnes valeurs de α et β .

98
5.3 Application du contour actif pour l’extraction des routes

La partie précédente a présenté le principe de la méthode semi-automatique « contour


actif » pour la détection des objets linéiques ou non. Dans ce paragraphe, son application dans
l’extraction des routes est étudiée.
On propose d’effectuer les tests d’extraction des routes par contour actif sur deux types
d’images :
− de basse résolution : bande panchromatique Landsat ETM+ (figure 5.4 b).
− de moyenne résolution : image aérienne (figure 5.4 a).
Ainsi, partant d’une courbe initiale positionnée au voisinage du minimum local à
déterminer, ce qui en pratique revient à placer le contour initial assez proche de la route dont
on cherche à extraire, on laisse évoluer la courbe jusqu’à ce qu’elle coïncide avec la route.

5.3.1 Paramètres d’initialisation

L’énergie extérieure utilisée est l’inverse de l’image de détection calculée pour notre
méthode. Le nombre de pôles, la valeur de poids contrôlant l’élasticité β ainsi celle
contrôlant la rigidité α du contour actif sont données par l’utilisateur.
Le résultat du suivi dépend également de la valeur de ∆t choisie, un ∆t trop grand peut
provoquer de ne pas correctement suivre le début d’un virage, et un ∆t trop petit risque
d’interrompre le suivi à cause d’une occultation, ou au pire de revenir sur ses pas, comme le
montre le figure 5.3.

Figure 5 3 Importance de la valeur de ∆t

En fonction de la position du point de départ, une petite occultation pourra avoir une
incidence sur l’interruption du suivi. En effet, la valeur de ∆t équivaut à la distance
d’intervalle entre deux mesures choisies. Donc un nombre de pôles faible risque de donner de
mauvais résultats (par exemple une convergence vers un élément linéique voisin), un nombre
trop grand augmente la possibilité de bon résultat, mais avec un temps d’exécution pouvant
être très long. La valeur de α ne doit pas être trop grande (les virages ne seront pas bien
traités), ni trop faible (risque de converger vers un élément voisin plus important).

99
5.3.2 Résultats expérimentales

Figure 5.4 extrait de zone urbaine de la ville d’Agadir : (a) image aérienne, (b) bande panchromatique ETM+
Apres des tests des deux paramètres de rigidité et d’élasticité, nous avons retenu les valeurs
suivantes α = 0.1 et β = 0.5 .
Les figures 5.5 et 5.6 illustrent le résultat du suivi utilisant un snake sur trois segments de
routes de l’image aérienne. Le nombre de points de départ sélectionnés dans la deuxième
figure est à peu près le double de celui de la première.
On remarque que plus le nombre des points de départ (pôles) est important plus le contour
actif converge vers les pixels correspondants au profil route recherché, on remarque
également que le contour actif dérive des points anguleux des routes (croisement de routes) en
générant ainsi des faux virages.

100
Figure 5.5 Contour actif avec 10 pôles sur image aérienne : (a) initialisation des pôles, (b) résultat du suivi

Figure 5.6 Contour actif avec 18 pôles sur image aérienne : (a) initialisation des pôles, (b) résultat du suivi

101
Figure 5.7 (a) Image panchromatique d’Agadir, (b) 20 pôles choisis par l’utilisateur (c, d et e) itérations du
suivi par snake, (f) résultat du suivi : extrait de route

La figure 5.7 montre le résultat de l’extraction d’un axe routier principal à partir d’une
image panchromatique du satellite Landsat ETM+, on remarque que la courbe du contour
actif converge parfaitement vers la route à extraire.
Le tableau 5.1 présente une évaluation de la méthode d’extraction par contour actif à
travers les critères de qualité, complétude et exactitude [Wiedemann et al, 1998] obtenus pour
chaque expérience. La description de ces critères, ainsi que le principe de l’évaluation est
détaillé dans le chapitre 6.

102
Table 5.1 Evaluation de l’extraction des routes par contour actif

Complétude Exactitude
Qualité en %
en % en %
Image 10 pôles d’initialisation 46.73 50.83 31.76
aérienne 18 pôles d’initialisation 79.08 82.86 67.44
Image Landsat 96.05 94.71 91.33

5.4 Conclusion

Dans ce chapitre nous avons abordé de manière plus précise la technique de contour actif,
puis nous avons présenté son implémentation dans le cadre d’extraction des routes à partir des
images de télédétection.
Cette méthode montre des limites dans des environnements complexes surtout pour
l’image de faible résolution. En effet, seules les autoroutes ou bien les grands axes routiers
peuvent être identifiés par cette méthode, due à leur radiométrie plus sombre par rapport celle
des autres éléments, également en raison de leurs courbures continues à l’inverse des routes
secondaires. Celles-ci rendent l’étape de l’initialisation du contour actif ardu, surtout dans les
zones urbaines denses, car l’utilisateur rencontre des difficultés à positionner les points de
départ, aux alentours de la route à extraire, à cause du rapprochement et du chevauchement
des routes. Ceci implique la nécessité d’automatiser l’extraction.
Partant de ces remarques, le prochain chapitre propose une nouvelle méthodologie
complètement automatique pour l’extraction des routes. L’idée centrale est de combiner le
résultat d’un filtrage directionnel adaptatif avec le résultat d’une segmentation contrôlée afin
de faciliter l’extraction et de s’affranchir des difficultés du milieu urbain.

103
Chapitre 6

Une nouvelle méthode d’extraction automatique des


routes

Sommaire

6.1 Introduction ...................................................................................................................... 105


6.2 Vue globale de la méthodologie d’extraction .................................................................. 105
6.2.1 Schéma général ......................................................................................................... 105
6.2.2 Prétraitement ............................................................................................................. 106
6.3 Description des blocs de la méthodologie........................................................................ 107
6.3.1 Bloc de filtrage directionnel adaptatif....................................................................... 107
6.3.2 Bloc de segmentation ................................................................................................ 110
6.3.2.1 Filtrage Shen-Castan .......................................................................................... 110
6.3.2.2 Segmentation par Ligne de Partage des Eaux (LPE : watersheds) .................... 111
6.3.3 Intégration et liaison.................................................................................................. 113
6.3.3.1 Intégration des résultats des blocs de filtrage et de segmentation...................... 113
6.3.3.2 Liaison des segments routes.............................................................................. 113
6.4 Résultats et évaluations .................................................................................................... 114
6.4.1 Critère d’évaluation................................................................................................... 114
6.4.2 Evaluation des résultats............................................................................................. 115
6.5 Conclusion........................................................................................................................ 117

104
6.1 Introduction

Comme nous l’avons mentionné précédemment (Chapitre 4), l’extraction des routes d’une
façon automatique à partir de scènes urbaines ou péri-urbaines des images satellitaires et
aériennes est une tâche délicate. Ces types de scènes sont composés de routes globalement
rectilignes et proches, aux courbures locales faibles et de largeurs variables en fonction du
nombre de voies les composant. Le contexte aussi rend l’extraction complexe lorsque les
scènes s’urbanisent. Ces contraintes conduisent à une variété de méthodes automatiques
d’extraction proposées.
Le principe classique d’une méthode d'extraction automatique des routes est généralement
constitué de trois étapes principales : la recherche de la route (road finding en anglais), le
suivi et de la route (road tracking) et la jointure ou bien la liaison de la route (road linking).
Dans la première étape, les propriétés locales de l'image sont testées et les routes candidates
sont trouvées en utilisant certains critères. Les routes détectées sont ensuite suivies dans la
deuxième étape pour former des segments de routes. Les segments séparés de routes sont
finalement liés en utilisant des contraintes géométriques afin de générer un réseau routier.
Dans ce chapitre nous présentons une nouvelle méthodologie d’extraction automatique de
routes. D’un point de vue opérationnel, nous voulons un algorithme le plus automatique
possible et travaillons sans apport de données extrinsèques pour aider l’extraction. Ainsi
l’intervention d’un opérateur extérieur pour contrôler, corriger ou initialiser l’extraction, est
réduite, et la plupart des informations nécessaires au processus d’extraction sont extraites
directement de l’image. Au cours des sections de ce chapitre nous allons décrire en détails les
différentes étapes de la méthodologie proposée et à la fin nous évaluons ces performances en
utilisant des données de référence.

6.2 Vue globale de la méthodologie d’extraction

6.2.1 Schéma général

En raison de la nature complexe d'extraction des routes en milieu urbain, Le schéma


général de la méthode développée comprend trois blocs. Le premier bloc est consacré à un
filtrage adaptatif directionnel, le deuxième est lié à un processus de segmentation et dans le
troisième bloc, les résultats des deux blocs parallèles sont combinés et complétés pour générer
l’image des routes extraites.
Les sections qui vont suivre s’articulent autour de ces trois blocs. L’originalité de notre
approche concerne non seulement la manière dont l’algorithme de filtrage directionnel détecte
les directions dominantes mais aussi la manière dont on sélectionne les segments de routes à
partir du processus de segmentation LPE (voir 6.3.2.2), afin de rendre le système autonome
d’un opérateur extérieur.
Avant de commencer ces procédures, une étape de prétraitement est nécessaire pour
améliorer la qualité de l'image et masquer des pixels spécifiques de l’image. Le schéma
général décrivant les étapes de notre système est présenté dans la figure 6.1.

105
Figure 6.1 schéma général du système d’extraction

6.2.2 Prétraitement

Le prétraitement regroupe les processus de ré-échantillonnage, la sélection de la zone


d'intérêt et le masquage des zones de végétation et d’eau. Il est conçu pour améliorer la
résolution de l'image et pour masquer la zone urbaine.
Dans cette étude, l'image satellitaire utilisée est une multi bande Landsat ETM +. L'image
a une résolution de 28,50 m pour les bandes multi spectrales MS 1, 2, 3, 4, 5 et 7, et une

106
résolution de 14,25 m de la bande panchromatique PAN. Cette dernière est utilisée pour
rééchantillonner les six bandes MS en utilisant une normalisation de couleur [Vrabel, 2000]
avec la méthode de ré-échantillonnage « plus proche voisin » mise en œuvre dans ENVI 3.5,
ce qui va générer six bandes multi spectral (PS-MS) avec une résolution spatiale de 14,25 m.
Par la suite, nous avons sélectionné le rectangle qui entoure la ville.
Il est utile d’exclure la végétation et l'eau (mer et rivière) dans l’image PS-MS et de ne
masquer que les zones urbaines afin de réduire le temps de calcul et d’éviter toute confusion.
Ainsi, l’indice de végétation normalisé (NDVI) [Townshend et Justice, 1986] défini par
l'équation (6.1) est utilisé. C’est un indicateur sensible pour l'étude régionale et globale des
changements de couverture des sols
(TM4 - TM3)
NDVI = (6.1)
(TM4 + TM3)

où TM4 est la valeur de réflectance du canal proche infrarouge et TM3 est la valeur de
réflectance du canal rouge. La végétation a une forte réflectance dans le canal TM4 et une
faible réflectance dans le canal TM3. Par conséquent, l’équation NDVI donne des valeurs
dans l’intervalle de -1,0 à 1,0, où les valeurs positives croissantes indiquent de plus en plus de
végétation verte et les valeurs négatives indiquent les surfaces non végétales. Après les essais
avec différents seuils. Les zones de végétation avec un NDVI inférieur à 0,2 ont été
masquées.
De même, pour écarter les surfaces d’eau, nous avons calculé une bande qui est l'opposé de
l'indice connu par son nom en anglais « redness index » et qui est défini par :

(TM2 - TM3)
(6.2)
(TM2 + TM3)

D’habitude, les masses d'eau ont une forte réflectance dans le canal TM2 et une faible
réflectance dans le canal TM3, donc, après test de différents seuils, les zones avec des valeurs
supérieures à 0,15 ne seront pas masquées.

6.3 Description des blocs de la méthodologie

6.3.1 Bloc de filtrage directionnel adaptatif

L'objectif de cette étape est d'effectuer un filtrage directionnel afin de délimiter les
contours de la route et de faciliter l'extraction. Cette tâche peut être faite par filtrage de
l’image PS-MS, à la fois horizontalement et verticalement. Le problème qui se pose est que
les routes dans une image sont orientées généralement dans différentes directions.
L'innovation dans la présente mise en œuvre consiste dans une procédure automatique
permettant d'adapter pour chaque bande, la direction de filtrage à la direction prédominante
des routes ou bien aux directions dominantes, s’il y en a plus. Cette méthode est
principalement basée sur des filtres de convolution linéaire directionnelle avec le noyau :
⎛ − (cos θ + sin θ ) - sin θ (cos θ − sin θ )⎞
⎜ ⎟
⎜ - cos θ 0 cos θ ⎟ (6.3)
⎜ − (cos θ − sin θ ) sin θ (cos θ + sin θ )⎟⎠

107
où θ est l'angle d'orientation. Cependant, dans notre étude, le réseau routier n'est pas assez
compliqué, il n'est donc pas nécessaire de connaître la direction de la route avec une grande
précision. Donc, on ne considère que les huit directions présentées dans la figure 6.2 avec un
pas de 22,5 °:

Figure 6.2 Les 8 directions de filtrage considérées

La procédure traite chaque direction θ, où un filtrage directionnel par bloc sur tous les
canaux spectraux est appliqué. Puis les images filtrées sont binarisées automatiquement
(Annexe C). Le choix du seuil de binarisation de chaque image bande repose sur une méthode
utilisant l’histogramme des niveaux de gris. Cette méthode commence par un lissage de
l'histogramme de l'image, puisque ce dernier ne se prête pas à une recherche directe des
minimums locaux (car il n'est pas lisse). Par la suite les minimums locaux sont détectés, et
tous les seuils sont distingués {S1 , S 2 ,..., S n } .
Dans le cas de l’extraction des routes, vu la nuance de gris des routes, on s’intéresse donc
aux régions foncées (proche du noire), on leur attribue la plage des niveaux de gris comprise
entre [0...S 2 ] où S2 est le deuxième seuil trouvé automatiquement. Ainsi, il suffit de prendre
le seuil S2 comme seuil de binarisation.
Afin de favoriser la reconstruction des éléments linéaires des images binarisées, nous
faisons recours à la morphologie mathématique, nous appliquons une opération d’ouverture
directionnelle avec l’élément structurant « ligne » pour renforcer la détection linéaire, dont la
taille est de cinq pixels et la direction est en harmonie avec la direction du filtrage précédent.
Par la suite, nous appliquons le critère de détermination de la où les directions dominantes
que nous avons mis en œuvre, ce critère est basé sur le calcul d’un facteur qu’on a nommé
«Facteur de Détection de Direction» FDD. Ce paramètre donne le pourcentage par rapport à
l’image des pixels qui sont arrangés d’une façon linéaire.
Les images retenues sont celles qui ont un FDD supérieur à la moyenne des FDDs de
toutes les directions, la figure 6.4 et le tableau 6.1 montrent les résultats du calcul de ce
facteur pour les deux scènes de la figure 6.2. Les images retenues seront fusionnées avec
l’opérateur logique ET pour avoir une image binaire de la bande concernée. De même, une
opération de fusion avec un ET logique est appliquée sur l’ensemble des six bandes de
l’image PS-MS pour avoir une image binaire du résultat final, qui sera utilisée dans la suite de
notre approche, la figure 6.3 illustre les étapes de ce filtrage directionnel.

108
Figure 6.3 Etapes du filtrage directionnel appliqué à une seule bande (pour le cas (b) de la fig. 6.2): (a) filtrage
directionnel; (b) binarisation automatique; (c) directions dominantes; (d) résultat de la fusion.

Table 6.1 Calcul du Facteur de Détection de Direction (FDD) pour le cas (b) de la fig. 6.2

Moyenne
Angle 0° 22,5° 45° 67,5° 90° 112,5° 135° 157,5°
des FDDs
Bande 1 0,0429 0,2286 1,2857 0,2571 0 0,0143 0,2857 0 0,2643
Bande 2 0 0,2 1,3143 0,4286 0 0,1143 0,7143 0,1 0,3589
Bande 3 0 0,2 1,4143 0,4 0 0,0429 0,3571 0 0,3018
Bande 4 0 0,2714 1,5857 0,3286 0 0,0857 0,2143 0,0714 0,3196
Bande 5 0,0429 0,2857 1,3286 0,4429 0 0 0,5429 0,1143 0,3446
Bande 6 0 0,2429 1,5 0,4429 0 0,0429 0,6714 0,0714 0,3714

109
Figure 6.4 Variation du FDD pour toutes les bandes des deux scénarios

6.3.2 Bloc de segmentation

6.3.2.1 Filtrage Shen-Castan

Pour cette partie du processus de segmentation, on calcule l’image module gradient par
l’opérateur Shen-Castan [Shen et Castan, 1992]. Cet opérateur consiste à calculer la
différence entre les moyennes calculées de chaque côté du pixel central, en introduisant une
pondération exponentielle négative au niveau des moyennes de support infinie. Il permet
d’obtenir de très bons résultats selon le critère de bonne détection et localisation de contours.
L’équation de ce filtre est la suivante :
−α x
h( x ) = c e (6.4)

c est choisi de façon à normaliser le filtre :


1 − e −α
c= (6.5)
1 + e −α

Le paramètre α détermine la largeur du filtre, plus α est petit plus le lissage est important
(perte de localisation). Le filtre de dérivation s’écrit :

110
⎧⎪ d e −α x si x ≥ 0,
h ′( x ) = ⎨ (6.6)
⎪⎩− d e −α x sinon

avec d choisi de même façon à normaliser le filtre :

d = 1 − e −α (6.7)

Le programme implémenté calcule le module des composants horizontal et vertical.


Puisque l’image est multi-canaux, les contributions des différents canaux sont moyennées. De
plus, une normalisation automatique par le facteur d, tel que 0,1% des pixels soient tronqués,
est effectuée.

6.3.2.2 Segmentation par Ligne de Partage des Eaux (LPE : watersheds)

Cette segmentation se réalise par l’algorithme de ligne de partage des eaux [Beucher et
Lantuejoul, 1979] [Vincent et Soille, 1991] avec simple seuillage. Cette méthode issue de la
morphologie mathématique, est systématique et efficace pour fournir directement des
contours squelettisés et fermés à partir d’une image de puissance de contour (image de
gradient issue du filtrage Shen-Castan). La méthode est décrite dans (Annexe B).
Le programme implémenté permet au maximum 256 niveaux d’immersion, soit 256 seuils
de segmentations possibles (0-255). Mais, dans notre étude d’extraction des routes, on prend
en considération uniquement les 30 premiers seuils. La figure 6.5 présente des exemples de
carte de segmentation à différents seuils.

Figure 6.5 Segmentation LPE à différents seuils : (b) 2 ; (c) 12 ; (d) 22.

Apres un test de plusieurs seuils, nous avons retenu un seuil qui nous a permis d’avoir une
meilleure fragmentation de l’image en de petits segments. Ce seuil dépend généralement du

111
type d’image, pour le cas d’image Landsat ETM+ utilisée dans cette étude, il est choisi égal à
6. À partir de la carte de segmentation on extrait des segments fermés représentant des
sections de routes selon la méthodologie suivante proposée :
Premièrement, on labellise tout l’ensemble des segments fermés. Par la suite, on calcul
pour chaque segment la surface et le périmètre externe. Etant donné la morphologie des
routes, on peut dire qu’ils font partie d’une classe avec des rapports de surface/périmètre très
proches. Pour cette raison, on calcule ce rapport pour tous les segments, puis, on applique un
seuillage sur ce rapport.
La figure 6.6 illustre d’une façon simple ce principe. On a trois segments réguliers qui ont
la même surface S =12, avec des périmètres différents. On distingue bien, que le segment (a)
qui a une forme linéaire semblable à celle de la route, a le plus grand rapport surface sur
périmètre.

Figure 6.6 Exemple de comparaison du rapport surface sur périmètre

Figure 6.7 Différents seuils du rapport surface sur périmètre: (a) image des labels ; (b) <0,5; (c) <0,65; (d) <0,8;
(e) <1,3; (f) >1,3.

Dans la procédure implantée on a testé différentes valeurs du rapport surface sur périmètre.
On a remarqué que plus le seuil est grand plus l’extraction des segments routes dérive de

112
notre objectif, comme le montre la figure 6.7. De ce constat, on a choisi le seuil qui donne un
résultat d’extraction assez satisfaisant, qui est de l’ordre de 0,5.
L’image retenue de cette étape de segmentation sera utilisée avec celle retenue de l’étape
du filtrage directionnel adaptatif dans le prochain bloc du système pour une amélioration de
l’extraction.

6.3.3 Intégration et liaison

6.3.3.1 Intégration des résultats des blocs de filtrage et de segmentation

Le principal objectif de cette étape est de supprimer les fausses détections. Pour cette
raison, on utilise l’image résultat de la segmentation comme carte de décision pour garder ou
non les pixels « routes » candidats de l’image issue du filtrage directionnel. Cela s’opère à
travers un test d’inclusion partielle ou non du résultat du premier bloc dans les segments du
deuxième bloc. Pratiquement, on parcours l’image du filtrage directionnel (figure 6.8 a) pixel
par pixel, pour chaque pixel considéré comme objet. On vérifie dans son voisinage de 3x3
dans l’image de segmentation (figure 6.8 b) si on a présence d’au moins un pixel d’un
segment route. Il s’agit d’une intersection par voisinage. Cette phase nous a permis d’enlever
assez de pixels (les fausses détections). C’est ce résultat qui va améliorer notre extraction.

Figure 6.8 Combinaison des résultats des blocs filtrage et segmentation.

6.3.3.2 Liaison des segments routes

Il s’agit d’une opération de post traitement. Après identification des segments de routes de
l’étape précédente, il reste à les connecter afin d’obtenir des tracés continus propres aux
routes, puisque certaines routes peuvent être réparties en plusieurs segments.

113
Pour la perception humaine, elle se caractérise par sa capacité à grouper aisément les
éléments d’une image basée sur les diverses relations existantes entre ces éléments, tels que :
la similitude, la proximité, le colinéarité, le parallélisme, et la connectivité [Mohan et Nevatia,
1992]. Ici, une opération de groupement perceptuelle basée sur la proximité et la colinéarité
est appliquée sur les segments originaux afin de grouper les segments déconnectés. Ce
groupement perceptuel des fragments routes est réalisé en utilisant les deux règles suivantes :
1. Si les extrémités de deux segments sont considérablement proches, c’est-à-dire, qu’ils
sont séparés par une petite distance inférieure à une distance minimale fixée par
l’utilisateur, ces segments seront connectés.

2. Si les extrémités de deux segments sont séparés par une distance moyenne, sachant
que ces segments sont dans le même axe, et qu’un autre segment proche d’eux est
aussi dans le même axe, alors, ces segments seront connectés.

6.4 Résultats et évaluations

6.4.1 Critère d’évaluation

Les résultats de l’extraction automatique sont comparés avec les données tracées
manuellement (données de référence) suivant la méthode développée par Wiedemann et al
[Wiedemann et al, 1998]. Les mesures adoptées pour évaluer la qualité de l'extraction sont
définies comme suit:
− La Complétude (Completeness en anglais) calcule le pourcentage du réseau de
référence contenu dans un intervalle de tolérance autour du réseau extrait. Le calcul de
ce critère est illustré sur la figure 6.9 (a) et, est donné par la formule suivante :

longueur de réseau référence en accord avec l' extraction


Complétude = (6.8)
longueur du réseau de référence

− L’Exactitude (Correctness en anglais) calcule le pourcentage du réseau extrait contenu


dans un intervalle de tolérance autour du réseau de référence. Le calcul de ce critère est
illustré sur la figure 6.9 (b) et est donné par la formule suivante :

longueur de réseau extrait en accord avec la référence


Exactitude = (6.9)
longueur du réseau extrait

− La Qualité est une mesure générale qui combine les deux précédentes mesures dans
une seule quantité. La valeur maximale est 1 et ce critère est donné par la formule :

Complétude × Exactitude
Qualité = (6.10)
Complétude − Complétude × Exactitude + Exactitude

Le processus d'évaluation mis au point dans notre étude a une zone de tolérance d'une
largeur de trois pixels pour les deux types de données : les références et des routes extraites.

114
Figure 6.9 Les mesures d’évaluation de la qualité de l’extraction

6.4.2 Evaluation des résultats

Notre approche d'extraction de routes est testée sur l’image PS-MS Landsat ETM + de la
ville d'Agadir (Maroc). Une image aérienne est également utilisée pour évaluer la
méthodologie sur la très haute résolution. Quatre sites représentatifs d'une superficie d'environ
1 km2 ont été sélectionnés. Deux sites tests ont été choisis à partir de chaque type d’image.
Pour l’image Landsat, le premier site présente une zone péri-urbaine moins difficile dans
l’extraction des routes que la seconde, qui présente une scène urbaine. Alors que les deux
scènes de d'image aérienne présentent des zones urbaines qui comprennent des situations
complexes.
Les résultats de l'évaluation du système d'extraction des routes sont résumés dans le
tableau 6.2 pour les deux sites de l’image Landsat et dans le tableau 6.3 pour les sites de
l'image aérienne. Les résultats de l’extraction sont présentés dans les figures 6.10 et 6.11.

Figure 6.10 Résultats de l’extraction de l’image Landsat : (a,d) images originales ; (b,e) données référence ; (c,f)
routes extraites

115
Figure 6.11 Résultats de l’extraction de l’image aérienne : (a,b) images originales ; (c,d) données référence ;
(e,f) routes extraites

Table 6.2 Evaluation des résultats de l’image Landsat

Complétude Exactitude Qualité


Site 1 0.81 0.67 0.58
Site 2 0.89 0.69 0.64

Table 6.3 Evaluation des résultats de l’image aérienne

Complétude Exactitude Qualité


Site 1 0.85 0.59 0.53
Site 2 0.83 0.61 0.54

116
6.5 Conclusion

Nous avons présenté, dans ce chapitre, un système automatique d'extraction des routes basé
sur un filtrage directionnel adaptatif et une segmentation LPE appliquée à une image gradient
issue du filtrage Shen-Castan.
L'intérêt du processus de filtrage directionnel adaptatif est de favoriser le filtrage selon la
direction ou bien les directions dominantes, cela à travers le calcul d'un facteur de détection
de direction (FDD) pour huit directions choisies. Les résultats sont ensuite fusionnés pour
générer une image qui va être utilisée plus tard dans le système.
Dans le bloc de segmentation, deux seuils sont nécessaires, le premier pour la
segmentation, qui est basée sur un algorithme LPE, et le second pour le choix d'un ratio de
surface sur périmètre qui permet de distinguer parmi tous les segments de l'image ceux qui
représentent probablement des routes. Ce processus crée une carte de décision permettant de
corriger les erreurs de l’étape du filtrage directionnel. Finalement, une méthode permettant de
relier des segments de routes est appliquée.
Nous avons testé le système sur des données Landsat ETM + et sur une image aérienne.
Ainsi, les résultats de l'évaluation montrent une bonne extraction pour le premier type de
données et une extraction satisfaisante pour le second type due aux perturbations des
constructions et de certains toits et aux ombres linéaires.
Plusieurs méthodes automatiques ont été proposées dans la littérature, mais il est pour
l'instant difficile d'obtenir des résultats très satisfaisants dans tous les cas. Néanmoins, notre
système constitue une proposition efficace pour une application sur des images satellite à
faible et moyenne résolution. Ce système peut être amélioré pour une meilleure extraction par
intégration d'autres couches.

117
118
Conclusion

Nous avons axé cette thèse sur deux problèmes principaux : la classification et l’extraction
du réseau routier à partir des images satellitaires et aériennes. Nous avons proposé deux
méthodes originales pour traiter ces deux points. La première pour la cartographie de
l’occupation du sol dans un cadre de classification contextuelle, et la deuxième, pour
l'extraction automatique du réseau routier. Dans cette conclusion, nous présentons une
synthèse des travaux effectués, puis les contributions apportées et enfin, nous terminerons par
des perspectives.

Synthèse

Classification contextuelle

Nous avons commencé par une présentation synthétique des méthodes de classification
non contextuelle, communément utilisés dans les logiciels de traitement des images de
télédétection. A travers cette synthèse, nous avons mis en relief l’intérêt d’introduire de
l’information contextuelle, et spécialement lorsqu’il s’agit de classification pour la
cartographie thématique. De ce constat, nous avons proposé l’utilisation du formalisme
Markovien qui prend en compte les interactions locales pour définir les différentes régions de
l'image. De plus, c’est un cadre méthodologique approprié pour introduire de manière souple,
les contraintes du contexte spatial grâce à leur modélisation par des fonctions potentielles.

La méthode de classification non supervisée que nous avons développée, est markovienne
avec recherche de la solution optimale par l’algorithme d’ICM (Iterated Conditional Mode).
Cette méthode est paramétrée par un facteur de température, ce paramètre a permis,
premièrement, de régler la tolérance des configurations désavantageuses dans le processus
d’évolution de la classification, et deuxièmement, d’assurer la convergence de l’algorithme en
un temps de calcul raisonnable.

Les résultats obtenus sur les images tests ont permis de juger cette méthode par rapport à la
régularisation. Les résultats des classifications non contextuelles se trouvent nettement
améliorés en terme de précision globale avec l’utilisation du contexte spatial. Puis, nous avons
pu montrer, grâce à l’introduction d’une nouvelle contrainte de segmentation, que les résultats
de la classification sont encore améliorés.

Les classifications présentées constituent : un moyen fiable pour une utilisation pratique
généralisée, un moyen efficace pour une évaluation quantitative précise des thématiques
étudiées, notamment l’arganier, arbre endémique et emblématique du Maroc. L'arganier est
menacé de disparition, car les signaux d'alarme se multiplient ces derniers temps : il subit
diverses agressions sous l'effet conjugué de l'accroissement de la population (surtout autour
d'Agadir), de l'apparition des cultures intensives (notamment le maraîchage sous serres). À
l’heure actuelle il n’y a pas de carte précise sur ces plantations. Cependant, la carte issue de
notre étude présente un premier aperçu précis sur l’arganeraie et le maraîchage sous serre.

119
Extraction automatique des routes

Nous avons ensuite abordé le second axe de cette thèse, à savoir, l’extraction du réseau
routier à partir des images satellitaires et aériennes. Apres une synthèse des différentes
approches existantes, qui se regroupent en deux catégories : semi-automatique et automatique.
Nous avons proposé en premier lieu, une modélisation du réseau par contour actif, ce modèle
semi-automatique a montré les limites de la première catégorie des méthodes d’extraction.

Par la suite, nous avons présenté une méthodologie automatique. Nous avons exploité les
caractéristiques géométriques des routes ainsi que les propriétés radiométriques des images à
travers un système de blocs opérants séparément et automatiquement sans intervention
d’opérateur extérieur. Les deux principaux blocs de ce système sont :

− Le bloc de filtrage directionnel adaptatif, qui permet de détecter les routes dans
chaque fenêtre de l’image selon leurs directions dominantes.
− Le bloc de segmentation, qui opère une segmentation LPE (ligne de partage des
eaux) sur une image gradient, puis il sélectionne les segments représentant des
routes selon un critère de forme développé.

Ces deux blocs apportent ainsi un type d’informations différent sur la scène étudiée. Ces
résultats sont confrontés puis complétés par un troisième bloc afin de générer une image du
réseau routier.

Les performances de la méthodologie sont vérifiées à travers des exemples sur les deux
types d’images de l’étude. Dans leur ensemble, les résultats expérimentaux sont
encourageants. En effet, le réseau obtenu est proche des données de référence, et présente peu
de fausses détections et d'omissions, étant donné le caractère complètement automatique de la
méthode.

Apports

Les contributions de ce travail de thèse concernent les deux parties : la classification et


l’extraction des routes. La première originalité relative à la classification se présente dans
l’introduction d’une nouvelle contrainte contextuelle de segmentation dans l’algorithme
d’optimisation itératif ICM (mentionné précédemment). Cette contrainte va permettre au fil
des itérations d’affiner la classification en accentuant les détails détectés par les contours de
segmentation. La sélection de la carte fiable de segmentation se base sur une méthode
originale, dont le principe est inspiré des méthodes d’évaluation d’extraction de routes.

La deuxième contribution liée à la classification, est l’introduction d’un nouveau paramètre


de température comme dans l’algorithme du recuit simulé, assurant la convergence vers une
solution optimale tout en contrôlant l’information contextuelle.

Les autres contributions sont relatives à l’extraction automatique des routes. En premier
lieu, pour l’opération du filtrage directionnel adaptatif, à partir du calcul d’un facteur qui a été
mis en œuvre, nommé « Facteur de Détection de Direction » FDD, on peut connaître la
direction prédominante des routes, ou bien les directions dominantes s’il y a plusieurs
directions, alors que les filtres directionnels opèrent selon une seule direction.

120
En deuxième lieu, l’originalité est dans le mode opératoire de sélection des segments de
routes candidates de la carte de segmentation, et de l’utilisation des images résultantes du
filtrage directionnel adaptatif pour la suppression des fausses détections.

Perspectives

Les perspectives que nous envisageons dans le prolongement de ces travaux de thèse
s'articulent autour des deux axes de cette recherche : dans le domaine de la classification
contextuelle par processus Markovien, et dans l’amélioration de la méthode d’extraction
automatique des routes. Ainsi, nous pouvons énumérer quelques voies possibles :

En ce qui concerne l’axe de classification par processus Markovien :

Nous pensons automatiser le contrôle de la régularisation de la méthode de classification


développée à travers l’ajout d’une procédure permettant d’atténuer l’apport du contexte
spatial et également de l’adapter automatiquement à chaque type d’image satellitaire en tenant
compte de leur résolution spatiale.

Nous envisageons la réflexion sur une approche contextuelle Markovienne non supervisée
pour l’étude de l’évolution, c'est-à-dire l’étude des changements entre deux images à des
années différentes qui s’affranchirait des vérités terrain de la première image. Nous disposons
de deux images Landsat (1988 et 2002), de la région d’Agadir, ce qui permettra d’étudier
l’évolution des arganiers et des cultures dans cette région. Ces travaux devraient contribuer à
la prise de conscience de l’importance de la préservation de ce patrimoine marocain, tant au
point de vue écologique que culturel, et économique.

Et on espère que cela est une pierre supplémentaire à la construction d’une de collaboration
entre les aménageurs du territoire et les chercheurs.

En ce qui concerne l’extraction des routes :

Nous pensons projeter le formalisme Markovien dans le processus d’identification des


routes en prenant en compte ainsi le contexte local, cela peut se faire par une étape première
de classification suivie de l’étape d’extraction.

Afin de réduire la sensibilité au bruit de chaque type d’images, nous proposons d'utiliser
l’approche multi-échelle, en fusionnant le résultat de l'extraction des axes principaux à partir
de l’image de la faible résolution (image Landsat ETM+), avec le résultat de l'extraction des
routes secondaires de l’image à moyenne résolution (image aérienne), moins sensible au bruit
géométrique du contexte.

Cette méthodologie d’extraction du réseau routier pourrait être adaptée à d'autres


applications d’extraction linéique telles que :

− La détection des réseaux hydrographique ;


− La reconnaissance des failles géologique ;
− L’extraction des vaisseaux sanguins en imagerie médicale.

Enfin, à partir des cartes issues de ces travaux, nous envisageons de les utiliser pour la
mise en place d’une plate forme SIG.

121
122
Liste des publications et communications

Papiers publiés
- S. IDBRAIM, D. MAMMASS, D. ABOUTAJDINE, D. DUCROT ‘An automatic
system for urban road extraction from satellite and aerial images ’ WSEAS
TRANSACTION on SIGNAL PROCESSING, Issue 10, Vol 4, pp. 563-572, ISSN:
1790-5022, October 2008.

- S. IDBRAIM, D. DUCROT, D. MAMMASS, D. ABOUTAJDINE ‘An unsupervised


classification using a novel ICM method with constraints for land cover mapping from
remote sensing imagery ’ International Review on Computers and Software
(I.RE.CO.S.).

Conférences (apparition dans le Procceding) :

- S. Idbraim, D. Mammass, D. Aboutajdine, D. Ducrot ‘Road extraction from remote


sensing imagery combining adaptive directional filtering and watershed segmentation’
ACS/IEEE International Conference on Computer Systems and Applications
AICCSA’2009, Rabat, Maroc, 10-13 Mai, 2009.
- S. Idbraim, D. Ducrot, D. Mammass, D. Aboutajdine ‘Classification of remote sensing
imagery by an ICM method with constraints: application in cartography of the land
cover’ International Conference on Multimedia Computing and Systems ICMCS’09,
Ouarzazate, Maroc, 02 - 04 Avril, 2009.
- A. Bekkari, D. Mammass, S. Idbraim ‘Software architecture for the dynamic creation
of visual objects in applications for the Internet to interactive content’ International
Conference on Multimedia Computing and Systems ICMCS’09, Ouarzazate, Maroc,
02 - 04 Avril, 2009.
- S. Idbraim, D. Mammass, D. Aboutajdine, D. Ducrot ‘An automatic system for urban
road extraction from satellite and aerial images ’ The 8th WSEAS International
Conference on Signal Processing, Robotics and Automation ISPRA’09, Cambridge,
UK, 21 - 23 Février, 2009.
- S. Idbraim, D. Mammass, D. Aboutajdine, D. Ducrot ‘Automatic Road Extraction
From Urban Aerial Images Using Directional Adaptative Filtering’ The 5th Congress
of Scientific Research Outlook in the Arab World “Scientific Innovation and
Sustained Development” SRO5, Fés, Maroc, 27- 31 Octobre, 2008.
- S. Idbraim, D. Mammass, D. Aboutajdine, D. Ducrot ‘An automatic system for urban
road extraction for GIS update’ 9th International Conference on Pattern Recognition
And Image Analysis: New Information Technologies PRIA-9-08, Nizhny Novgorod,
Fédération de Russie, 15 - 20 Septembre, 2008.
- S. Idbraim, D. Mammass, D. Aboutajdine, D. Ducrot ‘Conception d’une architecture
webmapping : Application dans le domaine de la cartographie du réseau des hôtels ’
Rencontre Nationale en Informatique : Outils et Applications RNIOA’08, Errachidia,
Maroc, 5 -7 Juin, 2008.
- S. Idbraim, D. Mammass, D. Aboutajdine ‘Extraction des routes à partir d’images
LANDSAT ETM+ par contour actif « snake »’, Sciences Electroniques, Technologies
de l’Information et des Télécommunications SETIT 2007, Conférence IEEE,
Hammamet, Tunisie, 25-29 Mars, 2007.

123
- A. Ibhi, H. Douzi , D. Mammass, S. Idbraim, H. Nachit ‘Minéralogie quantitative par
traitement d'image numérique : Classification des Chondrites ordinaires’, La 9-ème
conférence maghrébine sur les technologies de l'information et de la communication,
MCSEAI’06, Agadir, Maroc, 07-09 Décembre, 2006.
- S. Idbraim, D. Mammass, D. Aboutajdine ‘Landsat ETM+ Satellite Images Analysis
and Land Cover Map of Agadir Region (Morocco)’, 2nd IEEE International
Conference on Information & Communication Technologies: from Theory to
Applications, ICTTA’06, Damas, Syrie, 24-28 Avril, 2006.
- S. Idbraim, D. Mammass, D. Aboutajdine ‘Analyse d’images satellitaires LANDSAT
ETM+ vers l’élaboration de la carte d’occupation du sol de la région d’Agadir’, 5émes
Journées d'Optique & du Traitement de l’Information ,OPTIQUE'06 à l'INPT, Rabat,
Maroc, 19-20 Avril, 2006.

124
Bibliographie

[Agouris et al, 2001] Agouris, P., Doucette, P., Stefanidis, A., “Spatiospectral cluster analysis
of elongated regions in aerial imagery”, IEEE Internat. Conf. Image Process. (ICIP)
2001, Thessaloniki, Greece, vol. 2, pp. 789–792, 2001.
[Airault et Jamet, 1995] Airault, S., Jamet, O., “Détection et restitution automatiques du
réseau routier à partir d’images aériennes”, Traitement Signal, vol. 12, no. 2, 189–200
(Hermès), 1995.
[Amini et Saradjian, 2000] Amini, J., Saradjian, M.R., “Image map simplification by using
mathematical morphology”, ISPRS 33 (Part B3), vol. 36, 2000.
[Amini et al, 2002] Amini, J., Saradjian, M.R., Blais, J.A.R., Lucas, C., Azizi, A., “Automatic
road side extraction from large scale image maps”, Internat. J. Appl. Earth Observat.
Geoinformat., vol. 4, pp. 95–107, 2002.
[Arbia et al, 1999] Arbia, G., Benedetti, R., Espa, G., “Contextual classification in image
analysis: an assessment of accuracy of ICM”, Computational Statistics and Data
Analysis, Elsevier, vol. 30, no. 4, pp. 443-455, Juin,1999.
[Ball et Hall, 1965] Ball, G., Hall, D., “ISODATA: A novel method of data analysis and
pattern classification”, In Technical report, Stanford Reseach Institute, Menlo Park,
USA, 1965.
[Barker et Rayner, 2000] Barker, S.A., Rayner, P.J.W., “Unsupervised image segmentation
using Markov random field models”, Pattern Recognition, vol. 33, pp. 587-602, 2000.
[Basseville, 1985] Basseville, M., “Distance measures for signal processing and pattern
recognition”, Signal processing, vol. 18, pp. 349-369, 1985.
[Baumgartner et al, 1996] Baumgartner, A., Steger, C., Wiedemann, C., Mayer, H., Eckstein,
W., Ebner, H., “Update of roads in GIS from aerial imagery: Verification and multi-
resolution extraction”, Internat. Arch. Photogrammet. Remote Sensing, vol. 31, no. 3,
pp. 53–58, 1996.
[Baumgartner et al, 1999] Baumgartner, A., Steger, C., Mayer, H., Eckstein, W., Ebner, H.,
“Automatic road extraction based on multi-scale, grouping and context”,
Photogrammet. Eng. Remote Sensing, vol. 65, no. 7, pp. 777–786, 1999.
[Baumgartner et al, 2002] Baumgartner, A., Hinz, S., Wiedemann, C., “Efficient methods and
interfaces for road tracking”, In: Proc. ISPRS-Commision III Symp. Photogrammet.
Comput. Vision, (PCV ‘02), Graz 2002 Internat. Arch. Photogrammet. Remote Sensing,
vol. 34 (Part 3-B), pp. 28–31, 2002.
[Benjamin et Gaydos, 1990] Benjamin, S., Gaydos, L., “Spatial resolution requirements for
automated cartographic road extraction”, Photogrammet. Eng. Remote Sensing, vol. 56,
no. 1, pp. 93-100, 1990.
[Besag, 1974] Besag, J., “Spatial Interaction and the Statistical Analysis of Lattice Systems”,
Journal of the Royal Statistical Society, vol. B-36, pp. 192-236, 1974.
[Besag, 1986] Besag, J., “On the Statistical Analysis of Dirty Pictures”, Journal of the Royal
Statistical Society, vol. B-48, pp. 259-302, 1986.

125
[Beucher et Lantuejoul, 1979] Beucher, S., Lantuejoul, C., “Use of watersheds in contour
detection”, In Proceedings of Int. Workshop on Image Processing, Real-time Edge and
Motion Detection/Estimation, Rennes, France, 1979.
[Bhattacharya et Parui, 1997] Bhattacharya, U., Parui, S.K., “An improved back propagation
neural network for detection of road-like features in satellite imagery”, International
Journal of Remote Sensing, vol. 18, pp. 3379-3394, 1997.
[Bonnefon et al, 2002] Bonnefon, R., Dherete, P., Desachy, J., “Geographic information
system updating using remote sensing images”, Pattern Recognition Lett., vol. 23, no. 9,
pp. 1073–1083, 2002.
[Bordes, 1997] Bordes, G., “Interprétation d’images aériennes guidée par une base de données
cartographique: application à l’extraction automatique des routes”, thèse de doctorat,
Université de Marne-la-Vallée, Marne-la-Vallée, France, 271 p, 1997.
[Bruzzone et Prieto, 2000] Bruzzone, L., Prieto, D. F., “Automatic analysis of the difference
image for unsupervised change detection”, IEEE Transactions on Geoscience and
Remote Sensing, vol. 38, no. 3, pp. 1171– 1182. 2000.
[Caloz et Collet, 2001] Caloz, R., Collet, C., “Précis de télédétection : traitements numériques
d’images de télédétection”, vol. 3, 386p, 2001.
[Camps-Valls et al., 2006] Camps-Valls, G., Gomez-Chova, L., Calpe, J., Soria, E., Martin, J.,
Alonso, L., and Moreno, J., “Robust vector support method for hyperspectral data
classification and knowledge discovery”, IEEE Transactions on Geoscience and Remote
sensing, vol. 42, no. 8, pp. 1530–1542, 2006.
[Chanussot et Lambert, 1998] Chanussot, J., Lambert, P., “An application of mathematical
morphology to road network extraction on SAR images”, In: Proc. Internat. Symp.
Math. Morphol. Amsterdam, pp. 399-406, 1998.
[Chen et al, 2002] Chen, A., Donovan, G., Sowmya, A., Trinder, J., “Inductive clustering:
Automatic low level segmentation in high resolution images”, In: ISPRS
Photogrammet. Comput. Vision, 9-13 September, Graz, Austria, p. A-73. 2002.
[Chiang et al, 2001] Chiang, T.Y., Hsieh, Y.H., Lau, W., “Automatic road extraction from
aerial images”, Stanford education, 2001.
[Cohen, 1991] Cohen, L.D., “On active contour models and balloons”, CVGIP Image
Understand., vol. 53, pp. 211-218, 1991.
[Congalton, R.G., 1991, “A review of assessing the accuracy of classifications of remotely
sensed data”, Remote Sensing of Environment, 3735-46
[Cortijo et al, 1998] F. J. Cortijo, N. Pe´rez de la Blanca, “Improving classical contextual
classifications”, International Journal of Remote Sensing, vol. 19, no. 8, pp. 1591-1613,
1998.
[Couloigner et Ranchin, 2000] Couloigner, I., Ranchin, T., “Mapping of urban areas: A multi-
resolution modeling approach for semiautomatic extraction of streets”, Photogrammet.
Eng. Remote Sensing, vol. 66, no. 7, pp. 867-874, 2000.
[Cover et Hart, 1967] Cover, T. M., Hart, P. E., “Nearest neighbor pattern classification”,
IEEE Transactions on Information Theory, vol. 13, no. 1, pp. 21-27, Janvier 1967.
[Dal Poz et al, 2000] Dal Poz, A.P., Gyftakis, S., Agouris, P., “Semiautomatic road extraction:
Comparison of methodologies and experiments”, In: 2000 ASPRS Annual Conf.,
Washington, DC, USA, 2000.

126
[Descombes, 1993] Descombes, X., “Champs Markoviens en Analyse d'Images”, Thèse,
TELECOM Paris, décembre 1993.
[Descombes et al, 1995] Descombes, X., Mangin, J.F, Pechersky, E., Sigelle, M., “Fine
structures preserving model for image processing”, In Proc 9th SCIA Uppsala, Suède,
pp. 349-356, 1995.
[Ducrot, 2005] Durcot, D., “Méthodes d’analyse et d’interprétation d’images de télédétection
multi-sources. Extraction de caractéristiques du paysage”, Habilitation à diriger des
recherches, INP, Toulouse, 235 p, 2005.
[Duda et Hart, 1973] Duda, R.O., Hart, P.E, “Pattern Classification and Scene Analysis”,
John Wiley & Sons, NY, USA, 1973.
[Faber et Forstner, 1999] Faber, A., Forstner, W., “Scale characteristics of local
autocovariances for texture segmentation”, In: Proc. Internat. Arch. Photogrammet.
Remote Sensing, Valladolid, Spain, 3-4 June, 1999, vol. 32 (Part 7-4-3 W6) 6/99, 7 p,
1999.
[Ferraro et al, 1999] Ferraro, M., Boccignone, G., Caelli, T., “On the representation of image
structures via scale space entropy conditions”, IEEE Trans. Pattern Anal. Machine
Intell., vol. 21, pp. 1199–1203, 1999.
[Fischler et al, 1981] Fischler, M.A., Tenenbaum, J.M., Wolf, H.C., “Detection of roads and
linear structures in low-resolution aerial imagery using a multi-source knowledge
integration technique”, Computer Graphics and Image Processing, vol. 15, pp. 201-223,
1981.
[Fjørtoft, 1999] Fjørtoft, .R, “Segmentation d’images radar par détection de contours”, Thèse
de Doctorat, INP, Toulouse, France, 1999.
[Fua et Leclerc, 1990] Fua, P., Leclerc, Y. G., “Model driven edge detection”, Machine
Vision and Applications, vol. 3, pp. 45-56, 1990.
[Fukunaga, 1972] Fukunaga, K., Introduction to statistical pattern recognition, Academic
Press, New York, 1972.
[Geman et Geman, 1984] Geman, S., Geman, D., “Stochastic Relaxation, Gibbs Distribution,
and the Bayesian Restauration of Images”, IEEE Transactions on Pattern Analysis and
Machine Intelligence, vol. PAMI-6, no. 6, pp. 721-741, novembre 1984.
[Geman et Jedynak, 1996] Geman, D., Jedynak, B., “An active testing model for tracking
roads in satellite images”, IEEE Transactions on Pattern Analysis and Machine
Intelligence, vol. 18, pp.1-14, 1996.
[Géraud, 2003] Géraud, T., “Fast road network extraction in satellite images using
mathematical morphology and Markov random fields”, IEEE-EURASIP Workshop on
Nonlinear Signal and Image Processing, juin 2003.
[Gruen et Li, 1995] Gruen, A., Li, H., “Road extraction from aerial and satellite images by
dynamic programming”, ISPRS Journal of Photogrammetry and Remote Sensing, vol.
50, no. 4, pp.11-20, 1995.
[Gruen et Li, 1997] Gruen, A., Li, H., “Semi-automatic linear feature extraction by dynamic
programming and LSB-Snakes”, Photogrammet. Eng. Remote Sensing, vol. 63, pp.
985–995, 1997.

127
[Gualtieri et Chettri, 2000] Gualtieri, J., Chettri, S., “Support vector machines for
classification of hyperspectral data”, In Geoscience and Remote Sensing Symposium
(IGARSS), vol. 2, pp. 813–815, Honolulu, HI, 2000.
[Guyon, 1992] Guyon, X., “Champs aléatoires sur un réseau : modélisations, statistiques et
applications”, Masson. 1992.
[Haala et Vosselman, 1992] Haala, N., Vosselman, G., “Recognition of Road and River
Patterns by Relational Matching”, In: Proc. ISPRS, Commission III, Whasington, DC,
1992.
[Haralick, 1979] Haralick, R.M., “Statistical and structural approaches to texture”, Proc. IEEE
vol. 67, no. 5, pp. 786-804, 1979.
[Hazel, 2000] Hazel, G., “Multivariate gaussian mrf for multispectral scene segmentation and
anomaly detection”, IEEE Transactions on Geoscience and Remote Sensing, vol. 38, no.
3, pp. 1199–1211, 2000.
[Heipke et al, 1995] Heipke, C., Steger, C., Multhammer, R., “A hierarchical approach to
automatic road extraction fron aerial imagery”, In: McKeown, Jr. D.M., Dowman, I.J.
(Eds)., Integrating Photogrammetric Techniques with Scene Analysis and Machine
Vision II, Proc. SPIE, vol. 2486, pp. 222-231, 1995.
[Hinz et Baurngartner, 2003] Hinz, S., Baurngartner, A., “Automatic extraction of urban road
networks from multi-view aerial imagery”, ISPRS Journal of Photogrammetry and
Remote Sensing, vol. 58, pp. 83-98, 2003.
[Huang et al, 2002] Huang, C., Davis, L.S., Townshend, J.R.G., “An assenssment of support
vector machines for land cover classification”, International Journal of Remote Sensing,
vol. 23, no. 4, pp. 725-749, Février 2002.
[Huang et al., 2008] Huang, T. Z., Huang, X. Q., and Jiang, Z. Y., “Hyperspectral image
labeling using MRF and GM models”, Dianzi Keji Daxue Xuebao, Journal of the
University of Electronic Science and Technology of China, vol. 37, no. 5, 2008.
[Hubert et al, 2001] L. Hubert-Moy, A. Cotonnec, L. Le Du, A. Chardin, P. Pe´rez, “A
comparison of parametric classification procedures of remotely sensed data applied on
different landscape units”, Remote Sensing of Environment, vol. 75, no. 2, pp 174-187,
2001.
[Ising, 1925] Ising, E.,“Beitrag zur Theorie des Ferromagnetisms”, Zeitschriftfur Physik, vol.
31, pp. 253-258, 1925.
[Jeffreys, 1946] Jeffreys, H., “An invariant form for the prior probability in estimation
problems”, Proc. Roy. Soc. London, Ser. A 186, pp. 453–461, 1946.
[Kasetkasem et Varshney, 2002] Kasetkasem, T., Varshney, P. K., “An image change
detection algorithm based on Markov random field models”, IEEE Transactions on
Geoscience and Remote Sensing, vol. 40, no. 8, pp. 1815–1823, 2002.
[Kasetkasem et al, 2005] Kasetkasema, T., Arora, M. K., Varshney, P. K., “Super-resolution
land cover mapping using a Markov random field based approach”, Remote Sensing of
Environment, vol. 96, pp. 302 – 314, 2005.
[Kass et al, 1987] Kass, M., Witkin, A., Terzopoulos, D., “Snakes: Active contour models”,
Internat. J. Comput. Vis., pp. 321-331, 1987.
[Kass et al, 1988] Kass, M., Witkin, A., Terzopoulos, D., “Snakes: Active contour models”,
Computer Vision, Graphies and Image Processing, pp. 321-331, 1988.

128
[Katartzis et al, 2001] Katartzis, A., Sahli, H., Pizurica, V., Cornelis, J., “A model based
approach to the automatic extraction of linear features from airborne images”, IEEE
Trans. Geosci. Remote Sensing, vol. 39, no. 9, pp. 2073–2079, 2001.
[Kato, 1994] Kato, Z., “Modélisations markoviennes multiresolutions en vision par
ordinateur. Application à la segmentation d’images SPOT”. Thèse de Doctorat,
Université de Nice Sophia Antipolis, France, 137 p, Décembre 1994
[Kato et al, 1999] Kato, Z., Zerubia, J., Berthod, M., “Unsupervised parallel image
classifcation using Markovian models”, Pattern Recognition, vol. 32, pp. 591-604,
1999.
[Keuchel et al, 2003] Keuchel, J., Naumann. S, Heiler, M., Siegmund, A., “Automatic land
cover analysis for Tenerife by supervised classification using remotely sensed data”,
Remote Sensing of Environment, vol. 86 ,pp. 530–541, 2003
[Kirkpatrick et al, 1982] Kirkpatrick, S., Gellatt, C. D., Vecchi, M. P., “Optimization by
simulated annealing”, IBM Thomas J. Watson research Center, Yorktown Heights, New
York, 1982.
[Kittler, 1975] Kittler, J., “Mathematical methods of feature selection in pattern recognition”,
Int. Journal Man-Machine Studies, vol. 7, pp. 609-637, 1975.
[Landgrebe, 2003] Landgrebe, D. A., “Signal theory methods in multispectral remote
sensing”, Hoboken: John Wiley and Sons, 2003.
[Laptev et al, 2000] Laptev, I., Mayer, H., Lindeberg, T., Eckstein, W., Steger, C.,
Baumgartner, A., “Automatic extraction of roads from aerial images based on scale
space and snakes”, Machine Vision Applicat., vol. 12, no. 1, pp. 23-31, 2000.
[Lee et al, 1990] Lee, J., Weger, R. C., Sengupta, S. K., Welch, R. M., “ A neural network
approach to cloud classification“, IEEE Transactions on Geoscience and Remote
Sensing, vol. 28, pp. 846-855, 1990.
[Li, 1997] Li, H., “Semi-automatic road extraction from satellite and aerial images”, thèse de
doctorat, Report no. 61, Institute of Geodesy and Photogrammetry, ETH-Zurich,
Switzerland, 1997.
[Lemaréchal et al, 1998] Lemaréchal, C., Fjørtoft, R., Marthon, P., Cubero-Castan, E.,
“Comments on Geodesic saliency of watershed contours and hierarchical
segmentation”, IEEE Transactions on Pattern Analysis and Machine Intelligence, vol.
20, no. 7, pp. 762-763, 1998.
[Lippmann, 1987] Lippmann, R.P., “An introduction to computing with neural networks”,
IEEE ASSP Magazine, pp. 4-22, 1987.
[MacQueen, 1967] MacQueen, J., “Some methods of classification and anlysis of mutlivariate
observations”, In Proc. 5th Berkeley Symposium on math. Stat. And prob., Univ.
ofCalifornia Press, Berkeley, Etat-Unis, 1967.
[Matheron, 1975] Matheron, G., “Random Sets and Integral Geometry”, Wiley, New York,
1975.
[Mayer et al, 1997,1998] Mayer, H., Laptev, I., Baumgartner, A., Steger, C., “Automatic road
extraction based on multi-scale modeling, context and snakes”, Internat. Arch.
Photogrammet. Remote Sensing, vol. 32, Part 3-2W3, pp. 106-113, 1997.

129
[Melgani et Bruzzone, 2004] Melgani, F., Bruzzone, L., “Classification of hyperspectral
remote sensing images with support vector machine”, IEEE Transactions on geoscience
and remote sensing, vol. 42, no. 8, pp.1778–1790, 2004.
[Mena et Malpica, 2003] Mena, J.B., Malpica, J.A., “Color image segmentation using the
Dempster Shafer theory of evidence for the fusion of texture”, Pattern Recognition.
Internat. Arch. Photogrammet. Remote Sensing, vol. 34, Part 3/W8, 2003.
[Merlet et Zerubia, 1996] Merlet, N., Zerubia, J., “New prospects in line detection by dynamic
programming”, IEEE Transactions on Pattern Analysis and Machine Intelligence, vol.
18, no. 4, pp. 426-431, 1996.
[Metropolis et al, 1953] Metropolis, N., Rosenbluth, A. W., Rosenbluth, N. M., Teller, A. H.,
Teller, E., “Equation of state calculations by fast computing machines” , J. Chemical
Physics, vol. 21, p. 1087-1091, 1953.
[Mohan et Nevatia, 1992] Mohan, R., Nevatia, R., “Perceptual organization for scene
segmentation and description”, IEEE Transactions of Pattern Analysis and Machine
Intelligence, vol.14, no.6 , pp. 616–635, 1992.
[Morris et al, 1996] Morris, R., Descombes, X., Zerubia, J., “The Ising/Potts model is not well
suited to segmentation tasks”, In proc IEEE Digital Signal Processing Workshop,
Norvège, 1996.
[Neuenschwander et al, 1997] Neuenschwander, W. M., Fua, P., Iverson, L., Székely, G.,
Kubler, O., “Ziplock snakes”, International Journal of Computer Vision, vol. 25, no. 3,
pp. 191-201, 1997.
[Nishiia et Eguchib, 2006] Nishiia, R., Eguchib, S., “Image classification based on Markov
random field models with Jeffreys divergence”, Journal of Multivariate Analysis, vol.
97, pp. 1997 – 2008, 2006.
[Péteri et al, 2001] Péteri, R., Couloigner, I., Ranchin, T., “A multiresolution modelling
approach for semi-automatic extraction of streets: application to high resolution images
from the Ikonos satellite”, Proceedings of the EARSEL/SFPT Symposium, “Observing
our environment from space: new solutions for a new millenium”, Marne-la-Vallée,
France, mai 2001.
[Pierrot-Deseilligoy et al, 1993] Pierrot-Deseilligoy, M., Le Men, H., Stamon, G., “Map
understanding for GIS data capture : algorithms for road network graph reconstruction”,
In ICDAR, Tsukuba, Japon, pp. 676-679, 1993.
[Prony et al., 2000] Prony, O., Descombes, X., and Zerubia, J., “Classification des images
satellitaires hyperspectrales en zone rurale et périurbaine”. Rapport de recherche 4008,
INRIA, 2000.
[Rellier, 2002] Rellier, G., “Analyse de texture dans l’espace hyperspectral par des méthodes
probabilistes”, Thèse de Doctorat, Nice Sophia-Antipolis, France, 2002.
[Rellier et al, 2002] Rellier, G., Descombes, X., Zerubia, J., “Local registration and
deformation of a road cartographic database on a SPOT satellite image”, Pattern
Recognition vol. 35, pp. 2213–2221, 2002.
[Rignot et Chelappa, 1988] Rignot, E., Chellappa, R., “Maximum A Posteriori Classification
of Multifrequency, Multilook Synthetic Aperture Radar Intensity Data”, Journal of
Optical Society of America , A vol. 10, pp. 573-582, Avril 1993.

130
[Roggero, 2002] Roggero, M., “Object segmentation with region growing and principal
component analysis”, In: ISPRS. Photogrammet. Comput. Vision, Graz, Austria, pp. A-
289, 9-13 September 2002.
[Roli et Fumera, 2001] Roli, F., Fumera, G., “ Support vector machine for remote-sensing
image classification”, In SPIE, editor, Image and Signal Processing for Remote Sensing
VI, vol. 4170, pp. 160–166, 2001.
[Roux, 1992] Roux, L., “Recalage d'images multi-sources. Application au recalage d'une
image SPOT et d'une carte”, Thèse de Doctorat, ENST, Paris, France, 1992.
[Ruskoné, 1996] Ruskoné, R., “Extraction automatique du réseau routier par interprétation
locale du contexte”, Thèse de Doctorat, Université de Marne la Vallée, 1996.
[Rumelhart et al, 1986] Rumelhart, D.E., Clelland, J.L., Group, P.R., “Parallel distributed
processing. Exploration in the microstructure of cognition”, I, II and III, A Bradford
Book, Cambridge (MA), MIT Press, 1986.
[Sakoda et al, 1993] Sakoda, W., Hu, J., Pavlidis, T., “Computer Assisted Tracing of Faint
Roads in Satellite Imagery”, ACSM/ ASPRS, New Orleans, 1993.
[Serra, 1982] Serra, J., “Image Analysis and Mathematical Morphology”, vol. 1, Academic
Press, London, 1982.
[Shen et Castan, 1992] Shen, J., Castan, S., “An Optimal Linear Operator for Step Edge
Detection”, Computer Vision, Graphics and Image Processing: Graphical Models and
Understanding, vol. 54, no. 2, pp. 112-133, Mars, 1992.
[Shen et Castan, 1992] Shen, J., Castan, S., “An optimal linear operator for step edge
detection”, CVGIP, Graphics Models and Image Processing, vol. 54, no. 2, pp.112-133,
Mars 1992.
[Sigelle, 1993] Sigelle, M., “Champs de Markov en traitement d'images et modèles de la
physiques statistique: applications en relaxation d'images de classification”, Thèse,
Ecole nationale supérieure des télécommunications, 1993.
[Solberg et al, 1996] A. H. S. Solberg, T. Taxt, A. K. Jain, “A Markov random field model for
classification of multisource satellite imagery”, IEEE Transactions on Geoscience and
Remote Sensing, vol. 34, pp. 100-113, 1996.
[Smartt and Tyo, 2006] Smartt, H. Tyo, J.. “Classification of hyperspectral spatial/spectral
patterns using gauss-markov random fields”, In Proceedings of SPIE - The International
Society for Optical Engineering, vol. 6233, 2006.
[Switzer, 1980] Switzer, P., “Extensions of linear discriminant analysis for statistical
classification of remotely sensed satellite imagery”, Math. Geol. 12, pp. 367–376, 1980.
[Terzopoulos,1986] Terzopoulos, D., “Regularization of inverse problems involving
discontinuities”, IEEE Trans. on PAMI, vol. 8, no. 4, 1986.
[Tesser et Pavlidis, 2000] Tesser, H., Pavlidis, T., “Road finder front end: An automated road
extraction system”, IEEE Trans. Geosci. Remote Sensing, vol. 1, pp. 338-341, 2000.
[Thikonov et Arsenine, 1974] Thikonov, A., Arsenine, V., “Méthodes de résolution de
problèmes mal posés”, Mir, Moscou, 1974.
[Townshend et Justice, 1986] Townshend, J.R., Justice, C.O., “Analysis of the dynamics of
African vegetation using the normalized difference vegetation index”, International
Journal of Remote Sensing, vol. 7, pp. 1435-1446, 1986.

131
[Tupin et al, 1998] Tupin, F., Maitre, H., Mangin, J.F., Nicolas, J.M., Pechersky, E.,
“Detection of linear features in SAR images: Application to road network extraction”,
IEEE Transactions on Geoscience and Remote Sensing, vol. 36, no. 2, pp. 434-453,
1998.
[Vapnik, 1998] Vapnik, V., Statistical Learning Theory, Wiley, New York, 1998.
[Vincent et Soille, 1991] Vincent, L., Soille, P., “Watersheds in Digital Spaces: An Efficient
Algorithm Based on Immersion Simulations”, IEEE Trans. Pattern Anal. Mach. Intell.,
vol. 13, no. 6, pp. 583-598, 1991.
[Vosselman et De Knech, 1995] Vosselman, G., De Knecht, J., “Road tracking by profile
matching and Kalman filtering”, In: Gruen, Kuebler, Agouris, (Eds.), Workshop on
Automatic Extraction of Man-Made Objects from Aerial and Space Images. Birkauser,
Basel, pp. 265–274. 1995.
[Vrabel, 2000] Vrabel, J., “Multispectral imagery advanced band sharpening study”,
Photogrammetry. Eng. Remote Sensing, vol. 66, no. 1, pp. 73-79, 2000.
[Wiedemann et al, 1998] Wiedemann, C., Heipke, C., Mayer, H., “Empirical evaluation of
automatically extracted road axes”, In: CVPR Workshop on Empirical Evaluation
Methods in Computer Vision, California, , pp. 172–1871998.
[WU, 1982] Wu, F. Y, “The Potts Model” , Review of Modem Physics, vol. 54, no. 1, 1982.
[Xie et al, 2002] Xie, H., Pierce, L. E., Ulaby, F. T., SAR speckle reduction using wavelet
denoising and Markov random field modeling. IEEE Transactions on Geoscience and
Remote Sensing, vol. 40, no. 10, pp. 2196– 2212, 2002.
[Yoon et al, 2002] Yoon, T., Park, W., Kim, T., “Semiautomatic road extraction from
IKONOS satellite image”, In: Ehlers, M. (Ed.), Remote Sensing for Environmental
Monitoring, GIS Applications, and Geology, Proc. SPIE, vol. 4545, pp. 320-328, 2002.
[Zafiropoulos et Schenk, 1998] Zafiropoulos, P., Schenk, T.F., “Extraction of road structures
with color energy models”, In: Sabry, F., El-Hakim, Gruen, A. (Eds.), Videome-TRICS
VI., Proc. SPIE, vol. 3641, pp. 276–290, 1998.
[Zhang et al, 1999] Zhang, C., Murai, S., Baltsavias, E., “Road network detection by
mathematical morphology”, In: Proc. ISPRS Workshop on 3D Geospatial Data
Production: Meeting Applicat. Requirements, Parıs, pp. 185–200, 1999.
[Zhang et al, 2001] Zhang, J., Zhang, Y., Zhou, T., “Classification of hyperspectral data using
support vector machine”, In Proceeding of the IEEE International Conference on Image
Processing (ICIP), Thessaloniki, 2001.
[Zhang, 2004] Zhang, C., “Towards an operational system for automated updating of road
databases by integration of imagery and geodata”, ISPRS Journal of Photogrammetry
and Remote Sensing, vol. 58(3-4):127-258, 2004,
[Zhao et al, 2002] Zhao, H., Kumagai, J., Nakagawa, M., Shibasaki, R., “Semi automatic road
extraction from high resolution satellite image”, ISPRS. Photogrammet. Comput.
Vision, Graz, Austria, 9-13 September, A-406 p, 2002.
[Zlotnick et Carnine, 1993] Zlotnick, A., Carnine, P.D., “Finding roads seeds in aerial
images”, Computer Vision, Graphics, and Image Processing, Image Understanding, vol.
57, no. 2, pp. 243-260, 1993.

132
Annexes

133
134
A. Présentation des données satellitaires FORMOSAT-2 et
LANDSAT

1. Le satellite LANDSAT

Le satellite FORMOSAT-2 est un satellite taiwanais du NSPO (National SPace


Organization) il est de conception européenne fabriqué par EADS-Astrium, il effectue une
observation quotidienne en décrivant une orbite géosynchrone (même zone de couverture) et
héliosynchrone (même conditions d’éclairement). De plus sa position permet de conserver le
même angle de visée. Le satellite décrit 14 orbites différentes chaque jour. L’intérêt est donc
la répétitivité des images qui permettre de suivre des phénomènes de courtes durées (ex :
campagne d’irrigation).

La résolution spatiale est de :


− 2 m en panchromatique
− 8 m en multi spectral

A la différence des solutions très haute résolution, les paramètres de prise de vue de
FORMOSAT-2 sont constants et connus à l'avance. Ils offrent ainsi une garantie quant au
nombre d'images acquises et à leur superposition.

Une des caractéristiques du satellite FORMOSAT est la présence d’une bande bleue.
Associée aux bandes rouge et verte, elle permet de réaliser sans traitement particulier des
compositions en couleurs naturelles. Seule ou associée aux autres canaux, elle apporte
également des informations spécifiques pour la cartographie des hauts fonds, la
différenciation entre sol et végétation, la cartographie forestière et l'identification de cultures,
les corrections atmosphériques. Le satellite possède également une bande dans le PIR.

L'heure de passage de FORMOSAT-2 à l’équateur se situe à 9 h 30 - heure solaire locale -


en noeud descendant, contre 10 h 30 pour la majorité des systèmes optiques actuels. Ce léger
décalage, couplé à la revisite quotidienne, permet d’augmenter les chances de succès
d’acquisitions exploitables dans les zones équatoriales au-dessus desquelles les nuages de
convection se forment tout au long de la matinée.

Les images FORMOSAT sont disponibles à 3 niveaux de prétraitement :

• Niveau 1A Correction radiométrique des distorsions dues aux écarts de sensibilité entre
les détecteurs élémentaires de l'instrument de prise de vue.
• Niveau 2A Correction radiométrique identique à celle du niveau 1A. Correction
géométrique effectuée dans la projection cartographique standard (UTM WGS84 par
défaut).
• Ortho Correction radiométrique identique à celle du niveau 1A. Correction géométrique
effectuée dans une projection cartographique définie par l'utilisateur et intégrant la
correction des effets du relief (carte et /ou points d'appuis et modèle numérique
d'élévation à fournir).

135
Les images FORMOSAT sont délivrées au format DIMAP :

− la partie image au format GeoTIFF,


− la partie métadonnées descriptives au format XML

Multispectral (R, V, B, PIR) : 8 m


Mode et résolution Panchromatique : 2 m
Bundle (images Pan et MS séparées)
P : 0,45 – 0,90 µm
B1 : 0,45 – 0,52 µm (Bleu)
Bandes spectrales B2 : 0,52 – 0,60 µm (Vert)
B3 : 0,63 – 0,69 µm (Rouge)
B4 : 0,76 – 0,90 µm (Proche Infra Rouge)
Emprise 24 km x 24 km
Revisite quotidienne
Angles de visée latéral et avant-arrière : +/- 45°
oui
Programmation L’acquisition simultanée des images
panchromatiques et multispectrales est possible
Dynamique de l’image 8 bits/pixel
Taille des images
MS : 35 Mo Pan : 137 Mo
(niveau 1A hors métadonnées)

Table A.1 Résumé des caractéristiques d’image FORMOSAT-2

2. Le satellite LANDSAT

Administré à l’origine par la NASA, le programme américain de télédétection spatiale


LANDSAT est exploité depuis 1978 par une entreprise privée américaine (EOSAT) et vise à
offrir des données de télédétection de façon continue, commercialement, pour l’inventaire et
surveillance des ressources terrestres. Le programme LANDSAT (Land Satellite),
originellement appelé ERTS (Earth Resources Technology Satellite), a débuté effectivement
en juillet 1972 avec le lancement, à une altitude d’environ 900 kilomètres, du premier satellite
de la série.

2.1 LANDSAT 1ère série

Les trois premiers satellites furent identiques et leur charge utile était constituée de deux
instruments optiques, un capteur multispectral (Multi Spectral Scanner – MSS) et une série de
cameras vidéo (Return Beam Vidicom – RBV)

• Capteurs RBV
Sur les deux premiers satellites, la série de trois caméras vidéo prenait des images dans le
visible et dans l’infrarouge. La résolution était de 80 m pour des images de 185 km sur 185
km. Sur LANDSAT3, la résolution a été portée à 40 m, mais les caméras ne prenaient plus
des images que dans une seule bande spectrale panchromatique (0,5 – 0,75 µm).

136
• Capteurs MSS
Ces scanners mécaniques prenaient des informations dans quatre bandes spectrales et sur
une zone de 185 km sur 185 km. Comme ces instruments ont été développés après les trois
caméras RBV, les bandes ont été numérotées de 4 à 7. Le capteur MSS de LANDSAT 3
comportait une bande spectrale supplémentaire dans l’infrarouge thermique.

Bande Bande spectrale Résolution


4 0,5 – 0,6 µm 79 m x 82 m
5 0,6 – 0,7 µm 79 m x 82 m
6 0,7 – 0,8 µm 79 m x 82 m
7 0,8 – 1,1 µm 79 m x 82 m
8 10,5 – 12,4 µm 240 m x 240 m (LANDSAT 3 uniquement)

Table A.2 Caractéristiques du capteur MMS de LANDSAT 1ère série

2.2 LANDSAT 2ème série

Les deux satellites suivants (LANDSAT 4 et 5) ont été équipés de deux capteurs
multispectraux (Multi Spectral Scanner – MSS et Thematic Mapper – TM).

• Capteurs MSS
Ces scanners étaient identiques à ceux des deux premiers satellites LANDSAT. La seule
différence était que les quatre bandes spectrales ont été numérotées de 1 à 4, suite à l’abandon
des caméras RBV. L’acquisition de données par le capteur MSS de LANDSAT 5 a été arrêtée
en 1992.

Bande Bande spectrale Résolution


1 0,5 – 0,6 µm 79 m x 82 m
2 0,6 – 0,7 µm 79 m x 82 m
3 0,7 – 0,8 µm 79 m x 82 m
4 0,8 – 1,1 µm 79 m x 82 m

Table A.3 Caractéristiques du capteur MMS de LANDSAT 2éme série

• Capteurs TM
Ces scanners à haute résolution possèdent 7 bandes spectrales et couvrent toujours une
zone de 185 km sur 185 km.

Bande Bande spectrale Résolution


1 0,45 – 0,52 µm 28,5 m x 28,5 m
2 0,52 – 0,60 µm 28,5 m x 28,5 m
3 0,63 – 0,69 µm 28,5 m x 28,5 m
4 0,76 – 0,90 28,5 m x 28,5 m
5 1,55 – 1,75 µm 28,5 m x 28,5 m
6 10,4 – 12,5 µm 120 m x 120 m
7 2,08 – 2,35 µm 28,5 m x 28,5 m

Table A.4 Caractéristiques du capteur TM de LANDSAT 2éme série

137
2.3 LANDSAT 3ème série

La dernière génération des satellites LANDSAT a commencé par un échec. LANDSAT 6 a


été perdu juste après son lancement le 3 octobre 1993. LANDSAT 7 a été lancé en 1999 et est
équipé d’un capteur multispectral (Enhanced Thematic Mapper Plus – ETM+).

• Capteur ETM+
Ce scanner est une évolution des TM précédents. Il comporte une large bande
panchromatique à haute résolution.

Bande Nom Bande spectrale Résolution Utilisation


Différenciation entre sol, végétaux et
1 Bleu 0,45 – 0,515 µm 28,5 m
zones côtières
2 Vert 0,525 – 0,605 28,5 m Végétation
3 Rouge 0,63 – 0,69 µm 28,5 m Différenciation des espèces végétales
4 Proche Infrarouge 0,75 – 0,90 µm 28,5 m Biomasse
5 Infrarouge moyen 1,55 – 1,75 µm 28,5 m Différenciation entre neige et nuage
Infrarouge
6 10,4 – 12,5 µm 57 m Mesure de la température de la terre
thermique
La discrimination entre
7 Infrarouge moyen 2,09 – 2,35 µm 28,5 m
minéraux et types de roches
8 Panchromatique 0,50 – 0,90 µm 14,25 m

Table A.5 Caractéristiques du capteur ETM+ de LANDSAT 3éme série

Tous les satellites de la série LANDSAT sont héliosynchrones, en orbite sub-polaire, dont
l’altitude standard est variée.

Période de
Altitude Inclinaison Orbite Durée d’un cycle
révolution
1ère série 907-915 km 99,2 degrés polaire héliosynchrone 103 minutes 18 jours
ème
2
705 km 98,2 degrés polaire héliosynchrone 98,9 minutes 16 jours
série
3ème
705 km 98,2 degrés polaire héliosynchrone 98,9 minutes 16 jours
série

Table A.6 Comparaison entre les séries LANDSAT

138
B. Segmentation par ligne de partage des eaux

La méthode de segmentation d'image par Ligne de Partage des Eaux (LPE) a été introduite
par Beucher et Lantuejoul (1979). Elle s'appuie sur une analogie entre une image et un relief
topographique, en envisageant les pixels d'une image mono-canal comme autant de sites
géographiques et en interprétant les valeurs des pixels comme les altitudes des lieux. Elle
applique alors à ce relief les notions géographiques de ligne de partage des eaux et de bassins
versants. La LPE est définie par le comportement d'écoulements d'eau imaginaires sur ce
relief. En général, si une goutte d'eau tombe en un point donné d'un relief, elle s'écoulera en
suivant la ligne de plus grande pente, et terminera sa course au fond d'une cuvette (un
minimum local de la surface). On peut ainsi, à chaque point de la surface topographique,
associer le lieu d'arrivée d'un ruissellement imaginaire dont il serait la source. On définit alors
les bassins versants de la surface comme les classes d'équivalence de la relation entre sites «
avoir le même point d'arrivée pour l'écoulement ». Ils forment donc une partition des sites. La
ligne de partage des eaux du relief topographique est alors la frontière des bassins versants.
Intuitivement, la LPE est le lieu des points de bifurcation des écoulements, c'est-à-dire ceux
sur lesquels une goutte d'eau idéale serait dans une situation instable, pouvant conduire, par
un infime perturbation, à son écoulement dans plusieurs bassins différents. La LPE passe par
la plupart des lignes de crête de la surface et se ferme au niveau des cols.

Figure B.1 Relation bassins versants et contours dans une image

Si on considère l'image à niveaux de gris comme une fonction de ℜ 2 dans ℜ suffisamment


régulière, on peut alors définir proprement la ligne de partage des eaux. Cependant sa
transposition discrète (fonctions de Ζ 2 dans Z), qui correspond mieux aux images considérées
est délicate, il n'existe pas à ce jour de définition consensuelle de cette transformation.
Plusieurs algorithmes ont été proposés pour la calculer, donnant autant de définitions, pas
toujours équivalentes.

Une seconde manière d'envisager la LPE consiste à considérer l'immersion progressive du


relief (figure B.2): au fur et à mesure que le niveau d'eau monte, différents lacs apparaissent (à
chaque fois que le niveau atteint le point bas d'une cuvette), ou se mélangent (à chaque fois
que le niveau d'eau atteint un col) pour finir par ne former qu'une mer unique recouvrant toute
la surface de l'image. Si l'on empêche les lacs de se mélanger, mais que l'on mémorise
l'ensemble des points successifs où un mélange aurait eu lieu, on retrouve la notion de LPE.

139
Cette approche a donné lieu au premier algorithme efficace de calcul de LPE discrète, par
simulation d'immersion (Vincent 1990).

Figure B.2 Principe de LPE par d'immersion

On peut classer les algorithmes de construction de la ligne de partage des eaux en trois
catégories. Les algorithmes par inondation simulent une montée progressive du niveau d'eau à
partir des minima du relief. Les algorithmes par ruissellement suivent, à partir de chaque pixel
de l'image, la ligne de plus grande pente jusqu'à atteindre un minimum. Finalement, les
algorithmes topologiques proposent une déformation progressive du relief, préservant
certaines caractéristiques topologiques, jusqu'à ce qu'il soit réduit à une structure fine
correspondant à la ligne de partage des eaux.

L'algorithme que nous utilisons pour calculer une LPE discrète consiste à construire
explicitement le graphe de ruissellement associé au relief selon le principe ci-dessous.

Soit I une image. Notons P l'ensemble des pixels de l'image et munissons-le de la topologie
de 8-voisinage modélisée par le graphe symétrique G = (P,U ) .

Le graphe de ruissellement R = (P, B ) est alors le graphe partiel de G dans lequel chaque
pixel p ∈ P possède au plus une arête sortante, celle qui le connecte à son voisin de plus
faible altitude. Cette connexion existe si et seulement si l'altitude de ce voisin est moindre que
celle du point lui-même :

∀p ∈ P ∀b ∈ V ( p ) ( p, b ) ∈ B ⇔ I (b ) = min I (v ) et I (v ) < I ( p )
v∈V ( p )
L'arête ( p, b ) modélise bien le fait qu'une goutte déposée en p s'écoulerait - si elle n'est pas
en équilibre - selon la ligne de plus grande pente. Si un pixel p possède plusieurs plus bas

140
voisins, il est connecté au premier d'entre eux dans un ordre arbitraire mais prédéfini (par
exemple l'ordre donné par le code de Freeman des voisins).

Ce graphe de ruissellement R = (P, B ) est alors symétrisé pour obtenir le


graphe S = (P, BS ) , où (x, y ) ∈ BS ⇔ (x, y ) ∈ B ou ( y, x ) ∈ B .

Les composantes connexes de S définissent les bassins versants du relief.

La figure C.1 illustre la segmentation d'une image par application de cet algorithme au
module du gradient de l'image.

Figure B.3 Segmentation par ligne de partage des eaux. (a) Image d'origine. (b) Module de son gradient (Filtre
de Shen-Castan). (c,d) Ligne de partage des eaux obtenue (deux niveaux : sur-segmentation et segmentation).

141
C. Segmentation automatique par seuillage

Le principe de la segmentation par seuillage automatique implémentée dans cette étude est
très simple, intuitif, et efficace. Il consiste à construire une image binaire en mettant à 255
[ ]
tous les pixels de l'image compris dans une plage S i , S j et à 0 tous les autres. Les
seuils {S 0 , S1 ,..., S n } sont définis à partir d’une recherche des minimums locaux de
l'histogramme de l’image.

L'histogramme de l'image ne se prête en général pas à une recherche directe des minimums
locaux car il n'est pas lisse, ce qui introduit un grand nombre de minimums locaux. Pour le
rendre lisse, un filtrage est souvent nécessaire. Plusieurs types de filtres existent et peuvent
être appliqués à l'histogramme mais dans la majorité des cas, on utilise un filtre moyenne ou
un filtre médian, il s'agit simplement d’une convolution 1D de l'histogramme et d'un masque.
Dans cette étude on a utilisé successivement un filtre médian et un moyenneur.

Une fois l'histogramme filtré, la recherche de minimums locaux peut commencer.


Formellement, il s'agit de trouver tous les points où la dérivée de l'histogramme est nulle (ce
qui indique un minimum ou un maximum). Plus intuitivement, il suffit de calculer la
différence ∆ entre deux valeurs voisines de l'histogramme (figure C.1), puis de repérer les
endroits où cette différence passe des négatifs aux positifs :

Figure C.1 localisation des minimums

Exemple : Pour extraire les objets des images dont les histogrammes sont présentés dans
figure C.2, il suffit de prendre tous les pixels compris entre deux seuils successifs c-à-d de la
plage [S i , S i +1 ] . Pour le cas d’extraction des routes on a pris l’intervalle [S 0 , S 2 ] où S 0 = 0 .

Figure C.2 L’histogramme et sa dérivée pour les deux images testes

142
UNIVERSITÉ MOHAMMED V – AGDAL
FACULTÉ DES SCIENCES
Rabat

DOCTORAT
Résumé de la Thèse*

Discipline : Sciences de l’ingénieur


Spécialité : Informatique & Télécommunications
UFR : Informatique & Télécommunications
Responsable de l’UFR : Pr. Driss ABOUTAJDINE
Période d’accréditation : 2005-2008

Titre de la thèse : Méthodes d’extraction de l'information spatiale et de


classification en imagerie de télédétection : Applications à la cartographie
thématique de la région d’Agadir (Maroc)

Prénom, Nom : Soufiane IDBRAIM


Résumé
Les travaux de cette thèse s’articulent autour de deux axes : la classification pour la cartographie de
l’occupation du sol et l’extraction du réseau routier à partir des images satellitaires et aériennes. Le
premier axe a pour objectif de proposer une méthode de classification visant à prendre en compte le
contexte spatial de l’information contenue dans une image satellitaire. Ainsi, nous avons développé
une méthode de classification markovienne, avec recherche de la solution optimale par l’algorithme
d’ICM (Iterated Conditional Mode). Cette méthode est paramétrée par un facteur de température qui
va permettre, premièrement, de régler la tolérance des configurations désavantageuses dans le
processus d’évolution de la classification, et deuxièmement, d’assurer la convergence de
l’algorithme en un temps de calcul raisonnable. Parallèlement, nous avons introduit une nouvelle
contrainte contextuelle de segmentation dans l’algorithme. Cette contrainte va permettre au fil des
itérations d’affiner la classification en accentuant les détails détectés par les contours de
segmentation.
Le second axe de cette thèse est l’extraction du réseau routier à partir des images satellitaires et
aériennes. Nous avons proposé une méthodologie complètement automatique à travers un système
d’extraction par blocs qui agissent séparément et indépendamment sur l’image, le premier bloc
opère un filtrage directionnel adaptatif, permettant ainsi de détecter les routes dans chaque fenêtre
de l’image selon les directions dominantes. Quant au deuxième, il applique une segmentation, puis,
il sélectionne les segments représentant des routes selon un critère de forme. Ces deux blocs
apportent ainsi un type d’informations différent sur la scène étudiée. Ces résultats sont confrontés
puis complétés dans un troisième bloc afin de générer une image du réseau routier.
Les performances des méthodologies proposées sont vérifiées à travers des exemples sur des images
satellitaires et aériennes. Les résultats expérimentaux sont encourageants.

Mots-clefs : image de télédétection, Classification, Champs de Markov, ICM,


extraction des routes, filtrage directionnel, segmentation.

* Le présent résumé sera publié conformément à l’article 10 du décret N° 96-796 du 19 Février 1997.
Faculté des Sciences, 4 Avenue Ibn Battouta B.P. 1014 RP, Rabat – Maroc
Tel +212 (0) 37 77 18 34/35/38, Fax : +212 (0) 37 77 42 61, http://www.fsr.ac.ma