l

UNIVERSITE LIBANAISE ECOLE DOCTORALE DES SCIENCES ET DE TECHNOLOGIE

Rapport du stage Master 2 Recherche Pour l’obtention du diplôme du Master 2 Recherche en Informatique et Télécommunication DETECTION DES CHANGEMENTS POUR LES OBSERVATOIRES PHOTOGRAPHIQUES DU PAYSAGE Présenté par Mario Youssef GHARIB Directeur de recherche M. Alain CROUZIL M. Jean-Baptiste PUEL Soutenu le 7 Juillet 2011 devant le jury : Responsable du stage M. Bilal CHEBARO Rapporteur M. Ahmad GHADDAR Examinateur M. Mohammad KOBEISSI

Page 1

REMERCIEMENTS
Je tiens en premier lieu à remercier Dieu, qui m’a toujours donné la force pendant toute la durée de ce stage, et bien qui m’a donné le succès en ce master de recherche. Je tiens à remercier M. Ali AWADA, qui m’a entouré pendant la durée de ce stage de recherche. M. Ali AWADA a toujours su m’indiquer de bonnes directions de recherche quand il le fallait, me laisser chercher seul quand il le fallait. Mes remerciements vont également à M. Alain CROUZIL, Maitre de conférence à l’université Paul Sabatier et M. Jean-Baptiste PUEL, son collègue, qui sans être mes directeurs de ce stage de recherche, ont grandement contribué à ma formation en répondant avec patience à mes questions de jeune naïf. Un grand merci à Dr. Antoine CHARBEL et Mme Layla HARB qui m’ont aidé et m’ont encouragé pendant toute cette année académique. Egalement, je remercie profondément Mme Ghada ABI-TAEH pour toutes les corrections d’orthographe de ce manuscrit. Je suis également très reconnaissant aux membres du jury, M. Bilal CHEBARO, M. Ahmad GHADDAR et M. Mohammad KOBEISSI Christophe pour toutes leurs questions, remarques et suggestions. Un grand merci à mes amis, en particulier Dr. Malko DUNYA, M. William MANSOUR, M. Habib, M. Jad et Mlle Mira MRAD, M. Bahjat et Mlle. Caroline BABI, Mlle Marie KELLO, M. Abboud, M. Imad et M. Adel SYRANY, M. Hani MOUKHTAR, M. Charbel GERGES, Mlle Marie et Stéphanie DOCTORIAN, Mlle Berna ADWAR, M. Kamil MIRZA et tous les autres amis. Un remerciement spécial à Mlle. Lara YOUNES qui m’aidé pendant toute cette année académique, pout tous ses renseignements et ses remarques. Merci à ma famille, notamment à mes parents Youssef et Samira, mes frères Jean, Imad et Abdel-Massih dont l’affection m’a rendu la vie vraiment plus agréable, et qui ont eu la gentillesse de toujours s’intéresser à ce que je faisais.

Page 2

RESUME
Une des importantes thématiques de l’analyse d’images est de détecter les changements à partir d’images prises à des moments différents. L’objectif de notre travail est de détecter des changements à partir d’un observatoire photographique du paysage, constitué d’images prises au sol à des grands intervalles de temps en utilisant des méthodes de classification de pixels. Dans un premier temps, on discutera les différentes méthodes de classification, ensuite, on évalue les performances de ces méthodes sur des séries de clichés d’un observatoire photographique du paysage et enfin on proposera une méthode permettant de mettre en évidence les changements « significatifs ».

ABSTRACT
One of important thematic of image analysis is the detection of changes in images taken at different moments. The objective of this work is to detect changes from a landscape photographic observatory that consists of images taken from the ground with a large scale of time using methods of supervised classification of pixels. First, we discuss different methods of classification, then, we evaluate the performances of these methods on a series of photo from a landscape photographic observatory and finally we propose a method that highlights the significant changes.

MOTS-CLES
Analyse d’images, détection des changements, méthodes de classification de pixels.

Page 3

TERMINOLOGIE IMPORTANTES [22]
     Exemple = Instance = Point = Record = Object = Lignes de données. Variable = Attribut = Coordonnées = Feature = Colonne de données. Classe = Label = Variable cible = Variable à prédire (domaine supervisé). Apprentissage Supervisé = Classification = Classification Supervisée : Exemple de Classification : K-NN. Apprentissage Non-Supervisé = Clustering = Classification Non-Supervisée : Exemple de Clustering : Kmeans.

LISTE DES FIGURES
Figure 3.1. Un exemple simple illustrant comment l’apprentissage semi-supervisée est possible. Figure 3.2. Effet de l’apprentissage semi-supervisé Figure 3.3. Un exemple de la frontière de décision linéaire SVM. Figure 3.4. Un autre exemple de la frontière de décision linéaire SVM. Figure 3.5. Un exemple de la frontière de décision linéaire SVM, en utilisant « slack variable ». Figure 3.6. Un exemple de la frontière de décision S3VM. Figure 4.1. Exemples de photographies efficaces, un peu efficaces et non pas efficaces. Figure 4.2. Série photographique du point de vue n°32 – Dourges – Lieu-dit Les Douchis. Figure 5.1. Illustration de la méthode d’évaluation de la classification.

LISTE DES TABLEAUX
Tableau 5.1. Résultat de la PCC et JC pours les séquences d’images. Tableau 5.2. Résultat de la PCC et JC pour les images.

LISTE DES FORMES
Les données libellées Les données non-libellées Les vecteurs de support

Page 4

TABLE DES MATIERES

I. Introduction .........................................................................................................................1 II. Méthodes de classification de pixels classiques .......................................................3
II.1. Méthodes de classification non-supervisée ............................................................4 II.2. Méthodes de classification supervisée .....................................................................5

III. Méthodes de classification de pixels semi-supervisée .........................................8
III.1. Méthodes d’Auto-Apprentissage (Self-Training) .............................................10 III.2. Méthodes de Co-Apprentissage (Co-Training)..................................................12 III.3. Méthodes de Machine à vecteur de support (S3VM) .......................................14
III.3.1. SVM : formulation primale...............................................................................14 III.3.2. SVM : formulation duale...................................................................................18 III.3.3. S3VM ...................................................................................................................20 III.3.4. Algorithme de S3VM .........................................................................................14

IV. L’observatoire photographique du paysage et la rephotographie ...............24
IV.1. Définitions ..................................................................................................................24 IV.2. L’observatoire photographique du paysage ......................................................24 IV.3. La re-photographie ..................................................................................................25

V. Evaluation des performances des méthodes semi-supervisée ..........................26
IV.1. Algorithme d’Auto-Apprentissage .......................................................................27 IV.2. Algorithme de Co-Apprentissage .........................................................................28 IV.3. Algorithme de S3VM ...............................................................................................28 IV.4. Evaluation des méthodes de classification semi-supervisée ...........................29 IV.5. Résultats expérimentaux ............................................................................................30

VI. Méthode de mise en évidence des changements significatifs ..........................32
VI.1. Les paysages et ses éléments ..................................................................................32 VI.2. Les changements significatifs ................................................................................33 VI.3. Proposition de la méthode de détection ..............................................................34

V. Conclusion et travail futur............................................................................................35
IV.1. Conclusion .................................................................................................................36 IV.2. Travail futur..............................................................................................................37

Page 5

CHAPITRE I

INTRODUCTION
Une des importantes thématiques de l’analyse d’images est de détecter les changements à partir d’images prises à des moments différents. Il existe de nombreuses applications, citons la télésurveillance, l’imagerie médicale, etc. Notre objectif est de détecter des changements significatifs, pour des observatoires photographiques du paysage, dans des séries de clichés, représentant un certain territoire, prises au sol à des grands intervalles de temps. Ces séries de clichés peuvent être soit des séries récentes et homogènes réalisées dès le départ, soit des séries qui démarrent avec des images anciennes. Pour les observatoires photographiques du paysage, la détection des changements soulève des problèmes particuliers. D’une part, les grands intervalles temporels (des écarts temporels très important de plusieurs années peuvent exister entre deux images successives de la séquence) entraînent beaucoup de changements dans les images, parmi lesquels il faut extraire ceux qui sont significatifs. Les méthodes habituelles (Simple Differencing, Significance and Hypothesis Tests, etc.), ne donneront peut-être pas satisfaction puisqu’elles risquent de déterminer que tous les pixels de l’image ont changé. D’autre part, si une image a été prise plusieurs années après une autre image, les positions, les orientations et les réglages des appareils photographiques ne sont pas les mêmes (ce qui complique la détection des changements et soulève les problèmes de calibrage de capteur et de recalage d’image étroitement liés aux aspects géométriques). On ajoute le problème de retrouver les points de vue et les cadrages d’origine pour reconduire les prises de vue. La comparaison de clichés d'un même lieu pris à des dates différentes, peut faire appel à:      L'extraction d'indices visuels (routes, bâtiments, horizon, relief, végétation, etc.), La reconnaissance d'objets, Des mesures de similarité pour les images, Des comparaisons géométriques (apparitions, disparitions, transformations, etc.), Du recalage géométrique, etc.

Page 6

La difficulté, qui se pose pour l’analyse d’images existantes, peut être réduite pour de nouvelles images, en utilisant la technique de rephotographie (la reconduite de prise de vue), qui consiste à assister l’opérateur afin qu’il puisse procéder à une prise de vue dans les conditions géométriques les plus proches possibles de celles dans lesquelles a été prise une photographie ancienne. La détection des changements à partir des méthodes qui sont basées sur les variations du niveau de gris ou de la couleur des pixels, ont tendance à détecter des changements partout dans l’image, alors qu’une alternative consiste à commencer par effectuer une classification des pixels en composants du paysage (par exemple : le ciel, les arbres, l’herbe, l’eau, la neige, les rochers, les bâtiments, les murs en pierre, la chaussée, etc.) c'est-à-dire appliquer une méthode de classification, avant d’évaluer l’évolution de cette classification. Il existe de nombreuses méthodes de classification supervisée, où un opérateur donne des échantillons de différentes classes recherchées. C’est ce qui explique l’idée de passer par une classification des images en composants du paysage dans un premier temps et puis de déterminer les pixels où un changement de classe significatif, selon l’utilisateur de l’observatoire, s’est produit. Les principaux objectifs de ce travail de recherche sont les suivants : 1. effectuer un état de l’art des méthodes de classification des pixels d’une image ; 2. évaluer les performances de ces méthodes sur des séries de clichés provenant d’observatoires photographiques du paysage ; 3. proposer une méthode permettant de mettre en évidence les changements significatifs dans une série de photographies. Dans la section II, on présente les méthodes de classification classiques des pixels d’une image. Dans la section III, on va effectuer l’état de l’art des méthodes de classification semisupervisées : l’Auto-Apprentissage (Self Training), le Co-Training (Co Training) et la Machine à Vecteurs de Supports semi-supervisée (Semi Supervised Support Vector Machines). Dans la section IV, on définit ce qu’est un observatoire photographique du paysage et la technique de rephotographie. Dans la section V, on évalue les performances de ces méthodes semisupervisées sur une série de cliché provenant d’un observatoire photographique du paysage. Dans la section VI, on propose une méthode pour mettre en évidence des changements significatifs et enfin, dans la section VII, on propose un travail futur pour améliorer la méthode de détection des changements significatifs.

Page 7

CHAPITRE II

LES METHODES DE CLASSIFICATION
DE PIXELS CLASSIQUES
Les méthodes de classification des pixels, sont des opérations de segmentation d’image qui ont pour but de rassembler des pixels entre eux suivant des critères prédéfinis. Les pixels sont ainsi regroupés en régions, qui constituent des partitions de l’image. Dans notre cas, ils sont les composants du paysage. Il existe d’autres méthodes de segmentation, comme les méthodes basées sur les contours, sur les régions, mais on s’intéresse ici seulement aux méthodes de classification des pixels. [17] L’objectif de la classification est de faire la correspondance entre les classes spectrales et les classes d’information c’est-à-dire de déterminer pour chaque pixel de l’image, sa classe d’appartenance : [16]  Les classes spectrales : ce sont des groupes de pixels qui ont presque les mêmes caractéristiques (par exemple, RGB, YCbCr, etc.), en ce qui concerne leur valeur d’intensité dans les différentes bandes spectrales des données. Les classes d’information : ce sont des catégories d’intérêt que l’analyste tente d’identifier dans les images, comme différents types de cultures, de forêts ou d’espèce d’arbres, différents types de caractéristiques géologiques ou de roches, etc.) Les méthodes de classifications, peuvent être représentées en deux grandes catégories :   Les méthodes de classification non-supervisée. Les méthodes de classification supervisée.

Comment la classification fonctionne ? En donnant comme entrée d’un algorithme de classification, un ensemble d’apprentissage qui diffère dans chaque cas de classification, et d’autres paramètres. Alors l’ensemble d’apprentissage est, dans le cas de la classification [1]   Non-supervisée : complètement constitué de données non libellées :

Supervisée : complètement constitué de données libellées :

Page 8

Les données que ce soit libellées ou non libellées représentent des objets spécifiques (pixels), et ils sont représentés, chacun, par un vecteur d’attribut de dimension , dans lequel chaque dimension est appelé un attribut (feature) et représente le nombre des attributs. [1] Le vecteur d’attributs de dimension    représente la donnée . représente le représente le attribut de la donnée . attribut de la donnée . du pixel , est noté : , tel que :

Dans les parties ci-dessous on va définir les deux types de classifications classiques (la classification non-supervisée et la classification supervisée), desquelles on définit le but de chaque méthode, les différentes tâches qui peuvent être réalisées et à la fin on précise des algorithmes qui l’implémentent.

II.1. Les méthodes de classification non-supervisée
La classification non-supervisée, ou bien le (Clustering) est une des tâches de l’apprentissage non-supervisé. L’algorithme de Clustering utilise comme entrée un ensemble d’apprentissage de données complètement non-libellées, dont le but est de séparer les données en classes, sans aucune supervision. [1] Il existe de nombreux algorithmes de Clustering, citons : Kmeans, les k plus proches voisins, la classification hiérarchique ascendante, etc. [18] On s’intéresse à l’un des algorithmes les plus simples qui est la classification hiérarchique ascendante. Algorithme : Classification Hiérarchique Ascendante [1] Entrée : Ensemble d’apprentissage : Le nombre de Clusters : Une fonction de distance : ; ; dans un groupe (singleton). ;

Initialement, on place chaque instance/donnée de

Tant que le nombre de groupe est plus grand que , faire   Trouver la paire de groupes les plus proches minimale au sens de ) Combiner et pour former un nouveau groupe ; , ; (c’est-à-dire dont la distance est

Fin tant que Sortie : un arbre binaire illustrant la manière dont les groupes ont été combinés.

Page 9

L’algorithme fonctionne de la façon suivant : initialement chaque instance/donnée est placée dans un singleton, ensuite l’algorithme va décider à chaque itération quelle paire de groupes doit être combinée en un nouveau groupe, en fonction de la distance entre chaque groupe, (on choisit la distance minimale entre deux groupes), puis il refait ce travail à nouveau tant que le nombre de groupes est plus grand que le nombre de Clusters . Il existe deux manières pour calculer la distance entre les groupes : [1] [19]  Dans le cas de singletons : on peut utiliser la distance Euclidienne, qui est définie par :

Dans le cas des groupes contenant plus qu’un élément, on peut utiliser l’une des trois possibilités : a. Lien minimal (Single-Linkage) : c’est la distance minimale entre les couples d’éléments de chaque Cluster, définie par :

b. Lien Maximal (Complete-Linkage) : idem, mais avec cette fois la distance maximale, définie par :

c. Lien Moyenne (Average-Linkage) : c’est la distance moyenne entre les couples d’élément de chaque Cluster, définie par :

Dans notre cas d’observatoire photographique du paysage, on ne s’intéresse pas à ce type de classification puisqu’il nécessite la présence d’un analyste qui va donner des échantillons de différentes types de classes d’information, c’est qu’on va définit dans la partie suivante.

II.2. Méthode de classification supervisée
La classification supervisée est une des tâches de l’apprentissage supervisé, dont le but est de prédire une classe correcte sur des données futures. Comme son nom l’indique, la classification supervisée nécessite une supervision de la part d’un opérateur (ou d’un analyste) dans laquelle, « il identifie des échantillons assez homogènes de l’image qui sont représentatifs de différents types de classes d’information. » [16]

Page 10

Il existe de nombreuses méthodes de classification supervisée, où un opérateur donne des échantillons de différentes classes recherchées, citons : k plus proches voisins, classifieur bayésien naïf, machine à vecteurs de support (SVM), etc. [1] La classification supervisée commence donc par l’identification des classes d’informations qui sont ensuite utilisées pour définir les classes spectrales qui les représentent. Soit le domaine des données, et distribution de probabilité conjointe sur le domaine des classes et soit une . En donnant un ensemble d’apprentissage

, l’apprentissage supervisé va effectuer l’apprentissage d’une fonction : . Le but est que lequel . [1] prédise une classe correcte sur des futures données , dans

L’abréviation signifie que des variables indépendantes et identiquement distribués sont des variables aléatoires, où :   elles ont toutes la même loi de probabilité, et elles sont mutuellement indépendantes (c’est-à-dire, n’ayant aucune influence l’une sur l’autre). [21] Comme on a déjà dit, il existe de nombreux classifieurs, on s’intéresse au .

Algorithme :
Entrée : Ensemble d’apprentissage : Un nombre de voisinages : Une fonction de distance : Test de l’instance :  Trouver les données … ;

plus proches voisins (
; ; ;

)[1]

de , les plus proches de

au sens de la distance

;

Sortie :

, qui est la majorité des classes

; départager les ex-æquo aléatoirement.

Pratiquement, l’ensemble d’apprentissage représente les pixels (échantillons) qu’un opérateur identifie, représente la distance (ex. Euclidienne) , et représente le pixel qu’on souhaite classifier. L’algorithme va trouver instances des échantillons les plus proches de au sens de et enfin, la sortie de l’algorithme est de telle façon qu’on départage les ex-æquo aléatoirement. Notons que « départager les ex-æquo aléatoirement » signifie qu’en cas de plusieurs possibilités de valeur égale, l’algorithme va choisir une de ces possibilités de manière aléatoire. (Voir figure 2.1.)

Page 11

Exemple 1. Illustration de l’algorithme

sous l’apprentissage supervisée.

La bibliothèque de Matlab contient la méthode de classification supervisée suivante : [29] [ class ] = knnclassify ( Sample , Training , Group , K , Distance , Rule ) ; Cette méthode permet de classifier les données non-libellées, en précisant :       Sample : l’ensemble des données non-libellées. Training : l’ensemble des données libellées. Group : les classes correspondant de Training. K : le nombre de voisinage K et les données libellées. Distance : la distance métrique entre les données. Rule : identifie la manière dont le partage des ex-æquo est effectué.

L’objectif est d’appliquer une classification supervisée sur des séries de photographies, aussi l’opérateur va identifier, dans un premier temps, des pixels de chaque classe (ciel, eau, arbres, etc. sont des classes discrètes), mais cela nécessite beaucoup de temps (pour collecter les données), et il est parfois difficile de le faire. Dans notre cas, la taille de l’ensemble d’apprentissage est beaucoup très élevée, notons que la taille minimale d’un ensemble d’apprentissage est égale à la taille d’une photo provenant d’une série photographique, alors si on souhaite appliquer une classification supervisée, on a besoin d’avoir une annotation complète de la photographie qui constitue l’ensemble d’apprentissage ce qui est une tâche très difficile à faire, c’est pour cela que l’on va passer à une nouvelle méthode de classification qui est une extension de la classification supervisée. On parle de la classification semi-supervisée.

Page 12

CHAPITRE III

LES METHODES DE CLASSIFICATION DE PIXELS SEMI-SUPERVISEES
Initialement l’apprentissage semi-supervisé est motivé par son intérêt pratique pour un apprentissage rapide, meilleur et peu coûteux. Dans différentes applications réelles, il est relativement facile d’obtenir une grande quantité de données non-libellées. Comme exemple d’applications réelles, citons :    Des documents qui peuvent être obtenus du Web, Des images qui peuvent être obtenues à partir des cameras de surveillance, Des paroles qui peuvent être collectées à la radio, etc.

On a cité ces exemples juste pour illustrer que l’obtention des données non-libellées est très facile, alors toutes ces données sont non-libellées et qui sont faciles à obtenir et à collecter, en grandes quantités. La difficulté réside dans la connaissance des labels de ces données pour certaines tâches de prédictions, ce qui nécessite une annotation humaine parfois très couteuse. [2] Dans les parties ci-dessous on va définir ce qu’est une classification semi-supervisée, on va voir comment il est possible d’apprendre quelque chose de données non-libellées et enfin on va définir la différence entre l’apprentissage inductif et transductif. 1. Définition La classification semi-supervisée est une extension de la classification supervisée. La classification supervisée est effectuée par un apprentissage avec des données libellées, tandis que cette nouvelle classification est réalisée, non pas seulement avec des données libellées, mais aussi avec des données non-libellées. L’ensemble d’apprentissage de la classification semisupervisée, est constitué de données libellées 2. Hypothèse L’hypothèse est que le nombre de données libellées (difficiles à obtenir) va être beaucoup plus petite que le nombre de données non-libellées (disponibles en grandes quantités et sont simple à collecter), cela va nous permettre de réduire le travail d’étiquetage. L’idée de la classification semi-supervisée est d’effectuer l’apprentissage d’un classifieur sur des données libellées et non-libellées, de telle sorte qu’elle soit meilleure que la classification supervisée. [1] et non libellées . [1]

Page 13

3. Apprentissage Comment la classification semi-supervisée est-elle possible ? Qu’est ce qu’on peut apprendre de données non-libellées ? Dans le cas de photographies, qu’est ce qu’on peut apprendre des pixels dont on ne sait pas de quel composant paysager ils proviennent ? Les réponses à toutes ces questions résident dans les hypothèses qui font le lien entre la distribution des données non-libellées et des classes cibles . 4. Exemple d’apprentissage [1] Dans la figure ci-dessous, on présente un exemple simple pour montrer comment l’apprentissage semi-supervisé est possible, et pourquoi parfois la décision est meilleure dans la classification semi-supervisée.

-1.5

-1

-0.5

0

0.5

1

1.5

2

Figure 3.1. Un exemple simple illustrant comment l’apprentissage semi-supervisée est possible. Dans la figure l’ensemble d’apprentissage supervisé est uniquement constitué de deux données libellées, un libellé rouge et l’autre bleu, alors la meilleure estimation de la ligne de décision est pour , donc toutes les données non-libellées qui sont à gauche de cette ligne vont être classifiées rouge, et les autres vont être classifiées bleu, tandis que l’ensemble d’apprentissage semi-supervisé est constitué de toutes les données (libellées et non-libellées), or l’hypothèse est que les données dans chaque classe forment un groupe cohérent, aussi l’estimation semi-supervisée de la ligne de décision va être entre les deux groupes pour .
Résultat de l’apprentissage supervisé

-1.5

-1

-0.5

0

0.5

1

1.5

2

Résultat de l’apprentissage semi-supervisé

-1.5

-1

-0.5

0

0.5

1

1.5

2

Figure 3.2. Effet de l’apprentissage semi-supervisée

Page 14

5. Différence type d’apprentissage semi-supervisé (inductif et transductif) [1][2] On dispose d’un ensemble d’apprentissage de données libellées données non-libellées  tel que : et , . , . et de

L’apprentissage inductif effectue l’apprentissage d’une classifieur pour que soit une bonne prévision sur les données futures, au delà de

L’apprentissage transductif effectue l’apprentissage d’un classifieur pour que soit une bonne prévision sur les données non libellées

6. Méthode d’apprentissage semi-supervisée Il existe de nombreuses méthodes d’apprentissage semi-supervisé, citons : l’AutoApprentissage (Self-Training), le Co-Apprentissage (Co-Training), les Machines à vecteur de support (SVM), les Modèles Génératifs (Generative Models), les Modèles à Base de Graphes (Graph Based SSL). On s’intéressera seulement au trois premières méthodes. Dans les parties suivantes, on va effectuer l’état de l’art des trois premières méthodes de classifications semisupervisées.

III.1. Méthode d’auto-apprentissage (Self-Training)
La méthode de classification par auto-apprentissage est une simple modèle de classification semi-supervisée, caractérisée par le fait que la procédure d’apprentissage utilise ses propres prévisions pour réapprendre elle-même. Elle est utilisée dans des tâches réelles, citons : le traitement de langage naturel. Elle peut être soit inductive ou transductive selon la nature du classifieur .[1] Voilà un algorithme de classification par auto-apprentissage illustrant la procédure d’apprentissage automatique.

Algorithme d’auto-apprentissage [1]
Entrée : Tant que     Ensemble d’apprentissage : est non vide, faire avec en utilisant l’apprentissage supervisé ; , et

Effectuer l’apprentissage de Appliquer sur ; de à

Retirer un sous-ensemble Ajouter

avec un haut degré de confiance ; ;

Fin tant que Sortie : Ensemble d’apprentissage beaucoup plus grand.

Page 15

L’algorithme d’auto-apprentissage fonctionne de la façon suivante : il rentre dans une boucle, il entraîne avec , puis est utilisé pour libeller les données de , ensuite ces données de vont être ajoutées aux données de (qui sont avec un haut degré de confiance) et enfin le classifieur est ré-entraîné avec les données libellées. La procédure est refaite jusqu’à la satisfaction d’un critère d’arrêt, par exemple lorsque est vide. [10] L’hypothèse de l’auto-apprentissage est que ses propres prédictions, tendent à être correctes. En revanche, une erreur faite par , peut se renforcer elle-même et générer des donnés incorrectement libellées (à cause du petit nombre des données libellées). Avec ces résultats incorrects l’itération suivante va conduire à un résultat encore plus mauvais, c’est pour cela qu’il est nécessaire d’avoir un nombre grand de données libellées dans chaque classe. Une solution heuristique proposée pour éviter cette erreur est de ne pas libeller certaines données non-libellées si la confiance ne dépasse pas un certain seuil de décision. L’avantage de l’auto-apprentissage est qu’il est simple à utiliser et que le choix de la fonction est laissé ouvert (wrapper method), c’est-à-dire que peut être un algorithme très simple comme l’algorithme ou bien un algorithme plus compliqué. Voilà un exemple [1] concret d’auto-apprentissage :

Algorithme d’auto-apprentissage: 1-plus-proche-voisin (Propagation 1-nearest-neighbor) [1]
Entrée : Ensemble d’apprentissage : Une fonction de distance : Tant que     est non vide, faire ; en à ; à ; ; départager les ex-æquo aléatoirement. ; , et

Sélectionner Soit Retirer Ajouter le plus proche voisin de de et ajouter

Fin tant que Sortie : Ensemble d’apprentissage beaucoup plus grand.

L’algorithme fonctionne de la façon suivante : il entre dans une boucle (jusqu’à ce que soit vide) il sélectionne de , le-plus-proche-voisin de , puis il libelle la donnée , et enfin il retire de et l’ajoute à , et boucle à nouveau pour sélectionner un autre élément de , leplus-proche-voisin de .

Page 16

Itération 1

Itération 2

Itération 3

Résultat final

Exemple 2. Illustration de l’algorithme

de l’apprentissage semi-supervisée.

III.2. Méthode Co-Apprentissage (Co-Training)
C’est un algorithme d’apprentissage qui est une extension de la technique d’AutoApprentissage. Il est utilisé quand on dispose de petites quantités de données libellées avec une grande quantité des données non-libellées pour augmenter ses performances. La description de chaque donnée est partitionnée en deux vues différentes, qui fournissent des informations complémentaires sur les données. [2] [3] La méthode de classification par Co-Apprentissage est caractérisée par l’utilisation de deux vues et d’une même donnée (libellée ou non-libellée), de manière indépendante, en d’autre terme une donnée est représentée par deux ensemble d’attributs distincts. L’idée du Co-Apprentissage est d’effectuer l’apprentissage de deux classifieurs (un par vue) et que ces deux classifieurs s’apprennent mutuellement. [3] Les hypothèses de la classification par Co-Apprentissage sont: [1]    L’existence d’un partitionnement des données en vues (ensemble d’attribut). N’importe quelle vue doit être suffisante pour effectuer l’apprentissage d’un classifieur en donnant suffisamment de données libellées. Les vues doivent être conditionnellement indépendantes étant donnée la classe. En d’autres termes .

Page 17

Algorithme de Co-Apprentissage [1]
Entrée : Ensemble d’apprentissage : , et

Initialement : Chaque donnée contient deux vues : On crée deux copies de Tant que      est non vide, faire avec avec et ) aux ) aux et avec ; :

Effectuer l’apprentissage de deux classifieurs, Appliquer Ajouter Ajouter et sur (ou bien classifier

) séparément ; de de ; ;

(les k-plus fiables données de (les k-plus fiables données de et répéter ;

Retirer ces données de

Fin tant que Sortie : Ensemble d’apprentissage beaucoup plus grand.

Notons que le classifieur de la vue-1, noté , s’intéresse seulement à la première vue et ignore la deuxième vue en lui donnant la donnée complète. De même pour le [1] classifieur de la vue-2, noté . L’algorithme fonctionne de la façon suivante : Initialement on crée deux copies ( et ) de l’ensemble des données libellées de l’ensemble d’apprentissage. Il entre dans une boucle (jusqu’à ce que soit vide), il effectue l’apprentissage des deux classifieurs et avec et , respectivement, puis il va les appliquer sur , il ajoute les -plus fiables données à procédure à nouveau. Le but après le Co-Apprentissage, est d’utiliser les deux vues ensemble pour permettre aux données non-libellées d’augmenter un ensemble (beaucoup plus petit) de données libellées. et respectivement et enfin il les retire de et refait la

Page 18

III.3. Méthode de machine à vecteur de support semi-supervisée (S3VM)
D’abord, on va discuter la méthode de machines à vecteur de support (SVM). C’est un autre modèle de classification supervisée qui va prendre comme entrée un ensemble de données (complètement libellées en deux classes) et va choisir pour de nouvelles données, à laquelle des deux classes l’affecter. On va définir quelques notations qui correspondent à SVM, citons : la frontière de décision linéaire, la marge géométrique, les vecteurs de supports, la formulation primale de SVM, la formulation duale de SVM, etc. puis on va étendre la discussion pour arriver à S3VM, et enfin on va avoir l’algorithme qui va implémenter la méthode S3VM en utilisant le principe one-versus-one.

III.3.1. La machine à vecteurs de supports (SVM) : formulation primale

Figure 3.3. Un exemple de la frontière de décision linéaire SVM. Cette figure présente un ensemble d’apprentissage de données complètement libellées (en rouge et en bleu), dont le but est de séparer ces données uniquement en deux classes. 1. Définitions  La frontière de décision linéaire : dans la figure c’est la ligne en gras, permettant de séparer les données libellées en deux classes, or cette ligne est utilisée de telle façon que la distance entre elle et la plus proche donnée (bleu ou rouge) soit maximale. Dans la figure la frontière de la décision linéaire est la ligne noire, et non pas la ligne verte. La marge géométrique de la décision : elle est représentée par deux lignes pointillées. En d’autre terme, elle est le double de la valeur absolue de la distance entre la frontière de décision et les vecteurs de supports. Les vecteurs de supports : ce sont les données les plus proches de la frontière de décision. Ce sont les données qui se trouvent sur les deux lignes pointillées.

2. La frontière de décision Supposons qu’on dispose de deux classes et que la frontière de décision est linéaire en . Elle est notée et définie par l’ensemble suivant : où :

Page 19

  

représente la dimension du vecteur d’attribut . représente le vecteur de paramètres qui spécifie l’orientation et l’échelle de la frontière de décision. détermine le déplacement de .

On va travailler sur l’hypothèse que l’ensemble d’apprentissage est séparé linéairement, (c’est-à-dire, il existe au moins, une frontière de décision linéaire qui peut séparer tous les données libellées). La frontière de décision est toujours perpendiculaire à et est définie par

De telle façon qu’elle va couper l’espace des attributs en deux moitiés, une telle que: (désignant le côté positif) et l’autre telle que (désignant le côté négatif). On peut prédire les labels des données à l’aide du signe de , défini par , alors représente les données positivement libellées, et représente les données négativement libellées.  La distance entre une donnée et la frontière de décision en valeur absolue est :

La distance signée entre une donnée

et la frontière de décision est :

Or elle est positive si une donnée libellée positivement (respectivement négativement) et elle se situe dans le côté positif (respectivement négatif). 3. La marge géométrique de la décision linéaire La marge géométrique représente la distance minimale (en valeur absolue) entre la frontière de décision et les vecteurs de supports, et elle est définie par:

Notons que la marge géométrique signée, est définie par :

Le problème est de trouver la frontière de décision qui va maximise la marge géométrique, (c’est-à-dire, trouver les paramètres qui vont la maximiser) et est définie par :

Page 20

Exemple : Dans la figure et .

la frontière de décision est définie par :

Figure 3.4. Une illustration de la frontière de décision linéaire. On constate qu’on peut arbitrairement décaler les paramètres comme exemple : , alors si on multiplie , prenons par , on va

avoir le même résultat . Pour éliminer cette nuance de degré de liberté, on va introduire une condition qui nécessite à une donnée proche de la frontière de décision (vecteur de support) doit satisfaire , notons que toutes les données libellées doivent satisfait : . Alors l’équation peut être réécrite et définie par :

De plus, maximiser

est équivalent à minimiser

, alors ça va nous conduire au

problème quadratique suivant, qui est plus facile à optimiser :

Jusque là, on a admis l’hypothèse que la frontière de décision est linéaire et que l’ensemble d’apprentissage est séparé linéairement (c’est-à-dire que les contraintes peuvent être toutes satisfaites).

Page 21

4. La marge souple de SVM On va passer au cas de n’importe quel ensemble d’apprentissage, même ceux qui ne sont pas séparés linéairement (c’est-à-dire, au plus une contrainte peut ne pas être satisfaite). Pour cela, on va allouer la condition pour certaines données, mais on va pénaliser le montant, ce qui est effectué par l’introduction de slack variable à chaque donnée. Le slack variable    pour la donné est la mesure de la déviation de l’idéal: [15]

Lorsque , alors les données se trouvent sur le bon côté de la frontière de décision, au dehors de la marge géométrique. Lorsque , alors les données se trouvent aussi sur le bon côté de la frontière de décision, mais elles se trouvent au sein de la marge géométrique. Lorsque , alors les données se trouvent sur le mauvais côté de la frontière de décision, que ce soit au sein ou au dehors de la marge géométrique.

Figure 3.5. Un exemple de la frontière de décision linéaire SVM, en utilisant « slack variable » Alors l’équation peut être réécrite et définie par :

Notons que est un paramètre qui nous permet de satisfaire la contrainte de la marge géométrique pour chacune des données, en d’autre terme si est proche de , on ne paye pas beaucoup pour les données qui violent la contrainte de la marge, mais si est proche de , on paye beaucoup pour les données qui violent la contrainte de la marge. Alors on va essayer de trouver le maximum de la marge géométrique, en autorisant quelques données d’être sur le mauvais côté de la frontière de décision, même au sien de la marge géométrique.

Page 22

III.3.2. la machine à vecteurs de supports (SVM) : formulation duale
Jusqu’à là, on a vue que pour un apprentissage SVM, un classifieur linéaire est formulé comme une résolution d’un problème d’optimisation sur (formulation primale). Au contraire, SVM peut être reformulé pour effectuer l’apprentissage d’un classifieur linéaire, définie par , en résolvant le problème d’optimisation sur (formulation duale). On va définir, en premier temps, ce qu’est la formule des multiplicateurs de Lagrange, puisqu’on va les utiliser dans la formulation duale de SVM. 1. Les multiplicateurs de Lagrange [25] Supposant qu’on dispose du problème suivant :

Et on veut le résoudre en utilisant la méthode classique des multiplicateurs de Lagrange, alors on va introduire une nouvelle variable appelé la multiplicateur de Lagrange, pour réécrite le problème en : . Pour résoudre l’équation on va utiliser la méthode classique des multiplicateurs de Lagrange, d’où l’équation est réécrite et définie par :

Or cette équation doit être minimisée par rapport à 2. Formulation duale de SVM [23]

et , et maximisée par rapport à .

On va utiliser les multiplicateurs de Lagrange pour faire passer l’équation à sa formulation duale, donc pour minimiser l’équation par rapport à et , on va annuler ses dérivées partielles :

Enfin on va substituer ces contraintes en équation duale de SVM suivante :

, pour avoir la formulation

Page 23

Démonstration :

3. L’astuce du noyau (Kernel trick) [24] On a vue que lorsque l’ensemble d’apprentissage n’est pas séparé linéairement, on peut introduire des slack variables pour résoudre ce problème (la marge souple de SVM), mais il existe des cases dans lequel il n’existe les classifieurs linéaires ne sont pas appropriés, alors pour résoudre ce problème, on va introduire ce que l’on appelle l’astuce du noyau (en anglais le Kernel Trick). Supposons qu’on dispose d’un ensemble d’apprentissage qui n’est pas séparé linéairement, distribué dans un espace de dimension , supposons aussi qu’il n’existe pas un classifieur linéaire approprié qui va le séparer, alors pour résoudre ce problème, on va utiliser la technique de l’astuce du noyau qui consiste à utiliser un classifieur linéaire pour résoudre ce problème non-linéaire, en transformant l’espace de dimension , en un espace de plus grande dimension , alors les données de ce nouvel espace peuvent être séparées. En d’autres termes, en transforme le problème non résolue par un classifieur linéaire, en un problème résolu par un classifieur linéaire, en transformant l’espace initial en un espace de dimension augmentée. La fonction de transformation est notée par . 4. Résumé Le classifieur et l’apprentissage de SVM dans l’espace transformé sont :  Le classifieur en formulation primale :

Le classifieur en formulation duale :

L’apprentissage en formulation primale :

L’apprentissage en formulation duale :

Page 24

On dénote noyaux employés avec SVM, citons :    Le noyau linéaire : Le noyau polynomial : Le noyau gaussien :

qui représente le noyau, dont il existe plusieurs

5. Avantage de la formulation duale [24] La complexité de la résolution de la formulation primale est , tandis que pour la formulation duale est , donc si la taille de l’ensemble d’apprentissage est beaucoup très élevée que celle de la dimension du vecteur d’attributs, alors il est mieux de résoudre le problème en formulation duale. Lorsqu’on applique une fonction de transformation de l’espace de dimension , pour avoir un nouvel espace de dimension plus élevée , on va essayer de résoudre en formulation primale, dans ce nouvel espace, alors la complexité de la résolution va être au lieu de , tandis que la complexité de la résolution pour la formulation duale va reste la même . Dans notre problème de classification semi-supervisée, on s’intéresse à la formulation duale de SVM et en utilisant le noyau linéaire.

III.3.3. La machine à vecteurs de supports semi-supervisée (S3VM) [1]
S3VM est une autre méthode de classification semi-supervisée qui va prendre comme entrée, un ensemble d’apprentissage de données libellées et non-libellées, et elle va essayer de séparer ces données en deux groupes, en utilisant, non pas seulement les données libellées mais aussi en utilisant les données non-libellées. Donc l’objectif devant S3VM est de trouver la marge maximale de telle façon que les données libellées et non-libellées soient au dehors de la marge.

Figure 3.6. Un exemple de la frontière de décision S3VM.

Page 25

Alors pour effectuer l’apprentissage de S3VM, on va tenir compte des données nonlibellées, or ces données non pas des labels, et en absence de labels, on ne sait pas si les données se trouvent sur le bon côté or non. L’hypothèse qu’on va utiliser est qu’on va utiliser la prédiction du label d’une donnée , comme étant le label putatif, en d’autres termes on n’utilise pas le vraiment label de , mais on utilise un label putatif déterminer complètement à l’aide de , alors les données non-libellées vont être considérées toujours sur le bon côté, et est interprété par : . En utilisant le résultat obtenu, on va avoir les équations ci-dessous :  L’apprentissage de S3VM en formulation primale :

L’apprentissage de S3VM en formulation duale :

III.3.4. Algorithme de S3VM
On a déjà vue que la méthode de classification SVM permet de classifier l’ensemble d’apprentissage (composé de données libellées) uniquement en deux classes, tandis que la méthode de classification S3VM permet de classifier l’ensemble d’apprentissage (composée de données libellées et non-libellées) uniquement en deux classes, mais en tenir compte des données non-libellées. On souhaite appliquer S3VM sur une série photographique du paysage, composé de plusieurs éléments paysagers (c’est-à-dire, plus que deux classes). Il existe plusieurs méthodes pour résoudre notre problème dont on s’intéresse à une, le un-contre-un (en anglais, oneversus-one). Supposons qu’on dispose de classes, alors l’algorithme S3VM va utiliser fois le classifieur, or à chaque fois, il va séparer un pair de classe (en phase de test). La donnée a classifié est analysé par chaque classifieur et un vote majoritaire permet de déterminer sa classe. L’inconvénient de cette méthode est l’utilisation d’un grand nombre de classifieurs binaires, dépendant du nombre de classes. On va utiliser l’outil Matlab pour implémenter l’algorithme de S3VM. La bibliothèque de Matlab contient 2 méthodes qui permettent d’implémenter la méthode de classification S3VM :

Page 26

[27]

Cette méthode permet de retourner une structure svmstruct contenant des informations qui concerne le classifieur SVM :     : représente l’ensemble des données non-libellées. : représente l’ensemble des données libellées. : représente les classes correspondant de Training. : représente la fonction de noyau.
[28]

Cette méthode permet de classifier les données en utilisant la structure de la méthode SVM :   : représente la structure de classifieur SVM créer en utilisant svmtrain, : représente l’ensemble des données non-libellées.

En va essayer d’appliquer la méthode S3VM à une des séries photographiques provenant d’un observatoire photographique du paysage, notons que S3VM sépare les données uniquement en deux classes, en tenir compte des données non-libellées. Comme on a déjà dit, une des techniques proposées pour résoudre ce problème, est d’utiliser l’approche un-contre-un (oneversus-one)

Algorithme : Machine à vecteur de support semi-supervisée : one-versus-one
Entrée : Ensemble d’apprentissage : Nombre des classes : Pour Pour   allons de jusqu’à ; faire faire avec à l’aide de SVM ; ; , et

allons de jusqu’à

Effectuer l’apprentissage de Appliquer sur

et ajouter le résultat dans une variable matricielle

Fin pour Fin pour Libeller les données de , en utilisant le maximum des sommes des éléments des lignes de la matrice , afin d’ajouter tous les données de à . Sortie : Ensemble d’apprentissage beaucoup plus grand.

Page 27

Notons que :  représente le classifieur qui va être utilisé pour effectuer l’apprentissage avec uniquement en deux classes, et ; représente les données libellées et

 Exemple :

Supposons qu’on dispose de quatre classes ( , , et ), alors on va avoir classifieurs qui vont effecteur l’apprentissage des données libellées, or chaque classifieur va être appliqué sur , c’est-à-dire :  va effectuer l’apprentissage avec (les données libellées et ) et il va classifier les données non libellées de en deux classe afin d’ajouter le résultat dans , etc. va effectuer l’apprentissage avec (les données libellées et ) et il va classifier les données non libellées de en deux classe afin d’ajouter le résultat dans . Enfin, la matrice données , (de taille égale à ), est utilisé pour déterminer le label des :

, en utilisant la ligne convenable

de la matrice

Alors le label de va être : l’indice à obtenu le plus grand nombre

, alors puisque , donc le label de va être .

Entrée
O R OB RR

Résultat final
OBO RRO

O O O O O O O O R R R R R OB OB OB OB

OB OB OB OB RB RB RB RB RR OBB OBB

OBB OBB OBB OBB OBB OBB RBB RBB RBB RBB RRB

Classifieur orange, rouge

Classifieur orange, rouge

Classifieur orange, rouge

Exemple 3. Illustration de

one-versus-one de l’apprentissage semi-supervisée.

Page 28

CHAPITRE IV

L’OBSERVATOIRE PHOTOGRAPHIQUE
DU PAYSAGE ET REPHOTOGRAPHIE
L’objectif de notre travail est de détecter des changements significatifs, pour des observatoires photographiques du paysage, dans des séries de clichés (séries photographiques), représentant un certain territoire, prises au sol, à des grands intervalles de temps. Ces séries de clichés peuvent être soit des séries récentes réalisées de façon homogènes dès le départ, soit des séries qui démarrent avec des images anciennes. Dans un premier temps, nous allons voir quelques définitions, puis on définit ce qu’est un observatoire photographique du paysage idéal, son objectif, et enfin on définit la rephotographie.

IV.1. Définitions [7]
 L’itinéraire photographique est « un parcours virtuel dans un territoire. » Il est « composé d’une quarantaine de points de vue initiaux et d’une soixantaine de points de vue supplémentaires. » Un point de vue initial est « un point de vue qui va être re-photographié afin de constituer une série photographique. » Un point de vue supplémentaire est « un point de vue qui ne sera pas a priori rephotographié mais qui pourra l’être en tant que de besoin. » Une série photographique est « une succession de prises de vue effectuée du même point de vue, dans le même cadre et à des intervalles réguliers (par exemple, chaque 12 mois, 24 mois, etc.) ou irréguliers ». En d’autres termes, c’est « un ensemble composé par un point de vue initial et ses re-photographies successives. » La re-photographie est « une photographie réalisée à partir du point de vue initial, du même point et avec le même cadrage ».

  

IV.2. L’observatoire photographique du paysage [7]
L’observatoire photographique du paysage est le dispositif permettant la mise en œuvre d’un itinéraire photographique alimenté par les compagnes de re-photographies, afin d’enrichir les séries photographiques.

Page 29

L’objectif de la création d’un observatoire photographique du paysage est « constituer un fonds de séries photographiques qui permette d’analyser les mécanismes et les facteurs de transformations des espaces ainsi que les rôles des différents acteurs qui en sont la cause de façon à orienter favorablement l’évolution du paysage. » En d’autres termes, l’objectif est de construire une série photographique pour chaque point de vue initial, or cet observatoire va permettre d’analyser les mécanismes et les facteurs de transformations qui modifient l’espace. Un observatoire photographique du paysage idéal doit être constitué en reconduisant des prises de vue à l’identique, c’est-à-dire en conservant le point de vue exact et le cadrage précis de l’image, ainsi que la lumière, laquelle dépend de la date et de l’heure de prise de vue. Cette méthodologie doit nous permette d’obtenir des séries photographiques rigoureusement identiques en ce qui concerne le positionnement des éléments du paysage, et cela rendra possible une comparaison puisque les seules différences entre les images sont le fait des changements ayant affecté le territoire dans le temps séparant les prises de vue. Toutes ces informations et ces données vont être enregistrées pour être manipulé en appliquant les méthodes de classifications, or pour les enregistrer on a besoin de l’expertise d’un photographe qui va utiliser des équipements nécessaires pour récupérer ces données.

IV.3. La re-photographie [9]
Dans notre cas, on a besoin d’un expert qui est un photographe disposé par les équipements suivants :     Caméra, film, paramètres de photo : inclus la date et la localisation de la prise de vue. Perche de référence : permet d’illustrer les changements dans la taille et la structure des végétations au cours du temps. Formulaire d’évaluation : inclus des photos imprimées et des évaluations du site. Carnet : on stocke des photos et des évaluations, pour avoir un accès rapide aux informations dans le futur.

Le choix des localisations est fait de telle façon qu’un photographe puisse revisiter le lieu géographique, pour récupérer des photos avec certains critères :  Point de repère (permanent et distinctif) : permettre de re-photographier (pentes des montagnes, relief, ligne d’horizon et d’autres caractéristiques géographiques qui restent les mêmes pour une long période de temps). Paramètres de Photo (date et localisation de la prise de vue) : placer dans le Foreground, de telle façon que sa lecture soit facile. Perche de référence : pour faciliter l’interprétation de la photo dans le futur, il faut le placer à la même distance (cinquantaine de pieds) du point d’origine chaque fois.

 

Enfin, la dernière étape sera le stockage de ces photos dans un carnet avec ses évaluations correspondantes. Des exemples de série de clichés provenant d’observatoire photographiques du paysage sont consultés dans l’Annexe. Page 30

CHAPITRE V

EVALUATION DES PERFORMANCES
DES METHODES DE CLASSIFICATION SEMI-SUPERVISEES
Après avoir effectué l’état de l’art des trois méthodes de classification semi-supervisées, on va évaluer les performances de ces méthodes sur une série de clichés provenant d’observatoire photographiques du paysage. Comme exemple concret, on va utiliser la série photographique du point de vue n°32 – Dourges – Lieu-dit Les Douchis, qui est composé de six photos (voir l’annexe B). [7] Les différentes étapes de l’algorithme de classification sont les suivantes : Etape n°1. La lecture d’une ou de plusieurs photo : C’est l’étape initiale qui nous permettre de créer l’ensemble d’apprentissage. La lecture est effectuée en utilisant les 3 bandes RGB, ou YCbCr, etc. notons que dans le cas de Co-Apprentissage on a utilisé les deux niveaux de couleurs, puisqu’on dispose de deux vues (le RGB pour vue 1 et le YCbCr vue 2). Etape n°2. La création de l’ensemble d’apprentissage :   Il est constitué de l’ensemble de données libellées et non-libellées , représentant les pixels des photos, notons que l’ensemble est identifié à partir d’un analyste. Il est constitué de la plus ancienne photo de la série (on peut choisir une ou plus qu’une photo pour constituer l’ensemble d’apprentissage pour certain besoin, en parcourant la série de la plus ancienne photo vers la plus récente). L’analyste, en utilisant un carrée de pixels par classe (ex. un carré de pixels, pixels, etc.), va annoter les pixels de chaque classe, pour représenter l’ensemble , et le reste des pixels des photos vont représenter l’ensemble . Dans le cas de CoApprentissage, on a utilisé le carré de pixels par class.

Etape n°3. La création du vecteur d’apprentissage : Après avoir identifié l’ensemble d’apprentissage, l’étape suivante est de conserver tous les pixels des données libellées (ou bien leur moyenne et l’écart type), dans un vecteur appelé le vecteur d’apprentissage. (Il existe plusieurs façons pour constituer ce vecteur d’apprentissage, en utilisant soit les 3 canaux RGB, soit local-jet, soit FFT, soit ondelettes, etc.).

Page 31

Etape n°4. La classification des données non-libellées : On va classifier les données de à l’aide d’un classifieur , en utilisant un des classifieurs de l’outil Matlab. (Matlab dispose d’un ensemble de méthodes de classifications prédéfinis dans sa bibliothèque, citons :  Méthode de k-plus proche voisin :

Méthode de SVM :

Etape n°5. Mise en jour de l’ensemble des données libellées : on ajoute les pixels les plus fiables de l’ensemble à l’ensemble . La procédure va répétée de nouveau jusqu’à la satisfaction d’un critère d’arrêt. (Ex. soit vide, après un certain nombre d’itération, etc.). La sortie de l’algorithme : C’est l’ensemble d’apprentissage, qui va être utilisé pour classifier des données futures (on parle de l’apprentissage Inductif). Dans les parties ci-dessous on discute les différentes étapes de ces méthodes de classification semi-supervisées pour évaluer ses performances, en utilisant les méthodes de l’outil Matlab.

V.1. Algorithme d’auto-apprentissage
Comme on l’a déjà dit, c'est une simple méthode de classification semi-supervisée qui est caractérisée par le fait que la procédure d’apprentissage utilise ses propres prévisions pour réapprendre elle-même, et que ses propres prédictions tendent à être correctes et que les données sont bien distribuées. L’apprentissage du classifieur par auto-apprentissage est effectué de la manière suivante : après avoir identifié l’ensemble d’apprentissage et le vecteur d’apprentissage, on va effectuer l’apprentissage du classifieur (le choix du classifieur est laissé ouvert) avec l’ensemble des pixels libellées , puis on va appliquer le classifieur sur l’ensemble des pixels non-libellées pour le libeller, ensuite les pixels de (qui sont avec un haut degré de confiance) vont être ajoutées à , et la procédure est refaite jusqu’à la satisfaction d’un critère d’arrêt. Les différentes étapes sont les suivantes : 1. Lecture d’une photo : en utilisant les 3 bandes RGB. 2. La création de l’ensemble d’apprentissage : en utilisant un carrée de pixels.

3. La création du vecteur d’apprentissage : en conservant la moyenne et l’écart-type du niveau de couleur RGB. 4. Classification des données non-libellées : en utilisant par exemple le

Page 32

5. Mise à jour de l’ensemble des données libellées : en ajoutant un seul pixel à chaque itération à , et la procédure est répétée de nouveau jusqu’à ce que soit vide.

V.2. Algorithme de co-apprentissage
C'est une autre modèle de classification semi-supervisée, qui est caractérisée par le fait que la procédure d’apprentissage utilise deux vues à chaque donné (libellée ou non-libellée) de manière indépendants, de telle façon qu’elle utilise deux classifieurs et (un par vue) et qu’ils s’apprennent mutuellement. L’apprentissage des classifieurs par co-apprentissage est effectué de la manière suivante : après avoir identifié l’ensemble d’apprentissage et le vecteur d’apprentissage, on va effectuer l’apprentissage des deux classifieurs et avec les deux vues de l’ensemble des données libellées et , (ce sont des copies de ), puis on va appliquer chaque classifieur sur le vue correspondant de l’ensemble des pixels non-libellées pour le libeller, ensuite les pixels de (qui sont avec un haut degré de confiance) vont être ajoutées (on ajoute à et à ), et la procédure est répétée jusqu’à la satisfaction d’un critère d’arrêt. (On peut constater que co-apprentissage est une extension de la méthode auto-apprentissage, puisque l’apprentissage utiliser ses propres prédictions pour réapprendre elle-même). Les différentes étapes sont les suivantes : 1. Lecture d’une photo : en utilisant les 3 bandes RGB (vue 1) et YCbCr (vue 2) 2. La création de l’ensemble d’apprentissage : en utilisant un carrée de pixels.

3. La création du vecteur d’apprentissage : en conservant la moyenne et l’écart-type du niveau de couleur RGB et YCbCr. 4. Classification des données non-libellées : en utilisant par exemple le

5. Mise à jour de l’ensemble des données libellées : en ajoutant les données les plus fiable de , ceux qui sont effectuer par à , et ceux qui sont effectuer par à , et la procédure va répétée de nouveau jusqu’à ce que soit vide.

V.3. Algorithme de S3VM
C'est aussi une méthode de classification semi-supervisée qui est caractérisée par le fait que la procédure d’apprentissage utilise la technique SVM, qui va séparer les données de l’ensemble d’apprentissage en deux groupes, en utilisant, non pas seulement les données libellées mais aussi les données non-libellées. L’apprentissage d’un classifieur par S3VM est effectué de la manière suivante : après avoir identifié l’ensemble d’apprentissage et le vecteur d’apprentissage, on va effectuer l’apprentissage du classifieur avec l’ensemble des données libellées , puis on va appliquer le classifieur sur l’ensemble et le résultat va être ajouté à la matrice , et la procédure est refaite jusqu’à la satisfaction d’un critère d’arrêt. La

Page 33

procédure est répétée fois. Enfin chaque donnée de maximum des sommes des éléments de la ligne correspondante de Les différentes étapes sont les suivantes : 1. Lecture d’une photo : en utilisant les 3 bandes RGB.

est libellé en utilisant le .

2. Appliquer la méthode de classification SVM : effectuer l’apprentissage d’un classifieur avec , pour classifier les données en deux classes, et .  Création de l’ensemble d’apprentissage et du vecteur d’apprentissage : un sousensemble est ensuite conservé dans le vecteur d’apprentissage. Effectuer l’apprentissage de avec :

Appliquer

sur

:

On conserve le résultat dans la matrice et la procédure va, de nouveau, effecteur l’apprentissage au d’autre sous-ensemble , jusqu’à ce qu’a un nombre d’itération égale à .

3. Mise à jour de l’ensemble des données libellées : en ajoutant les pixels les plus fiables de l’ensemble à , en utilisant la matrice .

V.4. Evaluation des méthodes de classification semi-supervisée :
1. Le nombre d’itération :   Avec , le nombre d’itération va être égal à , c’est égale à (la taille de l’ensemble d’apprentissage). Avec SVM, le nombre d’itération va être égale à nombre de classe. , c’est-à-dire, avec

, or

représente le

2. Diminuer le nombre d’itération : au lieu d’ajouter tous les pixels de à , on peut ajouter la moyenne de chaque classe à , dans lequel on effectue une seule itération pour chaque image. 3. La taille de l’ensemble d’apprentissage : la taille est très grande, ex. pixels s’il est constitué d’une seule photo (Photographie 1, de la série photographique est de taille ), ce qui va ralentir la procédure de classification. 4. Le temps nécessaire pour effectuer l’apprentissage du classifieur : on a constaté que le temps nécessaire, en utilisant , est très élevé. (dizaines de secondes), tandis qu’il est beaucoup plus petit, en utilisant .

Page 34

V.5. Résultats expérimentaux
On va utiliser la série photographique du point de vue n°32 – Dourges – Lieu-dit Les Douchis, pour voir des résultats expérimentaux. (Voir l’annexe B). [7] Dans un premier temps, on a besoin d’établit une référence (en anglais, Gold Standard, ou bien Ground Truth) qui va être utilisée dans l’évaluation des méthodes semi-supervisées. La référence est une image binaire qui mise en évidence les vraiment changements. On à juste présente la manière dont on évalue les performances de ces méthodes, puisqu’une évaluation correcte nécessite une bonne référence, alors que dans ce papier, on a utilisé une petite fenêtre de référence et on l’a libellée manuellement (ce qui est été une tâche très fastidieuse). V.4.1. Méthode d’évaluation [5] Pour établit une référence, on a choisit un carré de pixels (c’est-à-dire une fenêtre de taille pixels) de la première photographie de la série Dourges, et on a libellé cette fenêtre, de même pour la deuxième photographie de la série Dourges, on a choisit un carré de pixels et on a libellée cette fenêtre aussi (notons que cette fenêtre est choisit de telle manière que les éléments des deux fenêtres se superpose). Voir les figures ci-dessous :

Carrée de 200x100 pixels de la photo n°1

La fenêtre n°1 libellée

La fenêtre classifiée n°1 en utilisant le Self-Training

Carrée de 200x100 pixels de la photo n°2

La fenêtre n°2 libellée

La fenêtre classifiée n°2 en utilisant le Self-Training

Le changement de masque n°1-2 Figure 5.1. Illustration de la méthode d’évaluation de la classification. La référence n°1-2 Après ca, on va créer le changement de masque, entre ces deux fenêtres classifiées, en utilisant la technique de la différenciation :

Page 35

Une fois qu’une référence est établie, il existe plusieurs méthodes standard pour évaluer la performance des méthodes de classification (à partir de la comparaison de la référence avec un changement de masque binaire). On va définit ce qu’est l’accuracy d’une méthode de classification. L’accuracy permet de mesurer la performance d’une méthode de classification. Rosin a décrit trois méthodes pour quantifier la performance d’une classification : 1. Pourcentage de la classification correcte :

2. Coefficient de Jaccard :

3. Coefficient de Yule :

Remarque :     Les vrais positifs (True Positives), noté TP : c’est le nombre des pixels changés détectés correctement. Les faux positifs (False Positives), noté FP : c’est le nombre des pixels no-changés détectés incorrectement. Les vrais négatifs (True Negatives), noté TN : c’est le nombre des pixels no-changés détectés correctement. Les faux négatifs (False Negatives), noté FN : c’est le nombre des pixels changés détectés incorrectement.

V.4.2. Résultat de l’expérimente en utilisant PCC et JC. Séquence 1-2 SelfTraining CoTraining S3VM JC 0.3110 0.5695 0.1419 0.2581 Tableau 5.1. Résultat de la PCC pours les séquences d’images PCC JC PCC JC PCC 0.8971 0.3444 0.9139 0.2542 0.9034 Séquence 2-3 0.9389 0.6202 0.8818 0.4855 0.9184 Séquence 3-4 0.9627 0.1601 0.9318 0.1274 0.9574 Séquence 4-5 0.9527 0.1947 0.9287 0.1170 0.9681

Page 36

CHAPITRE VI

LES METHODES DE CLASSIFICATION
DE PIXELS CLASSIQUES
D’abord, on défini ce qu’est un paysage, ce qu’est un changement naturel et artificiel, pourquoi un changement est considéré significatif et enfin on propose une méthode qui va mettre de mise en évidence les changements significatifs.

VI.1. Les paysages et ses éléments
Notre intérêt est la detection des changements dans une série photographiques provenant d’un observatoire photographique du paysage. Mais pour détecter un certain changement, on a besoin d’abord de définit ce qu’est un paysage et ses éléments paysagers qu’ils le décrivent, de telle façon que lors de la parcours de la séries photographiques, on va faire attention à ces éléments. Donc, on ne peut pas commencer de détecter les changements significatifs sans qu’on définisse ce qu’est un paysage. VI.1.1. Paysage Un paysage « désigne une partie de territoire telle que perçue par les populations, dont le caractère résulte de l’action de facteurs naturels et/ou humains et de leurs interrelations. » [7] On peut dire qu’un paysage est catégorisé selon certains éléments paysagers, par exemple : [12] [14] [30]  Paysage urbain (paysage de ville) : c’est un paysage qui est caractérisé par une forte densité de bâtiments, de monuments, de commerces, d’activités en tous genres, autrement dit c’est un espace densément peuplé. En d’autres termes « Le paysage urbain est une image d’un urbain espace à vocation résidentielle, industrielle et/ou tertiaire majoritaire occupé par une société urbaine. » Paysage rural (paysage de compagne) : c’est un ensemble formé par des constructions regroupés en villages ou bien dispersées, des champs, des bois, des routes et des chemins. En d’autre terme « Le paysage rural est une image d’un espace à vocation agricole majoritaire occupé par une société rurale. » Paysage naturel : c’est un paysage qui n’est affecté par aucune activité humaine. « Seuls les confins maritimes, les déserts et le sommet des montagnes n'ont pas été appropriés par l'homme ». quelques exemples de paysages naturels : les sommets de l’Himalaya, désert de dunes, etc. » Page 37

Jean ARROUYE, professeur de sémiologie de l’image – Université de Provence, à dit : « pour les paysages urbains d’Anne Favret et Patrick Manez je distinguerai des paysage de biais, des paysages de face, des paysages contrastés et des paysages esthétiques … On reconnaitra aussi chez Raymond Depardon ». Notons qu’il existe d’autre type de paysage. VI.1.2. Les éléments d’un paysage [20] Les éléments significatifs qui composent un paysage sont les suivants : 1. Le relief : « Les plaines, les plateaux, les vallées, les collines, les montagnes. » 2. La végétation : dont on distingue « les forêts, la végétation arbustive, les landes, les prairies, les cultures. » 3. L’hydrographie : « L’ensemble des eaux douces et salées visible dans le paysage (les mers, les lacs, les fleuves, les rivières, etc.) » 4. Les traces de l’activité humaine : « les maisons, les usines, les carrières, le réseau de communication avec ses routes, ses voies ferrées et ses lignes électriques modifient l’aspect du paysage. »

VI.2. Les changements significatifs
Après avoir définit ce qu’est un paysage, ces différentes catégories selon ses éléments paysagers, on peut maintenant discuter les différents types de changements. D’abord, une série photographique nous permette de lire l’évolution du paysage au cours du temps, à partir de la détection des changements significatifs. Alors pour détecter ces changements, on a besoin de faire une bonne lecture du paysage, à partir des photographies disponibles (cela nécessite la récupération d’une grande quantité de données visuelles), ce qui est le travail des photographes qui vont être responsables d’interpréter clairement les éléments du paysage. « Le choix des points de vue résulte d’un dialogue entre le photographe et la maitrise d’ouvrage … pendant la phase de création de l’itinéraire » [7] Comment lire un paysage à partir d’une photographie et quels sont les causes des changements significatifs, ne sont pas discutés dans ce papier. Pour plus d’information concernant ces contextes, vous pouvez consulter le site web du « Portail du Système d’Information Documentaire de l’Environnement ». Un changement paysager est une certaine évolution qui affecte les éléments du paysage. Ces changements peuvent être classifiés en 2 catégories :  Les changements naturels : On parle d’une évolution naturelle du paysage (c’est-à-dire, une évolution naturelle affectant les éléments du paysage), dans lequel il n’y a aucune intervention humaine pendant toute la durée de l’évolution. Les changements artificiels : On parle d’une évolution artificielle du paysage (c’est-àdire, une évolution artificielle affectant les composants du paysage), dans lequel il nécessite une intervention humaine, par exemple l’établissement des bâtiments, des usines, etc. on parle aussi des activités humaines qui affectent mal l’évolution du

Page 38

paysage, citons : le réchauffement climatique, la pollution, le renouvellement des ressources énergétiques, etc. Pour voir si ce changement est significatif ou non, une des méthodes proposées est de préciser la catégorie de paysage de la série photographique dont on examine (si c’est un paysage urbain, rural, naturel, etc.), cela va nous permettre de voir quels sont les éléments essentiels qui constituent le paysage et la manière dont ils sont distribués sur le territoire, alors toute transformation/disparition de ces composants paysagers et toute apparition des nouveaux éléments paysagers sont considérés des changements significatifs. Notons que, les changements d’intensités d’un pixel résultant du mouvement du caméra et du changements dans la puissance et la position de la source de lumière, sont virtuellement jamais désirés d’être détectés comme des changements réels (significatifs). Il existe des fonctions de prétraitement (correction géométrique et radiométrique), normalement requises avant l’analyse principale et l’extraction d’information, utilisées pour supprimer ces changements non-significatifs. [5]

VI.3. Proposition d’une méthode de détection des changements significatifs
L’intérêt de l’observatoire photographique du paysage, est la possibilité de faire une lecture de l’évolution du paysage (c’est-à-dire, une lecture de l’histoire du paysage). Dans l’introduction, on a mentionné que pour les observatoires photographiques du paysage, la détection des changements soulève des problèmes particuliers, d’une part, les grands intervalles temporels et d’autre part, si une image a été prise plusieurs années après une autre image, les positions, les orientations ne sont pas les mêmes. Une méthode proposée pour mettre en évidence les changements est effectué par les étapes suivantes : 1. Éliminer les erreurs géométrique et radiométrique : pour éliminer les changements d’intensités résultant du mouvement de la caméra et du changement dans la force et la position de la source de lumière. Ces changements sont considérés non-significatifs, alors tous les autres changements des éléments paysagers essentiels, vont être considérés significatifs. 2. Appliquer une méthode de classification semi-supervisée : pour classifier l’image en éléments du paysage. La sortie de l’algorithme est l’image classifiée et un ensemble des images des éléments paysagers essentielles, en ignorant les éléments paysagers non essentielles. 3. Comparer les images des éléments paysagers essentielles : après avoir effectuée la classification semi-supervisée des images, on va comparer les éléments paysagers. La comparaison est effectuée à partir de la différenciation des images des éléments. 4. Mise en évidence des changements : la comparaison des éléments paysagers par la différenciation de des images, va nous permettre de mettre en évidence tous les changements significatifs, illustrés dans l’image de masque.

Page 39

CHAPITRE VII

CONCLUSION ET TRAVAIL FUTUR
On a parlé dans l’introduction de l’objectif de notre étude qui est la détection des changements significatifs dans des photos de paysage. On a parlé aussi des problèmes particuliers de ces observatoires photographiques qui sont d’une part, les grands intervalles temporels entrainant beaucoup de changements dans les images parmi lesquelles il faut extraire ceux qui sont significatifs, et d’autre part, si une image a été prise plusieurs années après une autre image, alors les positions, les orientations et les réglages des appareils photographiques ne sont pas les mêmes. Dans la section II on a présenté les deux méthodes de classification de pixels classiques, qui sont la classification non-supervisée dont le but est de grouper les données non-libellées en cluster sans aucune supervision (citons : le Kmeans, les k-plus-proches voisins, etc.) et la classification supervisée dont le but est de grouper les données libellées avec une supervision de la part d’un opérateur ou d’un analyste (citons, les k-plus-proches voisins, le classifieur bayésien naïf, la machine à vecteurs de support, etc.). Les méthodes de classification classiques ne sont pas très efficaces parce qu’elles demandent l’annotation d’un expert ce qui nécessite beaucoup de temps pour collecter les données et qui est parfois difficile à réaliser. Cela explique le passage vers les méthodes semi-supervisées. Dans la section III on a effectué l’état de l’art des méthodes de classification semisupervisée et on a présenté les trois méthodes de classification semi-supervisée suivantes :  Auto-Apprentissage : caractérisé par le fait que la procédure d’apprentissage utilise ses propres prévisions pour réapprendre elle-même (on a introduit l’algorithme de k-plus proche voisin) Co-Apprentissage : utilisé quand on dispose de petites quantités de données libellées avec une grande quantité des données non-libellées dont le but est d’augmenter sa performance (on a introduit un algorithme de Co-Apprentissage qui effectue l’apprentissage de deux classifieurs) Machine à vecteur de support semi-supervisée S3VM : le but est de définir la frontière de décision à l’aide non pas seulement avec des données libellées mais aussi avec les données non-libellées, sous l’hypothèse que les données sont bien distribuées.

Page 40

Dans la section IV, on a défini ce qu’est un observatoire photographique du paysage et la technique de rephotographie. On a définit aussi quelque terme concernant l’observatoire photographique. Dans la section V, on a évalué les performances des méthodes de classification semisupervisées sur la série photographique du point de vue n°32 – Dourges – Lieu-dit Les Douchis, à l’aide de l’outil Matlab, en précisant les difficultés qu’on a rencontré et les simplifications proposées. Dans la section VI, on a définit ce qu’est un paysage, les différents catégories de paysages selon leurs éléments paysagers, les changements significatifs d’un paysage, et enfin on a proposé une méthode qui va mettre en évidence des changements significatifs.

VII.1. Conclusion
Comme conclusion de notre travail :   On a effectué l’état de l’art des méthodes de classification supervisée. On a implémenté ces méthodes à l’aide de l’outil Matlab sur la série de Dourges seulement, et on a eu des résultats intéressants de classification (vous pouvez consulter les codes dans l’annexe C). Malheureusement, on n’a pas eu le temps de les appliquer sur d’autres séries photographiques. On a choisit de travailler sur cette série au niveau de couleur, et non pas au niveau de gris, pour faciliter le travail. Dans des cases de séries photographiques en noir et blanche, si on va utiliser les méthodes de classification, on va avoir des mauvais résultats de classification des images puisque les données ne sont pas bien distribuées, alors pour résoudre ce problème une des techniques utilisées est la reconnaissance d’objet. On a présenté la manière dont on évalue les performances de ces méthodes, puisqu’une évaluation correcte nécessite une bonne référence, alors que dans ce papier, on a utilisé une petite fenêtre de référence et on l’a libellée manuellement (ce qui est été une tâche très fastidieuse). On a proposé une méthode de détection qui va mettre en évidence des changements significatifs. On a présenté des exemples de séries de clichés dans l’annexe.

 

Page 41

VII.2. Travail futur
Le principe utilisé ici est exprimé de la façon suivante : quelqu’un utilise ses cinq sens humains (spécifiquement la vue) pour qu’il puisse permettre de récupérer des données ou bien plus précisément des informations qui décrivent un paysage et il va mémoriser ces données visuelles dans sa mémoire, alors après avoir récupéré des données du même lieu à des dates différentes, il va essayer d’analyser ces informations mémorisées avec les informations les plus récentes de ce lieu géographique, pour qu’il puisse donner une décision si un changement significatif existe ou pas. Pratiquement, toutes ces informations (visuelles) qui désignent l’observatoire photographique du paysage, sont récupérées à partir d’un ou plusieurs photographes à l’aide d’équipements nécessaires et sont ensuite enregistrées à l’aide d’outils spécifiques pour qu’on puisse les manipuler afin d’avoir des résultats et des prédictions qui puissent nous permettre de prendre la décision si un changement significatif existe ou pas. Le principe d’automatiser la vision est aussi utilisé dans divers domaines (la robotique), comme exemple d’application, le voyage d’un robot dans l’espace, afin de détecter tous les obstacles qui peuvent surgir lors de son voyage. Alors avec sa vision il va découvrir l’état de l’espace et va analyser ces données afin d’éviter les obstacles durant son voyage. La question qu’on peut se poser est la suivante : est-ce qu’une décision prise par une personne qui utilise tous ses sens humains (visuels, sonores et odeur) est meilleure qu’une décision prise par une autre personne qui fait fonctionner seulement son sens visuel ? Comme réponse préliminaire on peut dire que c’est vrai, la décision va être plus pertinente dans ce cas, puisque dans l’application des observatoires photographiques du paysage, le photographe (non handicapé) pendant la récupération de ces données visuelles peut aussi constater qu’il y a des odeurs et des sondes, qu’il peut les récupérer à l’aide d’autres équipements spécifiques. Il existe des outils de récupération de ces données. [13] Comme travail futur, je propose d’agrandir l’ensemble d’apprentissage en ajoutant les données sonores et les données odorantes des lieux géographiques correspondants, pour qu’on puisse prendre une décision plus pertinente, mais aussi pour permettre de prédire la situation future d’un site. Cela est efficace pour nous permettre de voir si un changement se produit dans l’environnement du paysage. Un changement significatif dans un paysage, nécessite de détecter le changement d’éléments essentiels du paysage (cela est fait à partir des données décrivant ces éléments), est non pas n’importe quel changement. Il existe beaucoup de changement dans les observatoires photographiques, citons : la transformation naturelle des éléments, etc. mais celles qui sont significatives sont celles qui sont dues à la pollution de l’environnement du paysage, que ce soit de la pollution de l’air qui se produit par les usines au voisinage et qui n’est pas décrit dans les données visuelles, que ce soit visible (la fumée), ou non (pesticides dans l’air), ou que ce soit de la pollution sonore qui se produit de différent sources, citons : machines, usines, automobiles. Aussi détecter ces données supplémentaires, nous permettrait de prendre une meilleure décision.

Page 42

Références :
[1]. Xiajoin Zhu and Andrew B. Goldberg. Introduction to Semi-Supervised Learning Synthesis Lectures on Artificial Intelligence and Machine Learning, 2009. [http://pages.cs.wisc.edu/~jerryzhu/hack/ssl.pdf] Xiaojin Zhu. Semi-Supervised Learning, University of Wisconsin-Madison [http://pages.cs.wisc.edu/~jerryzhu/pub/SSL_EoML.pdf] T. Mitchell. The role of unlabeled data in supervised learning. In Proceedings of the Sixth International Colloquium on Cognitive Science, San Sebastian, Spain, 1999. Avrim Blum and Tom Mitchell. Combining labeled and unlabeled data with cotraining. In COLT: Proceedings of theWorkshop on Computational Learning Theory, 1998. R.J. Radke, S. Andra, O. Al-Kofahi, and B. Roysam. Image Change Detection Algorithms: A Systematic Survey. IEEE Trans. Image Processing, vol 14, no. 3, pp. 294-307, March 2005 Sergios Theodoridis, Konstantinos Koutroumbas. Pattern Recognition, Fourth Edition. IEEE Trans. Neural Networks, vol. 19, no. 2, pp. 376, Feb. 2008. Jean. F. Seguin, E. Soufllet-Leclerc. Itinéraires photographiques : Méthode de l’Observatoire photographique du paysage. 2008. G. Allen Rasmussen ET Kathy Voth. Repeat Photography Monitoring Made Easy. March 2001. Repeat photography monitoring made easy, G. Allen Rasmussen et Kathy Voth, Utah State University, 2001. [http://region8water.colostate.edu/PDFs/RPMME.pdf] Arnaud Revel, Apprentissage Semi-Supervisé, [http://perso.univ-lr.fr/arevel/MesPolys/SemiSupervise.pdf] Observatoire du Paysage, [http://www.catpaisatge.net/fra/glossari.php] Elie Allouche, Cours d’Histoire-Géographie [http://elie.allouche.pagesperso-orange.fr/biblioRF/siteCours/Paysages.htm] Arief Sabdo Yuwono, Peter Schulze Lammers, Odor Pollution in the Environement and the Decection Instrumentation [http://www.sipcotcuddalore.com/downloads/odour_research.pdf] Etat de l’environnement Wallon 1996, Paysage, Glossaire p117-118 [http://environnement.wallonie.be/publi/etatenv/paysage/paysage.pdf] Prof. Olga Veksler, Learning and Computer Vision [http://www.csd.uwo.ca/courses/CS9840a/Lecture4-2.pdf]

[2].

[3].

[4].

[5].

[6].

[7].

[8].

[9].

[10].

[11].

[12].

[13].

[14].

[15].

Page 43

[16].

CCRS, Notions fondamentales de télédétection, Classification et analyse des images [http://www.ccrs.nrcan.gc.ca/resource/tutor/fundam/chapter4/07_f.php] Segunei Lamia, Kellal Houda, Ségmentation d’image. [http://www.scribd.com/doc/24339012/Segmentation-Final] A tutorial on clustering algorithm [http://home.dei.polimi.it/matteucc/Clustering/tutorial_html] Cluster Analysis: Tutorial with R. Jari Oksanen January 20, 2010 [http://cc.oulu.fi/~jarioksa/opetus/metodi/sessio3.pdf] ASP, les différents éléments d’un paysage. [http://www.assistancescolaire.com/eleve/5e/svt/reviser-une-notion/les-differentselements-d-un-paysage-5sep01] Wikipedia, Variables indépendantes et identiquement distribuées. [http://fr.wikipedia.org/wiki/Variables_ind%C3%A9pendantes_et_identiquement_di stribu%C3%A9es] Frank Meyer, L’apprentissage Semi-Supervisé, terminologie. [http://perso.rd.francetelecom.fr/lemaire/cours/ApprentissageSemiSupervise.pdf] Ming-Hsuan Yang & Antoine Cornuéjols, Introduction to Support Vector Machines. [http://thor.info.uaic.ro/~ciortuz/SLIDES/svm.pdf] Hilary 2011, A. Zisserman, Dual Problems and Kernels. [http://www.robots.ox.ac.uk/~az/lectures/ml/lect3.pdf] E3mLab, Basics for Mathematical Economics. [http://www.e3mlab.ntua.gr/courses/%CE%94%CE%99%CE%91%CE%A6%CE%9 1%CE%9D%CE%95%CE%99%CE%95%CE%A3_%CE%9F%CE%99%CE%9A. %20%CE%91%CE%9D%CE%91%CE%9B%CE%A5%CE%A3%CE%97%20%CE %95%CE%A0%CE%99%CE%A7/BasicMathematicalEconomics.pdf] Ayhan Demiriz & Kristin P. Bennett, Chapter 1 Optimization approaches to semisupervised learning. [homepages.rpi.edu/~bennek/icpp99.ps] Mathworks, svmtrain. [http://www.mathworks.com/help/toolbox/bioinfo/ref/svmtrain.html] Mathworks, svmclassify. [http://www.mathworks.com/help/toolbox/bioinfo/ref/svmclassify.html] Mathworks, knnclassify. [http://www.mathworks.com/help/toolbox/bioinfo/ref/knnclassify.html] SIDE, Jean Arrouye, Interférences Esthétiques et Sémantiques. [http://www.side.developpement-durable.gouv.fr]

[17].

[18].

[19].

[20].

[21].

[22].

[23].

[24].

[25].

[26].

[27].

[28].

[29].

[30].

Page 44

Annexe A : Exemples de photographies [9]

Exemple d’une photographie efficace (contenant tous les critères nécessaires)

Exemple d’une photographie qui est un peu efficace (absence point de repère)

Exemple d’une photographie qui est ne sont pas efficace (absence de pôle de référence et Conseil de photo) Figure 4.1. Exemples de photographies efficaces, un peu efficaces et non pas efficaces

Page 45

Annexe B [30]
Itinéraire N° 04 : « Les infrastructures du Nord-Pas-de-Calais » Partenaire/Maitrise d’ouvrage local : Espace naturel régional Photographie initial : Dominique AUERBACHER Re-photographies : Samuel DHOTE, Olivier COMTE Cet itinéraire a été mis en place en : 1993. Série photographique du point de vue n°32 – Dourges – Lieu-dit Les Douchis.

Photo n°1 : Juin 1993

Photo n°2 : Juin 1995

Photo n°3 : Juillet 1997

Photo n°4 : Juillet 1998

Photo n°5 : Octobre 2001

Photo n°6 : Janvier 2003

S.B.1. Série photographique – Dourges – Lieu-dit Les Douchis.

Page 46

Itinéraire N° 05 : « Les Côtes-D’armor » Partenaire/Maitrise d’ouvrage local : CAUE des Côtes d’Armor Photographie initial : Thibaut CUISSET Re-photographies : Max GRAMMARE Cet itinéraire a été mis en place en : 1995. Série photographique du point de vue n°25 – Sainte – Tréphine – RD 05.

Photo n°1 : Mai 1995

Photo n°2 : Mai 1996

Photo n°3 : Mai 1997

Photo n°4 : Mai 1999

S.B.2. Série photographique – Sainte – Tréphine – RD 05.

Page 47

Itinéraire N° 06 : « Le canton de Saint-Benoît-Du-Sault (Indre) » Partenaire/Maitrise d’ouvrage local : Commune de Saint-Benoît-Du-Sault Photographie initial : John DAVIES Re-photographies : Christian MOLITOR, John DAVIES Cet itinéraire a été mis en place en : 1994. Série photographique du point de vue n°23 – Vigoux – Glissière.

Photo n°1 : Octobre 1994

Photo n°2 : Mai 1995

Photo n°3 : Mai 1996

Photo n°4 : Janvier 1998

S.B.3. Série photographique – Vigoux – Glissière.

Page 48

Itinéraire N° 09 : « La Commune de Montreuil » Partenaire/Maitrise d’ouvrage local : Ville de Montreuil Photographie initial : Anne FAVRET, Patrick MANEZ Re-photographies : Pierre-Luc VACHER, Franck CICHY Cet itinéraire a été mis en place en : Série photographique du point de vue n°32 – 83 rue P. de Montreuil (mur à pêche).

Photo n°1 : juin 1997

Photo n°2 : Octobre 1998

Photo n°3 : Novembre 1999

Photo n°4 : Octobre 2000

Photo n°5 : Novembre 2002

Photo n°6 : Novembre 2004

S.B.4. Série photographique – 83 rue P. de Montreuil (mur à pêche).

Page 49

Annexe C - Itinéraire N° 04 : Série de Dourges
% Classification par Auto-Apprentissage % 1) LECTURE D'UNE IMAGE ET REGARDER LES BANDES z1=imread('../Dourges/1.BMP'); r1=z1(:,:,1); g1=z1(:,:,2); b1=z1(:,:,3); % 2) TÉLÉCHARGEMENT DE L'ENSEMBLE DES DONNÉES LIBELLÉES PixApp1=load('label1.m'); % 3) PRÉPARATION POUR CRÉER L'ENSEMBLE D'APPRENTISSAGE ET POUR LA CLASSIFICATION row1=PixApp1(:,1); col1=PixApp1(:,2); group1=PixApp1(:,3); ngroup1=max(group1); nx1=size (r1, 1); ny1=size (r1, 2); N1=nx1*ny1; % % % % % % % y-value x-value group-value numbre-de-groupe (classe) longueur-d'image largueur-d'image taille de l'image

% 4) IDENTIFIER L'ENSEMBLE D'APPRENTISSAGE: L ET U U1=[reshape(r1,N1,1),reshape(g1,N1,1),reshape(b1,N1,1), zeros([N1,1])]; U=U1; L=[]; group=[]; for i=1:length(group1) L=[L; r1(row1(i),col1(i)), g1(row1(i),col1(i)), b1(row1(i),col1(i)), group1(i)]; group=[group; group1(i)]; end L=double(L); % CONVERTIR DE UNIT8 A DOBLE POUR LA CLASSIFICATION U=double(U); class=zeros(N1,1); tic [class] = knnclassify(U,L,group,1,'euclidean','random'); toc % 6) PREPARER LES DONNÉES NON-LIBELLÉES POUR LES LIBELLEES U(:,4)=class(:); % 7) AJOUTER LE MOYENNE DES DONNÉES U DE CHAQUE CLASSE AU L U1=U(1:(nx1*ny1),:); for i=1:5 L = [L; end

mean(U1(U1(:,4)==i, [1, 2, 3])), i];

Page 50

% 8) VISUALISER L'IMAGE CLASSIFIER class1=class(1:(nx1*ny1)); class1=reshape(class1,nx1,ny1); % Reshapse l'image en nx-ny map = [255, 000, 102, 203, 127, 255, 128, 255, 196, 123, 255; ... 000; ... 102; ... 155; ... 124]/255; % % % % % Group Group Group Group Group 1: 2: 3: 4: 5: Ciel Végétation Soul Maison Pylône électrique

figure(1), clf, colormap(map), image(class1), colorbar title('1=Ciel, 2=Végétation, 3=Soul, 4=Maisons, 5=Pylône électrique') imwrite(class1, map, 'image1', 'bmp'); %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% % IMAGE 2.jpg z=imread('../Dourges/2.BMP'); r=z(:,:,1); g=z(:,:,2); b=z(:,:,3); nx=size (r, 1); ny=size (r, 2); N=nx*ny; U=[reshape(r,N,1),reshape(g,N,1),reshape(b,N,1), zeros([N,1])]; U=double(U); tic [class]=knnclassify (U,L,double(L(:,4)),1,'euclidean','random'); toc U(:,4)=class(:); class=reshape(class,nx,ny); figure(2),clf,colormap(map), image(class), colorbar title('1=Ciel, 2=Végétation, 3=Soul, 4=Maisons, 5=Pylône électrique') imwrite(class, map, 'image2', 'bmp');

Page 51

% Classification par Co-Apprentissage % 1) LECTURE D'UNE IMAGE ET REGARDER LES BANDES z1=imread('../Dourges/1.BMP'); z2=rgb2ycbcr(z1); r1=z1(:,:,1); g1=z1(:,:,2); b1=z1(:,:,3); r2=z2(:,:,1); g2=z2(:,:,2); b2=z2(:,:,3); % 2) TÉLÉCHARGEMENT DE L'ENSEMBLE DES DONNÉES LIBELLÉES PixApp1=load('label1.m'); % 3) PRÉPARATION POUR CRÉER L'ENSEMBLE D'APPRENTISSAGE ET POUR LA CLASSIFICATION row1=PixApp1(:,1); col1=PixApp1(:,2); group1=PixApp1(:,3); ngroup1=max(group1); nx1=size (r1, 1); nx2=size (r2, 1); ny1=size (r1, 2); ny2=size (r2, 2); N1=nx1*ny1; N2=nx2*ny2; % % % % y-value x-value group-value numbre-de-groupe (classe)

% longueur-d'image1 % longueur-d'image2 % largueur-d'image1 % largueur-d'image2 % taille de l'image1 % taille de l'image2

% 4) IDENTIFIER L'ENSEMBLE D'APPRENTISSAGE: L ET U U1=[reshape(r1,N1,1),reshape(g1,N1,1),reshape(b1,N1,1)]; U2=[reshape(r2,N2,1),reshape(g2,N2,1),reshape(b2,N2,1)]; U=[double(U1),double(U2),zeros([N1,1])]; L=[]; group=[]; for i=1:length(group1) L=[L; double(r1(row1(i),col1(i))), double(g1(row1(i),col1(i))), double(b1(row1(i),col1(i))), ... double(r2(row1(i),col1(i))), double(g2(row1(i),col1(i))), double(b2(row1(i),col1(i))), ... group1(i)]; group=[group; group1(i)]; end L=double(L); % CONVERTIR DE UNIT8 A DOUBLE POUR LA CLASSIFICATION U=double(U); tic [class1]=knnclassify(U(:,[1, 2, 3, 7]),L(:,[1, 2, 3, 7]),group,1,'euclidean','random'); toc tic

Page 52

[class2]=knnclassify(U(:,[4, 5, 6, 7]),L(:,[4, 5, 6, 7]),group,1,'euclidean','random'); toc % 6) PREPARER LES DONNÉES NON-LIBELLÉES POUR LES LIBELLEES U1(:,4)=class1(:); U2(:,4)=class2(:); for i=1:N1 if U1(i,4)==U2(i,4) U(i,7)=U1(i,4); else U(i,7)=U2(i,4); end end % 7) AJOUTER LE MOYENNE DES DONNÉES U DE CHAQUE CLASSE AU L for i=1:5 L = [L; mean(U(U1(:,4)==i, [1, 2, 3, 4, 5, 6])), i]; group=[group;i]; L = [L; mean(U(U2(:,4)==i, [1, 2, 3, 4, 5, 6])), i]; group=[group;i]; end % 8) VISUALISER L'IMAGE CLASSIFIER class=U(:,7); class1=class(1:(nx1*ny1)); class1=reshape(class1,nx1,ny1); % Reshapse l'image en nx-ny map = [255, 000, 102, 203, 127, 255, 128, 255, 196, 123, 255; ... 000; ... 102; ... 155; ... 124]/255; % % % % % Group Group Group Group Group 1: 2: 3: 4: 5: Ciel Végétation Soul Maison Pylône électrique

figure(1),clf,colormap(map), image(class1), colorbar title('1=Ciel, 2=Végétation, 3=Soul, 4=Maisons, 5=Pylône électrique') imwrite(class1, map, 'image1', 'bmp'); %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% % IMAGE 2.jpg z1=imread('../Dourges/2.BMP'); z2=rgb2ycbcr(z1); r1=z1(:,:,1); g1=z1(:,:,2); b1=z1(:,:,3); r2=z2(:,:,1); g2=z2(:,:,2); b2=z2(:,:,3); nx1=size (r1, 1); nx2=size (r2, 1); ny1=size (r1, 2); ny2=size (r2, 2); N1=nx1*ny1; N2=nx2*ny2; % longueur-d'image1 % longueur-d'image2 % largueur-d'image1 % largueur-d'image2 % taille de l'image1 % taille de l'image2

Page 53

U1=[reshape(r1,N1,1),reshape(g1,N1,1),reshape(b1,N1,1)]; U2=[reshape(r2,N2,1),reshape(g2,N2,1),reshape(b2,N2,1)]; U=[double(U1),double(U2),zeros([N1,1])]; U=double(U); tic [class1]=knnclassify(U(:,[1, 2, 3, 7]),L(:,[1, 2, 3, 7]),group,1,'euclidean','random'); toc tic [class2]=knnclassify(U(:,[4, 5, 6, 7]),L(:,[4, 5, 6, 7]),group,1,'euclidean','random'); toc % 6) PREPARER LES DONNÉES NON-LIBELLÉES POUR LES LIBELLEES U1(:,4)=class1(:); U2(:,4)=class2(:); for i=1:N1 if U1(i,4)==U2(i,4) U(i,7)=U1(i,4); else U(i,7)=U2(i,4); end end % 8) VISUALISER L'IMAGE CLASSIFIER class=U(:,7); class1=class(1:(nx1*ny1)); class1=reshape(class1,nx1,ny1); % Reshapse l'image en nx-ny figure(2),clf,colormap(map), image(class1), colorbar title('1=Ciel, 2=Végétation, 3=Soul, 4=Maisons, 5=Pylône électrique') imwrite(class1, map, 'image2', 'bmp');

Page 54

% Classification par S3VM % 1) LECTURE D'UNE IMAGE ET REGARDER LES BANDES z1=imread('../Dourges/1.BMP'); r1=z1(:,:,1); g1=z1(:,:,2); b1=z1(:,:,3); % 2) TÉLÉCHARGEMENT DE L'ENSEMBLE DES DONNÉES LIBELLÉES PixApp1=load('label1.m'); % 3) PRÉPARATION POUR CRÉER L'ENSEMBLE D'APPRENTISSAGE ET POUR LA CLASSIFICATION row1=PixApp1(:,1); col1=PixApp1(:,2); group1=PixApp1(:,3); ngroup1=max(group1); nx1=size (r1, 1); ny1=size (r1, 2); N1=nx1*ny1; % % % % y-value x-value group-value numbre-de-groupe (classe)

% longueur-d'image1 % largueur-d'image1 % taille de l'image1

% 4) IDENTIFIER L'ENSEMBLE D'APPRENTISSAGE: L ET U U1=[reshape(r1,N1,1),reshape(g1,N1,1),reshape(b1,N1,1)]; U=U1; L=[]; group=[]; for i=1:length(group1) L=[L; r1(row1(i),col1(i)), g1(row1(i),col1(i)), b1(row1(i),col1(i)), group1(i)]; group=[group; group1(i)]; end L=double(L); % CONVERTIR DE UNIT8 A DOUBLE POUR LA CLASSIFICATION U=double(U); tic Svmstr12=svmtrain(L(1:200,[1 2 3]),L(1:200,4)); Svmstr13=svmtrain(L([1:100,201:300],[1 2 3]),L([1:100,201:300],4)); Svmstr14=svmtrain(L([1:100,301:400],[1 2 3]),L([1:100,301:400],4)); Svmstr15=svmtrain(L([1:100,401:500],[1 2 3]),L([1:100,401:500],4)); Svmstr23=svmtrain(L(101:300,[1 2 3]),L(101:300,4)); Svmstr24=svmtrain(L([101:200,301:400],[1 2 3]),L([101:200,301:400],4)); Svmstr25=svmtrain(L([101:200,401:500],[1 2 3]),L([101:200,401:500],4)); Svmstr34=svmtrain(L(201:400,[1 2 3]),L(201:400,4)); Svmstr35=svmtrain(L([201:300,401:500],[1 2 3]),L([201:300,401:500],4)); Svmstr45=svmtrain(L(301:500,[1 2 3]),L(301:500,4)); svm12 svm13 svm14 svm15 svm23 svm24 svm25 svm34 svm35 svm45 = = = = = = = = = = svmclassify svmclassify svmclassify svmclassify svmclassify svmclassify svmclassify svmclassify svmclassify svmclassify (Svmstr12, (Svmstr13, (Svmstr14, (Svmstr15, (Svmstr23, (Svmstr24, (Svmstr25, (Svmstr34, (Svmstr35, (Svmstr45, U(:, U(:, U(:, U(:, U(:, U(:, U(:, U(:, U(:, U(:, [1 [1 [1 [1 [1 [1 [1 [1 [1 [1 2 2 2 2 2 2 2 2 2 2 3])); 3])); 3])); 3])); 3])); 3])); 3])); 3])); 3])); 3]));

Page 55

toc train = [svm12, svm13, svm14, svm15, svm23, svm24, svm25, svm34, svm35, svm45]; test=zeros(length(train),5); for i=1:size(train) test(i,:) = [sum(train(i,:)==1),sum(train(i,:)==2),sum(train(i,:)==3),sum(train(i,:)==4), sum(train(i,:)==5)]; end % 6) PREPARER LES DONNÉES NON-LIBELLÉES POUR LES LIBELLEES U = [U, zeros(length(U),1)]; I=zeros(length(U),1); C=[]; for i=1:length(U) [C,I(i)]= max(test(i,:)); end U(:,4)=I(:); % 7) AJOUTER LE MOYENNE DES DONNÉES U DE CHAQUE CLASSE AU L U1=U(1:(nx1*ny1),:); for i=1:5 L = [L; end

mean(U1(U1(:,4)==i, [1, 2, 3])), i];

% 7) VISUALISER L'IMAGE CLASSIFIER class=U1(:,4); class1=class(1:(nx1*ny1)); class1=reshape(class1,nx1,ny1); % Reshapse l'image en nx-ny map = [255, 000, 102, 203, 127, 255, 128, 255, 196, 123, 255; ... 000; ... 102; ... 155; ... 124]/255; % % % % % Group Group Group Group Group 1: 2: 3: 4: 5: Ciel Végétation Soul Maison Pylône électrique

figure(1),clf,colormap(map), image(class1), colorbar title('1=Ciel, 2=Végétation, 3=Soul, 4=Maisons, 5=Pylône électrique') imwrite(class1, map, 'image1', 'bmp'); %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% % IMAGE 2.jpg z=imread('../Dourges/2.BMP'); r=z(:,:,1); g=z(:,:,2); b=z(:,:,3); nx=size (r, 1); ny=size (r, 2); N=nx*ny; U=[reshape(r,N,1),reshape(g,N,1),reshape(b,N,1), zeros([N,1])]; U=double(U);

Page 56

tic Svmstr12=svmtrain(L(1:200,[1 2 3]),L(1:200,4)); Svmstr13=svmtrain(L([1:100,201:300],[1 2 3]),L([1:100,201:300],4)); Svmstr14=svmtrain(L([1:100,301:400],[1 2 3]),L([1:100,301:400],4)); Svmstr15=svmtrain(L([1:100,401:500],[1 2 3]),L([1:100,401:500],4)); Svmstr23=svmtrain(L(101:300,[1 2 3]),L(101:300,4)); Svmstr24=svmtrain(L([101:200,301:400],[1 2 3]),L([101:200,301:400],4)); Svmstr25=svmtrain(L([101:200,401:500],[1 2 3]),L([101:200,401:500],4)); Svmstr34=svmtrain(L(201:400,[1 2 3]),L(201:400,4)); Svmstr35=svmtrain(L([201:300,401:500],[1 2 3]),L([201:300,401:500],4)); Svmstr45=svmtrain(L(301:500,[1 2 3]),L(301:500,4)); svm12 = svm13 = svm14 = svm15 = svm23 = svm24 = svm25 = svm34 = svm35 = svm45 = toc svmclassify svmclassify svmclassify svmclassify svmclassify svmclassify svmclassify svmclassify svmclassify svmclassify (Svmstr12, (Svmstr13, (Svmstr14, (Svmstr15, (Svmstr23, (Svmstr24, (Svmstr25, (Svmstr34, (Svmstr35, (Svmstr45, U(:, U(:, U(:, U(:, U(:, U(:, U(:, U(:, U(:, U(:, [1 [1 [1 [1 [1 [1 [1 [1 [1 [1 2 2 2 2 2 2 2 2 2 2 3])); 3])); 3])); 3])); 3])); 3])); 3])); 3])); 3])); 3]));

clear train; clear test; train = [svm12, svm13, svm14, svm15, svm23, svm24, svm25, svm34, svm35, svm45]; test=zeros(length(train),5); for i=1:size(train) test(i,:) = [sum(train(i,:)==1),sum(train(i,:)==2),sum(train(i,:)==3),sum(train(i,:)==4), sum(train(i,:)==5)]; end U = [U, zeros(length(U),1)]; I=zeros(length(U),1); C=[]; for i=1:length(U) [C,I(i)]= max(test(i,:)); end U(:,4)=I(:); class=U(:,4); class1=class(1:(nx*ny)); class1=reshape(class1,nx,ny); % Reshapse l'image en nx-ny figure(2),clf,colormap(map), image(class1), colorbar title('1=Ciel, 2=Végétation, 3=Soul, 4=Maisons, 5=Pylône électrique') imwrite(class1, map, 'image2', 'bmp');

Page 57

Page 58

Sign up to vote on this title
UsefulNot useful