Vous êtes sur la page 1sur 73

REPUBLIQUE ALGERIENNE DEMOCRATIQUE ET POPULAIRE

Ministère de l’Enseignement Supérieur et de la Recherche Scientifique


Université Mohamed Khider – BISKRA
Faculté des Sciences Exactes, des Sciences de la Nature et de la Vie

Département d’informatique
N° d’ordre : /M2/2014

Mémoire
Présenté pour obtenir le diplôme de master académique en

Informatique
Parcours : Informatique Décisionnelle et Multimédia

Apprentissage non supervisé par


SVC : Application sur la
segmentation des images
satellitaires météorologiques.
Par :
HAMAMA Brahim

Soutenu le 02/06/2014, devant le jury composé de :

Mme BENAMEUR Sabrina MAA Président

Dr. DJEFFAL Abdelhamid MCB Rapporteur

Melle HOUADJLI Hadia MAB Examinateur

!
Dédicaces

Ce travail n’aurait jamais pu être achevé sans l’aide et le soutien


des personnes très attentionnées qui m’entourent.

Je le dédie à
Mes très chers parents Mostefa & Zahia,
Ma femme Samah.A,
Mes chers frères,
A mon cher frère ABDELLATIF Moustafa,

Et a Tous les membres de ma famille.


Ce travail est aussi dédié à
Mes enseignants
Mes amis

Brahim.

i"
"
Remerciements
En premier lieu, je remercie Dieu le tout puissant de m’avoir donné la force et le courage
pour accomplir ce modeste travail qui m’a procuré cet humble succès.

Au sein de ce modeste travail qui fait l’objet de mémoire de fin d’étude,

J’ai un grand honneur à remercier mon encadreur Dr DJEFFAL Abdelhamid qui a bien
veillé à mon côté afin de réaliser ce travail.
Je ne pourrai que remercier vivement Mr SMATTI Farouk et BRADIA Abdellah.

Je tiens à remercier l'ensemble des membres du jury pour m’avoir fait honneur de leur
présence et pour l’intérêt qu’ils ont porté à ce travail.

Je remercie aussi tous mes enseignants, qui tout au long de mon cycle universitaire,
m’ont transmis leur savoir.

Finalement je remercie tous ceux ou celles qui m’ont aidé de loin ou de près que je n’ai
pas cité et qui ont contribué à la réalisation de ce travail.

Veuillez retrouver ici l’expression de ma profonde reconnaissance.

HAMAMA.B

ii"
"
Résumé

Etant donné l'intérêt attribué à la détection spatiale dans le domaine de la prévision


météorologique et vu l'intérêt de la surveillance de l'atmosphère, nous avons pensé d'exploiter les
images du satellite Météosat Seconde Génération (MSG), afin de répondre aux besoins des
prévisionnistes de la météorologie. L'objectif de ce travail est donc la détection automatique des
hydrométéores à travers les images du satellite MSG.

Notre solution permet de segmenter l'image satellitaire météorologique en des régions


semblables pour détecter les phénomènes et les nuages, en utilisant une nouvelle méthode de
segmentation d'image a été développé pour permettre la segmentation automatique dit Support
Vector Clustering SVC. Dans cette méthode il y a plusieurs stratégies utilisées en citant par
exemple diagrammes de Delaunay «Delaunay Diagrams» (DD), arbres de recouvrement
minimaux «Minimum SpanningTrees» (MST) et k plus proches voisins « k-Nearest Neighbors »
(k-NN). En choisissant la stratégie dans notre travail est étiquetage pour segmenter les images
satellitaires météorologiques.

Mots-clés : MSG, hydrométéores, SVC, diagrammes de Delaunay (DD), arbres de recouvrement


minimaux (MST), k plus proches voisins, étiquetage.

‫ملخــــص‬

‫نظرا ألهمية المنسوبة إلى الكشف المكاني في مجال التنبؤ بالطقس و رأى المصلحة في رصد الغالف‬
‫( لتلبية إحتياجات‬MSG) ‫ كنا نظن أن إستخدام الصور من قمر الصناعي متيوسات الجيل الثاني‬،‫الجوي‬
.MSG ‫ الهدف من هذا العمل هو الكشف التلقائي للماء الجوي من خالل الصور‬. ‫المتنبئين باألرصاد الجوية‬

‫حلنا يسمح بتجزئة صور القمر الصناعي لألرصاد الجوية إلى مناطق مماثلة للكشف عن الظواهر‬
‫ بإستخدام طريقة جديدة لتجزئة الصورة طويرت للسماح بالتجزئة اآللية تسمى المجموعات‬،‫الطبيعية و السحب‬
‫ في هذه الطريقة توجد فيها مجموعة من الستراتيجيات مستعملة نذكر منها على سبيل‬.SVC ‫األشعة الحاملة‬
k- ‫األقرب‬-‫) و الجيران ك‬MST) ‫ األشجار الممتدى الحد األدنى‬،(DD) ‫المثال الرسوم البيانية ديلوناي‬
‫ أخترنا في عملنا هذا ستراتيجية التنقيط (التوسيم) من أجل تجزئة صور األقمار الصناعية لألرصاد‬.)NN)
.‫الجوية‬

‫ المجموعات األشعة الحاملة‬، ‫ الماء الجوي‬،MSG ‫ قمر الصناعي متيوسات الجيل الثاني‬: ‫الكلمات المفاتيحة‬
(k- ‫االقرب‬-‫ الجيران ك‬، ( MST ) ‫ واألشجار الممتدة الحد األدنى‬، (SD ) ‫ الرسوم البيانية ديلوناي‬،SVC
.)‫ التنقيط (التوسيم‬،NN)

Abstract
Given the importance attributed to the spatial detection in the field of weather forecasting
and saw the interest of monitoring the atmosphere, we thought to use images from Meteosat
Second Generation (MSG) to meet the needs of meteorology forecasters. The objective of this
work is the automatic detection of hydrometeors through images of MSG.
Our solution allows to segment meteorological satellites images of similar regions to detect
phenomena and clouds using a new method of image segmentation was developed to allow
automatic segmentation said Support Vector Clustering SVC. In this method there are several
strategies used by citing example Delaunay diagrams (SD), minimum spanning trees (MST) and
k nearest neighbors (k-NN). Our work by choosing from strategy labeling to segment
meteorological satellite images.

Key-words : MSG, hydrometeors, SVC, Delaunay diagrams (SD), minimum spanning trees
(MST), k nearest neighbors, Strategy labeling.
Table des matières

I
Liste des tableaux

II
Table des figures

III
TABLE DES FIGURES

Introduction générale
Les conséquences économiques et sociales entraînées par des mauvaises prévisions mé-
téorologiques peuvent être catastrophiques. Les fortes intempéries ne font pas que détruire
les arbres et les maisons ; elles provoquent des bouleversements, menacent la vie humaine
et ruinent des économies locales.

Il nous a semblé important, d’essayer de comprendre et éventuellement contribuer à


l’interprétation automatique, ou assistée par ordinateur, des images satellitaires (MSG)
afin de faciliter la tâche aux prévisionnistes météorologiques et de faire progresser d’une
manière significative la météorologie opérationnelle dans notre pays.

La méthode SVC (Support Vector Clustering) est une extension intéressante de la


méthode SVM pour le clustering. En effet, cette méthode a prouvé sa précision à travers
plusieurs travaux de recherche. Elle se base sur l’utilisation de la méthode SVM mono-
classe pour regrouper les exemples d’une population dans des groupes homogènes, puis
utilise une techniques d’étiquetage pour les affecter aux bons clusters. L’étiquetage se fait
par le tracée de segments, dans l’espace de données entre les paires d’exemples, et considère
une paire d’exemples dont le segment reste dans la classe comme étant appartenir au même
cluster. Nous utilisons dans ce travail la méthode SVC pour la segmentation des images
satellitaires météorologiques prise sur deux canaux. Chaque pixel de l’image représente
un exemple et ses valeurs (couleurs) pour les deux canaux représente ses attributs.
Les résultats obtenus montre un précision remarquable comparant avec les techniques
classiques tel que le K-means.
Pour bien expliciter ce modeste travail, nous avons choisi d’organiser notre mémoire
en plusieurs chapitres :
– Chapitre I : " Clustering ". L’objectif de ce chapitre est d’introduire la probléma-
tique du clustering ainsi que les concepts de base qui seront utilisés dans la suite de
ce mémoire.
– Chapitre II : " Support Victor Clustering SVC ". Dans ce chapitre, nous présen-
terons la méthode SVM (Support Vecteur Machine), les cas linéairement séparable
et les cas non linéairement séparable. Nous définissons par la suite les SVMs mono-
classe et les SVMs binaires de façon brève, puis nous avons passés à la nouvelle
méthode dite SVC où nous avons expliqué en détail, la définition et les différentes
stratégies utilisées dans cette méthode.
– Chapitre III : " Les images satellitaires météorologiques". Le chapitre commence
par introduire les satellites en général et les satellites météorologiques en particulier,

1
TABLE DES FIGURES

puis présente les bases des images satellitaires météorologiques.


– Chapitre IV : " Conception ". Dans ce chapitre, nous présentons la conception
globale et détaillée de notre système.
– Chapitre V : " Implémentation et résultats ". Ce chapitre présente les éléments
pertinents dans l’implémentation du système conçu dans le chapitre précédent et
les résultats obtenus.
Ce mémoire se termine par une conclusion qui présente un bilan et propose certaines
perspectives.

2
Chapitre I

Clustering
CHAPITRE I. CLUSTERING

I.1. Introduction
Le clustering, en français regroupement ou partitionnement, est une tâche dont l’ob-
jectif est de trouver des groupes au sein d’un ensemble d’éléments (appelés par la suite
objets). Ces objets sont décrits par des caractéristiques, encore appelées attributs, qui
décrivent les propriétés des objets. Les groupes recherchés, communément appelés des
clusters, forment des ensembles homogènes d’objets du jeu de données partageant des
caractéristiques communes. Il existe de très nombreuses méthodes de clustering permet-
tant de créer ces clusters de manière automatique, chacune utilisant une stratégie et un
objectif propre pour construire les clusters. ?
L’objectif de ce chapitre est d’introduire la problématique du clustering ainsi que les
concepts de base qui seront utilisés dans la suite de ce mémoire. L’accent sera mis sur la
complexité de la tâche de clustering, ainsi que sur le nombre important de méthodes et
de variantes disponibles. Dans ce chapitre on a commencé par une définition de cluste-
ring et le principe de fonctionnement général section ?? et ??, puis nous décrivons les
différentes mesures de similarités section ??, ensuite nous présentons les algorithmes de
clustering section ??, Enfin, nous étudions également les principaux problèmes et limites
du clustering section ??. Enfin, nous citons quelques domaines d’applications section
??.

I.2. Définition de clustering


Le clustering regroupe un ensemble de techniques qui visent à regrouper les enregistre-
ments d’une base de données en des groupes selon leur rapprochement les uns des autres
en ne se basant sur aucune information antérieure, c’est un apprentissage non supervisé.
Un système d’analyse en clusters prend en entrée un ensemble de données et une mesure
de similarité entre ces données, et produit en sortie un ensemble de partitions décrivant
la structure générale de l’ensemble de données. ?
La similarité entre les exemples peut être mesuré par la distance euclidienne, City
blocs ou de Minkowksi si les attributs sont numériques. Si les attributs sont symboliques,
la seule mesure qui existe, dans l’absence de toute information sur la signification des
valeurs, c’est l’égalité ou l’inégalité. Plusieurs algorithmes de clustering sont utilisés dans
la littérature telle que le clustering hiérarchique, le clustering partitionnel ou le Clustering
incrémental. ?

4
CHAPITRE I. CLUSTERING

Figure I.1 – Représentation simple de clustering.

I.3. Principe de fonctionnement général


Le clustering produit en sortie un ensemble de partitions décrivant la structure générale
de l’ensemble de données. Plus formellement, un système de clustering prend un tuplet
(D, s) où D représente l’ensemble de données et s la mesure de similarité, et retourne une
partition P = (G1 , G2 , · · · , Gn ) tel que les Gi (1 · · · m) sont des sous ensembles de D qui
vérifient : 
 G ∪G ∪G =D
1 2 m
(I.1)
 G ∩G =φ i 6= j
i j

Chaque Gi est appelé un cluster qui représente une ou plusieurs caractéristiques de


l’ensemble D, mais les choses ne sont pas si simples, on a beaucoup de problèmes à
traiter. Premièrement le nombre de cluster à chercher, dans certains cas c’est un expert
du domaine d’application qui fournit le nombre de clusters qui forment l’ensemble de
données. Mais dans la plupart des cas, même l’expert ne connaît pas le nombre de clusters
et cherche à le savoir et le comprendre. Dans la majorité des cas, on définit une mesure de
stabilité du processus d’analyse à base de laquelle on peut atteindre le meilleur nombre
de clusters qui décrit mieux les données.

I.4. Mesures de similarités


Une bonne méthode de clustering est une méthode qui maximise la ressemblance entre
les données à l’intérieur de chaque cluster, et minimise la ressemblance entre les données
des clusters différents. C’est pourquoi les résultats d’une technique de clustering dépendent
fortement de la mesure de similarité choisie par son concepteur, qui doit la choisir avec
prudence. En effet la mesure de similarité repose sur le calcul de la distance entre deux
données, sachant que chaque donnée est composée d’un ensemble d’attributs numériques
et/ou catégoriels. Plus la distance est importante, moins similaires sont les données et

5
CHAPITRE I. CLUSTERING

vice versa. Soit xi et xj deux données différentes dont on veut calculer la distance. Cette
distance est composée d’une part de la distance entre les valeurs des attributs numériques
et d’une autre part de la distance entre les valeurs des attributs catégoriels ou symboliques,
en prenant en considération le poids (le nombre) de chaque type d’attributs.

I.4.1. Attributs numériques


Pour mesurer la distance entre les données à attributs numériques, plusieurs formules
existent :
– La distance Euclidienne :
v
u nn
uX
Dn (xi , xj ) = t (x ik − xjk )2 (I.2)
k=1

– La distance City blocs :

nn
X
Dn (xi , xj ) = |xik − xjk | (I.3)
k=1

– La distance de Minkowksi :

nn
(xik − xjk )2 )2
X
Dnp (xi , xj ) = ( (I.4)
k=1

Il faut faire attention lors du calcul de ces distances à la normalisation des attributs,
puisque les intervalles de variances des attributs peuvent être très différents, ce qui peut
entraîner la dominance d’un ou de quelques attributs sur le résultat. Il est conseillé donc,
de normaliser tous les attributs sur le même intervalle puis calculer la distance.

I.4.2. Attributs catégoriels


Le problème qui se pose lors du calcul de la distance entre les attributs catégoriels,
c’est qu’on ne dispose pas d’une mesure de différence. La seule mesure qui existe, dans
l’absence de toute information sur la signification des valeurs, c’est l’égalité ou l’inégalité.
La distance utilisée est alors :
 Pnc




Dc (xi , xj ) = n1c k=1 f (xik , xjk )

f (xik , xjk ) = 1 si xik = xjk (I.5)

 0

sinon

Il faut en fin la normaliser avec les attributs numériques et le nombre d’attributs ca-

6
CHAPITRE I. CLUSTERING

tégoriels.

La distance entre deux données xi et xj , composées d’attributs numériques et catégo-


riels, est donc :
D(xi , xj ) = Dn (xi , xj ) + Dc(xi , xj ) (I.6)

En se basant sur la distance entre deux attributs, plusieurs distances peuvent être
calculées :
– Distance entre deux clusters : permet de mesurer la distance entre deux clusters
pour une éventuelle fusion en cas où ils soient trop proches. Cette distance peut être
prise entre les centres des deux clusters, entre les deux données les plus éloignées
(ou plus proches) des deux clusters ou la distance moyenne de leurs données.

Figure I.2 – Distance intra-cluster.

– Distance intra-cluster : c’est la distance moyenne entre les données à l’intérieur


d’un cluster, elle peut être utile pour maintenir un seuil d’éloignement maximum
dans le cluster au-dessus duquel on doit scinder ce cluster.

Figure I.3 – Distance inter-clusters.

– Distance intra-clusters moyenne : permet avec la distance inter-clusters de


mesurer la qualité du clustering.

7
CHAPITRE I. CLUSTERING

Figure I.4 – Distance intra-clusters moyenne.

I.5. Les algorithmes de clustering


La mesure de similarité peut être utilisée par un algorithme de clustering pour trouver
le partitionnement optimal des données. Parmi ces algorithmes on peut citer :

I.5.1. Clustering hiérarchique


Dans ce type de clustering le nombre de clusters ne peut être connu à l’avance. Le
système prend en entrée l’ensemble de données et fournit en sortie une arborescence de
clusters. Il existe deux classes de ce type d’algorithmes : ?
– Les algorithmes divisibles : Qui commencent à partir d’un ensemble de don-
nées et le subdivisent en sous-ensembles puis subdivisent chaque sous ensemble en
d’autres plus petits, et ainsi de suite, pour générer en fin une séquence de clusters
ordonnée du plus général au plus fin.
– Les algorithmes agglomératifs : Qui considèrent chaque enregistrement comme
étant un cluster indépendant puis rassemblent les plus proches en des clusters plus
importants, et ainsi de suite jusqu’à atteindre un seul cluster contenant toutes les
données. Un algorithme agglomératif suit généralement les étapes suivantes :

Algorithme 1 : Clustering hiérarchique

1 : Placer chaque enregistrement dans son propre cluster ;


2 : Calculer une liste des distances inter-clusters et la trier dans l’ordre croissant ;
3 : Pour chaque seuil de niveau de similitude préfixé dk ;
4 : Relier tous les clusters dont la distance est inférieure à dk par des arrêtes à un nouveau
cluster ;
5 : Fin Pour
6 : Si tous les enregistrements sont membres d’un graphe connecté alors fin ;
7 : sinon aller à 3 ;

8
CHAPITRE I. CLUSTERING

8 : Le résultat est un graphe qui peut être coupé selon le niveau de similarité désiré.

La complexité de cet algorithme est O(N 2 Log(n)), puisqu’il traite les données en paires
pour le tri et la création des partitions ce qui le rend un peu lourd vis-à-vis des grandes
bases de données. Son avantage est qu’il produit une vue en plusieurs niveaux des données.
Il est aussi indépendant de l’ordre des données introduites.

Figure I.5 – Exemple de résultat hiérarchique.

I.5.2. Clustering partitionnel


Un algorithme partitionnel de clustering obtient à sa fin une seule partition des données
au lieu de plusieurs tel que dans le cas précédent. Pour ce faire, il essaye d’optimiser la
distance moyenne entre les données de chaque cluster et son centre, on utilise généralement
l’erreur quadratique qui calcule l’erreur entre les données et le centre : ?

Nk
e2k = (xik − xk )2
X
(I.7)
i=1

Où ek2 est l’erreur quadratique moyenne du cluster k, Nk est le nombre d’enregistre-


ments dans le cluster, xik est l’enregistrement numéro i du cluster k et xk est la moyenne
du cluster k. L’objectif d’un algorithme partitionnel est de trouver une partition qui mi-
nimise E2k tel que :
k
Ek2 = e2k
X
(I.8)
k=1

Le plus simple et le plus utilisé des algorithmes partitionnels et l’algorithme K-means,


il démarre d’une partition arbitraire des enregistrements sur les k clusters, à chaque ité-
ration il calcule les centres de ces clusters puis il effectue une nouvelle affectation des
enregistrements aux plus proches centres. Il s’arrête dès qu’un critère d’arrêt est satisfait,
généralement on s’arrête si aucun enregistrement ne change de cluster. L’algorithme est

9
CHAPITRE I. CLUSTERING

le suivant :

Algorithme 2 : Clustering partitionnel

1 : Sélectionner une partition initiale contenant des enregistrements choisis arbitraire-


ment, puis calculer les centres des clusters ;
2 : Calculer une liste des distances inter-clusters et la trier dans l’ordre croissant ;
3 : Générer une nouvelle partition en affectant chaque enregistrement au cluster du centre
le plus proche ;
4 : Calculer les nouveaux centres des clusters ;
5 : Répéter 2 et 3 jusqu’à ce que les enregistrements se stabilisent dans leurs clusters ;

Cet algorithme est le plus utilisé pour le clustering des bases de données immenses. Sa
complexité est O(nlk) où n est le nombre d’enregistrements, l est le nombre d’itérations de
l’algorithme, et k est le nombre de clusters. Pratiquement, k et l sont fixés à l’avance, ce qui
veut dire que l’algorithme est linéaire par rapport aux données. Il est aussi indépendant
de l’ordre des données introduites.

I.5.3. Clustering incrémental


Les deux algorithmes présentés ci-dessus nécessitent la présence de tout l’ensemble de
données analysées en mémoire, ce qui est pratiquement avec de larges bases de données
avec des millions d’enregistrements. Pour pallier ce problème, le clustering incrémental
traite une partie des données (selon la mémoire disponible) puis ajouter itérativement des
données en modifiant chaque fois si nécessaire le partitionnement obtenu. L’algorithme
suivant résume les étapes suivies : ?

Algorithme 3 : Clustering incrémental

1 : Affecter le premier enregistrement au premier cluster ;


2 : Pour un nouvel enregistrement : soit l’affecter un cluster existant, soit l’affecter à un
nouveau cluster. Cette affectation est effectuée selon un certain critère. Par exemple la
distance du nouvel enregistrement des centres des clusters existants. Dans ce cas à chaque
affectation les centres des clusters sont recalculés ;
3 : Répéter l’étape 2 jusqu’à ce que tous les enregistrements soient clusterés ;

Le besoin en terme de mémoire des algorithmes de clustering incrémental est très ré-
duit, ils nécessitent généralement uniquement les centres des clusters. Un problème sérieux

10
CHAPITRE I. CLUSTERING

duquel souffrent les algorithmes de clustering incrémental est leur dépendance de l’ordre
de présentation des enregistrements. Avec les mêmes données ordonnées différemment, ils
fournissent des résultats totalement différents.

I.6. Problèmes et limites du clustering


Malgré l’existence d’un grand nombre de méthodes de clustering ainsi que leur utili-
sation avec succès dans de nombreux domaines, le clustering pose encore de nombreux
problèmes. Ces problèmes sont liés d’une part au manque de précision dans la définition
de ce qu’est réellement un cluster mais également dans la difficulté de définir une mesure
de similarité entre objets ou encore dans la définition d’une fonction objective pour un
problème donné. Jain et Dubes [1988] ? ont listé un ensemble de questions qu’il est né-
cessaire de se poser lorsqu’on entreprend d’effectuer une tâche de clustering. Cette liste
de questions met en avant la multiplicité et surtout la nature différente des paramètres à
prendre en compte dans ce type d’approche ? :
– Qu’est-ce qu’un cluster ?
– Quels attributs doivent être utilisés ?
– Les données doivent-elles être normalisées ?
– Les données contiennent-elles des objets atypiques ?
– Comment est définie la similarité entre deux objets ?
– Combien de clusters sont présents ?
– Quelle méthode de clustering doit-on utiliser ?
– Est-ce que les données contiennent des clusters ?
– Est-ce que la partition découverte est valide ?
Nous allons étudier dans les sections suivantes certains des problèmes et limites récur-
rents en clustering qui sont soulevés par ces questions.

I.6.1. Choix du nombre de clusters


Définir le nombre de clusters est un des problèmes les plus difficiles en clustering. En
effet, il est souvent nécessaire de fournir le nombre de clusters souhaité comme paramètre
de l’algorithme. Le choix du nombre de clusters a souvent été étudié comme un problème
de sélection de modèle. Dans ce cas, l’algorithme est généralement exécuté plusieurs fois
indépendamment avec un nombre de clusters différent. Les résultats sont ensuite comparés
en se basant sur un critère de sélection qui permet de choisir la meilleure solution. Ce
choix est toujours subjectif et fortement dépendant du critère sélectionné pour comparer
les résultats. ?

11
CHAPITRE I. CLUSTERING

I.6.2. Validité des clusters


Un algorithme de clustering tente de découvrir des clusters dans les données que celles-
ci en contiennent ou non. Dans un cas idéal, il faudrait analyser les données a priori pour
savoir si celles-ci ont une tendance à posséder des clusters avant d’appliquer un algorithme
de recherche de clusters. Dans les faits, il est nécessaire d’étudier les résultats obtenus pour
s’assurer de la pertinence des clusters identifiés. Vérifier la validité des clusters découverts
consiste à utiliser une procédure qui évalue le résultat obtenu de manière quantitative et
objective Jain et Dubes [1988] ?.

I.6.3. Paramétrage des algorithmes


Chaque algorithme de clustering possède un certain nombre de paramètres. Ces pa-
ramètres influent de manière plus au moins importante sur les résultats obtenus. Ces
paramètres sont nécessaires pour que l’algorithme soit relativement générique et pour que
celui-ci soit applicable dans plusieurs cas. Plus le nombre de paramètres augmente plus
l’algorithme est adaptable et peut s’appliquer à une gamme de problèmes plus large. Ce-
pendant, l’augmentation des paramètres nécessite également de la part de l’expert une
connaissance importante sur ses données et sur le fonctionnement de l’algorithme. ?

Figure I.6 – Exemple de données produisant des résultats différents suivant l’initialisation
de k-means.

I.6.4. Comparaison des méthodes de clustering


Il est relativement difficile de faire un choix parmi de nombreuses méthodes de cluste-
ring, surtout quand l’expert a peu de connaissances sur ses données, ce qui est générale-
ment le cas en classification non supervisée. Les critères d’évaluation de la qualité ou de

12
CHAPITRE I. CLUSTERING

la stabilité présentés précédemment apportent des éléments permettant d’aider l’expert à


faire un choix. ?

I.7. Domaine d’applications


Algorithmes de clustering peut être appliqué dans de nombreux domaines, par exemple :
?
– Marketing : Pour trouver des groupes de clients avec un comportement similaire
donné une grande base de données sur les clients contenant leurs propriétés et les
dossiers d’achats passés.
– Biologie : Classification des plantes et des animaux compte tenu de leurs caracté-
ristiques.
– Bibliothèques : Pour commander des livres et classer dans la bibliothèque.
– Assurance : L’identification des groupes de détenteurs de polices d’assurance auto-
mobile avec un coût moyen par demande élevée, fraudes d’identification.
– L’urbanisme : L’identification des groupes de maisons en fonction de leur type de
maison, la valeur et l’emplacement géographique.
– Etudes sismiques : Epicentres des séismes observés de clustering afin d’identifier les
zones dangereuses.
– World White Web (WWW) : Classification des documents, des données weblog de
clustering de découvrir des groupes de motifs d’accès similaires.

I.8. Conclusion
Le clustering est une tâche dont l’objectif est de trouver des groupes au sein d’un
ensemble d’objets. Dans ce chapitre, nous avons étudié les grands concepts du clustering,
les principales méthodes existantes ainsi que leur évaluation et leur comparaison. Nous
avons également présenté les différents problèmes et limites en clustering. Il en ressort
qu’un nombre important de méthodes existent et qu’il est souvent difficile de faire un
choix parmi celles-ci. Ce choix est crucial dans le processus de fouille de données et est
conditionné par le type de résultat que l’expert veut obtenir. ?
Pour tenter de résoudre ce problème, nous allons voir dans le chapitre suivant de façon
générale la méthode SVM binaire et mono-classe, et aussi on présente de façon détailléela
nouvelle méthode appelée Support Vecteur Clustering SVC.

13
Chapitre II

Support Vector Clustering SVC


CHAPITRE II. SUPPORT VECTOR CLUSTERING SVC

II.1. Introduction
Supports Vectors Machines (SVMs) ont été largement adoptés pour la détection de
classification, régression et la nouveauté. Des études récentes ?? ont proposé de les utiliser
pour l’analyse typologique aussi. La base de ce Support Vecteurs Clustering (SVC) est
l’estimation de densité par la formation SVM. Le SVC est une méthode de classification
basée sur les frontières, où les informations de support sont utilisées pour construire les
limites des clusters.
Ce chapitre est consacré à la présentation brève des étapes de la méthode SVM binaire
pour la détermination de l’hyperplan, tout en mettant l’accent sur la méthode de kernel
pour l’approche des solutions relatives aux difficultés liées aux hyperplans non linéaires.
Puis on passe à l’explication SVM mono-classe. Finalement on explique la nouvelle mé-
thode dite SVC en détail (qu’on utilisera dans la partie pratique), la définition et les
différentes stratégies utilisées dans cette méthode.

II.2. Support Vector Machine SVM


Depuis quelques années, de nouvelles méthodes d’apprentissage se développent sur
la base de la théorie de l’apprentissage statistique de Vladimir Vapnik. L’une de ces
méthodes, est la Machine à vecteur de support (ou SVM : l’acronyme de Support Vector
Machines en anglais).

II.2.1. Définition
Le SVM est une méthode de classification supervisée, qui fut introduite par Vapnik
en 1995 ?, elle est basée sur la recherche de l’hyperplan optimale, lorsque c’est possible,
pour classer ou séparer correctement les données tout en étant le plus éloigné possible de
toutes les observations. Le principe est donc de trouver un classificateur dans un espace
approprié. Puisque c’est un problème de classification à deux classes. Cette méthode est
basée sur l’utilisation des fonctions dites noyau (Kernel) qui permettent une séparation
optimale des données. ?

II.2.2. Notions de base : Hyperplan, marge et support vecteur


Pour deux classes d’exemples donnés, le but de SVM est de trouver un classificateur
qui va séparer les données et maximiser la distance entre ces deux classes. Avec SVM, ce
classificateur est un classificateur linéaire appelé hyperplan.

15
CHAPITRE II. SUPPORT VECTOR CLUSTERING SVC

II.2.2.1. Hyperplan optimal

Un hyperplan va séparer les deux ensembles de donnés en deux classes. Il existe une
multitude d’hyperplan valide, mais la propriété de SVM est que cet hyperplan doit être
optimal c.-à-d. qui permet de classer bien les nouvelles données, donc il faut chercher
parmi les hyperplans valide, celui qui passe au milieu des points des deux classes des
donnés où la distance minimale aux donnés d’apprentissage est maximale. Les points de
l’hyperplan vérifient aussi l’équation w · x + b = 0 figure ??. ??

Figure II.1 – Choisir hyperplan optimal.

II.2.2.2. Les vecteurs supports

Les vecteurs supports sont un ensemble d’exemples d’apprentissage se trouvant sur la


marge. Ce sont les points les plus proches, qui seuls sont utilisés pour la détermination
de l’hyperplan figure ??. ?

Figure II.2 – Les supports de vecteur.

16
CHAPITRE II. SUPPORT VECTOR CLUSTERING SVC

II.2.2.3. La marge

La marge est la distance entre la frontière de séparation et les échantillons les plus
proches. Ces dernières sont appelées vecteurs supports ?. La marge est calculée à partir
du produit scalaire entre les vecteurs situés à la frontière de chaque classe et le vecteur
unitaire normal w de l’hyperplan séparateur figure ??. ?
Dans un modèle linéaire, on à f (x) = w · x + b. L’hyperplan séparateur (frontière de
décision) a donc pour équation w · x + b = 0. La distance d’un point au plan est donnée
par ?? :
d(x) = |w · x + b|/ kwk
Soit x1 et x2 deux points de classes différentes f (x1 ) = +1 et f (x2 ) = −1 :
w · x1 + b = +1 et w · x2 + b = −1
donc
(w · (x1 − x2 )) = 2
D’où :

(w/ kwk · (x1 − x2 )) = 2/ kwk.

Figure II.3 – Hyperplan de séparation des deux classes.

II.2.3. SVMs binaires


Le cas le plus simple est celui où les données d’entrainement viennent uniquement
de deux classes différentes (+1 ou -1), on parle alors de classification binaire. L’idée des
SVMs est de rechercher un hyperplan (droite dans le cas de deux dimensions) qui sépare
le mieux ces deux classes ??.
Si un tel hyperplan existe, c’est-à-dire si les données sont linéairement séparables, on
parle d’une machine à vecteur support à marge dure (Hard margin).

17
CHAPITRE II. SUPPORT VECTOR CLUSTERING SVC

Figure II.4 – SVM binaire.

II.2.3.1. Linéarité et non-linéarité

Parmi les modèles des SVM, on constate les cas linéairement séparable et les cas non
linéairement séparable. Les premiers sont les plus simples puisqu’ils permettent de trouver
facilement le classificateur linéaire. En général, la plupart des applications ont besoin de
fonctions plus complexes que les fonctions linéaires pour faire de la classification. Une
stratégie de prétraitement peut être utilisée pour simplifier la tâche. Il s’agit de changer
l’espace original en un nouvel espace dit de ré-description de grande dimension où les
données peuvent être linéairement séparables. ?

II.2.3.1.1. Cas non séparable

L’hypothèse dans le cas linéairement séparable conditionne beaucoup la résolution du


problème. En effet, il suffit qu’une observation de deux classes viole la contrainte y·(w·xi +
b) ≥ 1 pour que ce problème n’ait plus de solution. La figure ?? montre une telle situation.
Pour tenter de résoudre ce problème, l’idée consiste à relâcher les contraintes dans le but
d’autoriser quelques erreurs de classification. Cette généralisation de l’hyperplan à marge
maximale a été proposée par (Cortes and Vapnik, 1995) en introduisant les variables
d’écart à la marge. ?
Si 0 ≤ ξ ≤ 1 : Les exemples se trouvent dans la région de la marge maximale.
Si ξ > 1 : Les exemples se trouvent du mauvais côté de l’hyperplan.
On cherche à maximiser la marge en tolérant pour chaque contrainte une erreur positive
ξi la plus petite possible. ??

18
CHAPITRE II. SUPPORT VECTOR CLUSTERING SVC

Figure II.5 – Variable relâchement.

On part du problème primal linéaire et on introduit des variables "ressort" :



min 21 kwk2 + c li=1 ξi
 P




∀i, yi (w · xi + b) ≥ 1 − ξi (II.1)

 ξ ≥ 0, i = 1, 2, · · · , l

i

Le paramètre supplémentaire C qui apparaît dans le problème d’optimisation qui


précède, est une constante positive fixée à l’avance, et qui permet de contrôler l’importance
de l’erreur que l’on autorise par rapport à la taille de la marge. Plus C est important,
moins d’erreurs sont autorisées.
On en déduit le problème dual avec la même démarche du lagrangien que dans le cas
séparable :  Pl 1 Pl



 P
max i=1 α i − 2 i,j=1 αi αj yi yj hxi , xj i
n
i=1 αi yi = 0 (II.2)


∀i, 0 ≤ αi ≤ C

La seule différence est la borne supérieure C sur les α. ?

II.2.3.1.2. Cas non linéairement séparable

La séparation par un hyperplan est un cadre de classification relativement complexe,


car pour beaucoup de cas, les exemples que l’on veut séparer ne sont pas séparables par un
hyperplan. Pour surmonter les inconvénients des cas non linéairement séparable, l’idée des
SVM est de changer l’espace des données. Où la séparation linéaire des exemples dans un
nouvel espace est possible. On va donc avoir un changement de dimension. Cette nouvelle
dimension est appelée espace de ré-description .
La fonction noyau de transfert Φ figure ?? correspond à un changement de dimension.
Une fois ce changement est appliqué, on aboutit à la problématique de la séparation

19
CHAPITRE II. SUPPORT VECTOR CLUSTERING SVC

linéaire. Ce qui implique de trouver une fonction f (x)Φ : <n −→ <N . ?


x = (x1 , · · · , xn ) 7−→ Φ(x) = (Φ1 (x), · · · , ΦN (x))

Figure II.6 – Un changement de représentation peut simplifier la classification.

II.2.3.2. Exemples de noyaux

– Noyau linéaire : Si les données sont linéairement séparables, on n’a pas besoin de
changer d’espace, et le produit scalaire suffit pour définir la fonction de décision : ?

K(xi , xj ) = xTi xj (II.3)

– Noyau polynomial : Le noyau polynomial élève le produit scalaire à une puissance


naturelle d : ?
K(xi , xj ) = (xTi xj )d (II.4)

Si d = 1 le noyau devient linéaire. Le noyau polynomial dit non homogène K(xi , xj ) =


(xTi xj + C)d est aussi utilisé.

– Noyau RBF : Les noyaux RBF (Radial Basis Functions) sont des noyaux qui peuvent
être écrits sous la forme : K(xi , xj ) = f (d(xi , xj )) où d est une métrique sur X et f
est une fonction dans <. Un exemple des noyaux RBF est le noyau Gaussien ?? : ?
2


kxi −xj k
K(xi , xj ) = e 2σ 2 (II.5)

Où σ est un réel positif qui représente la largeur de bande du noyau.

20
CHAPITRE II. SUPPORT VECTOR CLUSTERING SVC

II.2.4. SVM mono-classe


II.2.4.1. Définition

Dans la classification SVM mono-classe, il est supposé que seules les données d’une
seule classe, qui est la classe cible, sont disponible. Cela signifie que seulement les exemples
de la classe cible peuvent être utilisés et qu’aucune information sur les classes d’autres
objets n’est présente. Pour le SVM mono-classe ou one-class SVM (OC-SVM), la frontière
entre les deux catégories doit être estimée à partir de la classe cible et le vecteur unitaire
normal w. La tâche est de définir une frontière autour de la classe cible, de telle sorte qu’il
accepte autant d’objets cibles que possible. ?

Figure II.7 – Le classifieur SVM mono-classe.

II.2.4.2. Pourquoi SVM mono-classe ?

Le SVM mono-classe est utilisé pour la recherche d’information de distinction entre


les classes, en utilisant seulement des exemples positifs lors de l’entraiment. Ceci est
important dans de nombreuses applications. Considérons l’exemple qui essaye de classer
les sites d’intérêt à un internaute, où la seule information disponible est l’histoire des
activités de l’utilisateur. On peut envisager l’identification typique des exemples positifs
par un tel suivi, mais il serait difficile d’identifier des exemples représentatifs négatifs. ??
L’ensemble des données d’apprentissage est utilisé pour générer le détecteur SVM
mono-classe, qui est capable de fournie des estimations fiables pour les objets d’entrée qui
ressemble à l’ensemble d’apprentissage, puis à détecter les objets d’entrée qui ne ressemble
pas à l’ensemble d’apprentissage, c.-à-d. étant donné un ensemble de données d’entrée ,
le SVM une seule classe construit une fonction de décision qui prend la valeur +1 dans
une petite région qui capture la plupart des points de données, et −1 ailleurs. ??

21
CHAPITRE II. SUPPORT VECTOR CLUSTERING SVC

II.2.4.3. Transformation des entrées

Il est nécessaire de transformer les entrées dans le but de les traiter plus facilement.
R est un espace quelconque d’objets.
On transforme les entrées en vecteurs dans un espace F (feature space) par une fonction
Φ:
Φ : R −→ F

F est un espace de grand dimension, dispose d’un produit scalaire (espace de Hilbert).
La non-linéarité est traitée dans cette transformation, on peut donc choisir une séparation
linéaire qui séparer l’ensemble des données de l’origine dans l’espace caractéristique pour
maximiser la marge où SVM une seule classe trace une frontière non linéaire sur l’ensemble
des données de la classe cible dans l’espace d’entrée.

Figure II.8 – SVM mono-classe à deux solutions différentes.

La figure précédente (FIGURE ??) illustre un classifieur SVM mono-classe, avec


deux solutions différentes. Le graphe de gauche représente une solution assez complexe,
qui capte tous les points de formation, tout en ayant de petits volumes dans l’espace
d’entré. Sur la droite, une solution plus simple mais qui ne capture pas tous les points de
formation. ?

II.2.4.4. Description du problème pour SVM mono-classe

Le problème de classification SVM mono-classe est un cas particulier du problème


de classification binaire, où seules les données d’une seule classe sont disponibles et bien
échantillonnées. Cette classe est appelée la classe cible. L’autre classe qui est appelée la
classe des données non cible.
Dans l’algorithme SVM mono-classe, les données en entrée sont représentées dans un
espace de grande dimension (par l’intermédiaire d’un noyau). Il cherche itérativement
l’hyperplan de marge maximale qui les sépare le mieux. L’OC-SVM peut être considéré
comme un SVM régulier à deux classes, où toutes les données de formation se situent dans

22
CHAPITRE II. SUPPORT VECTOR CLUSTERING SVC

la première classe, et l’origine est considérée comme le seul membre de la deuxième. Donc,
l’hyperplan (ou limite de décision linéaire) correspond à la fonction de classification :

f (x) = hw, xi + b (II.6)

Où w est le vecteur normal et b est un terme de biais. SVM une seule classe résoudre
un problème d’optimisation pour trouver la fonction f avec une marge maximale. Nous
pouvons utiliser cette fonction de classification pour attribuer une étiquette à un exemple
de test x. Si f (x) < 0, on étiquette x comme une anomalie, sinon il est étiqueté normal. ?
Soit les données d’entré x1 , · · · , xl (x ∈ X) où l est le nombre des données d’apprentis-
sage. Φ permet de cartographie les données dans l’espace de caractéristique Φ : X −→ H,
en d’autres termes un point dans un espace H tel que le produit scalaire à l’image de Φ
peut être calculée en évaluant certains noyau simple.

k(x, x0 ) = hΦ(x) · Φ(x0 )i (II.7)

Tels que le noyau gaussien :

kx−x0 k2
K(x, x0 ) = e− 2σ 2 (II.8)

SVM une seule classe retourne une fonction f qui prend la valeur +1 dans une "petite"
région qui capture la plupart des points de données d’entré, et −1 ailleurs. La stratégie
consiste à séparer les données de la classe cible de l’origine avec une marge maximale.
Pour un nouveau point x, la valeur f (x) est déterminée par l’évaluation de quel côté
de l’hyperplan il tombe sur, dans l’espace caractéristique. En raison de la liberté d’utili-
ser différents types de fonctions du noyau, cette image géométrique simple correspond à
une variété d’estimateurs non linéaires dans l’espace d’entrée. Pour séparer l’ensemble de
données de l’origine, on résout le problème quadratique primal suivant :
m
1 1 X
minw,ξ,ρ kwk2 + (ξi − ρ) (II.9)
2 vm i=1

hw, Φ(xi )i ≥ ρ − ξi (II.10)

ξi ≥ 0, pour i = 1, 2, · · · , m

Où v ∈ (0, 1) est un paramètre dont la signification est la fraction des valeurs d’autres
classes. Depuis de variables d’écart non nul ξi sont pénalisés dans la fonction objectif, on

23
CHAPITRE II. SUPPORT VECTOR CLUSTERING SVC

peut s’attendre que, si w et ρ résolvent ce problème, alors la fonction de décision :

f (x) = sign(hw, Φ(x)i − ρ) (II.11)

Sera positive pour la plupart des exemples xi contenus dans l’ensemble d’apprentissage.
Pour un nouveau point xi , la valeur f (x) est déterminée par l’évaluation de quel côté de
l’hyperplan il tombe sur. Pour résoudre le problème d’optimisation ?? qui précède, on
construit le Lagrangien L.

1 1 X
kwk2 +
X X
L(w, ξ, ρ, α, β) = ξi − ρ − αi (hw, Φ(x)i − ρ + ξi ) − βi ξi (II.12)
2 vm i i i

Où les αi , i = 1, 2, · · · , l, désignant les multiplicateurs de Lagrange. Pour que w, b et


les αi existent, le problème doit vérifier les conditions de Karush-Kuhn-Tucker (KKT) :
X
w= αi Φ(xi ) (II.13)
i

1 1
αi = − βi ≤ (II.14)
vm vm
X
αi = 1
i

Tous les modèles xi : i ∈ [m], αi > 0 sont appelés Vecteurs de Support (SV).
X
f (x) = sign( αi K(xi , x) − ρ) (II.15)
i

En substituant équation ?? et équation ?? dans équation??, on obtient le problème


dual :
1X
minα αi αj K(xi , xj ) (II.16)
2 i,j
Sous les contraintes
1
0 ≤ αi ≤ (II.17)
vm
X
αi = 1 (II.18)
i

ρ pourra être récupéré si pour un tel αi , le modèle xi correspondant satisfait :


X
ρ = (w, Φ(xi )) = αi K(xj , xi ) (II.19)
j

Le schéma conceptuel de SVM mono-classe est illustré à la figure ??. ?


Dans l’exemple de figure ?? l’hyperplan ρ = hw, Φ(xi )i (avec w vecteur normal et

24
CHAPITRE II. SUPPORT VECTOR CLUSTERING SVC

Figure II.9 – SVM mono-classe à une marge maximale.

le terme de biais ρ) sépare tous les points de l’origine. Les données d’autres classes sont
associées à une variable d’écart ξ , ce qui est pénalisé dans la fonction objectif ??. La
distance entre le donnée d’autre classe et l’hyperplan est de ξ/ kwk , la distance entre
l’hyperplan et l’origine est ρ/ kwk. Celui-ci implique que d’un petit kwk correspond à une
grande marge de séparation d’avec l’origine. ?

II.3. Support Vector Clustering SVC

II.3.1. Définition
Récemment, Estivill-Castro et Lee ?? a proposé des méthodes de clustering à base
de limites en utilisant la modélisation graphique de proximité. Modélisation de l’infor-
mation de proximité et la densité des points de données 2D à l’aide de Diagrammes de
Delaunay est un puissant algorithme d’exploration et d’argumentation de clustering libre
pour l’exploration de données géographiques ?. L’idée principale derrière cette approche
est de détecter les changements de densité nette limites des clusters potentiels. Dans leur
approche, le principe fondamental est la proximité de modélisation et de topologie en
termes de graphes de proximité.
En règle générale, les méthodes de classification utilisent un concept de similarité (par
exemple, la distance euclidienne) pour mesurer la proximité entre les objets de données.
Même dans des dimensions, la proximité est essentielle à l’analyse typologique. Dans
les graphes de proximité, les sommets représentent les points de données et les bords
raccorder des paires de points à proximité de modèle et de contiguïté. En dépit du fait
que le point est l’objet le plus primitif des données, il n’est pas facile de définir le point de
proximité comme une relation discrète. Pour mieux décrire la proximité entre les points
de données, une seule famille de graphes de proximité a été étudiée et comparée pour
des considérations de modélisation différentes ?. Ces graphes de proximité comprennent
par exemple diagrammes de Delaunay Delaunay Diagrams (DD), arbres de recouvrement
minimaux Minimum Spanning Trees (MST) et k plus proches voisins k-Nearest Neighbors

25
CHAPITRE II. SUPPORT VECTOR CLUSTERING SVC

(k-NN). En choisissant appropriées graphes de proximité sous-jacentes de la complexité


prévu est sous-quadratique pour les données de toutes les dimensions.

II.3.2. Déférents approches de clustering


II.3.2.1. Techniques de noyau

Le SVC est une technique d’apprentissage non supervisé qui kernelized. On Suppose
un ensemble de n points de données {~xi } ⊆ χ, avec χ ⊆ <d c’est l’espace de données. Pour
formuler une description de vecteur de support de cet ensemble de données, une cartogra-
phie Φ non linéaire utilisé pour tracer χ dans un certain espace de dispositif dimensionnel
élevé. La prochaine étape est de trouver la plus petite hyper-sphère entourant :

xi ) − ~ak2 ≤ R2 + ξi
kΦ(~ (ξi ≥ 0) ∀i (II.20)

Où R est le rayon, ~a est le centre et ξi sont des variables d’écart permettant de bornes
douces (on peut permettre à quelques points d’informations de se trouver en dehors de
la sphère). Le problème ?? est habituellement résolu dans son duel en introduisant le
lagrangien et une régularisation C constant dans la limite de pénalité.

L = R2 − xi ) − ~ak2 )αi −
(R2 + ξi − kΦ(~
X X X
ξi µi + C ξi (II.21)
i

P
Où αi > 0 et µi > 0 sont des multiplicateurs lagrangiens, et des C ξi est une limite
de pénalité. Egalement l’état de Karush-Kuhn-Tucker permet au problème d’être récrit
comme :
x i )2 −
X X
max L = αi Φ(~ αi αj Φ(~
xi )Φ(x~j ) (II.22)
i i,j
X
telque 0 ≤ αi ≤ C, αi = 1, i = 1, 2, · · · , n

Après la méthode de SVMs, nous utilisons une représentation de noyau k(~


xi , x~j ) =
xi ) · Φ(x~j ).
Φ(~
Equation ?? est maintenant sauvé comme :
X X
max L = xi , x~i ) −
αi k(~ xi , x~j )
αi αj k(~ (II.23)
i i,j

X
telque 0 ≤ αi ≤ C, αi = 1, i = 1, 2, · · · , n

Les multiplicateurs lagrangiens αi peuvent être obtenu par l’optimisation d’équation


??. Seulement ces points avec le αi différent de zéro satisfont l’équation ?? comme égalité.
Ces points se trouvent sur la borne de la sphère et s’appellent les Supports Vectors (SVs).

26
CHAPITRE II. SUPPORT VECTOR CLUSTERING SVC

Points avec αi = C ont touché la limite supérieure pour le rayon qui se trouvent en dehors
de la sphère. Ces points s’appellent le vecteur support borné Bounded Support Vectors
(BSVs), et sont traités comme du bruit.
L’une des caractéristiques clés des méthodes à noyaux, c’est qu’ils n’exigent pas un
calcul explicite de la carte Φ de dispositif mais en utilisant seulement les valeurs des
produits scalaires entre les configurations tracées. Aux fins de clustering, et utilisons le
2
noyau de gaussiens Kq (~ai , a~j ) = eqka~i −a~j k avec le q = −1/(2σ 2 ) de paramètre de largeur
selon les grains polynômes ne rapportent pas des bornes étanches. ?

Figure II.10 – Phase SVM mono-classe.

II.3.2.2. Construction des bornes de cluster

Les vecteurs de support peuvent être utilisés pour décrire l’hyper-sphère dans l’espace
objet. Pour chaque point ~x, la distance Φ(~x) sur l’image au centre d’hyper-sphère est
donnée par :
R2 (~x) = K(~x, ~x) − 2
X X
αi K(~x, x~i ) + xi , x~j )
αi αj k(~ (II.24)
i i,j

Le rayon R de la sphère peut être obtenu en calculant la distance :


Ri = {R(~ xi )|~
xi est un Support V ector} des vecteurs de support du centre de l’hyper-
sphère (La mise en oeuvre concrète de la moyenne de ces distances peut être utilisée).
Des bornes de cluster peuvent être construites par un ensemble de courbes qui en-
tourent les points dans l’espace de données ~x|R(~x) = R. Ainsi, le mensonge de SVs sur
des bornes de cluster, BSVs sont à l’extérieur, et tous les autres points situés à l’intérieur
des clusters.

27
CHAPITRE II. SUPPORT VECTOR CLUSTERING SVC

Figure II.11 – Constroction bornes de cluster.

II.3.2.3. Clustering étiquetage

La description cluster lui-même ne fait pas de distinction entre les points qui appar-
tiennent à des clusters différents. Pour ce faire, une matrice d’adjacence Aij est définie sur
la base de l’observation géométrique : Donner une paire de points de données appartenant
à des différents clusters, pour tout chemin dans l’espace des données qui les relie, le chemin
correspondant dans l’espace doit avoir une intersection avec l’extérieur de l’hyper-sphère.
Pour chaque paire de points xi et xj , Aij prend une valeur binaire.

 1, xi + λ(x~j − x~i )) ≤ R, ∀λ ∈ [0, 1]
siR(~
Aij = (II.25)
 0, sinon

Les clusters sont maintenant définis comme composants connexes de graphe induit
par A. Le calcul Aij pour des points xi et xj est mis en application par l’échantillon d’un
certain nombre.
Les deux stratégies d’écriture cluster de Ben-Hur et al ?? sont décrits dans la stratégie
d’étiquetage cluster 1 et 2 ci-dessous.

Stratégie d’étiquetage Cluster 1 (CG)

Calculer Aij pour chaque paire de points x~i et x~j dans l’espace de données.
Il en résulte en utilisant le graphe complet, noté par CG, le modèle de contiguïté Aij . Il
prend O(n2 m) de temps.

Stratégie d’étiquetage Cluster 2 (SVG)

Calculer Aij pour des paires de points x~i et x~j , x~i ou x~j est un vecteur de support.
Ceci a comme conséquence un sous-graphe du CG, qui est désigné comme SVG. Il prend

28
CHAPITRE II. SUPPORT VECTOR CLUSTERING SVC

O((n − nbsv )n2sv m) de temps, où nbsv est le nombre de BSVs, et de nsv est le nombre de
SVs libre.

II.3.3. Support vecteur clustering par la modélisation graphique


de proximité
Le SVC grâce à la modélisation graphique de proximité étend la méthode de cluste-
ring de ?? avec le concept de la modélisation graphique de proximité. Notre méthode se
compose en trois étapes, qui vont être expliqué en détail.

II.3.3.1. SVM-formation pour détecter la structure de cluster

Le nombre du SVs et de BSVs affecte la structure de cluster, qui pour cette effet peut
être contrôlé par les paramètres q et C de formation de SVM. Quand q largeurs des noyaux
gaussiens augmente, le nombre SVs (nsv ) augmente, la forme des bornes de cluster devient
plus rugueux, et les contours tendent à fractionner (cf., les bornes des régions blanches
dans la figure ?? (a) et (d)) ci-dessous. D’une part, le nombre de BSVs (nbsv ) peut être
contrôlé par C, plus précisément par nbsv < 1/C. C’est-à-dire, si C ≥ 1, il n’existe pas
BSVs. Pour tenir compte de BSVs, on devrait mettre C < 1. Au lieu d’utiliser C qu’il est
1
plus naturel de fonctionner avec le paramètre p = nC , qui représente une limite supérieure
pour la fraction de BSVs. Le paramètre q détermine l’échelle à la sorcière que les données
sont sondées, et p décide la douceur de la borne. ?
La figure ?? représente un ensemble de données de 285 points et les modifications des
bornes de cluster dans la dépendance aux différentes configurations de q et p, qui sont
choisies expérimentalement. ?

Figure II.12 – Les clusters sont représentés par les régions blanches. Leurs bornes et
leurs nombres varient en fonction de q et p. Les points encerclés sont les résultants des
SVs et BSVs.

29
CHAPITRE II. SUPPORT VECTOR CLUSTERING SVC

II.3.3.2. Etiquetage Cluster utilisant des graphes de proximité

Après la formation SVM, le rayon R de l’hyper-sphère peut être utilisé comme cri-
tère de seuil, pour vérifier la connectivité entre les points de données. Dans certaines
conditions de coupure, quelques points deviendront non connectés. Les clusters sont des
composants connexes induits par Aij . Noter qu’une composante connexe peut également
être identifiée par un arbre couvrant, ce qui produit un nombre beaucoup plus petit des
arêtes que le CG. En conséquence, la stratégie d’étiquetage cluster 1 résultant pour tester
de nombreuses arêtes redondantes. Le graphique SVG rares dans la stratégie d’étiquetage
Cluster 2 ne décode pas les informations de voisinage exactement, et donne parfois des
clusters insignifiantes. Par conséquent, nous proposons une stratégie de clusters nouvel
étiquetage ci-dessous pour remédier aux inconvénients de la stratégie d’étiquetage Cluster
1 et 2.

Stratégie d’étiquetage Cluster 3 (Graphiques de Proximité)

Nous modélisons les données avec un graphe de proximité approprié qui reflète la
distribution des données et intègre de proximité et des informations de topologie. L’idée
est de calculer les coefficients de la matrice d’adjacence Aij seulement pour les paires de
x~i et x~j , où x~i et x~j sont liés par une arête Eij dans un graphe de proximité. En fait, la
matrice d’adjacence Aij n’est pas explicitement tenue dans la mémoire, mais codé dans le
graphe de proximité. Le problème est de trouver les composantes connexes du graphe en
explorant les bords induits par Aij . Nous effectuons la même stratégie d’échantillonnage
pour le calcul de Aij . Comme dans ??. Toutes les arêtes dans le graphe de proximité
en cours s’appellent les bords candidats. On se réfère à un bord Eij comme arête active
si Aij = 1, et si arête passive Aij = 0. Un chemin de connexion dans le graphe de
proximité est formé si chaque bord de la voie est un flanc actif. Une composante connexe
est l’équivalent d’un trajet actif.

Dans un diagramme de proximité, les points sont reliés par des arêtes si elles sont
proches les uns des autres selon une certaine mesure de proximité. Proche-par points sont
naturellement plus susceptibles d’être dans le même cluster que les points qui sont loin.
Ainsi, l’étiquetage cluster avec une stratégie graphe de proximité est une bonne heuristique
pour réduire le temps de test de liens. Nous allons discuter de trois types de graphes de
proximité pour l’affectation cluster. Ce sont Delaunay Diagram (DD), Minimum Spanning
Tree (MST), et k plus proches voisins k-Nearest Neighbors (k-NN) ??[6, 7]. Ils peuvent
être calculés en considérant les différents aspects de la proximité et de la topologie. DD
représente un "is-neighbour" relation. La MST est basée sur la proximité des points de

30
CHAPITRE II. SUPPORT VECTOR CLUSTERING SVC

données locale. Il s’agit d’un sous-graphe de DD, et encode l’information de moins de


proximité. k-NN est basé sur les concepts de distance. Figure ?? montre la construction
d’une variété de graphes de proximité pour l’affectation de cluster.

Figure II.13 – Différents graphiques de modélisation de proximité. En (c), les points sont
encerclés SVs et la zone blanche est la pré-image de l’hyper-sphère dans l’espace objet.

II.3.3.3. Récolte Cluster

Sans entrer dans les détails mathématiques, la procédure de récolte de cluster est justi-
fiée par l’observation empirique que les clusters correspondent aux composantes connexes
de bords, c’est à dire les chemins actifs. Bords passifs n’ont pas d’intérêt, et ils seront
supprimés à partir du graphe de proximité. Après le retrait des bords passifs, la tâche
de la récolte cluster devient reconnu tous les chemins actifs formés. Une fois les bords
actifs ont été déterminés, un algorithme classique comme en Depth-First-Search (DFS)
peut être utilisé pour collecter les composants connectés. Noter que DFS a une complexité
proportionnelle au nombre d’arêtes dans le graphe de proximité. Pseudo code pour la ré-
colte cluster est indiqué dans l’algorithme 4. Pour éviter cluster triviales, certains travaux
de nettoyage sont nécessaires. Nous traitons un cluster avec un petit nombre de points
inférieur à un seuil (par exemple 3) comme du bruit. BSVs sont inclus dans le cluster le
plus proche, comme suggéré dans ??. Figure ?? montre l’ensemble de la procédure de
SVM clustering pour le cas de la modélisation DD.

Algorithme 4 (Cluster Harvest)

31
CHAPITRE II. SUPPORT VECTOR CLUSTERING SVC

1 : fonction clusterHarvest(G : Graph ; S : ensembles)


2 : Input G : Graphe après marquage de cluster
3 : Output S : Définir des clusters
4 : Var : v : Noeud ;
5 : C : Set ; A un ensemble de points dans un cluster
6 : begin
7 : while(v := G.chooseNode())
8 : C.clear() ;
9 : DFS(G,v,C) ; v est déplacé à partir de G to C
10 : S.add(C) ;
11 : End while
12 : end

Figure II.14 – Procédure SVC utilise la modélisation DD. (a) Un ensemble de points.
(b) la modélisation DD. (c) résultat de la formation SVM. (d) les chemins actifs après
l’étiquetage. (e) Résultat final après la récolte cluster.

II.4. Conclusion
A travers ce chapitre nous avons présenté le SVM binaire et Mono-classe de façon
générale et comme introduction à la nouvelle méthode SVC qui permet de changer l’ap-
prentissage supervisé à l’apprentissage non supervisé.
Malgré certains inconvénients le SVC demeure utilisé dans de nombreuses applications
vu les avantages qu’il présente, et de ce fait nous essayons d’appliquer cette méthode pour
la segmentation des images satellitaires, et qui fera l’objet du chapitre suivant.

32
Chapitre III

Les images satellitaires


météorologiques
CHAPITRE III. LES IMAGES SATELLITAIRES MÉTÉOROLOGIQUES

III.1. Introduction
Les premières vues de la terre depuis l’espace ont été obtenues, au début des années
1950, par l’intermédiaire de fusées militaires reconverties. L’URSS fut le premier Etat à
mettre en orbite, le 4 octobre 1957, le premier satellite artificiel de l’histoire dénommé
"Spoutnik 1 " (D’un mot russe qui signifie "Compagnon de voyage"). L’engin pesait 83,6
kilos et était mis en orbite à une altitude de 900 km. Il accomplissait une révolution de la
terre en 96 minutes. Ce n’est que quelques mois plus tard (le 31 mai 1958) que les Etats
Unis ont mis sur orbite terrestre le premier satellite artificiel américain "Explorer I " qui
pesait 14 kilos. Depuis lors, plusieurs satellites ont été fabriqués et mis en orbite pour
différentes utilisations. Parmi les derniers satellites qui ont été mis en orbite, on peut
citer : le satellite météorologique européen MetOp (19 octobre 2006), le satellite AIM
(Aeronomy of Ice in the Mesosphere) des Etats Unis pour l’observation de la terre (25
avril 2007) et le premier satellite de communication du Nigeria NIGCOMSAT-1 (14 mai
2007).
Les satellites sont indispensables au développement des sciences spatiales et bien utiles
aux activités terrestres. Ils offrent aujourd’hui de nombreux services : Communiquer,
scruter l’univers, explorer le système solaire, observer la terre...etc. Ils sont composés
d’une charge utile permettant au satellite de mener à bien sa mission et d’une plateforme
assurant les fonctions annexes à sa mission. ?

III.2. Les différents types de satellites


Il existe différents types de satellites que l’on peut classer suivant leurs domaines
d’utilisation. Nous allons les présenter dans cette section.

III.2.1. Satellites de télécommunication


Ces satellites sont utilisés pour transmettre des informations d’un point à l’autre de
la terre, notamment des communications téléphoniques ou de la transmission de données,
les communications satellitaires et les programmes télévisés. Le premier satellite équipé
d’un émetteur Radio embarqué était le "Spoutnik 1 " russe tandis que le premier satellite
américain à relayer des communications s’appelait "Project Score". ?

III.2.2. Satellites de télédétection


Ces satellites observent la terre, dans un but scientifique (Température de la mer, man-
teau neigeux, sécheresse, ...etc.), économique (Ressources naturelles, agriculture, ...etc.)

34
CHAPITRE III. LES IMAGES SATELLITAIRES MÉTÉOROLOGIQUES

ou militaire. Le spectre d’observation est vaste : Optique, radar, infrarouge, ultraviolet,


écoute de signaux radioélectriques. ?

III.2.3. Satellites de positionnement


Ces satellites permettent de connaître la position d’objets à la surface de la terre,
dans les airs (Avions, missiles) et dans l’espace. Par exemple (GPS : Système américain,
GALILEO : Futur système européen, GLONASS : Système russe). ?

III.2.4. Satellites d’observation spatiale


Ces satellites observent l’espace au-dessus de l’atmosphère (par exemple HUBBLE) et
permettent aux astronomes d’avoir accès à des domaines de longueurs d’onde non visibles
depuis le sol ou d’exploiter les mêmes gammes de longueurs d’onde que les télescopes
au sol, mais avec des performances accrues. L’écran de l’atmosphère terrestre dégrade
toujours les signaux astronomiques. ?

III.2.5. Stations spatiales


Ces satellites sont destinés à être habités par l’homme et a un but scientifique. Après
les stations Saliout et Mir russes et la station Skylab américaine, la station spatiale inter-
nationale est en orbite depuis 1998 et est habitée en permanence depuis 2002. ?

III.2.6. Satellites météorologiques


Les satellites météorologiques apportent une vision globale et planétaire de l’état de
l’atmosphère. Les satellites en orbite polaire (Passant à peu près par l’axe des pôles)
survolent la totalité de la terre deux fois par jour. Ils fournissent une image des masses
nuageuses et de leur évolution, ainsi qu’une multitude de données relatives à la tempé-
rature de surface des océans, à la quantité d’ozone atmosphérique, à l’humidité des sols,
à la surface couverte par les glaces marines et continentales dans les hautes latitudes.
Ils enregistrent des informations sur l’état de l’atmosphère. Les satellites géostationnaires
paraissent immobiles car leur orbite est située dans le plan équatorial et ils tournent dans
le même sens et à la même vitesse angulaire que la terre. Ils observent donc en continu
une portion du globe terrestre. EUMETSAT exploite actuellement une flotte de cinq
satellites géostationnaires. ?

35
CHAPITRE III. LES IMAGES SATELLITAIRES MÉTÉOROLOGIQUES

Figure III.1 – Système de satellites météorologiques géostationnaires et en orbite polaire.

III.3. Les compositions colorées (RGB) des canaux


de Severi
La compréhension de la perception de la couleur est une problématique complexe, en
constante évolution, à la frontière de plusieurs disciplines. La manipulation des couleurs,
passe tout d’abord par le choix d’un espace paramétrique, permettant différentes représen-
tations de couleurs. Cet espace peut s’appuyer sur des grandeurs physiques, physiologiques
et mathématiques. ?
Les physiciens utilisent trois caractéristiques pour décrire les qualités d’une source de
lumière polychromatique :
– La radiance (L’énergie émise),
– La luminance (L’énergie qu’un observateur humain perçoit),
– La brillance (Traduit l’intensité chromatique perçue, subjective).
L’espace RVB figure ?? par exemple, est utilisé dans le domaine de l’informatique et du
multimédia tandis que l’espace CMYK (Cyan, Magenta, Yellow, Black), le complémen-
taire de l’espace RGB, est utilisé en imprimerie pour des raisons pratiques. L’espace de
couleurs RVB demeure le plus répandu. En effet, dans cet espace, un pixel est codé par
trois composantes Rouge, Vert et Bleu.
Cet espace a été développé en fonction des connaissances liées à la vision humaine. Ce
modèle est additif, ce qui signifie que toutes les couleurs sont déduites à partir du noir (R
= V = B = 0) en ajoutant plus ou moins certaines composantes.

36
CHAPITRE III. LES IMAGES SATELLITAIRES MÉTÉOROLOGIQUES

Figure III.2 – Cube des couleurs RGB.

III.4. Pseudo couleur et composition colorée


La visualisation d’une image, captée par satellite, sur un écran graphique peut soit se
faire en niveaux de gris, soit en pseudo couleur ou encore sous la forme d’une composition
colorée ? :

III.4.1. La représentation niveaux de gris


L’intensité des informations captées par le satellite MSG est codée numériquement à
l’origine sur 10 bits. Pour des raisons de commodités, elle est codée sur l’ordinateur soit
sur 8 bits (dégradation de l’information de départ) ou sur 16 bits (comme notre cas).
L’affichage en niveaux de gris se fait par correspondance entre ces derniers, ordonnés le
long d’une échelle allant du noir au blanc, et entre les valeurs enregistrées par le satellite
allant d’une valeur minimale à une autre maximale. Par conséquent, lors de l’affichage
d’un canal d’une image, la hiérarchie des niveaux de gris correspond à celle de l’intensité
des pixels. Contrairement à l’affichage en niveaux de gris, aucun ordre parmi celles-ci ne
peut être utilisé en correspondance avec la hiérarchie des valeurs des pixels. La couleur
est donc principalement utilisée, dans ce cas, pour améliorer la distinction visuelle des
valeurs. Elle est donc purement arbitraire et ne peut être source d’interprétation. Dans
un tel contexte on parle de pseudo couleur. ?

III.4.1.1. Les différents canaux

Toutes les 15 minutes, une scène Météosat -SEVIRI est acquise. Douze fichiers images
qui correspondent aux douze canaux du satellite MSG sont enregistrés. Un canal parmi

37
CHAPITRE III. LES IMAGES SATELLITAIRES MÉTÉOROLOGIQUES

les douze a une résolution très fine d’un km (High Résolution Visible : HRV), tandis que
les autres sont acquis avec une résolution de 3 Km. ?
– Visible
Les images visibles représentent la quantité de lumière visible rétrodiffusée par les
nuages ou la surface de la terre. Les nuages et la neige apparaissent en blanc et les
zones sans nuage en noir. Les nuages épais sont plus brillants que les nuages fins. Il
est difficile de distinguer les nuages bas des nuages élevés. Pour cela, il faut utiliser
les images infrarouges. On ne peut pas utiliser les images visibles la nuit. ?

Figure III.3 – Visibile.

– Infrarouge
Les images infrarouges représentent une mesure du rayonnement infrarouge émis
par le sol ou les nuages. Ce rayonnement dépend de la température. Plus l’objet est
chaud, plus il est noir et plus l’objet est froid, plus il est blanc. Les nuages élevés
apparaissent plus blancs que les nuages bas car ils sont plus froids. Dans les zones
sans nuages, plus le sol est chaud, plus il est sombre. ?

Figure III.4 – Infrarouge.

– Vapeur d’eau
Les images vapeur d’eau représentent une mesure du rayonnement infrarouge in-
fluencé par la vapeur d’eau dans l’atmosphère. Cela permet de déterminer les zones

38
CHAPITRE III. LES IMAGES SATELLITAIRES MÉTÉOROLOGIQUES

sèches et les zones humides. Les zones sombres correspondent à des zones sèches et
les blanches à des zones humides. ?

Figure III.5 – Vapeur d’eau.

III.4.1.2. L’albédo

Quand les rayons parviennent à la terre une partie de l’énergie qu’ils transportent est
déviée par les différentes couches de l’atmosphère. Cependant l’autre partie arrive à la
traverser. Celle-ci est alors réfléchie par les nuages ou par le sol. Ce qu’on nomme albédo
est le rapport entre l’énergie réfléchie et l’énergie incidente. Ce rapport est fonction de la
cible réfléchissante. Ainsi, l’albédo de la neige (0.85) n’est pas le même que celui d’une
prairie (0.20). En moyenne, l’albédo de la terre est de 0.3 ce qui signifie que 70% de
l’énergie que nous recevons est absorbée (30% est réfléchie). ?

Figure III.6 – Méthode de reconstitution d’une image.

39
CHAPITRE III. LES IMAGES SATELLITAIRES MÉTÉOROLOGIQUES

III.4.1.3. La dynamique

La dynamique d’une image est l’étendue de la plage de couleurs utilisable. Elle est liée
à la longueur du codage de chaque couleur : ?
– Si une couleur est représentée par un seul bit, on aura deux valeurs possibles, 0 ou
1, c’est-à-dire blanc ou noir. L’image est dite de type bitmap.
– Si une couleur est représentée sur un octet (8 bits), on aura 28 = 256 couleurs
possibles. C’est le cas des images dites en "fausses couleurs" ou "à palette" (format
GIF par exemple) et des images en "niveaux de gris".
– Enfin, on parle de "vraies couleurs" lorsqu’on utilise un octet pour stocker chacune
des composante dans l’espace de représentation des couleurs (Rouge - Vert - Bleu)
on aura 28 ∗ 28 ∗ 28 = 16 millions de couleurs possibles, mais chaque point sera codé
sur 3 octets.
– La dynamique dans notre cas traduit l’étendue ou la plage de valeurs réelles parmi
les 1024, qu’il faut prendre pour faire la correspondance avec celles de la couleur
(ou du niveau de gris) qui est en général de 256.

III.4.1.4. Le facteur gamma

Le gamma, ou facteur de contraste, caractérise la pente de partie rectiligne de la courbe


La correction gamma ressemble à un réglage de contraste, mais utilise un algorithme plus
complexe. Les tons sombres et clairs sont très peu modifiés alors que les tons moyens le
sont davantage. Cette méthode garantit un ajustement optimal en préservant les ombres
et les reflets.?

Figure III.7 – la correction gamma.

Intensité corrigée = intensité / gamma.

Plus le gamma est faible plus le contraste est faible ; l’image perd sa saturation et
devient pâle, elle n’a plus aucune dynamique car elle a perdu sa luminance. Inversement,
à un gamma élevé correspond un contraste élevé et une forte dynamique ; les couleurs sont

40
CHAPITRE III. LES IMAGES SATELLITAIRES MÉTÉOROLOGIQUES

vives, très saturées avec des noirs et des blancs presque purs, parfois trop lumineux.?

III.4.2. La composition colorée


Dans le cas où on associe chacune des couleurs fondamentales (Rouge, Vert, Bleu) à
un canal de la même image, il est possible de visualiser plusieurs canaux simultanément.
Cette opération s’intitule : Composition colorée. L’utilisation de la couleur ne provoque
pas dans ce cas une transformation des valeurs des pixels. L’interprétation des couleurs
est donc possible. ?
Le résultat de la superposition des trois canaux et donc de la combinaison des niveaux
d’intensité des trois couleurs fondamentales donnera une image en Vrais ou en Fausse
couleur, selon que la couleur fondamentale associée à chaque canal correspond, ou non, à
la zone du spectre couvert par ce canal. Dans le cas d’une correspondance parfaite entre les
couleurs fondamentales et les canaux correspondants, on obtient une composition colorée
tableau ?? en vraie couleur, permettant de localiser chaque phénomènes avec sa couleur
tel quel apparaît dans la nature (similitude avec une photo).

RGB1 (3,2,1) Végétation, Neige, Poussière, Brouillard, Fumée. Jour


RGB2 (2,4r,9) Nuages, Convection, Neige, Brouillard, Feu. Jour
RGB3 (2,3,4r) Nuages, Convection, Neige, Fumée, Brouillard, Feu. Jour
RGB4 Nuages, Convection, Brouillard, Feu,
(10-9,9-4,9) Nuit
Traverser des bateaux.
RGB5 (10-9,9-7,9) Poussière, Traverser des bateaux. Jour/Nuit
RGB6 (5-6,4-9,3-1) Cyclone, Tempête convective. Jour

Table III.1 – Les différentes RGB.

III.5. Conclusion
L’objectif de ce chapitre était la présentation des divers canaux de SEVIRI, ainsi que
les différentes compositions RGB menées par des travaux des recherches dans ce domaine.
Nous avons commencé par une description des canaux visible, infrarouge et vapeur d’eau.
Par la suite nous avons présenté les 6 combinaisons RGB les plus utilisées. ?
Le prochain chapitre aura pour but de présenter la conception de notre système, en
précisant le type du système choisi et d’autres détails pertinents pour notre système.

41
Chapitre IV

Conception
CHAPITRE IV. CONCEPTION

IV.1. Introduction
L’état de l’art que nous avons établi dans les chapitres précédents nous a permis de
comprendre et de situer clairement les notions de base pour la conception et la réalisation
de notre projet ; ainsi dans le processus de développement de notre système. Nous propo-
sons une conception qui va décrire d’une manière non ambiguë notre système. Nous allons
donner l’architecture globale de notre système et ceci selon une vue interne (structures
et comportements des composants), puis nous allons détailler les fonctionnalités de cette
architecture avant de présenter sa réalisation.

IV.2. Objectif
Notre objectif est de réaliser un système capable pour segmenter les images satellitaires
météorologiques puis la détection automatique des phénomènes hydrométéores (nuages,
neige, brouillard, ...etc.) par la méthode de Support Vector Clustering SVC.

IV.3. Conception globale


Notre système peut être vu comme un ensemble de processus selon le schéma ci-
dessous (Figure ??) qui présente son architecture globale. Cette dernière est composée
essentiellement de :
– Entrées :
- Deux images des deux canaux différents en même temps.
- Les paramètres de SVC.
– Transformation vers l’espace coloré :
- La valeur de chaque pixel des deux images considérer comme les coordonnées X et
Y;
- Pointer les points sur un plan ( autre image).
– Cherche les clusters : Dans cette phase on utilise la méthode de SVC pour chercher
les nombres du cluster et préciser chaque point appartient à quel cluster.
– Transformation vers l’espace coloré : On donne chaque cluster une couleur puis on
remet chaque point coloré à sa place initiale sur le pixel dans l’image originale.
– Sorties : On obtient une image segmentée et détecter les phénomènes météorolo-
giques sur l’image satellitaire en plus le nombre des phénomènes.

43
CHAPITRE IV. CONCEPTION

Figure IV.1 – Architecture globale du système.

44
CHAPITRE IV. CONCEPTION

IV.4. Conception détaillé

IV.4.1. L’entrée du système


Les entrées du système sont
– Images satellitaires :
– Deux images à deux canaux différents en même situation (temps).
– Utiliser les images à extension .bmp (Bitmap).
– Charger dans le système ces images sur la taille (200 × 200 pixels).
– Paramètre SVC :
Au début de la méthode SVC on commence par la phase SVM mono-classe qui
nécessite la spécification de quelques paramètres d’apprentissage tels que :

1. ϑ pour contrôler le bruit dans les données d’entrainement.


2. γ pour contrôler le "lissage" de la limite pour l’affichage de la classe unique qui
sera d’une couleur différente du reste de l’espace.
3. Le type du noyau et ses paramètres : On utilise le noyau RBF (Radial Basis
Function), car il permet d’englober sur les données, c-à-d donner lieu à des
contours fermés dans l’espace d’entrée. Il existe d’autres types de noyau qui
sont rarement utilisé, du fait qu’ils sont adaptés à des cas spécifiques.
4. L’utilisateur doit spécifier aussi le seuil qui maximise le rapport de gain.

IV.4.2. Transformation vers l’espace coloré


Dans cette étape on va transformer les deux images vers un autre espace qui s’appelle
espace coloré. On résume les étapes ainsi :
– Considéré chaque valeur de pixel du 1er canal de satellite comme une valeur de l’axe
X.
– Considéré chaque valeur de pixel du 2eme canal de satellite comme une valeur de
l’axe Y.
– On prend une valeur de x de la 1ere image et une autre valeur d’y de la 2eme image,
et les pointer sur le plan coloré espace coloré.
– Parcourir sur tous les pixels des deux images.
La figure suivante (Figure ??) illustre la transformation vers l’espace coloré :

45
CHAPITRE IV. CONCEPTION

Figure IV.2 – Transformation vers l’espace coloré.

Algorithme : Transformation vert espace coloré

Procédure TransformationEspaceColoré()
Début
N :=0 ; // Nombre d’exemple
Pour i :=1 jusqu’à ImW faire
Pour j :=1 jusqu’à ImH faire
X=byte(roud(0.299 ∗ GetRV alue(Image1[i, j] + 0.587 ∗ GetGV alue(Image1[i, j] + 0.114 ∗
GetBV alue(Image1[i, j])));
Y=byte(roud(0.299 ∗ GetRV alue(Image2[i, j] + 0.587 ∗ GetGV alue(Image2[i, j] + 0.114 ∗
GetBV alue(Image2[i, j])));
Image3[X, Y ] := selecte.point;
N := N + 1;
Fin pour ;
Fin pour ;
Fin.

IV.4.3. Support Vector Clustering SVC


On utilise la technique Support Vector Machine (SVC) pour faire la segmentation
des images satellitaires météorologiques afin l’extraction automatique des phénomènes
météorologiques. Cette méthode se compose en deux étapes :
1er étape : SVM mono-classe (SMO)
SVM mono-classe est un algorithme décompose le problème en plusieurs petits sous-
problèmes possible à chaque étape d’optimisation de la fonction objectif. Cela est réalisable

46
CHAPITRE IV. CONCEPTION

en choisissant d’optimiser, non pas un ensemble de multiplicateurs de Lagrange à la fois,


mais deux seulement. En effet, l’optimisation de tout l’ensemble nécessite plus d’itérations
pour converger.
– L’algorithme SVM mono-classe est basé sur trois éléments :
1. Une méthode analytique pour résoudre les deux multiplicateurs de Lagrange.
2. Deux heuristiques pour choisir quels multiplicateurs à optimiser.
3. Une méthode pour le calcul du paramètre ρ.
– Les paramètres générés par SVM mono-classe pour la classe cible sont :
1
1. Les αi doit être (0 ≤ αi ≤ vm
).
2. ρi .
1
3. les vecteurs des caractéristiques normalisés correspondants au (0 ≤ αi ≤ vm
) ,
peut être des vecteurs supports.
– Le modèle de décision global obtenu contient en plus des paramètres de classe :

1. Le noyau utilisé.
2. Les paramètres du noyau.

On peut représenter SVM mono-classe par l’algorithme suivant :

Algorithme : SVM mono-classe

Début
N := nombre d’exemple ;
n :=nombre de vecteur support ;
examinAll :=True ; //pour contrôler que tout les points ont été testés
numchange :=0 ; //pour compter le nombre de plan modifiée
i :=1 ;
Tant que ((numchange > 0) ou (examinAll)) faire
Si (examinAll) alors
Pour (i :=0 jusqu’à N-1) faire
- Chercher les points qui violent les conditions KKT parmi tous les points.
- Choisir deux multiplicateurs de Lagrange à l’aide d’une heuristique pour optimiser
conjointement.
- Ajuster l’hyperplan relativement et donc changé les vecteurs supports.
Fin pour
Sinon
i :=0 ;

47
CHAPITRE IV. CONCEPTION

Tant que (i<n-1) faire


- Chercher les points qui violent les conditions KKT parmi tous les vecteurs supports.
- Choisir deux multiplicateurs de Lagrange à l’aide d’une heuristique pour optimiser
conjointement.
- Ajuster l’hyperplan relativement et donc changé les vecteurs supports.
i :=i+1 ;
Fin Tant que
Si (examinAll) alors
examinAll := False ;
Sinon
Si (numchange = 0) alors
examinAll := True ;
Fin Tant que
Fin.

Figure IV.3 – Phase SVM mono-classe.

2eme étape : Stratégie d’étiquetage


A partir de la classe cible obtenue par la méthode de SVM mono-classe On introduit
une stratégie qui nous permet de déterminer les clusters et les nombres de cluster, il y a
plusieurs stratégies mais dans notre travail on a utilisé la stratégie d’étiquetage.
La démarche de cette stratégie est résumée sur les étapes suivantes :

Algorithme : Etiquetage

1 : Tant qu’il y a des point non étiqueté Pi 2 : Affecter un numéro de cluster à Pi ;


3 : Pour tous les point non étiquetés Pj 4 : tracer un segment de ligne entre Pi et Pj ;
5 : Passer un point mobile entre les deux points Pi et Pj (pixel par pixel) ;
6 : Si le point mobile reste dans la classe Alors donner le même numéro de clusterà Pj ;

48
CHAPITRE IV. CONCEPTION

7 : Fin Pour 8 : Fin Tant que .

Figure IV.4 – La phase d’étiquetage.

IV.4.4. Image clusteré


A partir de la méthode SVC on obtient des clusters sur l’image (Figure ??), et un
nombre des clusters. Dans cette phase on donne à chaque cluster une couleur qui exprime
un phénomène.

Figure IV.5 – Image clusteré.

IV.4.5. Nombre des clusters


Par la méthode SVC on trouve le nombre des clusters automatiquement. Ce nombre
représente le nombre des phénomènes météorologiques détectés dans l’image satellitaire.

IV.4.6. Transformation vers l’espace géométrique


Chaque point dans l’image clusteré est remis dans le même pixel de l’image originale.
On prend la couleur de chaque cluster pour obtenir une image segmenté. La figure
suivante représente comment retourner les points sur les mêmes pixels dans les images

49
CHAPITRE IV. CONCEPTION

Figure IV.6 – Transformation vers l’espace géométrique.

original :

Algorithme : Transformation vers l’espace géométrique.

Procédure TransformationEspacGéométrique ()
Début
i :=1 ;
k :=1 ;
Tanque k<=NbPoints faire
si k<=ImW*i alors
Pour j :=1 jusqu’à ImH faire
ImageSegmeté[i, j] :=slecteColor(tablePoint[k].cluster) ;
k :=k+1 ;
Fin pour
Fin si
i :=i+1 ;
Fin tanque
Fin.

50
CHAPITRE IV. CONCEPTION

IV.4.7. Sélection un phénomène


A partir de l’image segmentée on peut sélectionner un phénomène et superposer sur
une carte géographique qu’on peut l’appelé l’extraction des phénomènes météorologique
à partir de l’image segmentée.

Figure IV.7 – Sélection un phénomène.

Algorithme : Sélection un phénomène.

Procédure SélectionPhénomène()
Début
Switche phénomène selectionner do
Case phénomène 1 :
Debut
Pour i :=1 jusqu’à ImW faire
Pour j :=1 jusqu’à ImH faire
Si imageSegmenté[i, j]=color1 alors image[i, j] :=color1 ;
Fin pour ;
Fin pour ;
Break ;
Fin ;
.
.
Case phénomène 6 :
Debut
Pour i :=1 jusqu’à ImW faire
Pour j :=1 jusqu’à ImH faire
Si imageSegmenté[i, j]=color6 alors image[i, j] :=color6 ;
Fin pour ;
Fin pour ;
Break ;

51
CHAPITRE IV. CONCEPTION

Fin ;
Fin ;
Fin.

IV.5. Conclusion
Dans ce chapitre, nous avons donné une présentation générale du système et la manière
selon laquelle le système doit être réalisé. Le système est composé d’un ensemble de
fonctionnalités, chaque fonctionnalité reçoit un ensemble d’entrées et offre des résultats
en sorties, qui seront utilisées pour aider à la prise de décision.

52
Chapitre V

Implémentation et résultats
CHAPITRE V. IMPLÉMENTATION ET RÉSULTATS

V.1. Introduction
Dans le chapitre précédent nous avons présenté une conception du système proposé
pour segmenter les images satellitaires météorologiques par la méthode de SVC.
Dans cette partie nous allons présenter l’environnement informatique support de notre
système, puis passer à la deuxième partie qui sera consacré à la présentation de la réali-
sation de notre application ainsi que certains résultats obtenus.
A la fin du chapitre, on va donner une discussion des résultats obtenu entre les défé-
rentes images satellitaires. En fonction des différents canaux.

V.2. L’environnement de l’application

V.2.1. Environnement de développement matériel


Pour l’implémentation de notre système nous avons utilisés une machine PC :
– Processeur : Intel Core(TM) i3 CPU, avec une horloge 2.53 GHz.
– RAM : 4 GB.
– Système d’exploitation Microsoft Windows 7.
– Disque dur : 500 Go.

V.2.2. Environnement de développement


Nous avons choisi comme environnement de programmation le langage Delphi (la
version 7 ) qui offre une grande simplicité de manipulation des images. Ce langage possède
des avantages très intéressants tel que :
– Delphi est un Environnement de Développement Intégré (IDE : Integrated Déve-
loppement Environnement ) qui fournit des nombreux outils supportant le déve-
loppement ,notamment le concepteur des fiches, l’inspecteur d’objets, l’éditeur de
code, le gestionnaire de projet, l’explorateur de projet, l’explorateur de classes et les
fenêtres de débogage. En plus,ce langage dispose d’une importante bibliothèque de
composants réutilisables ,un ensemble d’outils de conception, des modèles d’appli-
cations et des fiches. Ces outils simplifient le prototypage et réduisent la durée du
développement.
– La portabilité de logiciel (simplifie le processus de programmation sous Windows).
– Un large choix de bibliothèques.
– La quasi-totalité de contrôle de Windows (Bouton, Menus, boites de saisies Ěetc.).
– Le langage de programmation est le Pascal Object, qui est un langage simple et
puissant.

54
CHAPITRE V. IMPLÉMENTATION ET RÉSULTATS

Pour augmenter la lisibilité de notre programme et faciliter les différents tests nécessaires,
on a essayé de le partitionner en un ensemble de modules.

V.3. Présentation de l’application


L’interface comprend des séquences de fenêtres permettant la communication entre
l’application et l’utilisateur. Afin de mieux présenter et de bien décrire les différentes
étapes suivies dans la conception de notre système de segmentation des images satelli-
taires météorologiques, nous allons présenter les interfaces de notre application.

V.3.1. Fenêtre principale


Une fois lancée, l’application offre à l’utilisateur une interface graphique (Segmentation
des images satellitaires météorologiques) assez conviviale destinée à lui faciliter l’ac-
cès aux différentes fonctions.

Figure V.1 – Fenêtre principale.

55
CHAPITRE V. IMPLÉMENTATION ET RÉSULTATS

1. Bouton " Ouvrir image satellitaire " : Ce bouton permet de consulter la


fenêtre qui nous permet de charger les images satellitaires météorologiques.
2. Bouton " Segmenter image " : Permet de segmenter l’image satellitaire.
3. Bouton " Sauvegarder tous phénomènes " : Permet d’enregistrer l’image qui
nous avons segmenté.
4. Bouton " Sauvegarder phénomène sélection " : Permet d’enregistrer l’image
qui contient le phénomène sur la carte géographique.
5. Bouton " Voir les coordonnées " : Pour consulter la fenêtre qui nous permet
d’afficher les coordonnées sur un tableau ou sous forme des points sur une image.
6. Bouton " Configuration de segmentation " : Permet d’afficher la fenêtre qui
nous permet de régler et d’ajuster les déférents paramètres.
7. Bouton " Méthode SVC (Théorique) " : Ce bouton accès la fenêtre qui nous
permet de savoir la théorie de la méthode SVC.
8. Bouton " Sélectionner " : Ce bouton visualise le phénomène qui a été sélectionné.
9. Bouton " Fermer " : Pour quitter le programme.

V.3.2. Fenêtre :ouvrir image satellitaire


Cette fenêtre permet d’ouvrir les images satellitaires météorologiques des deux canaux
déférents.

Figure V.2 – Fenêtre ouvrir image satellitaire.

Pour charger les images, suivre les étapes ci-dessous :


Cliquer sur le Ouvrir image 1, la fenêtre suivante (figure ??) apparait sur l’écran :

56
CHAPITRE V. IMPLÉMENTATION ET RÉSULTATS

Figure V.3 – Dialogue d’ouverture du fichier des données.

Cette nouvelle fenêtre permet de parcourir les dossiers et choisir les images satellitaires
météorologiques d’extension Bitmap .bmp .
Une opération pareille est réalisée pour le bouton Ouvrir image 2.
Pour confirmer le chargement des images on clique sur OK.

V.3.3. Fenêtre de configuration de segmentation


L’interface suivante (figure ??) consiste à définir les paramètres d’apprentissage de
SVM mono-classe pour démarrer l’apprentissage.

Figure V.4 – Fenêtre de configuration de segmentation

V.3.4. Fenêtre : voir les coordonnées


Cette fenêtre permet de voir les coordonnées des points et le numéro de cluster sur un
tableau et afficher sur une image à la fin de segmenter l’image satellitaire.

57
CHAPITRE V. IMPLÉMENTATION ET RÉSULTATS

Figure V.5 – Fenêtre voir les coordonnées.

V.3.5. Fenêtre : la méthode SVC "Théorique"

Figure V.6 – Fenêtre la méthode SVC "Théorique".

1. Paramètre de SVM mono-classe.


2. Espace pour pointer les exemples.
3. Pour appliquer la méthode de l’SVC.
4. Annuler la classification.
5. Reset exemple.
6. Voir les lignes des centres de gravité.
7. Afficher les résultats obtenus sur memo.
8. Visualisation les coordonnées sur un tableau.
9. Voir les coordonnées des centres de gravité.

58
CHAPITRE V. IMPLÉMENTATION ET RÉSULTATS

V.4. Tests et résultats

V.4.1. Les images satellitaires météorologiques utilisées


Les images utilisées dans ce travail ont été prises du Centre national de prévisions
numériques Algérien et du centre national de prévisions numérique Qatari. J’ai essayé
d’appliquer cette méthode à plusieurs images satellitaires météorologiques pour confirmer
et améliorer les résultats.
Pour ce rapport on a choisi une situation plus récente, celle du 13 février 2014. Cette
situation à 13h00 GMT présente une perturbation météorologique qui couvre la majorité
état du Qatar, et qui a présenté quelques hydrométéores.

V.4.2. Résultats et discussion


V.4.2.1. Image segmenté

Figure V.7 – Résultats de segmentation dŠune image satellitaire météorologique.

Les résultats obtenus changent avec le changement des paramètres du noyau : Le

59
CHAPITRE V. IMPLÉMENTATION ET RÉSULTATS

nombre de clusters augmente avec la diminution du paramètre σ et vise versa, ce qui


permet de choisir le nombre de phénomènes à détecter.
Finalement on peut dire que cette méthode permet aux prévisionnistes de voir clai-
rement les phénomènes sur l’image et gagner énormément du temps dans leur analyse et
d’enrichir par conséquent leurs bulletins d’alertes contrairement à l’utilisation des images
en niveau de gris.

V.4.2.2. Extraction des phénomènes sur l’image segmentée

Figure V.8 – Quelques phénomène extraits sur lŠ’image satellitaire météorologique.

A partir de l’image satellitaire météorologique segmenté on peut éxtracté un phéno-


mène afin de faciliter le prévisionniste d’analyser bien la situation.

Remarque : Ces résultats obtenus sont loin d’être les résultats donnés par les modèles
météorologiques parce que ces modèles sont très puissants et très développés et utilisent de
grands serveurs. Ce travail est le début d’un projet de segmentation des images satellitaires
météorologiques par les machines à vecteurs supports au laboratoire LESIA de notre
université. Les résultats peuvent être améliorés en multipliant le nombre de canaux et en
approfondissant l’analyse des paramètres de la méthode SVC.

V.5. Conclusion
Dans ce chapitre, nous avons décrit les aspects de réalisation du système. Tout dŠa-
bord, nous avons commencé par une brève présentation de l’environnement exploité, où
nous avons montré les motivations pour ce choix.
Le reste du chapitre a fourni des détails sur l’environnement, montré comment implé-
menter les différentes structures et les algorithmes proposés. Enfin, certains résultats ont
été présentés.

60
CHAPITRE V. IMPLÉMENTATION ET RÉSULTATS

Conclusion générale et perspective


Le travail présenté dans ce mémoire vise à étudier une méthode d’apprentissage non
supervisé basée sur un mécanisme très puissant, appelé support Vector Clustering SVC.
Conscient de l’effort qui doit être entrepris en matière de recherche et développement en
télédétection spatiale, le domaine météorologique déploie tous les moyens pour contribuer
à ce grand chantier mondial. C’est dans ce contexte que s’inscrit notre travail. Il vise à
tirer le profit des segmentions des images satellitaire de manière à faciliter l’interprétation
des images satellitaires pour le prévisionniste.
En effet, la performance par la méthode SVC sont : la précision de séparation des
clusters ainsi que le nombre de clusters détectés automatiquement. Les résultats obtenus
par cette dernière technique sont encourageants et ouvre le champs à plus d’application.
Cependant, l’étude et résultats soulèvent bon nombre de questions qui s’ouvrent
comme autant les perspectives pour la poursuite des future travaux. On peut citer cer-
taines idées qui pourraient améliorer les performances obtenues par ce travail :
– Il serait intéressant de tester cette approche sur un grand nombre de situations pour
faire éventuellement un réglage plus fin ;
– Il serait intéressant d’approfondir l’étude de l’influence des différents paramètres.
– Utilisé une autre stratégie d’étiquetage de la méthode Support Vector Clustering
SVC pour voire la différence des résultats ;
– Enfin une étude comparative avec les autres méthodes de clustering pourra confirmer
les avantages de la méthode et l’améliorer d’avantage.

61
Bibliographie

A.Ben-Hur, D.Horn, H.T.Siegelmann, and V.Vapnik. : Support Vector clustering. Journal


of Machine Learning Research, 2 :125-137, 2001.

A.Ben-Hur, D.Horn, H.T.Siegelmann, and V.Vapnik.A : Support vector method for hie-
rarchical clustering. In Advances in Neural Information Processing Systems 13. MIT
Press, 2001.

D.M. J.Tax and R.P.W.Duin. : Support vector domain description. Pattern Recognition
Letters, 20(11-13) :1191-1199, 1999.

J.Han, M.Kamber, and J.Pei. : Data mining : concepts and techniques. Morgan Kaufmann
Pub, 2011.

M.Kantardzic. : Data mining : concepts, models, methods, and algorithms. Wiley-


Interscience, 2003.

V.Estivill-Castro and I.Lee. Amoeba : Hierarchical clustering based on spatial proximity


using Delaunay diagram. In Proc. of the 9th Int. Symposium on Spatial Data Handling,
pages 7a.26-7a.41, 2000.

V.Estivill-Castro, I.Lee, and A.T.Murray. : Criteria on proximity graphs for boundary


extraction and spatial clustering. LNCS, 2035 :348-347, 2001.

B.Scholkopf, J.Platt, J.Shawe-Taylor, A.J.Smola, and R.C.Williamson. : Estimating the


support of a high-dimensional distribution. Neural Computation, 13(7) :1443-1472, 2001.

Jianhua Yang, Vladimir Estivill-Castro and Stephan K.Chalup. : Support Vector Cluste-
ring Through Proximity Gragh Modelling. School of Electrical Engineering and Com-
puter Science. The University of Newcastle, Callaghan, NSW 2308, Australia.

Abdelhamid DJEFFAL : Utilisation des méthodes Support Vector Machine (SVM) dans
l’analyse des bases de données. Université Mohamed Khider - Biskra. Thèse de doctorat
2012.

Germain Forestier : Connaissances et clustering collaboratif d’objets complexes multi-


sources. Université de Strasbourg. Thèse de doctorat 2010.

Tony Ducrocq, Nathalie Mitton et Michael Hauspie : Clustering pour l’optimisation de


la durée de vie des réseaux de capteurs sans fil. INRIA Lille - Nord Europe Université
Lille.

62
BIBLIOGRAPHIE

Web DataMining Exploring Hyperlinks, Contents, and Usage Data.

A.K.Jain and R.C.Dubes. : Algorithms for clustering data. Prentice Hall, Englewood Cliffs,
NJ, 1988.

R.Xu et D.Wunsch. : Survey of clustering algorithms. IEEE Transactions on Neural Net-


works, 16(3) :645-678, 2005.

M.A. T.Figueiredo et A.K.Jain. : Unsupervised learning of finite mixture models. IEEE


Transactions on Pattern Analysis and Machine Intelligence, 24 :381-396, 2000.

C.D.Manning, P.Raghavan, et H.Schütze. : Introduction to Information Retrieval. Cam-


bridge University Press, 2008.

A.Jain, A.Topchy, M.Law, et J.Buhmann. Landscape of clustering algorithms. In Inter-


national Conference on Pattern Recognition, volume 1, pages 260-263, 2004.

A.K. Jain. : Data clustering : 50 years beyond k-means. Pattern Recognition Letters,
31(8) :651-666, 2009.

J.Kleinberg. : An impossibility theorem for clustering. In Neural Information Processing


Systems, pages 446-453. MIT Press, 2002.

J.W. Van Ness. : Admissible clustering procedures. Biometrika, pages 422-424, 1973.

V.N. Vapnik. : Statistical Learning Theory. Edition Wiley, 1998.

Dr.Brian Mac Namee Dr. Sarah-Jane Delany : Low-Default Portfolio/One-Class Classi-


fication : A Literature Review. Ditaig School of Computing, April, 2009.

Hala NAJMEDDINE : Méthode d’identification et de classification de la consommation


d’énergie par usages en vue de l’intégration dans un compteur d’énergie électrique. Uni-
versité blaise pascal clermont II. Thèse de doctorat 2009.

Olivier Bousquet : Introduction aux Support Vector Machines (SVM). Centre de Mathé-
matiques Appliquées Ecole Polytechnique, Palaiseau. Orsay 2001.

Regueb Saleh, Rais Houssem Eddine : Sélection des dattes par la méthode SVM. Mémoire
d’ingénieure d’état en informatique, Faculté des Sciences exactes et des Sciences de la
nature et de la vie. Université de Biskra Juin 2009.

Bounneche Meriem Dorsaf : Réduction de données pour le traitement d’image. Mémoire


de Magistère, Option Contrôle. Université mentouri constantine faculté de la science
de l’ingénieur département d’électronique 2009.

Anibal Arias Aguilar : Méthodes à vecteurs de support et Indexation sonore. IRIT


2003/2004.

Antoine Cornuéjols : Méthodes à noyaux et SVMs (Séparateurs à Vastes Marges). Équipe


TAO (INRIA/CNRS) - Université de Paris-Sud, Orsay ENSIIE.

63
BIBLIOGRAPHIE

M.Tarhouni, K.Laabidi, S.Zidi, M.Ksouri : Surveillance des systèmes complexes par sépa-
rateurs a vaste marge (SVM). Université des Sciences et Technologies de Lille 2010.

Martin Law et Antoine Cornuéjols : Une introduction aux machines à vecteurs supports
(ou séparateurs à vastes marges - SVM).

K.P.Soman R.Loganathan V.Ajay : Machine learning with SVM and other kernel ethods.
Eastern economy edition.

Larry M.Manevitz et Malik Yousef : One-Class SVMs for Document Classification. De-
partment of Computer Science. University of Haifa, Journal of Machine Learning Re-
search 2001.

Asma Rabaoui, Manuel Davy, Stéphane Rossignol, Zied Lachiri, Noureddine Ellouze :
Sélection de descripteurs audio pour la classification des sons environnementaux avec
des SVMs mono-classe.

Rui Zhang, Shaoyan Zhang, Yang Lan, Jianmin Jiang : Network Anomaly Detection Using
One Class Support Vector Machine. Proceedings of the International MultiConference
of Engineers and Computer Scientists 2008, Hong Kong.

Quang-Anh Tran, Haixin Duan et Xing Li : One-class Support Vector Machine for Ano-
maly Network Traffic Detection. Tsinghua University.

Hany Alashwal, Safaai Deris and Razib M. Othman : One-Class Support Vector Machines
for Protein Protein Interactions Prediction. International Journal of Biological and Life
Sciences 2005.

Hiroshi Murata et Takashi Onoda : Non-relevance Feedback Document Retrieval using


Large Data Set. The Graduate University for Advanced Studies (SOKENDAI), Central
Research Institute of Electric Power Industry.

O.diop. : Détection de nuages de poussière dans les images Météosat à l’aide des attri-
buts de textures et de la fusion de segmentations : application à la zone sahélienne du
continent africain. Thèse doctorat, INSA, RENNE, 2007.

Site officiel de l’Observations et prévisions météorologiques - Images des satellites - Nor-


males climatiques http://www.allmetsat.com/.

J.P.Couwenbergh : L’indispensable pour maitriser la couleur. Marabout 269-270.1992.

Jochen kerkmann : Applications of meteosat second generation (msg).pp5.2004. http:


//msg.univ-paris1.fr/faq.html.

dos santos anaëlle , kang sari. simon grégory : Acquisition des images satellites. http:
//the-overtake.ifrance.com/part3.html.

université de Genève Module 4 - : Le traitement des images. http://universitewww.


unige.ch/cyberdocuments/didacticiel/unite2/module4.html.

J.P.Cocquerez et S.philipp : Analyse d’images : Filtrage et segmentation. p :1-3. 1996.

64
BIBLIOGRAPHIE

M.petermand M.louys : Représentation couleur d’images multispectrales astronomiques.


Universite strasbourg http://documents.irevues.inist.fr/.

Site officiel de (EUMETSAT [Eumet]). http://www.eumetsat.int/home/index.htm?l=


fr.

Ammadi Abdelaziz, Baslam Mohammed : Détection automatique de phénomènes présents


dans une image satellitaire en composition colorée. Memoire de mster en Informatique
Télécommunications et Imagerie ROYAUME DU MAROC. 2008.

65

Vous aimerez peut-être aussi