Académique Documents
Professionnel Documents
Culture Documents
Réalisé par :
KHELLAT-KIHEL Souad.
2011-2012
Sous la direction de :
1
Table des matières
I. Introduction ……………………………………………………………………... 01
II. Historique ……………………………………………………………………….. 01
III. Principe de fonctionnement général ……………………………………….. 02
III.1. Notions de base …………………………………………………………….. 02
III.1.1. Hyperplan ………………………………………………………………………. 02
III.1.2. Vecteurs de support …………………………………………………………… 02
III.1.3. Marge …………………………………………………………………………….. 03
III.2. Propriétés fondamentales …………………………………………………. 04
III.3. Fondement mathématiques …………………………………………….…. 07
IV. SVM à plusieurs classes ………………………………………………………. 11
IV.1. Un contre tous (One versus All) …………………………………………… 11
IV.2. Un contre un (One versus One) ……………………………………………. 11
V. Les domaines d’application des SVM ………………………………………. 11
VI. Les avantages et les inconvénients des SVM ………………………………. 12
VII. Exemple d’application ……………………………………………………….. 12
VIII. Conclusion ……………………………………………………………… 14
Liste des figures et des tableaux
Tableau .1 les taux de classification pour les bases de test de (196, 170, 179
) avec 8 et 4 paramètres ………………………………………… 13
I. Introduction :
Les machines à vecteurs de support sont un ensemble de techniques
d'apprentissage destinées à résoudre des problèmes de discrimination , c'est-à-
dire décider à quelle classe appartient un échantillon, ou de régression, c'est-à-
dire prédire la valeur numérique d'une variable.
Le succès de cette méthode est justifié par les solides bases théoriques qui la
soutiennent.
II. Historique :
Les séparateurs à vastes marges reposent sur deux idées clés : la notion de
marge maximale et la notion de fonction noyau. Ces deux notions existaient
depuis plusieurs années avant qu'elles ne soient mises en commun pour
construire les SVM.
L'idée des hyperplans à marge maximale a été explorée dès 1963 par
Vladimir Vapnik et A. Lerner, et en 1973 par Richard Duda et Peter Hart dans
leur livre Pattern Classification. Les fondations théoriques des SVM ont été
explorées par Vapnik et ses collègues dans les années 70 avec le développement
de la Théorie de Vapnik-Chervonenkis, et par Valiant .
L'idée des fonctions noyaux n'est pas non plus nouvelle: le théorème de
Mercer date de 1909, et l'utilité des fonctions noyaux dans le contexte de
l'apprentissage artificiel a été montrée dès 1964 par Aizermann, Bravermann et
Rozoener.
Ce n'est toutefois qu'en 1992 que ces idées seront bien comprises et
rassemblées par Boser, Guyon et Vapnik dans un article, qui est l'article
fondateur des séparateurs à vaste marge. L'idée des variables ressorts, qui
permet de résoudre certaines limitations pratiques importantes, ne sera
introduite qu'en 1995. À partir de cette date, qui correspond à la publication du
livre de Vapnik, les SVM gagnent en popularité et sont utilisés dans de
nombreuses applications.
Un brevet américain sur les SVM est déposé en 1997 par les inventeurs
originaux [01].
Vecteurs
de support
III.1.3. Marge :
Vecteurs de
Marge
support
maximale
Hyperplan
optimale
Linéarité et non-linéarité :
Parmi les modèles des SVM, on constate les cas linéairement séparables et
les cas non linéairement séparables . Les premiers sont les plus simples des
SVM car ils permettent de trouver facilement le classificateur linéaire. Dans la
plupart des problèmes réels il n’y a pas de séparation linéaire possible entre les
données, le classificateur de marge maximale ne peut pas être utilisé car il
fonctionne seulement si les classes de données d’apprentissage sont
linéairement séparables [02] [03].
1.
De même pour :
w.x+b=1
w.x+b=0
w.x+b=-1
On a:
L (w, s, =
On trouve :
w=
L(w,b,
La résolution des i donne la valeur du vecteur et peut
classer une nouvelle cible suivant son vecteur de caractéristique x selon la
fonction :
:x F
Le calcul de la surface de séparation revient alors à chercher l’hyperplan
optimal dans ce nouvel espace F.
La fonction de décision peut être représentée par le produit scalaire :
T (xi) (xj)
Cette dernière quantité peut être remplacée par une fonction de la forme
K(xi,,yi) (Les fonctions scalaires symétriques et définies positives, que l’on
désigne souvent simplement par “noyaux”, sont plus précisément des “noyaux
de Mercer”), c’est ce qu’on appelle le noyau [06].
Donc :
K( , )= ( ) ( )
Le lagrangien devient alors :
L (w, b, ) = - K( , )
b aaa b
aaa
b b
Noyau Gaussien
(Radial Basis K (x, z) =
Function, RBF)
Inconvénients :
L’inconvénient majeur du classificateur SVM est qu’il est désigné ou conçu pour
la classification binaire (la séparation entre deux classes une +1 et l’autre -1) [10].
Un noyau Gaussien a été utilisé pour projeter les données d’entrée dans un
nouvel espace appelé « espace Kernel ».
Les différentes expériences ainsi que les résultats obtenus par cette
approche sont mis dans le tableau suivant :
Les bases de Temps d’appr Temps de test Nombre de Taux de test
données (secondes) (secondes) personnes bien
de test classées
8 4 8 4 8 4 8 4
param param param param param param param param
Base de 196 0.780 0.563 0.031 0.015 157 161 80.61% 82.14%
Base de 170 1.625 1.188 0.016 0.031 129 145 75.88% 85.29%
Base de 179 0.079 0.047 0.015 0.016 170 177 94.97% 98.88%
Tableau.1 les taux de classification pour les bases de test de (196, 170, 179) avec 8 et 4
paramètres.
On a fait une comparaison avec les autres travaux qui ont déjà été fait sur cette
base de données .Le graphe suivant résume les travaux.
98,88%
85,88%
81,31% 84,71%
77,06% 78,13%
70,83% 74,20%
67,71%
64,06% 66,67%
VIII. Conclusion :
Dans ce rapport, on a tenté de présenter d’une manière simple et complète le
concept de système d’apprentissage introduit par Vladimir Vapnik, les « Support
Vecteur Machine bi-classes » on a donné une vision générale et une vision purement
mathématiques des SVM. Cette méthode de classification est basée sur la recherche
d’un hyperplan qui permet de séparer au mieux des ensembles de données. On a
exposé les cas linéairement séparable et les cas non linéairement séparables qui
nécessitent l’utilisation de fonction noyau (Kernel) pour changer d’espace. Cette
méthode est applicable pour des taches de classification à deux classes, mais il existe
des extensions pour la classification multi classes.
Références
[02] Mohamadally Hasan et Fomani Boris ," SVM : Machines a Vecteurs de Support
2009.
[05] Georges.gardarin.free.frSurveys_DMSurvey_SVM.pdf.
[10] Duda, R. O., P. E. Hart et D. G. Stork, " Pattern Classification", John Wiley and Sons Inc,
2001.