Académique Documents
Professionnel Documents
Culture Documents
Vastes Marges
(SVM)
Prof. Armel
YODE
Principe
général
Séparateurs à Vastes Marges (SVM)
SVM pour des
données
linéairement
séparables
Prof. Armel
YODE
1 Principe général
Principe
général
Prof. Armel
YODE
Principe
général • On dispose de n exemples (x1 , y1 ), . . . , (xn , yn )
SVM pour des
données
. xi ∈ X = Rd est appelée entrée
linéairement . yi ∈ Y sortie ou label ou étiquette. Dans ce cours
séparables
Y = {−1, 1}.
SVM pour les
données
linéairement
• L’objectif est de prédire y pour une nouvelle valeur de x.
non séparables
Cas des données
presque
linéairement
séparables
Cas des données
linéairement non
séparables
Séparateurs à
Vastes Marges
(SVM)
Prof. Armel
YODE • On cherche un classifieur g : Rd −→ {−1, 1}.
Principe • On cherche une fonction de décision f : Rd −→ R telle que
général
Prof. Armel
YODE
Principe
général
Définition
SVM pour des Une SVM (Support Vector Machine) ou Machine à Vecteurs
données
linéairement Supports est une famille d’algorithmes d’apprentissage
séparables
supervisé pour des problèmes de discrimination ou de
SVM pour les
données régression.
linéairement
non séparables
Cas des données Une SVM possède de bonne propriété de généralisation.
presque
linéairement
séparables
Cas des données
linéairement non
séparables
Cas linéairement séparable
Séparateurs à
Vastes Marges
(SVM)
Prof. Armel
YODE
Principe
général
Prof. Armel
YODE
Principe
général
!
Distance d’un point à la frontière de décision
Séparateurs à
Vastes Marges
(SVM)
Prof. Armel
YODE
Principe Proposition
général
Prof. Armel
YODE
• La marge est la distance entre la frontière de séparation et
Principe
général les exemples les plus proches :
SVM pour des
données |hw , xi + b|
linéairement d(x, H) = .
séparables kw k
SVM pour les
données
linéairement
• Ces exemples sont appelés vecteurs supports.
non séparables
Cas des données • Dans les SVM, la frontière de séparation choisie est celle
presque
linéairement
séparables
qui maximise la marge
Cas des données
linéairement non
séparables
!
Séparateurs à
Vastes Marges
(SVM)
Prof. Armel
YODE
Principe
général
!
Séparateurs à
Vastes Marges
(SVM)
Prof. Armel
YODE
Principe
général
!
Séparateurs à Pourquoi maximiser la marge ?
Vastes Marges
(SVM)
Prof. Armel
YODE
Principe
général
Prof. Armel
YODE
• Un hyperplan est dit canonique par rapport aux données
Principe
général
{x1 , . . . , xn } si
SVM pour des
données min |hw , xi i + b| = 1.
linéairement xi
séparables
Séparateurs à
Vastes Marges
Trouver un hyperplan séparateur de marge maximale équivaut à
(SVM) trouver le couple (w , b) tel que :
Prof. Armel
YODE 1
kw k2 soit minimal
Principe 2
général
Séparateurs à
Vastes Marges
Le lagrangien est défini par :
(SVM)
n
1 X
Prof. Armel
YODE
L(w , b, α) = kw k2 − αi (yi (hw , xi i + b) − 1) (1)
2
i=1
Principe
général Les multiplicateurs de Lagrange αi ≥ 0.
SVM pour des
données n n
linéairement
∂L(w , b, α) X X
séparables =w− αi yi xi = 0 ⇐⇒ w = αi yi xi . (2)
∂w
SVM pour les i=1 i=1
données n n
linéairement ∂L(w , b, α) X X
non séparables =− αi yi = 0 ⇐⇒ αi yi = 0 (3)
Cas des données ∂b
presque i=1 i=1
linéairement
séparables
Cas des données
linéairement non
En réinjectant (2) et (3) dans l’équation (1), on obtient :
séparables
n n
X 1X
θ(α) = αi − αi αj yi yj hxi , xj i.
2
i=1 i,j
Expression duale du problème des SVM
Séparateurs à
Vastes Marges
(SVM)
Résoudre
le problème primal revient à trouver
Prof. Armel
YODE α = α1 , . . . , αn )0 tels que :
Principe
général n n
X 1X
SVM pour des αi − αi αj yi yj hxi , xj i soit maximal
données 2
linéairement i=1 i,j
séparables
Séparateurs à
Vastes Marges
(SVM)
Séparateurs à
Vastes Marges
(SVM)
Prof. Armel
YODE
Principe
général
SVM pour des - ξ ∈ [0, 1] ⇐⇒ bien classé, mais région définie par la marge
données
linéairement - ξi > 1 ⇐⇒ mal classé
séparables
Séparateurs à
Vastes Marges
(SVM) La solution est de pénaliser les grandes valeurs de ξi . Il s’agira
Prof. Armel
YODE
de trouver w , b et ξ = (xi1 , . . . , ξn ) tels que
Principe n
1 X
général
kw k2 + C ξi soit minimal
SVM pour des 2
données i=1
linéairement
séparables
sous contraintes
SVM pour les
données
linéairement
non séparables
yi (hw , xi i + b) ≥ 1 − ξi , ξi ≥ 0
Cas des données
presque
linéairement
séparables
où C est une variable de pénalisation des points mal classés et
Cas des données
linéairement non faisant un compromis entre la dimension de la marge et les
séparables
points mal classés ; C > 0 est un paramètre ; C est un
paramètre d’entrée de la SVM à ajuster.
Problème d’optimisation dual
Séparateurs à
Vastes Marges
(SVM)
Séparateurs à
Vastes Marges
(SVM) • 0 ≤ αi∗ ≤ C ∀i = 1, . . . , n
Prof. Armel
YODE
• yi (hw ∗ , xi i + b ∗ ) ≥ 1 − ξi∗ ∀i = 1, . . . , n.
• αi∗ (yi (hw ∗ , xi i + b∗ ) + ξi∗ − 1) = 0 ∀i = 1, . . . , n.
Principe
général
• ξi∗ (αi∗ − C ) = 0, ∀i = 1, . . . , n.
SVM pour des
données
linéairement
Les xi tels que αi∗ > 0 sont les vecteurs supports.
séparables
Deux types de vecteurs supports :
SVM pour les
données • Les vecteurs correspondant à des variables ressort nulles.
linéairement
non séparables Ils sont situés sur les frontières de la région définissant la
Cas des données
presque
linéairement
marge.
séparables
Cas des données
linéairement non
• Les vecteurs correspondant à des variables ressort non
séparables
nulles : ξi∗ > 0 et dans ce cas αi∗ = C .
Les vecteurs qui ne sont pas supports vérifient αi∗ = 0 et
ξi∗ = 0.
Cas des données linéairement non séparables
Séparateurs à
Vastes Marges Pour surmonter les inconvénients des cas non linéairement
(SVM)
séparable, l’idée des SVM est de changer l’espace des données.
Prof. Armel
YODE La transformation des données peut permettre une séparation
Principe
linéaire des exemples dans un nouvel espace :
général
Prof. Armel
YODE
Séparateurs à
Vastes Marges
(SVM)
La règle de discrimination de la SVM non linéaire est définie
Prof. Armel
par :
YODE
Principe
f (x) = IPni=1 yi α∗i hϕ(xi ),ϕ(xj )i≥0 − IPni=1 yi α∗i hϕ(xi ),ϕ(xj )i<0
général
SVM pour des Les αi∗ sont solutions du problème dual dans l’espace H :
données
linéairement
séparables n n
X 1X
SVM pour les Maximier αi − αi αj yi yj hϕ(xi ), ϕ(xj )i
données 2
linéairement i=1 i,j
non séparables
Cas des données
presque
linéairement sous les contraintes
séparables
Cas des données
linéairement non n
X
séparables
αi yi = 0 et 0 ≤ αi ≤ C ∀i.
i=1
Astuce du noyau
Séparateurs à
Vastes Marges
(SVM)
Prof. Armel
YODE