Académique Documents
Professionnel Documents
Culture Documents
TD 5 : SVM
On considère ici un problème de classification binaire vers Y = { 1, +1} de données dans un espace de
description X 2 Rd . On note {(xi , y i ) 2 (X, Y )}, i 2 {1, . . . , n} l’ensemble d’apprentissage considéré.
La fonction de décision du classifieur considéré est donnée par : fw,b (x) = sign(wT x + b).
On considère dans un premier temps un ensemble de données linéairement séparable. Cet ensemble de
données et la frontière de décision sont représentés (en 2D) sur la figure 1.
Q 1.1 Marge
Sur cette figure, l’échantillon xi et de label y i est représenté par le point A. On s’intéresse à sa distance
signée i à la frontière de decision (dont le point le plus proche est représenté en B sur la figure).
Q 1.1.1 Sachant que w/||w|| est un vecteur unitaire orthogonal à la frontière de décision, donner
l’expression de i en fonction de xi , y i , w et b.
Q 1.1.2 Montrer que la distance et la solution ne change pas en multipliant la solution par un scalaire,
i.e. pour (↵w, ↵b). Que cela implique-t-il si l’on souhaite éloigner au maximum (au sens géométrique)
les points de la frontière de décision ?
Q 1.2 Formulation du SVM
On considère alors le problème d’optimisation sous contraintes suivant :
1
min ||w||2
w,b 2
È én'introduisant
dictyicw.xis byiz
o.diso yipw.is
D 71 2947 9
Fête
Éptimiser
zmwp.IE xi lf ykw.xis bgi yo en introduisant
Lagrangien
arymiyargman
Ew w Éxyigxi o w Édigixi
Ï Édigio
IHÉdigixillayÉdictyiewixis byi
xiIIKigigExys I xD Étriby
ECEYIcaiyixi.gg s E
ÉTÉ cyyixixiy
Écaiylib
I
D
EEtixigiayscxt.gs
ix SVM
ne dépendque des points à support
t yiewxistbyistgi argminuwHKEYi
Kw
Ï KITT condition
aill Gr yilwxitb 0 Bigi O il faut
à résoudre K xitp
Le ÉÉN Épi ltgi yicwtxitbD Epigi.tkEjidiso pro
di pitkeo Kaitfi
Fw w Éagigxi a
Ï É digi o
Lie JOKE
t yiewixis by 0 25 0
points bien classé
tyicw.xiz P Si 0 bien classe
byiko
profiai
o mal classé non sur la marge
ai o 0 fr 0 point sur la marge
fi
qu'ex ew b
ÉÉdigikyi
kcx.ME qui xD
ok ix y ecfixl.de et.IM
cxh
Teq y
KIK Xcx qu'D
ktkx.gs fenidysted'exifin
qqit.fi ha
Klx g t'ix y
Glx pays fix y
Équieinfeysej Éidiexsei Élyse
Épicxificy
IEficxspicy
ÉÉ fixinguyspicxifigs
ÉTÉ enjoy dicageys
quali d
2 Hex 7 est un noyau
ex XD Yax j x
Este noyau
Q I
id 91 02 noyau d'après a 1.2
fa
f 927 noyau par récurrence
d'apres
z.
fcn
E NlAl5
t
w ns
Q Wi NIEX
l apparat on pas
dans X X
m'merde
M chose
Si w WE EX noyau à noyon transférer
si c X.x noyanto données
Donc k bien un noyau
2 I ABCDE F 42
2 Bc D Et G 43
Lez
4 GA BC DE
Qc
Machine Learning – Machine Learning– 2023fev page 2
Q 1.2.4 En déduire une nouvelle formulation “duale” de notre problème d’optimisation sous contraintes
Exercice 2 – Noyaux
Q 2.1 Montrez que si K et K 0 sont deux noyaux (i.e. il existe et 0 telles que K(x, y) =< (x), (y) >
, K 0 (x, y) =< 0 (x), 0 (y) >) :
Q 2.1.1 cK est un noyau pour c 2 R+
Q 2.1.2 K + K 0 est un noyau ;
Q 2.1.3 KK 0 est un noyau ;
Q 2.1.4 (1+ < x, x0 >)d est un noyau.