La Classification
II.1 Définition
II.1.1 La Classification
II.1.2 La Régression
size
II.1 Définition
Exemple de classification :
Classification de type des plantes (Setosa, Versicolor, Virginica) en utilisant les
caractéristiques suivantes : longueur et largeur des sépales et pétales.
II.1 Définition
Exemple de régression :
Prévision de la température en utilisant les conditions météorologiques enregistrées par
une station météorologique.
II.1 Définition
II.1 Définition
Exemple de la régression logistique
Prévision de diabète en utilisant les caractéristiques suivantes : Grossesse, Glucose, Tension,
Épaisseur de peau, Insuline, IMC, Fonction de Pedigree du Diabète et l’Age.
Ax+b Pre=90%
A=3 B=2
Mme. Khaoula. Tbarki
Année universitaire 2019/2020
Chapitre II : La Classification
II.2 Classification Base de données
Nouvelle base
Construction du modèle
Validation ou
déploiement du modèle
Mme. Khaoula. Tbarki
Année universitaire 2019/2020
Chapitre II : Classification linéaire et régression
II.2 Classification
Classification
✓L’apprentissage :
✓L’apprentissage : ✓L’apprentissage :
plusieurs classes
2 classes 1 classe
✓Test : plusieurs
✓Test : 2 classes ✓Test : 2 classes
classes
Mme. Khaoula. Tbarki
Année universitaire 2019/2020
Chapitre II : La Classification
II.2 Classification
Base de données
Cas multi-classe
B :reel R Predicted
R R
R R
R R
R R
B R
➢ Cette méthode utilise un classifier binaire pour la séparation entre les classes.
➢Chaque modèle est entraîné à séparer les données d’une classe cible (+1), de celles de
toutes les autres classes qui seront étiquetées -1 ou 0 (classe aberrante).
➢ Utilise k (k-1)/2 classifieurs pour un problème à k classes, où chaque SVM est entraîné
sur deux classes en Ci (classe cible) et Cj (classe aberrante) seulement.
1 C1 C2
2 C1 C3
3 C2 C3
1 C1 C2+C3
2 C2 C1+C3
3 C3 C1+C2
1 C1 C2
2 C1 C3
3 C2 C1
1 T N
min w w + C i ,
w ,b 2 i =1 Eq.I.1
s.c y ( w T x + b) 1 − ; 0 i = 1...N .
i i i i
min w w + C i ,
w ,b 2 i =1 Eq.I.1
s.c y ( w T x + b) 1 − ; 0 i = 1...N .
i i i i
1 T N
min w w + C i ,
w ,b 2 i =1
s.c y ( w T x + b) 1 − ; 0 i = 1...N .
i i i i
Class -
Class +
1 T N
min w w + C i ,
w ,b 2 i =1
s.c y ( w T x + b) 1 − ; 0 i = 1...N .
i i i i
Le Lagrangien L
Eq.I.2
Eq.I.3
Eq.I.4
Eq.I.5
Mme. Khaoula. Tbarki
Chapitre II : La Classification
En remplaçant les équations (Eq. I.3 et I.5) dans l'Eq. I.2, le problème dual obtenu
s'exprime comme suivant :
N
1 N N
max
i =1
i − i j yi y j xi x j ,
2 i =1 j =1
T
Eq. I.6
s.t 0 C and
i
i =1
yi i = 0, i =1,...,N.
Séparation non linéaire : Cas des applications réelles: l’idée est de changer l’espace original
des données en un autre espace en utilisant la fonction de mapping ( x)
1 T
min w w + C i ,
w,b 2 i =1
Eq. I.7
s.c y ( w T ( x ) + b) 1 − ; 0 i = 1....
i i i i
N
1 N N
max
i =1
i − i j yi y j K SVM ( xi , x j ),
2 i =1 j =1 Eq. I.8
s.c 0 C and
i
i =1
yi i = 0, i =1,...,N.
K SVM = ( xi ) ( x j )
T
La fonction noyau (kernel function).
❖Kernel function
Eq. I.9
S
f ( z ) = w ( z ) + b = j y j K SVM ( x j , z ) + b
T
j =1
Convexe Concave
SVM
1 T 1 N
wmin w w−+
N i =1
i ,
0, 2 Eq. I.10
s.c w T x − ; 0 i = 1...N .
i i i
( 0,1 est le paramètre qui contrôle la fraction des valeurs aberrantes et celle des vecteurs
de support (SVs),
1 T N
min W ( , ) = OSVM + (1 − i ),
2 i =1
N Eq. I.13
s.c 0 1
et i = 1.
i
N i =1
S Eq. I.14
f ( z ) = j K OSVM ( x j , z ) +
i =1
Exhaustive cross-validation:
• Leave-p-out cross-validation.
• Leave-one-out cross-validation.
Non-exhaustive cross-validation:
• k-fold cross-validation (k=5, k=10) (partition aléatoire).
FPR=100-TNR
FNR=100-TPR
Mme. Khaoula. Tbarki
Année universitaire 2019/2020
Chapitre II : La Classification
C1 C2 C3
C1 70 30 0
Real C2 5 80 15
C3 0 0 100
C1 100
C2 100
C3 100
❖ Matrice de confusion
❖ Accuracy
TP + TN
Accuracy = Eq. I.1
N
❖ Précision
TP
Précision = Eq. I.2
TP + FP
❖ Recall
TP
Recall =
TP + FN Eq. I.3