Académique Documents
Professionnel Documents
Culture Documents
X , y = make_data (40)
plt . figure ()
plt . scatter (X , y )
ax [ i ]. set_ylim (0 , 1)
ax [ i ]. set_xlim ( N [0] , N [ -1])
ax [ i ]. set_xlabel ( ’ training size ’)
ax [ i ]. set_ylabel ( ’ score ’)
ax [ i ]. set_title ( ’ degree = {0} ’. format ( degree ) , size =14)
ax [ i ]. legend ( loc = ’ best ’)
à cette classe (appelée classe positive, d’étiquette 1), sinon il prédit qu’elle
apprtient à l’autre classe (la classe négative d’étiquette 0). La logisstique du
résultat ou probabilité estimé par le modèle de régression logistique est donnée
par
p̂ = hθ (x) = σ θT .x
où la fonction logistique σ ou logit est une fonction sigmoide qui renvoie des
valeurs entre 0 et 1.
1
σ (t) =
1 + exp(−t)
La prédiction du modèle se fait de la manière suivante
(
0 si p̂ ≺ 0.5
ŷ =
1
J (θ) est convexe (le min sur θ peut être trouvé par descente de gradient) et
m
∂ 1 X
σ θT .xi − y i xij
J (θ) =
∂θ m
i=1
T
sk (x) = θk .x est score sk (x) softmax pour la classe k, K le nombre
de classes, s (x) un vecteur contenant les scores de chaque classe pour
l’observation x.
(a) A l’aide de la calsse LogisticRegression de Scikit-Learn et de l’hy-
perparamètre multi_class, utiliser la régression softmax pour ré-
partir les fleur d’iris en trois classes.
(b) Interpréter les résultats obtenus en vous basant sur les probabilités
estimées et la frontière de décision.
(c) Impélenter une descente de gradient ordinaire avec arrêt précoce
avec une régression softmax sans utiliser Scikit-Learn.
Exercice 3 Classfification