Académique Documents
Professionnel Documents
Culture Documents
25 octobre 2023
hθ (x) = g (θT x)
g (z) = 1+e1 −z
π
θT x = log ( 1−π ) est appelée
LOGIT
ou π = P(Y = 1|x) et
1 − π = P(Y = 0|x)
Supposons qu'on prédise
"y=1" si hθ (x) ⪰ 0.5
et "y=0" si hθ (x) ≺ 0.5
Cela signie que
"y=1" si θT x = z ⪰ 0
et "y=0" si θT x = z ≺ 0
Prédire "y=1" si −3 + x1 + x2 ⪰ 0
Jeu de données : {(x (1) , y (1) ); (x (2) , y (2) ); ...; (x (m) , y (m) )}
x0
x1
..
.
m exemples x ∈
xi x0 = 1, y ∈ {0, 1}
..
.
xn
1
hθ (x) =
1+e −θT x
Comment choisir les paramètres θ
1
Coût(hθ (x (i) ), y (i) )
Pm
J(θ) = m i=1
Notons qu'on a toujours : y=0 ou y=1 alors
Coût(hθ (x), y ) = −y log(hθ (x)) − (1 − y ) log(1 − hθ (x))
La fonction coût pour le modèle de régression logistique est une
somme pondérée des coûts individuels tels que dénis précédemment
pour tous les exemples du jeu d'entraînement.
Étant donné que y = 0 ou 1, on peut unier les deux expressions des
coûts individuels en une seule expression.
Chacun peut vérier que si y = 1, alors, 1 - y = 0 et on retrouve
l'expression du coût pour y = 1.
De même si y = 0, alors 1 - y = 1, et on retrouve dans ce cas aussi
l'expression du coût formulée si y = 0.
1
Coût(hθ (x (i) ), y (i) )
Pm
J(θ) = m i=1
J(θ) = − m1 y (i) log(hθ (x (i) )) + (1 − y (i) ) log(1 − hθ (x (i) ))
Pm
i=1
Pour ajuster les paramètres θ, il faut minimiser la fonction coût :
minJ(θ)
θ
Algorithme du Gradient
Répéter{
∂
θj = θj − α ∂θ j
J(θ) (mise à jour simultanée de tous les θj )
}
Algorithme du Gradient
Répéter{
(i)
(mise à jour simultanée de tous les
Pm (i)
θj = θj − α i=1 (hθ (x ) − y (i) )xj
θj )
}
L'algorithme semble identique à la régression linéaire
Dénition :
La matrice matrice de confusion est un tableau de contingence, tel que
chaque colonne contient un classe prédite par le modèle de classication
et les lignes de classes réelles. On classe les résultats en quatre
catégories :
True Positive (TP) : la prédiction et la valeur réelle sont positives.
True Negative (TN) : la prédiction et la valeur réelle sont négatives.
False Positive (FP) : la prédiction est positive alors que la valeur réelle
est négative.
False Negative (FN) : la prédiction est négative alors que la valeur
réelle est négative.
On peut ajouter des lignes et des colonnes à cette matrice dans des
cas plus complexes.