Académique Documents
Professionnel Documents
Culture Documents
Régression Logistique
Lucien D. GNING
lucien.gning@univ-thies.sn
1 Problématique
On considère une population divisée en deux groupes d’individu G1 et
G2 distinguables.
Soit Y la variable réponse (qualitative) définie par :
(
1 si l’individu i appartient à G1
Y =
0 si l’individu i appartient à G2
1 Modélisation
0
Posons xi = (xi1 , . . . , xip ) et p(xi ) = P(Yi = 1|xi ). On obtient :
Yi ∼ B(p(xi ))
p(xi )
logit(p(xi )) = = β0 + β1 xi1 + . . . + βp xip
1 − p(xi )
0
e β0 +β1 xi1 +...+βp xip e xi β
p(xi ) = = 0
1 + e β0 +β1 xi1 +...+βp xip 1 + e xi β
où β = (β0 , β1 , . . . , β) ∈ Rp+1 est le vecteur des paramètres inconnus
du modèle (à estimer)
1 Introduction
2 Formalisation mathématique
3 Estimation
4 Comportement asymptotique
5 Significativité des paramètres
6 Interprétation des paramètres
7 Intervalle de confiance
8 Pertinence du modèle
9 Détection de valeurs influentes
10 Qualité du modèle
11 Régression Polytomique
0 0
où y = (y1 , . . . , yn ) et π = (p1 , . . . , pn ) .
L’estimateur du maximum de vraisemblance (si il existe) est solution de
l’équation (appelée équation du score) :
0
S(β) = ∇`(β) = X (y − π) = 0
1 rang(X ) = p + 1 ;
2 Le nuage est en situation de recouvrement (ni complètement
séparable ni quasi-complétement séparable) ;
0
3 La matrice E(X X ) existe et est définie positive.
Les hypothèses (1-2) assurent la concativité stricte de la log-vraisemblance
: l’EMV β̂ existe et est unique.
Sous l’hypothèse 3 on a :
β̂ −→ β en probabilité quand n → +∞
√
n(β̂ − β) −→ N (0, [I(β)]−1 )
où 2
∂ `(β)
[I(β)]jk = −E , 0 ≤ j, k ≤ p
∂βj ∂βk
1 Introduction
2 Formalisation mathématique
3 Estimation
4 Comportement asymptotique
5 Significativité des paramètres
6 Interprétation des paramètres
7 Intervalle de confiance
8 Pertinence du modèle
9 Détection de valeurs influentes
10 Qualité du modèle
11 Régression Polytomique
H0 : βj = 0 contre H1 : βj 6= 0
Sous H0 et quand n −→ +∞ on a :
β̂j
T = −→ Tn−p−1
σ̂(β̂j )
∂µi 2
1/2 0 −1 0 1/2 1
H=W [X (X WX ) X ]W et W = diag
V(Yi ) ∂ηi
2 Résidus standardisés de Pearson : on appelle résidu standardisé de
Pearson la valeur :
ε̂i
rspi = √
1 − Hii
Si |rspi | > 2, on dit que l’observation i est une valeur influente.
3 Distance de Cook : on défini la distance de Cook par :
Hii
di = (rspi )2
(p + 1)(1 − Hii )
soit
(k) (k) (k)
exp(β0 + β1 x1 + . . . + βp xp )
pk (x) = Pm (k) (k) (k)
1 + k=2 exp(β0 + β1 x1 + . . . + βp xp )
(k) (k) 0
où β = (β0 , . . . , βp ) ∈ Rp+1 vecteur des coefficients inconnus.
Notons que pour k = 1 on a :
m
X
p1 (x) = 1 − pk (x).
k=2
Estimation
β̂ = argmax L(β)
β∈R(p+1)m