Académique Documents
Professionnel Documents
Culture Documents
Ouazza Ahmed
2019-2020
1 / 36
Régression linéaire multiple
Plan
2 / 36
Régression linéaire multiple
3 / 36
Régression linéaire multiple
Définition:
y = a1 x1 + a2 x2 + ... + ak xk + ε
Lorsque l’expérience est répétée n fois (n représente la taille de
l’échantillon), on dispose n différentes valeurs de x1 , x2 , ..., xk avec
n ≥ k, et les valeurs observées de y sont y1 , ..., yn .
4 / 36
Régression linéaire multiple
Y = Xa + ε (1)
avec
y1 x11 · · · x1k ε1 a1
.. .. .. , ε = .. , a = ..
Y = . ,X = . ··· . . .
yn xn1 · · · xnk εn ak
5 / 36
Régression linéaire multiple
6 / 36
Régression linéaire multiple
Remarques:
1) Le modèle peut contenir un terme constant, dans ce cas le modèle
est donné comme suit:
et la matrice
X est définie
de la façon suivante:
1 x11 · · · x1k
X = ... .. ..
. ··· .
1 xn1 · · · xnk
0
2) On dit que le modèle est à plein rang si rg(X) = k (= rg(X X))
0
⇔ X X est inversible.
On supposera, dans la suite, que le modèle de rang plein.
7 / 36
Régression linéaire multiple
Définition 1.1
a de a est défini comme suit :
L’estimateur des moindres carrés b
n
X k
X
a = arg min
b (yi − aj xij )2 = arg min ||Y − Xa||2 (3)
a∈Rk a∈Rk
i=1 j=1
0
On cherche la statistique qui minimise Q(a) = ||Y − Xa||2 = ε ε
8 / 36
Régression linéaire multiple
Preuve:
On a
0 0
Q(a) = ε ε = (Y − Xa) (Y − Xa)
0 0 0 0
= Y Y − 2Y Xa + a X Xa
Donc
∂Q 0 0 0 0 0
= −2(Y X) + X Xa + (X X) a
∂a
0 0 0
= −2(Y X) + 2(X X)a
0 0
= −2X Y + 2X Xa
9 / 36
Régression linéaire multiple
D’où
∂Q 0 0 0
∂a (b
a) a = (X X)−1 X Y car X X est inversible.
=0⇔b
∂2Q 0
a est un minimum car
b ∂a2
= 2X X qui est semi définie positive.
Remarque:
0 0
a = X(X X)−1 X Y est la valeur ajustée du vecteur Y .
• Yb = Xb
10 / 36
Régression linéaire multiple
Interprétation géométrique:
L’estimateur des MCO correspond à:
Yb = Xb a est la projection orthogonale de Y sur le sous espace
vectoriel (x1 , ..., xk ) de dimension k (c-à-d sous espace vectoriel
engendré par les vecteurs colonnes de X).
0 0
Donc Yb = PX (Y ) avec PX = X(X X)−1 X
0 0
On vérifie facilement, si PX = X(X X)−1 X et M = In − PX ,
alors:
0
P = PX et PX2 = PX
X0
M = M et M 2 = M
P M =0
X
rg(PX ) = T race(PX ) = k et rg(M ) = T race(M ) = n − k
11 / 36
Régression linéaire multiple
a:
Propriétés de l’estimateur b
Theoreme 1.3
a est un estimateur sans biais de a, c-à-d E(b
1) b a) = a.
a est donnée par:
2) La matrice de covariance de b
0
a) = σ 2 (X X)−1
Cov(b
12 / 36
Régression linéaire multiple
13 / 36
Régression linéaire multiple
Propriétés:
1) E(b
ε) = 0
ε) = σ 2 M
2) V ar(b
3) E(Yb ) = Xa
4) V ar(Yb ) = σ 2 PX
5) Cov(b
ε, Yb ) = 0
14 / 36
Régression linéaire multiple
n
1 X 2 ε||2
||b
b2 =
σ εbi =
n−k n−k
i=1
15 / 36
Régression linéaire multiple
En effet,
n
2 1 X
E(b
σ )= E( εb2i )
n−k
i=1
n
1 X
= ε2i )
E(b
n−k
i=1
n
1 X
= V ar(b
εi )
n−k
i=1
1
= T race(Cov(b ε))
n−k
1
= T race(σ 2 M )
n−k
σ2
= T race(M )
n−k
= σ 2 (car T race(M ) = n − k)
16 / 36
Régression linéaire multiple
Coefficient de détermination:
17 / 36
Régression linéaire multiple
Définition 1.5
Le coefficient de détermination R2 , dans le cas où le modèle de
régression contient le terme constant, est défini par:
18 / 36
Régression linéaire multiple
Définition 1.6
Le coefficient de détermination R2 , dans le cas où le modèle de
régression ne contient pas le terme constant, est défini par:
19 / 36
Régression linéaire multiple
2
Coefficient de détermination ajusté R :
Le R2 augmente avec le nombre de variables. Même si les variables
additionnelles ne sont absolument pas pertinentes.
Donc on ne peut pas comparer des modèles de complexité différente
(avec un nombre de variables explicatives différent) sur la base du R2 .
20 / 36
Régression linéaire multiple
Définition 1.7
2
Le coefficient de détermination ajusté R est défini par :
• Avec constante:
2 n−1 ε||2
||b n − 1 SCR
R =1− =1−
n − k ||Y − y1n ||2 n − k SCT
• Sans terme constant:
21 / 36
Régression linéaire multiple
Exemple:
On considère le tableau suivant:
Y x1 x2
4.9 1.5 5.0
6.4 2.0 6.5
8.6 3.5 8.0
9.6 4.0 9.0
22 / 36
Régression linéaire multiple
Corrigé:
a) Modèle sans constante:
Y = a1 x1 + a2 x2 + ε = Xa + ε
4.9 1.5 5.0
6.4 2.0 6.5 a1
avec Y = , X = (x1 , x2 ) =
et a =
8.6 3.5 8.0 a2
9.6 4.0 9.0
L’estimateur de a est
0 0
a = (X X)−1 X Y
b
a1 0.636
a=
Après les calculs, on trouve b = D’où
b
a2
b 0.789
Y = 0.636 x1 + 0.789 x2
2
Après les calculs, on trouve:R2 = 0.99 et R = 0.99
23 / 36
Régression linéaire multiple
Y = a0 + a1 x1 + a2 x2 + ε = Xa + ε
4.9 1 1.5 5.0
6.4 1 2.0 6.5 a0
avec Y = , X = (1, x1 , x2 ) = et a = a1
8.6 1 3.5 8.0
a2
9.6 1 4.0 9.0
L’estimateur de a est
0 0
a = (X X)−1 X Y
b
a0
b 0.157
a1 = 0.7 D’où
a = b
Après les calculs, on trouve b
a2
b 0.742
Remarque:
Puisque ε ∼ Nn (0, σ 2 In ) alors
Y ∼ Nn (Xa, σ 2 In )
25 / 36
Régression linéaire multiple
1 −1 0
fn (Y, a, σ 2 ) = n 2
(Y − Xa) (Y − Xa))
exp(
(σ 2 2π) 2 2σ
1 −1
= n exp( ||Y − Xa||2 )
(σ 2 2π) 2 2σ 2
n n 1
logfn (Y, a, σ 2 ) = − log(2π) − log(σ 2 ) − 2 ||Y − Xa||2
2 2 2σ
26 / 36
Régression linéaire multiple
Theoreme 1.8
0 0
•ba = (X X)−1 X Y est aussi l’estimateur du maximum de
vraisemblance de a (c’est un estimateur sans biais de a.)
• L’estimateur du maximum de vraisemblance de σ 2 est
2 ε||2
||b a||2
||Y − Xb
σ
bmv = = (c’est un estimateur biaisé de σ 2 ).
n n
27 / 36
Régression linéaire multiple
28 / 36
Régression linéaire multiple
Prévision:
Objectif:
Prévoir la réalisation de la valeur aléatoire y0 connaissant
0
x0 = (x01 , ..., x0k ) et sachant que:
0
y0 = x0 a + ε0
(6)
E(ε0 ) = 0, V ar(ε0 ) = σ 2 , E(ε0 , εi ) = 0; i = 1, ..., n
Le prédicteur de y0 dont la variance de l’erreur de prévision est
0
minimale parmi les prédicteurs sans biais linéaire en y est yb0 = x0 b
a
29 / 36
Régression linéaire multiple
Proposition 1.9
L’erreur de prévision εb0 = y0 − yb0 satisfait les propriétés suivantes :
• E(b
ε0 ) = 0
0 0
ε0 ) = σ 2 (1 + x0 (X X)−1 x0 )
• V ar(b
30 / 36
Régression linéaire multiple
Tests d’hypothèses:
Dans toute la suite on considère le modèle linéaire gaussien suivant:
Y = Xa + ε
ε ∼ N (0, σ 2 In )
X d’ordre (n × k), rg(X) = k
H0 : aj = a∗j
(7)
H1 : aj 6= a∗j
où a∗j est une valeur donnée.
31 / 36
Régression linéaire multiple
Remarque:
Si a∗j = 0 on parle de test de significativité de aj (ie, y’a-t-il un
influence ou non de xj sur y ).
I La Statistique du test:
aj − a∗j
b
T = ∼ t(n − k)
σ
bj
I Décision:
On rejette H0 si |T | > t1− α2 (n − k) avec t1− α2 (n − k) est le quantile
d’ordre 1 − α2 d’une loi de Student à n − k ddl.
32 / 36
Régression linéaire multiple
Remarque:
Une deuxième façon de tester les paramètres individuellement est la
suivante:
H0 : aj ≤ a∗j
(8)
H1 : aj > a∗j
I La Statistique du test:
aj − a∗j
b
T = ∼ t(n − k)
σ
bj
I Décision:
On rejette H0 si T > t1−α (n − k) avec t1−α (n − k) est le quantile
d’ordre 1 − α d’une loi de Student à n − k ddl.
33 / 36
Régression linéaire multiple
34 / 36
Régression linéaire multiple
Remarque:
Si l’hypothèse nulle H0 est vérifiée alors le modèle s’écrit:
yi = a0 + εi
I La Statistique du test:
CM Reg n − k R2
Fobs = =
CM Res k − 1 1 − R2
I Décision:
On rejette H0 si Fobs > F1−α (k − 1, n − k) avec F1−α (k − 1, n − k)
est le quantile d’ordre 1 − α d’une loi de Fisher à (k − 1, n − k) ddl.
35 / 36
Régression linéaire multiple
Exemple:
On reprend l’exemple précédent (on considère le modèle avec
constante), tester les hypothèses suivantes:
H0 : aj = 0
(10)
H1 : aj 6= 0.5
H0 : aj ≤ 0.5
(11)
H1 : aj > 0.5
H0 : a1 = a2 = 0
(12)
H1 : ∃j ∈ {1, 2} tel que aj 6= 0
Travail à faire:
Démontrer les théorèmes, propositions et propriétés présentés
dans ce deuxième chapitre!!!!!
36 / 36