Académique Documents
Professionnel Documents
Culture Documents
Secg Lessons06-Regression Lineaire
Secg Lessons06-Regression Lineaire
Polycopié
Cours :
Régression Linéaire
Réalisée simple
par: Dr BOUKRIF Nouara et
multiple
Année : 2016
1
Introduction générale du cours Régression linéaire simple et multiple
En effet, la régression linéaire est une relation stochastique entre une ou plusieurs
variables. Elle est appliquée dans plusieurs domaines, tels que la physique, la biologie, la chimie,
l’économie…etc.
Dans ce cours et dans un premier temps, nous allons introduire la régression linéaire où on
explique une variable endogène par une seule variable exogène. A titre d’exemples, on peut citer :
la relation entre la variable Prix et la variable Demande, la relation entre la variable Revenu et la
variable Consommation, la relation entre la variable Investissement et la variable Croissance
économique. Il s’agit de la régression linéaire régression simple. Dans un deuxième temps, nous
étudierons la régression linéaire multiple qui représente la relation linéaire entre une variable
endogène et plusieurs variables exogènes. Autrement dit, il s’agit de régresser linéairement une
grandeur économique (variable à expliquer) sur plusieurs variables explicatives (variables
exogènes). Par exemple, d’après la théorie économique, la demande d’un produit peut être
expliquée par les grandeurs Prix, Revenu et Publicité.
La régression linéaire simple et multiple est un outil d’analyse qui fait appel à trois
domaines scientifique, à savoir :
la théorie économique ;
l’analyse statistique ;
la modélisation mathématique.
2
Chapitre : Le modèle de régression linéaire simple
Yt 0 1 X t t , t 1........n
avec :
Yt : la variable endogène (dépendante, à expliquer) à la date t ;
I-3 Estimation des paramètres par la méthode des Moindres Carrés Ordinaires (MCO)
L’estimation des paramètres 0 , 1 est obtenue en minimisant la somme des carrés des erreurs :
3
n n n
Min Min Yt 0 1 X t Min S 2
2 2
t
t 1 t 1 t 1
Pour que cette fonction ait un minimum, il faut que les dérivées par-rapport à 0 et 1 soient
nuls.
S n n n
0 2 Yt 0 1 X t (1) 0 Yt n 0 1 X t ...............(1)
0 t 1 t 1 t 1
S n n n n
0 2 (Yt 0 1 X t )( X t ) 0 Yt X t 0 X t 1 X t2 ...............(2)
1 t 1 t 1 t 1 t 1
En notans ˆ0 et ˆ1 les solutions des équations (1) et (2), on obtient d ' après (1 ) :
n n
Y t X t
ˆ0 t 1
ˆ 1
t 1
n n
ou bien
n n
Yt Xt
ˆ0 Y nX puisque t 1
Y et t 1
X .
n n
En remlaçant la valeur de ˆ0 dans l' équation (2) , on obtient :
n n n n
Yt X t Y X t ˆ1 ( X t2 X X t ).
t 1 t 1 t 1 t 1
D’où
t t t t t t t
ˆ1 t 1
n
t 1
n
t 1
n
t 1
2
X X Xt X X X
2
t
2
t
2
nX 2
t
t 1 t 1 t 1 t 1
4
Conclusion : les estimateurs des MCO du modèle de régression linéaire simple
Yt 0 1 X t t Sont :
Y Y X t X
n n
X tYt nYX t
ˆ0 Y nX Et ˆ1 t 1
n
t 1
2
X nX X X
2
2 2
t t
t 1 t 1
Yt 0 1 X t t
Yt ˆ0 ˆ1 X t et
Avec :
Yˆt = ˆ0 ˆ1 X t
Et
et Yt Yˆt Yt ˆ0 ˆ1 X t
Exemple : nous disposons des données qui sont représentés dans le tableau suivant :
On trace un graphique des couples de données liant le prix et les quantités Consommées. Nous
5
Obtenons le nuage de points suivant :
90
80
70
60
Y
50
40
30
0 100 200 300 400 500 600 700 800
Y Y X t X
n n
X Y t t nY X t
ˆ1 t 1
n
t 1
2
X X X
2
t
2
nX 2
t
t 1 t 1
Application numérique :
̂ 0 36.42 et ˆ1 = 0.0589
6
I-calcul des espérances mathématiques des estimateurs
Y Y X X
n
t t
ˆ1 t 1
2
X X
2
t
t 1
En posant
xt X t X
et
yt Yt Y
Nous obtenons
n
x t yt
ˆ1 t 1
n
..........(1)
x
t 1
2
t
x Y Y x Y
n n n
t t t t x t
ˆ1 t 1
2
t 1
n
Y t 1
n
.
x
t 1
2
t x
t 1
2
t x
t 1
2
t
Comme
n
x 0
t 1
t
alors
n
x Y t t
ˆ1 t 1
n
..............( 2)
x
t 1
2
t
7
x X X nX nX 0 .
n n
car t t
t 1 t 1
x t 0 1 X t t
ˆ1 t 1
n
x
t 1
2
t
n n n
0 xt 1 xt X t xt t
t 1 t 1
n
t 1
x
t 1
2
t
n n
1 xt X t xt t
t 1
n
t 1
xt 1
2
t
1 xt xt X
n n
x t t
ˆ1 t 1
n
t 1
n
x
t 1
2
t x
t 1
2
t
n n n
1 x 2
t X1 xt x t t
n
t 1
n
t 1
t 1
n
x
t 1
2
t x
t 1
2
t x
t 1
2
t
car X t xt X .
n
Comme x
t 1
t 0 (on l’a déjà démontré), il résulte alors :
8
n
x t t
ˆ1 1 t 1
n
x
t 1
2
t
n
xt t
( ˆ1 ) ( 1 ) t 1n
xt
2
t 1
n
xt E t
( 1 ) t 1 n
xt
2
t 1
E t =0
Finalement :
E ˆ1 1 1 : est un estimateur sans biais
On a :
ˆ0 Y - ˆ1X
n
xt yt
ˆ0 Y X t 1n
xt
2
t 1
9
n
xt
ˆ0 Y X tn1 Yt Y
xt
2
t 1
n
xt Yt
ˆ0 Y X t 1n .
xt
2
t 1
D’ou
n
n
1 Xxt Yt
0 t
ˆ Yt ...............(3) car
Y t 1 .
t 1 n 2 n
t xt
Or que :
Yt 0 1 X t t
donc :
n 1 Xx n 1 Xx n
1 Xxt
0 0 t t 1 X t t t
ˆ t t
t 1 n
xt2 t 1 xt2 t 1 n
xt2
n
t t
t
n
xt X t n
ˆ 0 0 1 X 1 X 2t 1 t t
1 X xt
t 1 n
xt xt
2 2
t 1 t
Comme X t xt X on déduit :
10
n
xt xt X n
1 Xxt
ˆ
0 0 1 X 1 X t 1
t t
2
xt
2 t 1 n 2
xt
t 1 t
2 2 n
xt xt n
ˆ 0 0 1 X 1 X 2 1 X 2 t t
t 1 2 t 1 1 X x t
t 1 n
xt xt
2 2
xt2
t 1 t 1 t
On obtient alors :
n
0 t
ˆ 1 Xxt
t .
t xt
t 1 n 2
En passant à l’espérance mathématique, on trouve :
n 1 Xx
E ˆ0 E 0 E t t t
t 1 n
t t
x 2
n 1 Xx
E 0 E 0 t
ˆ
t 1
t
E t
n
xt2
t
E ̂ 0 = E 0 car E t =0
Finalement
E ˆ0 0 0 est un estimateur sans biais.
var (ˆ1 ) ˆ1 (ˆ1 )2
Et Ε (ˆ1 ) 1 .
11
d’un autre coté, on sait que :
n
x t t
ˆ1 1 t 1
n
x
t 1
2
t
Ce qui implique : n
x t t
ˆ1 1 t 1
n
x
t 1
2
t
1
2
E x12 12 x22 22 ... .xn2 n2 2 x1 x2 1 2 .... .2..xn1 xn n1 n
n
xt2
t 1
D’après les hypothèses (1) ,(2) ,et (3) du modèle de régression simple, on obtient :
var ˆ1
1
2
x 2 x22 2 x32 ........................... 2 xn2
2 2
1
n
xt2
t 1
D’où :
n
2
x 2
t
2
var ˆ1 t 1
2
n
x
n .
xt2
2
t
t 1 t 1
Calcul de la variance de ˆ 0 :
12
n
n
ˆ0 0 t
1 X x t
t ˆ0 0 t
1 X x t
t
t 1 n
t xt
2 t 1 n
t xt
2
var (ˆ0̂ ) ˆ0 Ε (ˆ0 ) Ε ˆ0 0
2
2
.
var ( ˆ 0) Ε ˆ0 0
2
2
n
var ( 0 ) E
ˆ t
1 X x
t 1 n n 2 t
xt
t 1
2
n
n
var ˆ0 E 1 Xxt 2 E 1 X xn1 1 X xn
t 1 n n 2 t n n 2 n n 2 n1 n
xt xn1 xn
t 1
t 1 t 1 t 1
2
n
ˆ
var 0 E
t 1
1 X xt
n n
t
xt2
t 1
D’après les hypothèses (1) ,(2) ,et (3) du modèle de régression simple, on obtient:
13
2
n 1 X xt
var ˆ0 2 n n 2
t 1
t 1
xt
Il résulte alors :
n
1 2 X xt X 2 xt2
var 0 2 n
ˆ 2
2
t 1 n
n xt x 2
n
t
2
t 1
t 1
n
Puisque x
t 1
t 0 alors :
n 2
xt nX 2
var ˆ0 2 t 1 n
n xt
2
t 1
Et comme X t xt X donc on déduit que :
n 2 n
Xt X 2
t
var ˆ0 2 t 1n 2 t 1
2
2
n
t
n x t
n X X
t 1 t 1
Conclusion
n 2 n
X X 2
t t
var βˆ0 2 t 1 σ
ε n
2 t 1
ε
n n x2
t
n
t
X X
2
t1 t1
14
var ̂1 n
2
x
et 2
t
t 1
cov (βˆ0 ,βˆ1 ) E βˆ0 E (βˆ0 βˆ1 E (βˆ1 E βˆ 0 β βˆ1 β1
Comme ( ˆ 0 , ˆ1 ) sont sans biais,
Alors :
n
n t t
1 X xt t 1
x
cov ( 0 , 1 ) E
ˆ ˆ
t 1 n n 2 t n
xt
xt2
t 1 t 1
n n n n
t xt t X xt t xt t
cov ( ˆ0 , ˆ1 ) E t 1 nt 1 t 1 t 1
2
n xt n 2
xt
2
t 1
t 1
n n n
2
t xt t xt t
cov ( ˆ0 , ˆ1 ) E t 1 nt 1 XE t 1
n x2 n 2
t
xt2
t 1 t 1
D’après les hypothèses (1), (2) et (3) du modèle de régression simple, il résulte que :
15
cov ˆ0 , ˆ1 X 2
n
xt2
.
t 1
Par définition un estimateur de moindre carrée est un estimateur de Gauss Markov (blue)
s’il est sans biais, linéaire et possède une variance minimale. Pour démonter ce théorème, on définit
un autre estimateur linéaire sans biais sous la forme suivante :
n
b C Y
t 1
t t
Par la suite on compare la variance de b avec la variance de ˆ1 et celui qui a une variance
minimale on dira qu’il est le meilleur estimateur.
Démontrons d’abord est ce que ˆ1 est linéaire et sans biais.
x y t t
βˆ 1 t 1
n
x t 1
2
t
x Y Y
n
t t
βˆ 1 t 1
n
x
t 1
2
t
n n
xY t t x t
βˆ 1 t 1
n
Y t 1
n
x
t 1
2
t x
t 1
2
t
16
n
Comme x
t 1
t =0, on obtient :
xY t t
̂1 t 1
n .
xt2
t 1
En posant
xt
Wt n
x
t 1
2
t
n n
A Y W Y .
t 1
t t
t 1
t t
On a :
n
Ε ( 1 ) E Wt Yt
ˆ
t 1
n
Wt E Yt
t 1
n
Wt 0 1 X t t
t 1
D’où :
17
n
Ε ( β1 ) E Wt Yt
ˆ
t 1
n n n
Ε (β1 ) 0 E Wt 1 E Wt X t E Wt t
ˆ
t 1 t 1 t 1
Connaissant que :
n n
W 0 , x 0
t 1
t
t 1
t et E ( t ) 0
Alors :
n
Ε (ˆ1 ) 1 E Wt X t
t 1
Sachant que :
xt
Wt n
x
t 1
2
t
Ce qui fait :
n
xt X t
Ε ( βˆ1 ) β1 E t 1n .................( 1 )
t
2
x
t 1
18
n
xt X t
Ε(βˆ 1 ) β1 E t 1n .
xt
2
t 1
n
xt xt X
Ε ( βˆ 1 ) β1 E t 1 n .
t
2
x
t 1
n 2 n
xt X xt
Ε ( βˆ 1 ) E t n1 β1 E t 1 .
n 2
xt xt
2
t 1 t 1
Du moment que : x
t 1
t 0,
W
t 1
t 0 et W X
t 1
t t 1
On suppose qu’il existe un autre estimateur sans biais linéaire définit comme suit
n
b Ct Yt
t 1
E b 1
avec Ct Wt d t
On a Yt 0 1 X t t
En passant à l’espérance mathématique:
19
n n
E b E Ct Yt E Ct β0 β1 X t εt
t 1 t 1
n
n
E b β0 E Ct β1 E Ct X
t 1 t 1 t
E b β1 ...........(2)
n
Car E Ct t 0 .
t 1
Pour que l’équation (2) soit vérifiée c'est-à-dire E b 1 il faut que :
C X
t 1
t t . 1............(3)
et
n
C
t 1
t 0......................(4)
Quand :
n n n n
Quand : n n n n
Ct X t Wt d t X t Wt X t d t X t 1
t 1 t 1 t 1 t 1
n n n n n
b Ct Yt Ct 0 1 X t t 0 Ct 1 Ct X t Ct t
t 1 t 1 t t 1 t 1 t 1
20
Sous l’hypothèse, que les conditions (3) et (4) soient vérifiées :
n n
b 1 Ct t b 1 Ct t
n n
t 1 t 1
(c’est à dire C X
t 1
t t =1 et C =0 )
t 1
t
Nous obtenons :
2
n
var b E Ct t E C1 1 C 2 2 ................ .C n n
2
t 1
E C12 12 C 22 22 ... .C n2 n2 2 C1C 2 1 2 ...2 C n1C n n1 n
2
n n n
E Ct2 t2 2 Ct Ct t t
t 1 t 1 t 1
E t2 2 et E ε t ε t 0
On déduit alors :
n n
var b 2 Ct2 2 Wt 2 d t2 2Wt d t
t 1 t 1
n n n
var b 2 Wt 2 2 d t2 2Wt d t
t 1 t 1 t 1
Sachant que :
n n n n
W
t 1
t 0 alors d W
t 1
t
t 1
t 0 dt 0
t 1
Et
n n n n
On déduit :
n n n
n x d X dt t t t d t
Wt d t t 1
n
t 1
n
X t 1
n
0
t 1
x
t 1
2
t xt 1
2
t x
t 1
2
t
21
Ce qui résulte :
var b = Wt d t2
n n
n
car ( Wt d t 0 )
2 2 2
t 1 t 1 t 1
xt
Nous remplaçons Wt par Wt n
on trouve donc :
x
t 1
2
t
n
xt2 n
var b = n dt
2 2 2
2
t 1 2
xt
t 1
t 1
n
x 2
t n
var b 2 t 1
2
dt2
2
n 2
xt
t 1
t 1
D’où :
2 n
var b n
dt2 2
x
t 1
2
t
t 1
Or que :
ˆ
2
var 1 n
xt2 t 1
Finalement:
var b = var ˆ1 2 d t2 .
n
t 1
22
n
t 1
On conclut que le paramètre ( ˆ1 ) à une variance minimale, ce qui fait qu’il est le meilleur
estimateur (estimateur blue).
Remarque
Même procédure pour le paramètre ( ˆ 0 ) :
n
1
On suppose a At Yt avec At Vt Tt tel que Vt XWt
t 1 n
et Yt Yˆt
Yˆt ˆ0 ˆ 1X t
Et Y 0 1X
On a :
et 0 1 X t t ˆ0 ˆ1 X t
et 0 1 X t Y ˆ1 X ˆ1 X t
t
et 1 ˆ1 X t 1 ˆ1 X
= X X
ˆ
1 1 t
e ˆ x Car
t 1 1 t x t X t X
23
D’où
n n 2
e 2
t 1 ˆ1 x t t
t 1 t 1
x
n n 2 n n
e t 1 ˆ1 x 2 1 ˆ1
2 2 2
t t t t
t 1 t 1 t 1 t 1
n
On passant à l’espérance E
et 1
2
t on obtient :
n 2
E et n 1 2 2 2 2 n 2 2
t 1
On déduit :
n
E e t2
2 t 1
n2
finalement :
n
e 2
t
ˆ 2 t 1
n2
Pour calculer le coefficient de détermination, nous démontrons d’abord les deux relations :
n
e
t 1
t 0 La somme des résidus est nulle (la droite de régression passe par le point
moyen (cela est valable uniquement pour les modèles contenant le terme constant),
n n
Y Yˆ
t 1
t
t 1
t , égalité entre la moyenne de la série à expliquer et la moyenne de la série
ajustée.
n n
24
On sait que :
n
et nY n Y ˆ1 X ˆ1 nX
t 1
D’où :
n
e t 1
t nY nY ˆ1 nX ˆ1 nX
Donc : e
t 1
t 0
Puisque et 1
t 0 on déduit alors :
n n n n
et Yt Yˆ 0 Yt Yˆt 0
t 1 t 1 t 1 t 1
On conclue :
n n
Y Yˆ Y Yˆ
t 1
t
t 1
t
A partir de ces deux équations nous pourrons déduire la fonction fondamentale d’analyse de la
variance.
25
On a :
Yt Yˆt et Yt Yˆ et
D’où :
Yt Y Yˆt e t Y
Yt Y Yˆt Y e t 2 Yˆt Y e t
2 2 2
Passant aux sommes on trouve :
n n n n
t 1 t 1 t 1
Comme :
n
e
t 1
t 0
n n
Y Yˆ
t 1
t
t 1
t
On déduit alors :
(Yˆ Y )e
t 1
t t 0
Il résulte :
n n n
t 1 t 1
Qu’on peut écrire comme suit
n n n
(Yt Y ) (Yˆt Y ) 2 et2
2
t 1 t 1 t 1
26
Avec :
t 1
n 2
Y Yˆ
n n
SCR e 2 2
t t : désigne la variabilité des résidus
t 1 t 1
e
2
t
ˆ 2 t 1
………………..(1) et N 0, 2
n2 i
27
De (1) on a :
n
n 2ˆ 2 e 2t
t 1
n
n 2ˆ 2
e 2t
t 1 n22
2
2
t 1
n
X t2
et ̂ N 0 , 2 n t 1
n X t X
0 2
t 1
ˆ
Z 1
N 0,1
1
1 2 Et
σ
ε
n 2
x
t
t 1
ˆ
Z 0 0
N 0,1
2 n
Xt
2
t 1
2
n n X X 2
t
t 1
D’après la définition de la loi de Student qui est : le rapport d’une loi centrée réduite et la
racine carrée d’une loi de khi deux divisée par le nombre de ses degrés de liberté
28
Z1
Tc
n2
ˆ 2
2
n2
Z1 ˆ1 1
Tc Tn2
ˆ ˆ
n
xt2
t 1
On obtient finalement :
TC
ˆ1 1
ˆ ˆ
Tn2 , %2
……………….(3)
1
TC
ˆ0 0
ˆ ˆ
Tn2 , %
2
……………………………….(4)
0
A partir des résultats (3) et (4) on peut effectuer les tests d’hypothèses suivants :
H 0 : 0 0 H 0 : 1 0
et
H1 : 0 0 H 1 : 1 0
test du paramètre 1
H 0 : 1 0
(Appelé test bilatéral)
H 1 : 1 0
Sous l’hypothèse H 0 : 1 0 , on obtient la valeur critique ( Tc ) tel que :
29
ˆ1 1
Tc Tt n 2 , %
ˆ ˆ1 2
Avec :
Tc : désigne la valeur critique de la statistique ( T ) (dite calculée).
Règle de décision
l’explication de Y.
l’explication de Y.
H0 : 0 0
(Appelé test bilatéral)
H1 : 0 0
ˆ0 0
Tc Tt , %
ˆ ˆ
0
n2
2
30
Avec :
Règle de décision :
constante.
Remarques importantes
Lorsque on effectue les tests d’hypothèses bilatéraux des deux paramètres et suivants :
H0 : 0 a H 0 : 1 b
et
H1 : 0 a H 1 : 1 b
%
On prend le seuil : 2
Par exemple sous l’hypothèse H 0 : 1 0 , la valeur critique Tc tel que :
ˆ1
Tc
ˆ ˆ 1
est appelée le ratio de student .
Lorsque on effectue les tests unilatéraux des deux paramètres et c'est-à-dire les tests
d’hypothèses suivants :
31
H0 : 0 a H 0 : 1 b
. et
H 1 : 0 a, 0 a H 1 : 1 b, 1 b
On prend le seuil % .
Les intervalles de confiances des paramètres et au seuil donné (au niveau de confiance
Intervalle de confiance 1 :
Pr 1 T ˆ 1 T ˆ 1
ˆ ˆ ˆ ˆ
1 1
2 1 2
Intervalle de confiance 0 :
Pr ˆ0 T ˆ ˆ ˆ T ˆ ˆ 1
0 0
2 0 2
Intervalle de confiance de 2
On a :
n
e 2
t
n 2S 2
̂
2 t 1
S 2
2 n2
n2 2
D’où Pr 2
1
n 2S 2
2 2
2 1
12
Pr
n 2S 2
22
1
2
n 2 S 2
2
n 2 S
On obtient :
32
n 2S 2 n 2S 2
1
2
Pr
2 12
2
H0 : i 0
H1 : i 0
Sous l’hypothèse :
H0 : i 0
On a :
E SCT n 1 2
E SCE 1 2
ESCR n 2 2
Avec, n 1 , 1 et n 2 des degrés de libertés de SCT , SCE et SCR respectivement.
SCT
n21 ,
n 1
SCR
n22
n2
SCE
et 2
1 1
33
SCE SCR
Du moment que et sont indépendants, on peut déduire donc valeur critique
2 2
F(Fisher) qui se définit comme suit : C’est le rapport entre deux Chi deux ( ) indépendants et
leurs degrés de libertés ;
Alors on obtient :
SCE
2
SCE n 2
SCE
FC 1 1 FT 1, n2, %
SCR SCR SCR 1
2 n2
n2
Avec :
FC : désigne la valeur critique de Fisher calculée.
FT : désigne la valeur de Fisher lue à partir de la table statistique de Fisher aux degrés de
libertés.
(1, n 2 ),se sont des degrés de libertés.
% : Le seuil donné.
Règle de décision
acceptée :
acceptée :
34
Tableau d’analyse de la variance
Variabilité à
expliquer X
n
SCE Yˆ Yˆ
t 1
2 k 1 SCE MC
1 reg Fc
MC reg
MC res
Variabilité n n2 SCR
résiduelle SCR et2 n2
t 1
MC reS
n
Y Yˆ
2
t 1
Variabilité totale n 1
SCT Y Y
n
2
t 1
Une fois les paramètres du modèle ; Yt 0 1 X t t ; sont estimés ,le modèle est validé ,il
35
1 X X 2
Var en h Var Yn h Yˆn h ˆ 2 nnh 1
n
t 1
xt2
1 X
n h X
2
Ynh Yˆnh Tn22 ˆ 1
n
n
t 1
2
xt
Avec :
Tn 22
: désigne la valeur de T Student lue à partir de la table statistique au seuil ( ) et
2
au degré de liberté ( n 2 ).
36
Séries d’exercices sur le Modèle de régression simple
Exercice 1
Exercice : 2
Une grandeur économique y est expliquée par une autre variable dont la relation est la suivante : yt
= axt + t
On vous propose les trois estimateurs suivants :
T T
xtyt (xt - x)(y t -y)
y â2 = T=1 â3 = T=1
â1 = — T T
x xt2 (xt -x)2
T=1 T=1
t =1,……………T
1- Parmi les trois estimateurs proposés, lequel correspond à l’estimateur de la relation donnée ?
2- Montrer que ces estimateurs sont sans biais
3- Quelle hypothèse du modèle de régression simple n’est pas vérifier dans ce modèle ?
4- Déterminer la variance de l’estimateur trouvé dans la première question.
Exercice :3
Sur un échantillon de 10 observations l’étude de la relation existante entre la quantité de biens
produite par le salarié et le nombre d’heures travaillées a donné le résultat suivant :
37
Exercice 4
Exercice 5
Nous intéressons à une éventuelle relation entre la note obtenue en économétrie et celle de
statistique de l’année précédente. Soit le modèle : y i = β0 + β1 x i+ i
yi = note obtenue en économétrie pour l’individu i ,
xi = note obtenue en statistique l’année précédente pour l’individu i,
β 0 et β1 = paramètre du modèle à estimer, i = terme d’erreur répondant aux hypothèses
classiques
Pour ce faire, nous prenons un échantillon de 97 étudiants et nous estimons deux modèles :
l’un pour 54 garçons et l’autre pour 43 filles.
Les résultats sont les suivants :
38
Chapitre II : Les modèles de régression multiple
1- Présentation
Le modèle générale est une généralisation du modèle simple dans lequel figurent plusieurs
variables explicatives :
Avec :
n = nombre d’observations
2- la forme matricielle :
Pour faciliter l’écriture de certains résultats, on a habituellement recours aux notations matricielles
39
Yn 0 1 x1n 2 x2n ....................... k xkn n ...............
Avec :
Y1 0 1 x11 x 21 . . x k 1 1
Y 1 x12 x 22 . . x k 2
2 1 2
. . . . . . . . .
Yn,1 B X
.; . ; 1 x1t x 2t . . x kt ; .
Yk t . . . . . . t
Yn k 1 x1n x 2 n . . x k n n
Avant d’estimer le modèle, on cite d’abord les hypothèses sur lesquelles il se repose.
3- Les hypothèses
H7 : n > k+1 : nombre d’observations est supérieur aux nombre des séries explicatives.
40
4- Estimation et propriétés des estimateurs :
Pour minimiser cette fonction par rapport au vecteur ( B ) nous différencions S par rapport au même
vecteur et on obtient :
S
2 X Y 2 X X Bˆ 0 Bˆ X X X Y
1
B
41
Propriétés des estimateurs :
Soit le modèle Y X B
On peut s’écrire :
Y X Βˆ e
e Y Yˆ
ˆ ˆ
Y X Β
Nous obtenons :
Βˆ X X X Y X X X X Β
1 1
Βˆ X X X X Β X X X
1 1
ˆ Β X X 1 X
Β
Βˆ Β X X X …………(3)
1
D’où
E Βˆ Β X X X E
1
avec : E 0
Finalement
E Βˆ Β l’estimateur est sans biais.
On a :
v( ˆ )
ˆ
ˆ
= E …………………………..(4)
En remplaçant (3) dans (4) on obtient :
v( ˆ ) =
2
( X X 1 X X X X 1 ) = 2 ( X X 1
42
2 0 . . . 0
0 0
2
. . 0
. 0 2 0 . .
Avec 2 matrice diagonale = . . . . . .
. . . . . 0
0 0 . . 0
2
Soit le modèle : Yi X B i
On a e Y Yˆ
Bˆ X X X Y
1
En remplaçant dans l’équation (1) on aura :
e Y X ( X X ) 1 X Y I X ( X X ) 1 X Y
on pose Matrice idempotente, M I X ( X X ) 1 X
alors
e
T
2
t ee M M M
E (ee) 2 I nTr I X ( X X ) 1 X 2 I n ( n k 1)
On obtient alors :
e e
ˆ 2
n k 1
var(ˆ ) ˆ 2 X X
1
Avec: matrice variance -covariance
43
6- Equation d’analyse de la variance et qualité d’un ajustement :
1) Y t Yˆ t Y Yˆ
2) e t 0
Y
t
t Y
2
Yˆt Yˆ
t
e
2
t
2
t
Cette équation permet de juger la qualité d’ajustement d’un modèle, en effet plus SCE est proche
du SCT meilleur est l’ajustement globale du modèle. Cependant ces valeurs dépendent des unités
de mesure, c’est pourquoi on préfère utiliser le nombre sans dimensions :
Yˆ e
2 2
t Y t
R 2 t t
Y Y Y Y
2 = 1- 2
t t
t t
44
7- Les tests statistiques :
H 0 : i 0
H1 : i 0
ˆi i
Tc T
c
iˆ
n k 1 ,
%
2
Règle de décision
0, 05
Si Tc Tt on accepte l’hypothèse H0 : la variable xi n’est pas contributive à
l’explication de Y.
Test unilatéral : ce test est utilisé lorsque H1 : i 0, ou i 0 ( voir le chapitre précédant)
ˆi i
Tc T nk 1 , %
c
ˆi
Test de Fisher (test de signification globale du modèle de regression ) :
Pour tester si l’ensemble des variables explicatives ont une influence sur la variable à expliquée, on
fait le test d’hypothèse suivant :
H0 : , 1 , 2 ...................... k = 0
45
H1 : il existe au moins , i ≠ 0 i : 1...............n
Y Y e
n n n
Yˆt Y
2 2 2
t t
t 1 t 1 t 1
Y
n
n
Yˆ E e t2
2
t
t 1 t 1
n- k- 1 2
d' ou
n
e 2
t
ˆ 2 t 1
n k 1
SCR
..........(1)
n k 1
n k 1ˆ 2
(n k 1)SCR SCR
2 n2k 1
2
(n k 1) 2
46
n ˆ
t 1
2
E Yt Yˆ k 2
SCE kˆ 2
ˆ
2
2
k
k SCE
k2
k 2
Sous H0 :
Yˆ Yˆ
n 2
t 1
t
k2
Fc k k
n
2
e
t 1
2
t
n k 1
n k 1
n k 1
R2
k Ft (k , n k 1, %)
1 R 2
n k 1
Règle de décision
α%
Si Fc > Ft on rejette H0, et on accepte H1, le modèle est globalement
significative.
La régression est jugée significative si la variabilité expliquée est significativement différente de 0.
47
Tableau d’analyse de la variance
Y Y nY
Le problème consiste à déterminer quelle valeur doit être attribuée à la variable endogène
lorsque nous connaissons les valeurs des variables exogènes.
Le modèle général estimé est le suivant :
Yt h Yˆt h T ,n k 1
2
ˆ X th ( X X ) 1 X t h 1
Considérant que les hypothèses du modèle linéaire général sont vérifiées, la prévision est sans
biais.
48
9- Cas de violation des hypothèses
Test de Klein
Le test de Klein est fondé sur la comparaison du coefficient de détermination R 2 calculé sur le
2
modèle à k variables et les coefficients de corrélation simple rxi ,xj entre les variables
explicatives pour i ≠ j.
Si
2
R y r 2 xi , xj : Il y a présomption de multi colinéarités
Lorsque la valeur du déterminant D tend vers zéro, le risque de multi colinéarité est important.
Exemple 1 : on dit que deux variables explicatives sont parfaitement corrélées quand :
49
la valeur empirique du 2 est calculée à partir de l’échantillon
2 n 1 2 K 5 LnD
1
6
n : La taille de l’échantillon
Ln = logarithme népérien
Règle de décision :
1
Si 2 2 Lu dans la table à K ( K 1) degrés de liberté et au seuil %, alors
2
L’hypothèse H 0 est rejetée, il y a donc présomption de multi colinéarité.
Autocorrelation des erreurs : lorsque les erreurs sont corrélées cela veut dire que
Cov (εt , εt’) ≠ 0 les estimateurs obtenus par la méthode les moindres carrée ordinaire ne sont
50
Test de détection de l’autocorrelation des erreurs :
Ce test permet de détecter une autocorrelation des erreurs d’ordre 1 de la forme suivante :
t t 1 vt Avec :
v t N 0, 2
Le test d’hypothèse est le suivant :
H0 : 0
H1 : 0
e et 1
n
2
t
t2
DW n Ou
e t2
t 1
On a : 0 < DW < 4
0 ________d1__________d2________2________4-d2_______4-d1______4
>0 ? =0 =0 ? <0
51
Correction de l’autocorrelation :
Dans le cas de l’auto corrélation des erreurs on utilise la méthode des moindres carrée généralisée
(MCG) ou estimateur de AITKEN donnée par :
ˆ X 1 X X 1 Y
1
aˆ X 1 X
1
Et
Remarque : l’auto corrélation est peut être causé par une mauvaise spécification du modèle
Lorsque les variances de l’erreur ne sont plus de variances constantes sur la première diagonale
c. a .d :
21 0 . . . 0
0 2
2
. . . .
. 0 . . . .
E ,
. . . 2i . .
. . . . . 0
0 0 . . 0 n
2
Correction de l’heteroscedasticité :
52
L’estimateur BLUE du modèle heteroscedastique est alors celui des MCG :
aˆ X X X 1 Y
1
aˆ X 1 X
1
Il existe plusieurs tests de détection de l’héteroscedasticité parmi ces tests, le test de White
fondé sur une relation significative entre le carrée du résidu et une ou plusieurs variables
explicatives en niveau et au carré au sein d’une même équation et régression :
Nous pouvons procéder à ce test à l’aide de test de Fisher de nullité des coefficients :
H 0 : a1 b1 a2 b2 ....... ak bk 0
Augmenter la taille de l’échantillon : Cette technique n’est pas efficace que si l’ajout
d’observations diffère significativement de celles figurant déjà dans le modèle.
La « Ridge Régression » : est une réponse purement numérique, il s’agit de transformer la
matrice X X en X X cI
Sélection du modèle optimal
Dans la pratique, l’économètre est souvent confronté aux choix de plusieurs variables
53
Cependant, cette démarche peut aboutir à un raisonnement non économique car elle
permet d’aboutir à des modèles économétriques qui sont souvent bons sur le plan statistique
mais en contradiction avec la réalité économique.
Ces techniques de sélection de variables explicatives sont donc à manier avec
prudence.
Par ailleurs, la question du choix d’un meilleur modèle est posé sachant qu’il existe
plusieurs en concurrence dont les variables sont toutes significatives mais qui ne sont pas les
mêmes.
Généralement, dans la pratique on choisit le modèle dont le R² (coefficient de
détermination) est le plus élevé.
Cependant, ce critère à un inconvénient qui est de ne pas arbitrer entre la perte de degrés
de liberté du modèle et l’ajustement qui en résulte.
C’est pourquoi on préfère utiliser les critères d’AKAIKE ou SCHWARZ afin de
comparer des modèles impliquant un nombre différents de variables explicatives.
La première étape consiste à déterminer ce que l’on cherche a modifié c’est à dire la variable
endogène Y et les éléments qui expliquent les variations de cette variable c a d les variables
explicatives Xi.
Cette première étape repose donc sur une étude économique du problème à traiter et sur la
recherche d’information statistique .le tracé des graphiques de l’évolution de chaque série
sélectionnée permet de comparer l’ampleur de leurs fluctuations ainsi que de mettre en évidence des
décalages dans leurs variations.
La méthode de régression la plus fréquemment utilisée est la méthode des moindres carrées
ordinaire puisqu’elle permet (si les hypothèses sont vérifiées) d’obtenir le meilleur estimateur
linéaire sans biais. On utilise d’autres méthodes d’estimations lorsque les hypothèses ne sont plus
vérifiées, ceci se produit généralement après avoir effectué une première régression avec les MCO.
54
Examen des résultats de la régression
Après avoir effectué une régression deux types de résultats sont à contrôler avant de les
exploiter :
résultats économiques
résultats statistiques
Le premier élément à contrôler est la pertinence des coefficients obtenus par la régression, il
est ainsi impossible de trouver une propension marginale supérieur à 1, il ne faut pas tomber dans
l’excès inverse : la régression n’est pas faite pour se conforter dans les résultats que l’on souhaite.
Les résultats statistiques sont exploités au moyen de tests, à chacun des problèmes décelés
correspondent une réponse spécifique.
Le souhait d’obtenir de bons résultats statistiques ne doit pas conduire à utiliser des variables
qui ne sont pas justifiées d’un point de vue économique ou à omettre des variables pertinentes.
55
Exercices sur le Modèle de régression multiple
Exercice1
2- tester l’hypothèse H0 β1 = β2 = 0
3- quel est le R2 du modèle.
4- donner une estimation de la variance de
Exercice 2
La relation entre la consommation des ménages, le revenu, et les impôts, respectivement est
exprimée par le modèle suivant : y t = β0 + β 1x t 1 + β2 x t 2+ t
30 20 0 15
t
(X X) = . 20 0 , (X Y) = 20
t
et (Y t Y) = 59, 5
. . 10 10
56
Exercice 3
Sur un échantillon de 44 observations ,la relation qui explique la demande de refinancement des
banques (RF) par l’indicateur de rentabilité des crédits donnés par les banques , les réserves exogènes
des banques (REX) et les réserves obligatoires ( RO) est la suivante :
En dessous des coefficients estimés, figurent les écarts-type estimés des coefficients estimés, en
outre, des calculs intermédiaires conduisent aux résultats suivants :
44
e
T 1
2
t 1,04 SCT = 11,954
1-Interprétez d’un point de vue économique les estimations du modèle ? Que pensez-vous ?
2- Calculez le R2. Dites comment il s’interprète ?
3- Peut –on accepter au seuil de 5%, et au seuil de 1% l’hypothèse que chacun des coefficients
a un impact sur le refinancement des banques ? Comparez les résultats et commentez.
4-Testez au seuil de 5% la significativité globale du modèle. Conclusion.
5-Dressez le tableau d’analyse de la variance
Exercice 4
Les estimations des MCO sont les suivantes : cons t = 30000+ 0,20 revenu t - 70 iprix t
T = 1,………………,40 R2 = 0, 8526
57
Bibliographie
58