Académique Documents
Professionnel Documents
Culture Documents
En effet, la régression linéaire est une relation stochastique entre une ou plusieurs
variables. Elle est appliquée dans plusieurs domaines, tels que la physique, la biologie, la chimie,
l’économie…etc.
Dans ce cours et dans un premier temps, nous allons introduire la régression linéaire où on
explique une variable endogène par une seule variable exogène. A titre d’exemples, on peut citer :
la relation entre la variable Prix et la variable Demande, la relation entre la variable Revenu et la
variable Consommation, la relation entre la variable Investissement et la variable Croissance
économique. Il s’agit de la régression linéaire régression simple. Dans un deuxième temps, nous
étudierons la régression linéaire multiple qui représente la relation linéaire entre une variable
endogène et plusieurs variables exogènes. Autrement dit, il s’agit de régresser linéairement une
grandeur économique (variable à expliquer) sur plusieurs variables explicatives (variables
exogènes). Par exemple, d’après la théorie économique, la demande d’un produit peut être
expliquée par les grandeurs Prix, Revenu et Publicité.
La régression linéaire simple et multiple est un outil d’analyse qui fait appel à trois
domaines scientifique, à savoir :
la théorie économique ;
l’analyse statistique ;
la modélisation mathématique.
2
Chapitre : Le modèle de régression linéaire simple
Yt 0 1 X t t , t 1........n
avec :
Yt : la variable endogène (dépendante, à expliquer) à la date t ;
I-3 Estimation des paramètres par la méthode des Moindres Carrés Ordinaires (MCO)
L’estimation des paramètres 0 , 1 est obtenue en minimisant la somme des carrés des erreurs :
3
n n n
Min Min Yt 0 1 X t Min S 2
2 2
t
t 1 t 1 t 1
Pour que cette fonction ait un minimum, il faut que les dérivées par-rapport à 0 et 1 soient
nuls.
S n n n
0 2 Yt 0 1 X t (1) 0 Yt n 0 1 X t ...............(1)
0 t 1 t 1 t 1
S n n n n
0 2 (Yt 0 1 X t )( X t ) 0 Yt X t 0 X t 1 X t2 ...............(2)
1 t 1 t 1 t 1 t 1
En notans ˆ0 et ˆ1 les solutions des équations (1) et (2), on obtient d ' après (1 ) :
n n
Y t X t
ˆ0 t 1
ˆ 1
t 1
n n
ou bien
n n
Yt Xt
ˆ0 Y nX puisque t 1
Y et t 1
X .
n n
En remlaçant la valeur de ˆ0 dans l' équation (2) , on obtient :
n n n n
Yt X t Y X t ˆ1 ( X t2 X X t ).
t 1 t 1 t 1 t 1
D’où
t t t t t t t
ˆ1 t 1
n
t 1
n
t 1
n
t 1
2
X X Xt X X X
2
t
2
t
2
nX 2
t
t 1 t 1 t 1 t 1
4
Conclusion : les estimateurs des MCO du modèle de régression linéaire simple
Yt 0 1 X t t Sont :
Y Y X t X
n n
X tYt nYX t
ˆ0 Y nX Et ˆ1 t 1
n
t 1
2
X nX X X
2
2 2
t t
t 1 t 1
Yt 0 1 X t t
Yt ˆ0 ˆ1 X t et
Avec :
Yˆt = ˆ0 ˆ1 X t
Et
et Yt Yˆt Yt ˆ0 ˆ1 X t
Exemple : nous disposons des données qui sont représentés dans le tableau suivant :
On trace un graphique des couples de données liant le prix et les quantités Consommées. Nous
5
Obtenons le nuage de points suivant :
90
80
70
60
Y
50
40
30
0 100 200 300 400 500 600 700 800
Y Y X t X
n n
X Y t t nY X t
ˆ1 t 1
n
t 1
2
X X X
2
t
2
nX 2
t
t 1 t 1
Application numérique :
̂ 0 36.42 et ˆ1 = 0.0589
6
I-calcul des espérances mathématiques des estimateurs
Y Y X X
n
t t
ˆ1 t 1
2
X X
2
t
t 1
En posant
xt X t X
et
yt Yt Y
Nous obtenons
n
x t yt
ˆ1 t 1
n
..........(1)
x
t 1
2
t
x Y Y x Y
n n n
t t t t x t
ˆ1 t 1
2
t 1
n
Y t 1
n
.
x
t 1
2
t x
t 1
2
t x
t 1
2
t
Comme
n
x 0
t 1
t
alors
n
x Y t t
ˆ1 t 1
n
..............( 2)
x
t 1
2
t
7
x X X nX nX 0 .
n n
car t t
t 1 t 1
x t 0 1 X t t
ˆ1 t 1
n
x
t 1
2
t
n n n
0 xt 1 xt X t xt t
t 1 t 1
n
t 1
x
t 1
2
t
n n
1 xt X t xt t
t 1
n
t 1
xt 1
2
t
1 xt xt X
n n
x t t
ˆ1 t 1
n
t 1
n
x
t 1
2
t x
t 1
2
t
n n n
1 x 2
t X1 xt x t t
n
t 1
n
t 1
t 1
n
x
t 1
2
t x
t 1
2
t x
t 1
2
t
car X t xt X .
n
Comme x
t 1
t 0 (on l’a déjà démontré), il résulte alors :
8
n
x t t
ˆ1 1 t 1
n
x
t 1
2
t
n
xt t
( ˆ1 ) ( 1 ) t 1n
xt
2
t 1
n
xt E t
( 1 ) t 1 n
xt
2
t 1
E t =0
Finalement :
E ˆ1 1 1 : est un estimateur sans biais
On a :
ˆ0 Y - ˆ1X
n
xt yt
ˆ0 Y X t 1n
xt
2
t 1
9
n
xt
ˆ0 Y X tn1 Yt Y
xt
2
t 1
n
xt Yt
ˆ0 Y X t 1n .
xt
2
t 1
D’ou
n
n
1 Xxt Yt
0 t
ˆ Yt ...............(3) car
Y t 1 .
t 1 n 2 n
t xt
Or que :
Yt 0 1 X t t
donc :
n 1 Xx n 1 Xx n
1 Xxt
0 0 t t 1 X t t t
ˆ t t
t 1 n
xt2 t 1 xt2 t 1 n
xt2
n
t t
t
n
xt X t n
ˆ 0 0 1 X 1 X 2t 1 t t
1 X xt
t 1 n
xt xt
2 2
t 1 t
Comme X t xt X on déduit :
10
n
xt xt X n
1 Xxt
ˆ
0 0 1 X 1 X t 1
t t
2
xt
2 t 1 n 2
xt
t 1 t
2 2 n
xt xt n
ˆ 0 0 1 X 1 X 2 1 X 2 t t
t 1 2 t 1 1 X x t
t 1 n
xt xt
2 2
xt2
t 1 t 1 t
On obtient alors :
n
0 t
ˆ 1 Xxt
t .
t xt
t 1 n 2
En passant à l’espérance mathématique, on trouve :
n 1 Xx
E ˆ0 E 0 E t t t
t 1 n
t t
x 2
n 1 Xx
E 0 E 0 t
ˆ
t 1
t
E t
n
xt2
t
E ̂ 0 = E 0 car E t =0
Finalement
E ˆ0 0 0 est un estimateur sans biais.
var (ˆ1 ) ˆ1 (ˆ1 )2
Et Ε (ˆ1 ) 1 .
11
d’un autre coté, on sait que :
n
x t t
ˆ1 1 t 1
n
x
t 1
2
t
Ce qui implique : n
x t t
ˆ1 1 t 1
n
x
t 1
2
t
1
2
E x12 12 x22 22 ... .xn2 n2 2 x1 x2 1 2 .... .2..xn1 xn n1 n
n
xt2
t 1
D’après les hypothèses (1) ,(2) ,et (3) du modèle de régression simple, on obtient :
var ˆ1
1
2
x 2 x22 2 x32 ........................... 2 xn2
2 2
1
n
xt2
t 1
D’où :
n
2
x 2
t
2
var ˆ1 t 1
2
n
x
n .
xt2
2
t
t 1 t 1
Calcul de la variance de ˆ 0 :
12
n
n
ˆ0 0 t
1 X x t
t ˆ0 0 t
1 X x t
t
t 1 n
t xt
2 t 1 n
t xt
2
var (ˆ0̂ ) ˆ0 Ε (ˆ0 ) Ε ˆ0 0
2
2
.
var ( ˆ 0) Ε ˆ0 0
2
2
n
var ( 0 ) E
ˆ t
1 X x
t 1 n n 2 t
xt
t 1
2
n
n
var ˆ0 E 1 Xxt 2 E 1 X xn1 1 X xn
t 1 n n 2 t n n 2 n n 2 n1 n
xt xn1 xn
t 1
t 1 t 1 t 1
2
n
ˆ
var 0 E
t 1
1 X xt
n n
t
xt2
t 1
D’après les hypothèses (1) ,(2) ,et (3) du modèle de régression simple, on obtient:
13
2
n 1 X xt
var ˆ0 2 n n 2
t 1
t 1
xt
Il résulte alors :
n
1 2 X xt X 2 xt2
var 0 2 n
ˆ 2
2
t 1 n
n xt x 2
n
t
2
t 1
t 1
n
Puisque x
t 1
t 0 alors :
n 2
xt nX 2
var ˆ0 2 t 1 n
n xt
2
t 1
Et comme X t xt X donc on déduit que :
n 2 n
Xt X 2
t
var ˆ0 2 t 1n 2 t 1
2
2
n
t
n x t
n X X
t 1 t 1
Conclusion
n 2 n
X X 2
t t
var βˆ0 2 t 1 σ
ε n
2 t 1
ε
n n x2
t
n
t
X X
2
t1 t1
14
var ̂1 n
2
x
et 2
t
t 1
cov (βˆ0 ,βˆ1 ) E βˆ0 E (βˆ0 βˆ1 E (βˆ1 E βˆ 0 β βˆ1 β1
Comme ( ˆ 0 , ˆ1 ) sont sans biais,
Alors :
n
n t t
1 X xt t 1
x
cov ( 0 , 1 ) E
ˆ ˆ
t 1 n n 2 t n
xt
xt2
t 1 t 1
n n n n
t xt t X xt t xt t
cov ( ˆ0 , ˆ1 ) E t 1 nt 1 t 1 t 1
2
n xt n 2
xt
2
t 1
t 1
n n n
2
t xt t xt t
cov ( ˆ0 , ˆ1 ) E t 1 nt 1 XE t 1
n x2 n 2
t
xt2
t 1 t 1
D’après les hypothèses (1), (2) et (3) du modèle de régression simple, il résulte que :
15
cov ˆ0 , ˆ1 X 2
n
xt2
.
t 1
Par définition un estimateur de moindre carrée est un estimateur de Gauss Markov (blue)
s’il est sans biais, linéaire et possède une variance minimale. Pour démonter ce théorème, on définit
un autre estimateur linéaire sans biais sous la forme suivante :
n
b C Y
t 1
t t
Par la suite on compare la variance de b avec la variance de ˆ1 et celui qui a une variance
minimale on dira qu’il est le meilleur estimateur.
Démontrons d’abord est ce que ˆ1 est linéaire et sans biais.
x y t t
βˆ 1 t 1
n
x t 1
2
t
x Y Y
n
t t
βˆ 1 t 1
n
x
t 1
2
t
n n
xY t t x t
βˆ 1 t 1
n
Y t 1
n
x
t 1
2
t x
t 1
2
t
16
n
Comme x
t 1
t =0, on obtient :
xY t t
̂1 t 1
n .
xt2
t 1
En posant
xt
Wt n
x
t 1
2
t
n n
A Y W Y .
t 1
t t
t 1
t t
On a :
n
Ε ( 1 ) E Wt Yt
ˆ
t 1
n
Wt E Yt
t 1
n
Wt 0 1 X t t
t 1
D’où :
17
n
Ε ( β1 ) E Wt Yt
ˆ
t 1
n n n
Ε (β1 ) 0 E Wt 1 E Wt X t E Wt t
ˆ
t 1 t 1 t 1
Connaissant que :
n n
W 0 , x 0
t 1
t
t 1
t et E ( t ) 0
Alors :
n
Ε (ˆ1 ) 1 E Wt X t
t 1
Sachant que :
xt
Wt n
x
t 1
2
t
Ce qui fait :
n
xt X t
Ε ( βˆ1 ) β1 E t 1n .................( 1 )
t
2
x
t 1
18
n
xt X t
Ε(βˆ 1 ) β1 E t 1n .
xt
2
t 1
n
xt xt X
Ε ( βˆ 1 ) β1 E t 1 n .
t
2
x
t 1
n 2 n
xt X xt
Ε ( βˆ 1 ) E t n1 β1 E t 1 .
n 2
xt xt
2
t 1 t 1
Du moment que : x
t 1
t 0,
W
t 1
t 0 et W X
t 1
t t 1
On suppose qu’il existe un autre estimateur sans biais linéaire définit comme suit
n
b Ct Yt
t 1
E b 1
avec Ct Wt d t
On a Yt 0 1 X t t
En passant à l’espérance mathématique:
19
n n
E b E Ct Yt E Ct β0 β1 X t εt
t 1 t 1
n
n
E b β0 E Ct β1 E Ct X
t 1 t 1 t
E b β1 ...........(2)
n
Car E Ct t 0 .
t 1
Pour que l’équation (2) soit vérifiée c'est-à-dire E b 1 il faut que :
C X
t 1
t t . 1............(3)
et
n
C
t 1
t 0......................(4)
Quand :
n n n n
Quand : n n n n
Ct X t Wt d t X t Wt X t d t X t 1
t 1 t 1 t 1 t 1
n n n n n
b Ct Yt Ct 0 1 X t t 0 Ct 1 Ct X t Ct t
t 1 t 1 t t 1 t 1 t 1
20
Sous l’hypothèse, que les conditions (3) et (4) soient vérifiées :
n n
b 1 Ct t b 1 Ct t
n n
t 1 t 1
(c’est à dire C X
t 1
t t =1 et C =0 )
t 1
t
Nous obtenons :
2
n
var b E Ct t E C1 1 C 2 2 ................ .C n n
2
t 1
E C12 12 C 22 22 ... .C n2 n2 2 C1C 2 1 2 ...2 C n1C n n1 n
2
n n n
E Ct2 t2 2 Ct Ct t t
t 1 t 1 t 1
E t2 2 et E ε t ε t 0
On déduit alors :
n n
var b 2 Ct2 2 Wt 2 d t2 2Wt d t
t 1 t 1
n n n
var b 2 Wt 2 2 d t2 2Wt d t
t 1 t 1 t 1
Sachant que :
n n n n
W
t 1
t 0 alors d W
t 1
t
t 1
t 0 dt 0
t 1
Et
n n n n
On déduit :
n n n
n x d X dt t t t d t
Wt d t t 1
n
t 1
n
X t 1
n
0
t 1
x
t 1
2
t xt 1
2
t x
t 1
2
t
21
Ce qui résulte :
var b = Wt d t2
n n
n
car ( Wt d t 0 )
2 2 2
t 1 t 1 t 1
xt
Nous remplaçons Wt par Wt n
on trouve donc :
x
t 1
2
t
n
xt2 n
var b = n dt
2 2 2
2
t 1 2
xt
t 1
t 1
n
x 2
t n
var b 2 t 1
2
dt2
2
n 2
xt
t 1
t 1
D’où :
2 n
var b n
dt2 2
x
t 1
2
t
t 1
Or que :
ˆ
2
var 1 n
xt2 t 1
Finalement:
var b = var ˆ1 2 d t2 .
n
t 1
22
n
t 1
On conclut que le paramètre ( ˆ1 ) à une variance minimale, ce qui fait qu’il est le meilleur
estimateur (estimateur blue).
Remarque
Même procédure pour le paramètre ( ˆ 0 ) :
n
1
On suppose a At Yt avec At Vt Tt tel que Vt XWt
t 1 n
et Yt Yˆt
Yˆt ˆ0 ˆ 1X t
Et Y 0 1X
On a :
et 0 1 X t t ˆ0 ˆ1 X t
et 0 1 X t Y ˆ1 X ˆ1 X t
t
et 1 ˆ1 X t 1 ˆ1 X
= X X
ˆ
1 1 t
e ˆ x Car
t 1 1 t x t X t X
23
D’où
n n 2
e 2
t 1 ˆ1 x t t
t 1 t 1
x
n n 2 n n
e t 1 ˆ1 x 2 1 ˆ1
2 2 2
t t t t
t 1 t 1 t 1 t 1
n
On passant à l’espérance E
et 1
2
t on obtient :
n 2
E et n 1 2 2 2 2 n 2 2
t 1
On déduit :
n
E e t2
2 t 1
n2
finalement :
n
e 2
t
ˆ 2 t 1
n2
Pour calculer le coefficient de détermination, nous démontrons d’abord les deux relations :
n
e
t 1
t 0 La somme des résidus est nulle (la droite de régression passe par le point
moyen (cela est valable uniquement pour les modèles contenant le terme constant),
n n
Y Yˆ
t 1
t
t 1
t , égalité entre la moyenne de la série à expliquer et la moyenne de la série
ajustée.
n n
24
On sait que :
n
et nY n Y ˆ1 X ˆ1 nX
t 1
D’où :
n
e t 1
t nY nY ˆ1 nX ˆ1 nX
Donc : e
t 1
t 0
Puisque et 1
t 0 on déduit alors :
n n n n
et Yt Yˆ 0 Yt Yˆt 0
t 1 t 1 t 1 t 1
On conclue :
n n
Y Yˆ Y Yˆ
t 1
t
t 1
t
A partir de ces deux équations nous pourrons déduire la fonction fondamentale d’analyse de la
variance.
25
On a :
Yt Yˆt et Yt Yˆ et
D’où :
Yt Y Yˆt e t Y
Yt Y Yˆt Y e t 2 Yˆt Y e t
2 2 2
Passant aux sommes on trouve :
n n n n
t 1 t 1 t 1
Comme :
n
e
t 1
t 0
n n
Y Yˆ
t 1
t
t 1
t
On déduit alors :
(Yˆ Y )e
t 1
t t 0
Il résulte :
n n n
t 1 t 1
Qu’on peut écrire comme suit
n n n
(Yt Y ) (Yˆt Y ) 2 et2
2
t 1 t 1 t 1
26
Avec :
t 1
n 2
Y Yˆ
n n
SCR e 2 2
t t : désigne la variabilité des résidus
t 1 t 1
e
2
t
ˆ 2 t 1
………………..(1) et N 0, 2
n2 i
27
De (1) on a :
n
n 2ˆ 2 e 2t
t 1
n
n 2ˆ 2
e 2t
t 1 n22
2
2
t 1
n
X t2
et ̂ N 0 , 2 n t 1
n X t X
0 2
t 1
ˆ
Z 1
N 0,1
1
1 2 Et
σ
ε
n 2
x
t
t 1
ˆ
Z 0 0
N 0,1
2 n
Xt
2
t 1
2
n n X X 2
t
t 1
D’après la définition de la loi de Student qui est : le rapport d’une loi centrée réduite et la
racine carrée d’une loi de khi deux divisée par le nombre de ses degrés de liberté
28
Z1
Tc
n2
ˆ 2
2
n2
Z1 ˆ1 1
Tc Tn2
ˆ ˆ
n
xt2
t 1
On obtient finalement :
TC
ˆ1 1
ˆ ˆ
Tn2 , %2
……………….(3)
1
TC
ˆ0 0
ˆ ˆ
Tn2 , %
2
……………………………….(4)
0
A partir des résultats (3) et (4) on peut effectuer les tests d’hypothèses suivants :
H 0 : 0 0 H 0 : 1 0
et
H1 : 0 0 H 1 : 1 0
test du paramètre 1
H 0 : 1 0
(Appelé test bilatéral)
H 1 : 1 0
Sous l’hypothèse H 0 : 1 0 , on obtient la valeur critique ( Tc ) tel que :
29
ˆ1 1
Tc Tt n 2 , %
ˆ ˆ1 2
Avec :
Tc : désigne la valeur critique de la statistique ( T ) (dite calculée).
Règle de décision
l’explication de Y.
l’explication de Y.
H0 : 0 0
(Appelé test bilatéral)
H1 : 0 0
ˆ0 0
Tc Tt , %
ˆ ˆ
0
n2
2
30
Avec :
Règle de décision :
constante.
Remarques importantes
Lorsque on effectue les tests d’hypothèses bilatéraux des deux paramètres et suivants :
H0 : 0 a H 0 : 1 b
et
H1 : 0 a H 1 : 1 b
%
On prend le seuil : 2
Par exemple sous l’hypothèse H 0 : 1 0 , la valeur critique Tc tel que :
ˆ1
Tc
ˆ ˆ 1
est appelée le ratio de student .
Lorsque on effectue les tests unilatéraux des deux paramètres et c'est-à-dire les tests
d’hypothèses suivants :
31
H0 : 0 a H 0 : 1 b
. et
H 1 : 0 a, 0 a H 1 : 1 b, 1 b
On prend le seuil % .
Les intervalles de confiances des paramètres et au seuil donné (au niveau de confiance
Intervalle de confiance 1 :
Pr 1 T ˆ 1 T ˆ 1
ˆ ˆ ˆ ˆ
1 1
2 1 2
Intervalle de confiance 0 :
Pr ˆ0 T ˆ ˆ ˆ T ˆ ˆ 1
0 0
2 0 2
Intervalle de confiance de 2
On a :
n
e 2
t
n 2S 2
̂
2 t 1
S 2
2 n2
n2 2
D’où Pr 2
1
n 2S 2
2 2
2 1
12
Pr
n 2S 2
22
1
2
n 2 S 2
2
n 2 S
On obtient :
32
n 2S 2 n 2S 2
1
2
Pr
2 12
2
H0 : i 0
H1 : i 0
Sous l’hypothèse :
H0 : i 0
On a :
E SCT n 1 2
E SCE 1 2
ESCR n 2 2
Avec, n 1 , 1 et n 2 des degrés de libertés de SCT , SCE et SCR respectivement.
SCT
n21 ,
n 1
SCR
n22
n2
SCE
et 2
1 1
33
SCE SCR
Du moment que et sont indépendants, on peut déduire donc valeur critique
2 2
F(Fisher) qui se définit comme suit : C’est le rapport entre deux Chi deux ( ) indépendants et
leurs degrés de libertés ;
Alors on obtient :
SCE
2
SCE n 2
SCE
FC 1 1 FT 1, n2, %
SCR SCR SCR 1
2 n2
n2
Avec :
FC : désigne la valeur critique de Fisher calculée.
FT : désigne la valeur de Fisher lue à partir de la table statistique de Fisher aux degrés de
libertés.
(1, n 2 ),se sont des degrés de libertés.
% : Le seuil donné.
Règle de décision
acceptée :
acceptée :
34
Tableau d’analyse de la variance
Variabilité à
expliquer X
n
SCE Yˆ Yˆ
t 1
2 k 1 SCE MC
1 reg Fc
MC reg
MC res
Variabilité n n2 SCR
résiduelle SCR et2 n2
t 1
MC reS
n
Y Yˆ
2
t 1
Variabilité totale n 1
SCT Y Y
n
2
t 1
Une fois les paramètres du modèle ; Yt 0 1 X t t ; sont estimés ,le modèle est validé ,il
35
1 X X 2
Var en h Var Yn h Yˆn h ˆ 2 nnh 1
n
t 1
xt2
1 X
n h X
2
Ynh Yˆnh Tn22 ˆ 1
n
n
t 1
2
xt
Avec :
Tn 22
: désigne la valeur de T Student lue à partir de la table statistique au seuil ( ) et
2
au degré de liberté ( n 2 ).
36