Vous êtes sur la page 1sur 35

Introduction générale du cours Régression linéaire simple et multiple

L’objectif de la régression linéaire simple et multiple est d’apprendre à l’étudiant comment


analyser un phénomène quelconque on utilisant des méthodes statistiques dites économétriques.

En effet, la régression linéaire est une relation stochastique entre une ou plusieurs
variables. Elle est appliquée dans plusieurs domaines, tels que la physique, la biologie, la chimie,
l’économie…etc.

Dans ce cours et dans un premier temps, nous allons introduire la régression linéaire où on
explique une variable endogène par une seule variable exogène. A titre d’exemples, on peut citer :
la relation entre la variable Prix et la variable Demande, la relation entre la variable Revenu et la
variable Consommation, la relation entre la variable Investissement et la variable Croissance
économique. Il s’agit de la régression linéaire régression simple. Dans un deuxième temps, nous
étudierons la régression linéaire multiple qui représente la relation linéaire entre une variable
endogène et plusieurs variables exogènes. Autrement dit, il s’agit de régresser linéairement une
grandeur économique (variable à expliquer) sur plusieurs variables explicatives (variables
exogènes). Par exemple, d’après la théorie économique, la demande d’un produit peut être
expliquée par les grandeurs Prix, Revenu et Publicité.

La régression linéaire simple et multiple est un outil d’analyse qui fait appel à trois
domaines scientifique, à savoir :

 la théorie économique ;
 l’analyse statistique ;
 la modélisation mathématique.

Dans ce polycopié on présentera les différents modèles de régressions linéaires à savoir : le


modèle de régression linéaire simple et multiple.

2
Chapitre : Le modèle de régression linéaire simple

I-1 Définition du modèle de régression linéaire simple


Le modèle de régression linéaire simple est une variable endogène (dépendante) expliquée
par une seule variable exogène (indépendante) mise sous forme mathématique suivante :

Yt   0  1 X t   t , t  1........n
avec :
Yt : la variable endogène (dépendante, à expliquer) à la date t ;

Xt : la variable exogène (indépendante, explicative) à la date t ;

 0 , 1 : les paramètres inconnus du modèles ;


 t : l’erreur aléatoire du modèle ;
n: nombre d’observations.

I-2 Hypothèses du modèle


Le modèle repose sur les hypothèses suivantes :

1  ( t )  0, l' erreur centrée


2  ( t2 )   2 , la variance de l' erreur est constante(l' hypothèsed' homoscédasticité) ;
 t t    0, si 
3 - cov  ,  t   t , les erreurs ne sont pas autocorrélées ;
4  cov( xt ,  t )  0, l' erreur n' est pas corréléeavec la variable exogène;
5  la variable exogène n' est pas aléatoire ;
6 - le modéle est linéaire en X par - rapport aux paramètres.

I-3 Estimation des paramètres par la méthode des Moindres Carrés Ordinaires (MCO)

Soit le modèle suivant : Yt   0  1 X t   t

L’estimation des paramètres  0 , 1 est obtenue en minimisant la somme des carrés des erreurs :

3
n n n
Min    Min  Yt   0  1 X t   Min  S 2
2 2
t
t 1 t 1 t 1
Pour que cette fonction ait un minimum, il faut que les dérivées par-rapport à  0 et 1 soient
nuls.

S n n n
 0  2 Yt   0  1 X t (1)  0   Yt  n 0  1  X t ...............(1)
 0 t 1 t 1 t 1

S n n n n
 0  2 (Yt   0  1 X t )( X t )  0   Yt X t   0  X t  1  X t2 ...............(2)
1 t 1 t 1 t 1 t 1

En notans ˆ0 et ˆ1 les solutions des équations (1) et (2), on obtient d ' après (1 ) :

n n

Y t X t
ˆ0  t 1
 ˆ 1
t 1
n n
ou bien
 n   n 
  Yt    Xt 
ˆ0  Y  nX puisque  t 1
 Y  et  t 1
 X .
 n   n 
   
   
En remlaçant la valeur de ˆ0 dans l' équation (2) , on obtient :
n n n n

 Yt X t  Y  X t  ˆ1 ( X t2  X  X t ).
t 1 t 1 t 1 t 1

D’où

 X Y  Y  X  X Y  nYX  Y  Y X X


n n n n

t t t t t t t
ˆ1  t 1
n
t 1
n
 t 1
n
 t 1
2

X  X  Xt X  X X
2
t
2
t
2
 nX 2
t
t 1 t 1 t 1 t 1

4
Conclusion : les estimateurs des MCO du modèle de régression linéaire simple
Yt   0  1 X t   t Sont :

 Y  Y X t  X 
n n

 X tYt  nYX t

ˆ0  Y  nX Et ˆ1  t 1
n
 t 1
2

 X  nX  X X
2
2 2
t t
t 1 t 1

Différentes écritures du modèle de régression linéaire simple :

Le modèle théorique ( modèle non ajusté) :

Yt   0  1 X t   t

Le modèle estimé ( modèle ajusté) :

Yt  ˆ0  ˆ1 X t  et

Avec :
Yˆt = ˆ0  ˆ1 X t
Et
et  Yt  Yˆt  Yt  ˆ0  ˆ1 X t

et : est le résidu du modèle.

Exemple : nous disposons des données qui sont représentés dans le tableau suivant :

Xt 100 200 300 400 500 600 700


Yt 40 50 50 70 65 65 80

Où Yt désigne les quantités consommées et


X t désigne le prix des quantités consommées.

On trace un graphique des couples de données liant le prix et les quantités Consommées. Nous

5
Obtenons le nuage de points suivant :
90

80

70

60
Y

50

40

30
0 100 200 300 400 500 600 700 800

Estimation des paramètres :


Nous savons que :
ˆ0  Y  nX

 Y  Y X t  X 
n n

X Y t t  nY X t
ˆ1  t 1
n
 t 1
2

X  X X
2
t
2
 nX 2
t
t 1 t 1

Application numérique :
̂ 0  36.42 et ˆ1 = 0.0589

Ajustement du nuage par la droite d’équation

Yˆt  36.42  0.0589 X t : désigne la droite qui ajuste le nuage de point.

6
I-calcul des espérances mathématiques des estimateurs

 calcul de l’espérance de ˆ1 :

Soit le modèle suivant : Yt  ˆ0  ˆ1 X t  et

D’après la méthode des MCO, on a :

 Y  Y X X
n

t t
ˆ1  t 1
2

 X X
2

t
t 1
En posant
xt  X t  X
et
yt  Yt  Y

Nous obtenons
n

x t yt
ˆ1  t 1
n
..........(1)
x
t 1
2
t

On remplace la valeur y t dans (1), on obtient :

 x Y  Y   x Y
n n n

t t t t x t
ˆ1  t 1
2
 t 1
n
 Y t 1
n
.
x
t 1
2
t x
t 1
2
t x
t 1
2
t

Comme
n

x  0
t 1
t

alors
n

x Y t t
ˆ1  t 1
n
..............( 2)
x
t 1
2
t

7
 x   X  X   nX  nX  0 .
n n
car t t
t 1 t 1

On remplace maintenant Yt   0  1 X t   t dans l’équation (2) ,on aura :


n

 x  t 0  1 X t   t 
ˆ1  t 1
n

x
t 1
2
t

n n n
 0  xt   1  xt X t   xt  t
 t 1 t 1
n
t 1

x
t 1
2
t

n n
 1  xt X t   xt  t
 t 1
n
t 1

xt 1
2
t

1  xt xt  X 
n n

x  t t
ˆ1  t 1
n
 t 1
n

x
t 1
2
t x
t 1
2
t

n n n
1  x 2
t X1  xt x  t t
 n
t 1
 n
t 1
 t 1
n

x
t 1
2
t x
t 1
2
t x
t 1
2
t

car X t  xt  X .

n
Comme x
t 1
t 0 (on l’a déjà démontré), il résulte alors :

8
n

x t t
ˆ1  1  t 1
n

x
t 1
2
t

En passant à l’espérance mathématique, on trouve:

 n 
  xt  t 
( ˆ1 )  ( 1 )   t 1n 
 
  xt 
2

 t 1 
 n

  xt E  t  
 ( 1 )   t 1 n 
 
  xt 
2

 t 1 

Or, d’après l’hypothèse (1),

E  t  =0

Finalement :

E ˆ1  1 1 : est un estimateur sans biais

 Calcul de l’espérance de ˆ0

On a :

ˆ0  Y - ˆ1X

 n 
  xt yt 
ˆ0  Y  X  t 1n 
 
  xt
2

 t 1 

9
 n 
  xt 
ˆ0  Y  X  tn1 Yt  Y 
 
  xt 
2

 t 1 
 n 
  xt Yt 
ˆ0  Y  X  t 1n .
 
  xt 
2

 t 1 
D’ou

   n

n 
1 Xxt    Yt 
0     t
ˆ Yt ...............(3) car
Y  t 1  .
t 1  n 2  n 
 t xt   

Or que :

Yt   0  1 X t   t

donc :

     
n  1 Xx  n  1 Xx  n 
1 Xxt 
 0  0    t      t 1 X t     t  t
ˆ t t

t 1  n
  xt2  t 1   xt2  t 1  n
 xt2 
n
t   t  
 t 
 n   
  xt X t  n  

ˆ 0  0  1 X  1 X 2t 1     t  t
 1 X xt
  t 1  n 
  xt    xt 
2 2

 t 1   t 
Comme X t  xt  X on déduit :

10
 n   
  xt xt  X   n  
   1 Xxt 
 
ˆ
 0   0  1 X  1 X t 1
  t t
 2  
  xt 
2 t 1 n 2
  xt 
 t 1   t 
 2 2  n   
  xt    xt  n  
ˆ 0  0  1 X  1 X  2   1 X  2      t  t
t 1 2 t 1 1 X x t
    t 1  n 
  xt    xt  
2 2
 xt2 
 t 1   t 1   t 

On obtient alors :
 

n

0      t
ˆ  1 Xxt 
t .
 
t xt 
t 1 n 2


En passant à l’espérance mathématique, on trouve :
   
 n  1 Xx  
 
E ˆ0  E  0   E    t t  t 
 t 1  n  
  t t  
x 2

  
   

 n 1 Xx  
 
E  0  E  0     t
ˆ 
 t 1


t 

E  t 


n
  xt2  
  t  

 
E ̂ 0 = E  0  car E  t  =0

Finalement  
E ˆ0   0  0 est un estimateur sans biais.

 Calcul de la variance de ˆ1

Par définition, la variance de ( ˆ1 ) est donnée par :


var (ˆ1 )   ˆ1   (ˆ1 )2

Et Ε (ˆ1 )  1 .

11
d’un autre coté, on sait que :
n

x t t
ˆ1  1  t 1
n

x
t 1
2
t

Ce qui implique : n

x t t
ˆ1  1  t 1
n

x
t 1
2
t

Alors on déduit que:


2
 n 
  xt  t  2
 
 
n
 t 1  1
E   xt  t 
var (ˆ1 )  E ˆ1  1 E n 2   n
2
2
   i 1 
  xt    xt2 
 t 1   t 1 


1
2

E x12 12  x22 22  ...  .xn2 n2  2 x1 x2 1 2  ....  .2..xn1 xn n1 n 
 n

  xt2 
 t 1 
D’après les hypothèses (1) ,(2) ,et (3) du modèle de régression simple, on obtient :

 
var ˆ1 
1
2
 x   2 x22   2 x32  ........................... 2 xn2
2 2
 1 
 n

  xt2 
 t 1 

D’où :

n
 2
x 2

 
 t
 2
var ˆ1  t 1
2
 n
 
x
n .
  xt2 
2
t
 t 1  t 1

 Calcul de la variance de ˆ 0 :

D’après les propriétés de l’estimateur ˆ 0 on a :

12
   
n
  n
 

ˆ0   0    t
1 X x t  
 t  ˆ0   0    t
1 X x t 
    t
t 1 n


t xt 
2 t 1 n


t xt 
2

Par définition, la variance de ̂ 0 est donnée par :

  
var (ˆ0̂ )   ˆ0  Ε (ˆ0 )  Ε ˆ0   0
2
 2
.

Puisque Ε ( ˆ0 )   0 nous obtenons :


var ( ˆ 0)  Ε ˆ0   0
2

Alors on déduit que :

2
   
n   
var ( 0 )  E 
ˆ   t
1 X x
 t 1 n n 2  t
   xt  
  t 1  

2
      
n      
 
n
var ˆ0  E   1  Xxt     2 E  1  X xn1   1  X xn   
 t 1 n n 2  t   n n 2   n n 2  n1 n
  xt     xn1    xn 
t 1

  t 1    t 1  t 1 
2
   
 n   
ˆ 
var  0  E 
 t 1
 1  X xt
n n
  
 t
 

 xt2  
 
 t 1

D’après les hypothèses (1) ,(2) ,et (3) du modèle de régression simple, on obtient:

13
2
 
 
  n 1 X xt 

var ˆ0   2   n n 2 
t 1 


t 1
xt 

Il résulte alors :

 
 
 
n  
1 2 X xt X 2 xt2
var 0     2  n
ˆ 2
 2 
t 1  n
n xt  x 2  
n

 t
2
 
 t 1
 t 1  
n

Puisque x
t 1
t  0 alors :

 n 2 
  xt  nX 2 
 
var ˆ0   2  t 1 n



 n xt
2

 t 1 
Et comme X t  xt  X donc on déduit que :

 n 2  n

  Xt    X 2

 
t
var ˆ0   2  t 1n    2 t 1 
 2 

 2 
 
n

  t 
n x   t
n X  X 
 t 1   t 1 
Conclusion

Les variances des paramètres ̂ 0 , ˆ1 du modèle Yt   0  1 X t   t sont :

 n 2  n 
  X    X 2 
   t   t 
var βˆ0   2  t  1  σ
 ε n
2 t 1

ε
 n n x2 
  t 
n
  t
X X
2

 
 t1   t1 

14
 
var ̂1  n
 2

x
et 2
t
t 1

 Calcul de la covariance de ( ̂ 0 , ˆ1 ):

Par définition, la covariance ente ( ̂ 0 , ˆ1 ) se calcule comme suit :

    
cov (βˆ0 ,βˆ1 )  E βˆ0  E (βˆ0 βˆ1  E (βˆ1  E βˆ 0  β βˆ1  β1 
Comme ( ˆ 0 , ˆ1 ) sont sans biais,

Alors :
   n

n    t t
 1  X xt    t 1
x 
cov (  0 , 1 )  E 
ˆ ˆ 
 t 1 n n 2  t n

 

 xt 

 xt2 
 t 1 t 1 

 n n n n 
   t  xt  t X  xt  t  xt  t 
cov ( ˆ0 , ˆ1 )  E  t 1 nt 1  t 1 t 1 
 2 
 n  xt  n 2
  xt  
2

 t 1
 t 1  

n n   n  
2

   t  xt  t     xt  t  
cov ( ˆ0 , ˆ1 )  E  t 1 nt 1   XE   t 1  
 n x2    n 2 
  t 

   xt2  
t 1   t 1  

D’après les hypothèses (1), (2) et (3) du modèle de régression simple, il résulte que :

15

cov ˆ0 , ˆ1    X 2
n

 xt2
.

t 1

I-6 : Théorème de Gauss Markov

Soit le modèle suivant : Yt   0  1 X t   t

Par définition un estimateur de moindre carrée est un estimateur de Gauss Markov (blue)
s’il est sans biais, linéaire et possède une variance minimale. Pour démonter ce théorème, on définit
un autre estimateur linéaire sans biais sous la forme suivante :
n
b C Y
t 1
t t

Par la suite on compare la variance de b  avec la variance de ˆ1 et celui qui a une variance
minimale on dira qu’il est le meilleur estimateur.
Démontrons d’abord est ce que ˆ1 est linéaire et sans biais.

 ˆ1 est-il linéaire ?

D’après les propriétés du paramètre ˆ1 on a :


n

x y t t
βˆ 1  t 1
n

x t 1
2
t

 x Y Y 
n

t t
βˆ 1  t 1
n

x
t 1
2
t

n n

xY t t x t
βˆ 1 t 1
n
Y t 1
n

x
t 1
2
t x
t 1
2
t

16
n
Comme x
t 1
t =0, on obtient :

xY t t
̂1  t 1
n .
 xt2
t 1

En posant

xt
Wt  n

x
t 1
2
t

Alors ˆ1 s’écrit sous la forme suivante :

n n

 A Y  W Y .
t 1
t t
t 1
t t

Ce qui fait que ˆ1 est linéaire.

 ˆ1 est –il Sans biais ?

On a :

 n 
Ε ( 1 )  E  Wt Yt 
ˆ
 t 1 
n
 Wt E Yt 
t 1
n
 Wt  0  1 X t   t 
t 1

D’où :

17
 n 
Ε ( β1 )  E  Wt Yt 
ˆ
 t 1 

 n   n   n 
Ε (β1 )   0 E  Wt   1 E  Wt X t   E  Wt  t 
ˆ
 t 1   t 1   t 1 

Connaissant que :

n n

W  0 ,  x  0
t 1
t
t 1
t et E ( t )  0

Alors :

 n 
Ε (ˆ1 )  1 E  Wt X t 
 t 1 
Sachant que :

xt
Wt  n

x
t 1
2
t

Ce qui fait :

 n 
  xt X t 
Ε ( βˆ1 )  β1 E  t 1n .................( 1 )
 
  t 
2
x
 t 1 

Et comme on connait que xt  X t  X  X t  xt  X

Nous remplaçons la valeur de X t dans (1), nous obtenons:

18
 n 
  xt X t 
Ε(βˆ 1 )  β1 E  t 1n .
 
  xt 
2

 t 1 
 n 
  xt xt  X  
Ε ( βˆ 1 )  β1 E  t 1 n .
 
  t
2
x 
 t 1 
 n 2  n 
  xt   X  xt 
Ε ( βˆ 1 )  E  t n1   β1 E  t 1 .
   n 2 
  xt    xt 
2

 t 1   t 1 

Du moment que : x
t 1
t  0,

Finalement Ε (ˆ1 )  1 est un paramètre sans biais.

De ces deux démonstrations (linéaire et sans biais) on retient que :


n n

W
t 1
t  0 et W X
t 1
t t 1

 ˆ 1 possède t-il une variance Minimale ?

On suppose qu’il existe un autre estimateur sans biais linéaire définit comme suit
n
b   Ct Yt
t 1

E b   1

avec Ct  Wt  d t

On a Yt   0  1 X t   t
En passant à l’espérance mathématique:

19
 n  n
E b   E   Ct Yt   E  Ct  β0  β1 X t  εt 
 t 1  t 1
n
 n 
E b   β0 E  Ct  β1 E   Ct X 
t 1  t 1 t
E b   β1 ...........(2)

n 
Car E   Ct  t   0 .
 t 1 
Pour que l’équation (2) soit vérifiée c'est-à-dire E b   1 il faut que :

C X
t 1
t t .  1............(3)

et
n

C
t 1
t  0......................(4)

Quand :
n n n n

C t  0   Wt  d t   0   Wt  0 et d t  0;......... ......(5)


t 1 t 1 t 1 t 1

Quand : n n n n

 Ct X t   Wt  d t X t  Wt X t   d t X t  1
t 1 t 1 t 1 t 1

Maintenant, nous calculons la var b :

Sous les conditions (3) et (4)) et d’après la définition de la variance on a :

var b  E b  E b  E b  1 


2 2
(Sous les conditions (3) et (4))

D’un autre coté on a :

n n n n n
b   Ct Yt   Ct  0  1 X t   t    0  Ct  1  Ct X t   Ct  t
t 1 t 1 t t 1 t 1 t 1

20
Sous l’hypothèse, que les conditions (3) et (4) soient vérifiées :

n n
b  1   Ct  t  b  1   Ct  t
n n

t 1 t 1
(c’est à dire C X
t 1
t t =1 et  C =0 )
t 1
t

Nous obtenons :
2
 n 
var b   E   Ct  t   E C1 1  C 2 2  ................  .C n n 
2

 t 1 

 E C12 12  C 22 22  ...  .C n2 n2  2 C1C 2 1 2  ...2 C n1C n n1 n 
2

 n n n

 E   Ct2 t2  2 Ct Ct t t 
 t 1 t 1 t 1 

D’après les hypothèses du modèle de régression simple :

 
E  t2   2 et E ε t ε t    0
On déduit alors :

 
n n
var b    2  Ct2   2  Wt 2  d t2  2Wt d t
t 1 t 1
n n n
var b    2 Wt 2   2  d t2  2Wt d t
t 1 t 1 t 1

Sachant que :
n n n n

W
t 1
t  0 alors  d  W
t 1
t
t 1
t  0   dt  0
t 1

Et
n n n n

Wt X t  1 alors  d t X t  Wt X t  1   d t X t  0


t 1 t 1 t 1 t 1
i 1

On déduit :
n n n

n x d X dt t t t d t

Wt d t  t 1
n
 t 1
n
X t 1
n
0
t 1
x
t 1
2
t xt 1
2
t x
t 1
2
t

21
Ce qui résulte :

var b  =   Wt     d t2
n n
n
car ( Wt d t  0 )
2 2 2

t 1 t 1 t 1

xt
Nous remplaçons Wt par Wt  n
on trouve donc :
x
t 1
2
t

 
 
n  
xt2 n

var b  =    n      dt
2 2 2
2
t 1   2 
   xt 
t 1

  t 1  
n

x 2
t n
var b     2 t 1
2
    dt2
2

 n 2
  xt 
t 1

 t 1 
D’où :

 2 n
var b   n
    dt2 2

x
t 1
2
t
t 1

Or que :

ˆ  
 2
var 1  n
 xt2 t 1

Finalement:

 
var b  = var ˆ1   2  d t2 .
n

t 1

22
 
n

On remarque que var b   var ˆ1 puisque    d t  0


2 2

t 1

On conclut que le paramètre ( ˆ1 ) à une variance minimale, ce qui fait qu’il est le meilleur
estimateur (estimateur blue).

Remarque
Même procédure pour le paramètre ( ˆ 0 ) :
n
1
On suppose a   At Yt avec At  Vt  Tt tel que Vt   XWt
t 1 n

I- Estimation de la variance des erreurs

Soit le modèle de régression simple : Yt   0   1 X t   t

Sachant que le résidu est :

et  Yt  Yˆt
Yˆt  ˆ0  ˆ 1X t
Et Y   0   1X  

On a :
et   0  1 X t   t  ˆ0  ˆ1 X t

on remplace βˆ 0 par sa valeur , on obtient :

et   0  1 X t  Y  ˆ1 X  ˆ1 X   t
t

On remplace aussi Y par sa valeur on obtient :

   
et  1  ˆ1 X t  1  ˆ1 X    

=    X  X     
ˆ
1 1 t

e    ˆ x     Car
t 1 1 t x t  X t  X 

23
D’où

  
n n 2

e 2
t   1  ˆ1 x t   t   
t 1 t 1

     x  
n n 2 n n
 e    t     1  ˆ1  x  2 1  ˆ1  
2 2 2
t t t t
t 1 t 1 t 1 t 1

 n

On passant à l’espérance E 

et 1
2
t  on obtient :

 n 2
E  et   n  1 2   2  2 2  n  2 2
 t 1 
On déduit :

 n 
E   e t2 
 2   t 1 
n2
finalement :
n

e 2
t
ˆ 2  t 1

n2

ˆ 2 est un estimateur sans biais.

II- Analyse de la variance et le coefficient de détermination

Pour calculer le coefficient de détermination, nous démontrons d’abord les deux relations :
n
 e
t 1
t 0 La somme des résidus est nulle (la droite de régression passe par le point

moyen (cela est valable uniquement pour les modèles contenant le terme constant),
n n
 Y  Yˆ
t 1
t
t 1
t , égalité entre la moyenne de la série à expliquer et la moyenne de la série

ajustée.

 
n n

On démontre d’abord que :  et   Yt  Yˆ  0


t 1 t 1

24
On sait que :

Yt  Yˆt  e t  ˆ0  ˆ1 X t  e t


n n n
 Yt  nˆ0  ˆ1  X t   e t
t 1 t 1 t 1
n
 et  nY  nˆ0  ˆ1 nX
t 1

On remplace ˆ0 par sa valeur on obtient alors :

 
n
 et  nY  n Y  ˆ1 X  ˆ1 nX
t 1
D’où :
n

e t 1
t  nY  nY  ˆ1 nX  ˆ1 nX

Donc : e
t 1
t 0

Puisque et 1
t  0 on déduit alors :

 
n n n n

 et   Yt  Yˆ  0  Yt  Yˆt  0
t 1 t 1 t 1 t 1

On conclue :

n n

Y  Yˆ  Y  Yˆ
t 1
t
t 1
t

A partir de ces deux équations nous pourrons déduire la fonction fondamentale d’analyse de la
variance.

25
On a :

Yt  Yˆt  et  Yt  Yˆ  et

D’où :
Yt  Y  Yˆt  e t  Y
 Yt  Y   Yˆt  Y  e t  2 Yˆt  Y e t
2 2 2
   
Passant aux sommes on trouve :
n n n n

 (Yt  Y )   (Yˆt  Y ) 2   et2  2 (Yˆt  Y )et


t 1
2

t 1 t 1 t 1

Comme :
n

e
t 1
t 0
n n

Y  Yˆ
t 1
t
t 1
t

On déduit alors :

 (Yˆ  Y )e
t 1
t t 0

Il résulte :
n n n

 (Yt  Y )   (Yˆt  Y ) 2   et2


t 1
2

t 1 t 1
Qu’on peut écrire comme suit

n n n
 (Yt  Y )   (Yˆt  Y ) 2   et2
2

t 1 t 1 t 1

 SCT  SCE  SCR ...........................(1)

(1) : Appelée équation l’analyse de la variance

26
Avec :

SCT   Yt  Y  : désigne la variabilité totale


n
2

t 1

 
n 2

SCE   Yˆt  Y : désigne la variabilité expliquée


t 1

 Y  Yˆ 
n n
SCR   e  2 2
t t : désigne la variabilité des résidus
t 1 t 1

III-1 : Coefficient de détermination

De l’équation (1) on peut déduire le coefficient de détermination

SCT SCE SCR


(1)    
SCT SCT SCT
SCE SCR
1 
SCT SCT
D’ou
SCR SCR
R2  1 
SCT SCT

0  R 2  1 , plus la valeur de R 2 est proche de 1, plus le modèle est plus significatif .

III-2 : Test des coefficients et les intervalles de confiances


 Test des coefficients

Soit le modèle suivant : Yt   0  1 X t   t

Dans notre cas on sait que

e
 
2
t
ˆ 2  t 1
………………..(1) et   N 0, 2
n2 i 

27
De (1) on a :
n
n  2ˆ 2   e 2t
t 1
n

n  2ˆ 2 
e 2t

  t 1   n22
 2
 2

D’un autre coté on a :


 2 
 σε 
̂  N  β , n 
2 ,
  xt 
1 1

 t 1 

  n

   X t2 
et ̂  N   0 ,  2  n t 1 
 
 n  X t  X 
0 2
  
  t 1 

D’où on obtient les variables centrées réduites Z Z


1 et 2 :

ˆ  
Z  1
 N 0,1
1
1 2 Et
σ
ε
n 2
 x
t
t 1
ˆ  
Z  0 0
 N 0,1
2  n 
  Xt
2 
 t 1 
 2 

n n X  X 2 
  t   
 t 1 

D’après la définition de la loi de Student qui est : le rapport d’une loi centrée réduite et la
racine carrée d’une loi de khi deux divisée par le nombre de ses degrés de liberté

On appliquant cette définition on obtient alors :

28
Z1
Tc 
n2 
ˆ 2
 2
n2

    Z1    ˆ1  1
Tc     Tn2
ˆ  ˆ  
n
 xt2
t 1

On obtient finalement :

TC 
ˆ1  1
ˆ ˆ
 Tn2 , %2
 ……………….(3)
1

Même procédure pour ˆ , on obtient


0

TC 
ˆ0   0
ˆ ˆ
 Tn2 , %
2
  ……………………………….(4)
0

A partir des résultats (3) et (4) on peut effectuer les tests d’hypothèses suivants :

H 0 : 0  0 H 0 : 1  0
et
H1 : 0  0 H 1 : 1  0

 Règle de décision et la construction du test des paramètres

 test du paramètre  1

Le test du paramètre  0 consiste à tester l’hypothèse suivante :

H 0 : 1  0
(Appelé test bilatéral)
H 1 : 1  0
Sous l’hypothèse H 0 : 1  0 , on obtient la valeur critique ( Tc ) tel que :

29
ˆ1  1
Tc   Tt  n  2 , % 
ˆ ˆ1  2

Avec :
Tc : désigne la valeur critique de la statistique ( T ) (dite calculée).

ˆ1 : désigne la valeur estimée du paramètre  1 .

ˆ ˆ : désigne la valeur de l’écart-type du paramètre  1 .


1

 : Le seuil donné. (En général  = 5%)

n-2 : degré de liberté

Tt : désigne la valeur de la statistique Student ( T ) lue à partir de la table statistique.

Règle de décision

 Si Tc  Tt  0,05 on accepte l’hypothèse H0 : la variable xi n’est pas contributive à

l’explication de Y.

 Si Tc  Tt  0,05 on accepte l’hypothèse H1 : la variable xi est contributive à

l’explication de Y.

Test du paramètre ˆ0

Tester paramètre  0 revient à réaliser l’hypothèse suivante :

H0 : 0  0
(Appelé test bilatéral)
H1 : 0  0

Sous l’hypothèse H 0 :  0  0 , on obtient la valeur critique ( Tc ) tel que :

ˆ0   0
Tc   Tt  , % 

ˆ ˆ 
0
 n2
 2

30
Avec :

Tc : désigne la valeur critique de la statistique ( T ) (dite calculée.) .

ˆ 0 : désigne la valeur estimée du paramètre ˆ0 .

ˆ ˆ  : désigne la valeur de l’écart-type du paramètre  .


1

 : Le seuil donné. (En général  = 5%)

n-2 : degré de liberté

Tt : désigne la valeur de la statistique Student ( T ) lue à partir de la table statistique

Règle de décision :

 Si Tc  Tt  0, 05 : alors on accepte l’hypothèse H0 : le modèle ne contient pas de

constante.

 Si Tc  Tt  0,05 : alors on accepte l’hypothèse H1 : le modèle contient la constante.

Remarques importantes
 Lorsque on effectue les tests d’hypothèses bilatéraux des deux paramètres  et  suivants :

H0 : 0  a H 0 : 1  b
et
H1 : 0  a H 1 : 1  b

%
On prend le seuil : 2
 Par exemple sous l’hypothèse H 0 :  1  0 , la valeur critique Tc tel que :

ˆ1
Tc 
ˆ ˆ  1
est appelée le ratio de student .

 Lorsque on effectue les tests unilatéraux des deux paramètres  et  c'est-à-dire les tests
d’hypothèses suivants :

31
H0 : 0  a H 0 : 1  b
. et
H 1 :  0  a,  0  a H 1 :  1  b,  1  b
On prend le seuil  % .

Intervalles de confiances des paramètres  1 et  0

Les intervalles de confiances des paramètres  et  au seuil donné  (au niveau de confiance

(1   )) sont donnés par :

 Intervalle de confiance  1 :

 
Pr  1  T   ˆ   1    T   ˆ   1  
ˆ ˆ ˆ ˆ
 1  1
 2 1 2 

 Intervalle de confiance  0 :

 
Pr ˆ0  T  ˆ ˆ    ˆ  T  ˆ ˆ   1  
 0  0
 2 0 2 

 Intervalle de confiance de  2

On a :
n

e 2
t
n  2S 2
̂ 
2 t 1
S 2
  2 n2
n2 2

D’où Pr   2
1 
n  2S 2
 2 2

  2  1

 12
Pr  
n  2S 2

 22 
 1
2
 n  2 S 2
 2
n  2 S 

On obtient :

32
 n  2S 2 n  2S 2 
    1 
2
Pr 
 2  12 
2

III-3 : Analyse de la variance et test de Fisher

On a déjà définit S C T, S C Ee tS C R, ses sommes peuvent être utilisées pour tester


l’hypothèse suivante :

H0 : i  0
H1 : i  0

Sous l’hypothèse :

H0 : i  0
On a :
E SCT   n  1  2

E SCE   1 2

ESCR   n  2 2

Avec, n 1 , 1 et n  2 des degrés de libertés de SCT , SCE et SCR respectivement.

D’autre part, lorsque H0 est vérifiée on a :

SCT
  n21 ,
n 1

SCR
  n22
n2

SCE
et  2
1 1

33
SCE SCR
Du moment que et sont indépendants, on peut déduire donc valeur critique
2 2
F(Fisher) qui se définit comme suit : C’est le rapport entre deux Chi deux (  ) indépendants et
leurs degrés de libertés ;

Alors on obtient :

SCE
2
SCE  n  2
SCE
FC  1  1   FT  1, n2,  % 
SCR SCR SCR  1
2 n2
n2
Avec :
FC : désigne la valeur critique de Fisher calculée.

FT : désigne la valeur de Fisher lue à partir de la table statistique de Fisher aux degrés de
libertés.
(1, n  2 ),se sont des degrés de libertés.
 % : Le seuil donné.

 Règle de décision

 Si Fc  FT 1, n2,  %  on rejette l’hypothèse H0 , cela signifie que, H1 est

acceptée :

c'est-à-dire le modèle est globalement significatif.

 Si Fc  FT 1, n2,  %  on rejette l’hypothèse H1 , cela signifie que, H 0 est

acceptée :

c'est-à-dire le modèle n’est pas globalement significatif.

34
Tableau d’analyse de la variance

Source de Sommes des Degré de Moyenne des F calculé


variation carrées liberté carrées

Variabilité à
expliquer X
n
SCE   Yˆ  Yˆ
t 1
 
2 k 1 SCE  MC
1 reg Fc 
MC reg
MC res
Variabilité n n2 SCR 
résiduelle SCR   et2  n2
t 1
MC reS
 
n

 Y  Yˆ
2

t 1
Variabilité totale n 1
SCT   Y  Y 
n
2

t 1

III- Prévision à l’aide d’un modèle de régression simple

Une fois les paramètres du modèle ; Yt   0  1 X t   t ; sont estimés ,le modèle est validé ,il

est possible d’effectuer les prévisions à l’horizon h .


Soit le modèle estimé sur la période t  1................n alors

Yˆn  ˆ0  ˆ1 X n

Si la valeur X t est connue en ( n  h ) alors la prévision de la valeur estimée Yˆt à la

l’horizon ( n  h ) se calculera par l’équation suivante :

Yˆnh  ˆ0  ˆ1 X nh

Comme on peut calculer l’intervalle de confiance de Yn  h .

Sachant bien sûr la valeur de la variance de l’erreur de prévision qui est :

35
 
 1 X  X 2 

Var en h   Var Yn h  Yˆn h   ˆ 2   nnh  1
n 
 
t 1
xt2


D’où l’intervalle de confiance de la variable Yn  h au seuil 1   % est :

 
 1 X
n h  X 

2 
Ynh  Yˆnh  Tn22  ˆ     1
n 
n

 
t 1
2
xt


Avec :

Tn 22 
: désigne la valeur de T Student lue à partir de la table statistique au seuil ( ) et
2
au degré de liberté ( n  2 ).

ˆ  : désigne l’écart-type de l’erreur en valeur connue.

X n  h : désigne la valeur de la variable exogène à l’horizon ( n  h ).

Yˆn  h : désigne la valeur de la variable endogène estimée à l’horizon ( n  h ).

36

Vous aimerez peut-être aussi