Vous êtes sur la page 1sur 14

Les hypothèses:

 H1: E(t )=0 pour tout t=1,…,n : l’espérance


mathématique des déterminants qui n’ont pas
été retenu dans le module est nulle. Les
erreurs sont nuls en moyenne.

 H2: Xt est une variable certaine (non


aléatoire), donc E(Yt)= 0 +1 Xt : on cherche
à modéliser le phénomène Yt /Xt
 H3:

 1 n
VarX  S xx  n  ( X t  X )  0
2

 t 1

 n

 X t
 S xx  var iance empirique et X  1

 n
 H4: V(t ) = ² = constante ,
C’est ce qu’on appelle : hypothèse d’homoscédasticité.
et cov(i , j )=0 quelque soit i et j : les t sont non corrélés.

 H5: lim S xx  0 quand n tend vers l ' inf ini

Xt converge toujours vers une variance non nulle quand n


tend vers l’infini.
 H6:
t suit une loi normale de moyenne 0 et de variance
², ce qui permet de faire des tests sur les
paramètres du modèle.

 t  N (0,  ) 2
3- Estimation des paramètres

Il existe plusieurs méthodes permettant d’estimer


le modèle théorique :
Yt  0  1 X t   t
par le modèle empirique: Yˆt  ˆ0  ˆ1 X t

Comme :
 Méthode des moindres carrés
 Méthode du maximum de vraisemblance
3-1 Estimateurs des moindres carrés
ordinaires (MCO):
 La méthode MCO consiste à choisir les valeurs
de  0 et 1 qui minimisent la somme des
distances au carré ente Yt et la droite 0 +1 Xt .

 Ce qui revient à minimiser la somme des carrés


des erreurs t :
n n

    Yt   0  1 X t 
2 2
Min
 
( 0, 1) t 1
t
t 1
n
 Posons : S ( 0 , 1 )   Yt  0  1 X t 
2

t 1

ˆ0 et ˆ1 sont donc solution de: Mi n S (0 ,1)


Conditions du 1er ordre:

 Les dérivées partielles de S par rapport à  0 et 1


doivent être égales à zéro :

 S
   0
 0

 S
0

 1
 On obtient alors le système d’équations appelés :
les équations normales

 Yt  nˆ0  ˆ1  X t
 t t

 t t  ˆ
0  ˆ
1
2
X Y X t X t
 t t t
 En résolvant le système on obtient :

  X Y  Y 
t t
ˆ1  t

X X  X 
t
t t

 Et étant donnée la valeur de bêta chapeau, on calcule


alpha chapeau par:

ˆ0  Y  ˆ1 X
 On montre aussi que :

t  t
 ( X  X )  Yt  Y  

ˆ1 
 X X
2
t
t
3-2 Remarques:
 La droite d’équation: Yˆt  ˆ0  ˆ1 X t

est appelée: droite de régression. Cette


droite passe par le point moyen ( X , Y )

 Posant : et  Yt  (ˆ0  ˆ1 X t ) = résidu, la


somme des résidus est nulle.

 ˆ S xy Co var iance empirique de X et Y
 1  
 S xx Variance empirique de X

 Avec : S  1 ( X  X )(Y  Y )
 xy 
n t
t t
Yˆi  ˆ0  ˆ1 X i

ei  Yi  Yˆi

Yi
Y

Vous aimerez peut-être aussi