Vous êtes sur la page 1sur 27

1.

Test de contraintes linéaires


2.Test d’ajout des variables
3.Test de Stabilité
4.Test d’autocorrélation des erreurs
Le test de Fisher
Le test de Student s’applique aux hypothèses simples
1
Exemples: H0 :   0 H0 :    1 0
H :  
2

Des hypothèses qui contiennent une seule égalité

Pour des hypothèses composées, on utilise le test F de Fisher

H 0 :   0,   1
L’idée de base: Si on écrit la relation avec les restrictions imposées la somme de carrés des résidus sera
forcément plus élevée – car on contraint la valeur de certains paramètres
Exemple: H0:β= βR Le test F de Fisher est basé sur la différence

SCR
SCRC  SCRS  0
Si SCRC  SCRS  0
on accepterait l’hypothèse nulle

la contrainte n’a pas beaucoup


d’incidence sur la SCR
SCRC

SCRS

R ̂ 
La statistique F de Fisher est calculée de la manière suivante:

F* 
SCRC  SCRS  / k  k '
SCRS /(n  k  1)
•SCRc: modèle sous Ho; Modèle avec contrainte
•SCRs: Modèle complet; modèle sans contrainte

•Avec k = nombre de variables explicatives du modèle complet


•et k’ nombre de variables explicatives du modèle avec contrainte
• (k-k’= le nombre de restrictions précisées dans l’hypothèse nulle
• n = nombre d’observations
i. test de contraintes linéaires
Exemple : la fonction de production

la fonction de production Cobb-Douglas

Qi  ALi K i Qi
 ALi 1 K i
Li

donc une relation non linéaire


ln Qi  ln ALi K i   ln Qi

 ln K i
ln Qi  ln A   ln Li   ln Ki
 ln Qi

ln Qi     ln Li   ln K i   i  ln Li
donc une relation linéaire
Fonction de production – Cobb-Douglas
Estimation des paramètres

q  Al  k   ln q  ln A   ln l   ln k

Modèle économétrique

ln qi  ln A   ln li   ln ki   i

L’échantillon

i =1, 2, …., 80 entreprises – Q, L, K


Modèle complet sans contrainte:

ln qi  ln A   ln li   ln ki   i

ln qi  3,86  0,826 ln li  0,197 ln ki  ˆi


(0,19) (0,04) (0,013)

R 2  0,96 SCRs  1,138 n  80

SCRs=1,138; SCRs: Somme des Carrées des résidus du modèle complet sans contrainte
ln qi  ln A   ln li   ln ki   i
Ho est la contrainte linéaire. H0 :    1 H1 :     1
Nous voulons tester si la
fonction de production est à

  1    ln qi  ln A  1   ln li   ln ki   i
élasticité constante

ln qi  ln li  ln A   ln ki  ln li    i

 qi   ki 
Le modèle sous contrainte  ln    ln A   ln     i
 li   li 
 qi   ki 
ln
 l 
  4,01  0, 201 ln 
 l   ˆi
 i   i 
(0,018) (0,011)
R 2  0,81 SCRc  1,147 n  80 SCRc: Somme des carrées des
résidus du modèle sous Ho donc
La contrainte H0 :    1 sous contrainte. SCRc=1,147

Statistique F de Fisher :

( SCRC  SCRS ) / 1 (1,147  1,138 ) / 1


F. calculé F*    0,579
SCRS /(80  3) 1,138 /(80  3)
F. Fisher théorique; (5%;1;77)=3,97
ii. test d’ajout de variables
Test sur la nullité d’un sous-ensemble de (k-g ) paramètres j

Soit un modèle complet à k variables explicatives:

Y = o  1X1  2X2 ... gXg  ..... kXk  


On veut tester l’hypothèse nulle Ho : g+1 = …=k = 0
On doit aussi analyser le modèle réduit:
Y = o  1X1  2X2 ...gXg   modèle avec contraintes)

La statistique du test = un F partiel:

SC Re s  réduit   SC Re s  complet 
kg
F ~ F  k-g, n-k-1
SC Re s  complet  / n  k  1
iii. Test de stabilité: le test de Chow

Deux groupes dans l’échantillon


di  0 di  1

i  1,2,....., n0 i  n0  1,2,....., n

yi  β1  x2i β2  x3i β3  ui
Est-ce que les paramètres sont identiques pour les deux groupes?
yi  β10  x2i β20  x3i β30  ui i  1,2,....., n0
yi  β11  x2i β21  x3i β31  ui i  n0  1,2,....., n
La stratégie consiste à effectuer trois régressions :
une première sur l’ensemble de la période,
et deux sur deux sous-périodes que l’on juge pertinente.
L’idée est de comparer la SCR (Somme des Carrées des Résidus )et la somme des deux SCR sur les
deux sous-périodes.
S’il n’y a pas de changement structurel, il ne doit pas y avoir de différence entre SCR et SCR1+SCR2.
Autrement dit, le fait de scinder l’échantillon en deux n’améliore pas la qualité de la régression.
Le test est le suivant :
Ho: SCR=SCR1+SCR2
H1:SCR# SCR1+SCR2
1. Estimation de la régression sur la période totale et calcul de la SCR
2. Estimation de la régression sur les 2 sous-périodes et calcul de SCR1 et de SCR2, on en
déduit SCR1+SCR2
3. On calcule la statistique :
Test de stabilité se Chow :un exemple

yi  β11  x2i β21  x3i β31  ui i  1,2,....., n0  SCR1


yi  β12  x2i β22  x3i β32  ui i  n0  1,2,....., n  SCR2
SCR  SCR1  SCR2 6 paramètres

Hypothèse nulle: H 0 : β11  β12 , β21  β22 , β31  β32


ou H 0 : β11  β12  0, β21  β22  0, β31  β32  0

Avec les restrictions imposées, on a : yi  β1  x2i β2  x3i β3  ui  SCRC

i  1,2,....., n
SCR  0,0485

SCR1  SCR2  0,0062  0,0043  0,0105


H 0C :  0A   0B , 1A  1B ,  2A   2B ,  3A   3B

SCR1  SCR2  0,0062  0,0043  0,0105 SCR  0,0485

F
SCR  ( SCR1  SCR2  / 4

0,0485  0,0105 / 4
 54,3
( SCR1  SCR2 ) / 68  8 0,0105 / 68  8
F  4, 60  2,52
1

2
1) L’ajout des variables explicatives x2 et x3 améliore-t-il significativement la qualité de
Ho: a2=a3=0
H1:a2#a3#0

SCRes de modèle sans contrainte 67,45


ddl du modèle (n=14;k+1=4) 10

SCRes du modèle avec contrainte 70,88


ddl(n=14;k+1=3) 11

F de Fisher = 0,5085

F_théorique (5%;1;10) 4,96


F_calculé < F_théorique
donc accéotation de Ho;
l'ajout de la variable x3 n'ameliore pas la qualité du modèle
2) Un économiste suggère que dans ce modèle a1 = 1 et a2 = a3 , qu’en pensez-vous ?
Ho:a1=1 et a2=a3
H1:a1#1 et /ou a2#a3

SCRes de modèle sans contrainte 67,44767


ddl du modèle (n=14;k+1=4); k=3 10

SCRes modél sous contrainte linéaire donc sous Ho 108,79


ddl (14-(k+1); k=1 12

F_Fisher 3,065

F_théorique= 4,10
Fcalculé < F_théorique donc accéptattion de Ho;
Les contraintes linéaires sont compatibles avec les données
Test d’autocorrélation
des erreurs d’ordre 1
Test de Durbin et Watson
Autocorrélation des erreurs (AC)
Définition: Les erreurs sont corrélées entre elles dans le temps.

Autocorrélation d’ordre un: les erreurs successives sont corrélées entre elles:

t r1t1ut

où: t est l’erreur commise au temps t


r1 est la corrélation entre les valeurs successives de t :r1 = cor(t-1 , t )
ut est une erreur aléatoire indépendante. de ut-1
Détection de l’ autocorrélation:
1- Graphique des résidus (et) en fonction du temps (t)
Copyright 1996 Lawrence C. Marsh

et
AC > 0
. . .. . . . ..
0
.. ..
. . . ... .. .
t

et .. . . .
AC = 0 . . . . . . .
0
. . . . . . .. .
. . . . . . .t
et . . . . .
AC < 0 . . . .
0
. . . . . . . t
. .
Test de Durbin et Watson
Coefficient de corrélation sérial r1 d’ordre un entre résidus successifs:
-1  r1  1

t 2 e t  e t 1 
n 2

DW 
t 1 t
n 2
e

pour un échantillon très grand: DW  2(1- r1)  0 DW  4

0 dL ? dU 2 4 – dU ? 4 - dL 4 DW

+1 0 -1 = r1
AC>0 AC=0 AC<0
1.Si la valeur calculée de la statistique DW est inférieure à la valeur tabulée d1 alors il existe une auto-corrélation
positive (ou p>0).
2.Si la valeur calculée de la statistique DW est comprise entre d2 et 4-d2 , il n’est pas possible de rejeter l’hypothèse
nulle d’absence d’auto-corrélation des résidus (ou p=0). Cet intervalle est autrement dit l’intervalle pour il n’existe pas
d’auto-corrélation des erreurs.
3.Si la valeur calculée de la statistique DW est supérieure à la valeur tabulée 4-d1 alors il existe une auto-corrélation
négative (ou p<0).
Les autres situations correspondent à des zones d’indétermination. La figure qui suit résume l’interprétation du test de
Durbin et Watson.
Règles de décision pour DW
y  Xβ  ε,
• Modèle:
 t   t 1  u t
Hypothèses Règles de décision au niveau 
H0 :  0 DW  dU  ‘conserve’ H0 .
H1 :   0 DW  d L  rejette H0 .

DW  d L , dU   on ne peut se prononcer.

H0 :  0 4  DW  dU  ‘conserve’ H0 .
H1 :   0 4  DW  d L  rejette H0 .
4  DW  d L , dU   on ne peut se prononcer.

H0 :  0 DW  dU et 4  DW  dU  ‘conserve’ H0 .
H1 :   0 DW  d L ou 4  DW  d L  rejette H0 .
Sinon on ne peut rien dire.
26
Exemple :
Soit le modèle suivant : yi=a0+a1xi+ei ; avec yi : Consommation finale des ménages ; xi : le revenu national et ei un
bruit blanc gaussien ; ei- N(0 ;σ).
L’estimation du modèle nous donne les résultats suivants : yi= 1176,08 + 0,78 xi ; n=10 ;
La statistique de Durbin et Watson est égale à : 1,67
Tester l’existence d’une autocorrélation des erreurs

DW=1.67 ; d1=1.08 ; d2=1.36 ;

d1 et d2 sont lus dans la table de Durbin et Watson pour n=10 ;k=1 ;α=5%
0-------------d1=1.08---------d2=1.36---------DW=1.67-------2----------4-d2--------4-d1------------4
Ho : indépendance ;

H1 : autocorrélation des erreurs.

DW se trouve dans la région d’indépendance ;

Vous aimerez peut-être aussi