Académique Documents
Professionnel Documents
Culture Documents
INTRODUCTION
Ce chapitre est consacré aux problèmes particuliers lies au non-respect des hypothèses. Nous
allons nous attacher particulièrement à la forme classique de l’autocorrélation des erreurs.
L’étude de ce phénomène nous permet de définir un nouvel estimateur (celui des moindres
carrés à la fin du chapitre précédent), utilisé lorsque la matrice des variances et covariances ne
répondent plus aux hypothèses classiques, tel que supposé jusqu’à maintenant. Pour mener à
bien notre idée, notre exposé s’articulera sur deux points : la présentation du problème de
l’autocorrélation des erreurs(I) ; les causes et le diagnostic de l’autocorrélation des
erreurs(II) ; les conséquences de l’autocorrélation des erreurs(III) et afin les corrections de
l’autocorrélation des erreurs (IV).
I. PRESENTATION DU PROBLEME
Jusqu’à maintenant nous avons considéré que, lors de l’estimation des paramètres du
modèle, les hypothèses sont toujours respectés :
Le modèle est linéaire en x t
Les valeurs de x t sont observées sans erreurs
E ( Et )=0
E ( Et 2)= σ ε
2
E ( Et E t ' ¿ = 0 si t≠ t '
Cov ( x t , Et ¿= 0
La spécification de la matrice des variances de l’erreur est :
[ ][ ]
2
E(ε 1 ε 1) E (ε 1 ε 2 ) … E( ε 1 ε n) σ ε 0 … 0
2
' E(ε 2 ε 1) E (ε 2 ε 2 ) … E( ε 2 ε n) 0 σε … 0
Ωt = E (ℰ E ¿= =
… … …. ………. … … … …
E (ε n ε 1) E (ε n ε 2 ) … E(ε n ε n) 0 0
2
… σε
Lorsque l’hypothèse H 5n’est plus verifiée, la matrice E (ℰℰ’)=Ω ε ≠ σ 2ε I n' a plus cette forme
particulière (elle n’est plus composée de 0 à l’extérieur de la première diagonale, puisque cov
( Et , Et ' ¿ ≠ 0) et les estimateurs obtenus par la méthode des MCO sont sans biais mais ne sont
plus à variance minimale, en effet:
Ωa^ =E [ ( a^ −a ) (^a −a) ' ]
a^ −a=¿.
Donc Ωa^ =E ¿
¿¿
1. Causes
On est en présence d’une autocorrélation des erreurs lorsque les erreurs sont liées
par un processus de reproduction (ou processus à mémoire). L’autocorrélation des
erreurs se rencontre essentiellement dans les modèles en séries temporelles ou
l’influence d’une erreur, due à une mauvaise spécification, d’une période sur
l’autre est plausible.
2. Diagnostique
Cependant, le plus souvent l’analyse graphique des résidus est délicate d’interpréter car le
dessin des résidus ne présente pas de caractéristique évidente.
a-Test de DURBIN-WASTON
Ce test permet de détecter une autocorrélation des erreurs d’ordre 1, selon la forme
ε t= ρ ε t−1 +ϑ t , où ϑ t suit une loi normale de moyenne nulle et d’écart type σ ϑ . Il s’agit alors de
tester l’hypothèse H 0 : ρ=0 ,contre H 1 : ρ ≠ 0 ( ou ρ<0 , ou ρ>0 ) . Pour effectuer ce test, on
n
∑ (et −e t −1 )2
t=2
calcule la statistique de Durbin – Watson : DW = n , où e t représente les résidus.
∑e 2
t
t=1
Par construction, cette statistique est entre 0 et 4, et nous avons DW = 2 lorsque ^ρ =0,
n
∑ e t et −1 DW
^ρ étant ≤ρ observé ( estimé ) . On a: ^ρ= t=2 n ou aussi ^ρ =1− .
2
∑ e 2t
t=1
Durbin et Watson ont tabulé les valeurs critiques de la statistique DW, au seuil de 5%, en
fonction de la taille n de l’échantillon et du nombre k de variables explicatives. Ainsi on a :
Remarques :
c) Test de Breusch-Godfrey
– Estimation par les MCO du modèle et calcul du résidu et, puisque les erreurs sont
inconnues, le test porte sur les résidus.
– Estimation par les MCO de l’équation intermédiaire :
Soit n le nombre d’observations disponibles (attention chaque décalage entraîne la perte d’une
observation) pour estimer les paramètres du modèle et R2 le coefficient de détermination.
Certains auteurs préconisent, afin de ne pas perdre d’observations, de mettre à 0 les premières
valeurs du résidu décalé. La différence n’est perceptible que pour des petits échantillons.
y t =a0 + a1 x 1 t + a2 x 2 t +…+ ak−1 a(k −1 )t + Et pour t=1,2 ,…,T une autocorrélation des erreurs
d’ordre k(k¿ 1 ¿.
Et =ρ1 Et −1 + ρ2 Et −2+ …+ ρk Et− k + v t Ou v t N (0 , σ v )
k
{ H 0 : ρ=0
H 1 : ρ ≠0
t =1
2
^ρ est le coefficient de corrélation d’ordre k des résidus estimése t . Sous
k
l’hypothèse H 0 vraie, Q suit une khi-deux de k degré de liberté.
Règle de décision : si Q
¿ k ¿ ou k ¿ est la valeur donnée par la table du khi−deux ; on rejette H 0 .
= ρE ( E t−1 ) + E ( v t E t−1 )
2
E( Et E t−1 ¿ = ρE ( E 2t−1 )
E( Et E t−1 ¿=ρ σ 2E
E ( E2 ¿=¿
[ ]
1 ρ⋯ ρT−1
2 2
E( Et E t−1 ¿=δ E ρ 1⋯ ρ
T−2
= δE ω
T−1 T −2
ρ ρ ⋯ 1
[ ]
1 0⋯ 0
2 2
δ . ω ≠ δ I car I = 0 1⋯ 0
E
0 0⋯ 1
2 δ2
Avec E δ =
1−ρ2
Plusieurs méthodes permettent d’éliminer l’autocorrélation des erreurs. Ces méthodes ont en
commun de passer par une élimination préalable du terme de l’erreur.
Partons de la relation ci-après :
y t =a1 x 1t + a2 x2 t + a3 + Et
E t=ρ Et −1+ v t
Dans (3), on constate v t existe toujours et est un bruit blanc par contre Et source
d’autocorrélation n’existe plus. Toutes les méthodes de corrections de l’autocorrélation
partent de la relation (3)
a. La méthode de Durbin-Waston
Les estimateurs obtenus dans cette équation (4) notamment ceux qui sont
devant x 1 t−1 et x 2t −1ne sont pas cohérents. Seule le coefficient ^ρ est acceptable et
on l’utilise pour passer à la deuxième étape en procédant à la transformation des
variables. On a la nouvelle relation ci-après :
¿ ¿ ¿
y t =a1 x 1t + a2 x2 t + a3 ¿) + v t (5)
L’estimation de l’équation (5) permet alors par la méthode des MCO d’obtenir les meilleurs
valeurs de a 1 , a2 et a3 avec v t comme bruit blanc. On dit alors qu’on corrige l’autocorrélation
des erreurs en utilisant la méthode de Durbin-Watson en 2 étapes.
Elle considère à partir de l’équation (3) ci-dessus. C’est une méthode itérative
qui consiste à donner les valeurs à ρ de manière arbitraire puis faire l’estimation
de l’équation (3). La valeur arbitraire de départ qui est souvent recommandée est
dosée par la relation suivante :
n
∑ et e t −1
^ρ = t =2 n (e=0)
∑e 2
t
t
On obtient après chaque estimation les valeurs de a^ 1 , a^ 2 et a^ 3 que l’on compare à
chaque fois aux valeurs précédentes. Il faut noter que cette procédure est
convergente au bout d’un certain nombre d’itération. Deux types de programme
pour sont proposés pour décider d’arrêter la procédure :
- On fixe à priori le nombre d’itération qu’on ne veut pas dépasser.
- On fixe un critère de divergence sur ρ .
Par exemple l’écart de convergence entre deux valeurs successives de ρ diffère de 1%.
Dans tous les cas de recherche, dans la procédure d’itération dès que les coefficients
estimés sont stables, on dit qu’on a corrigé l’autocorrélation des erreurs.
Pour une convergence encore plus rapide, il est recommandé de déduire ρ de la relation
ci-après :
Dw
Dw = 2-2 ρ ce qui implique ^ρ =1− qui est la méthode la plus recommandée.
2
Elle consiste à exprimer une succession de l’équation (3) pour des valeurs régulièrement
croissantes de ρ . Elle s’effectue en deux principales étapes :
Etape 1 : détermination du type d’autocorrélation.
A partie de la statistique de Durbin-Watson, on détermine une autocorrélation positive ou
négative ( ρ<0 , ρ>0 ¿ .
Etape 2 : régression pour l’intervalle des valeurs possibles de ρ .
Par exemple, on sait que ρ ∈[0; 1], nous régressons toutes les valeurs successives de
ρ={ 0.1; 0,2; … 0.9 ; 1 } sur l’intervalle [0 ;1] avec un pas fixé égal à 0.1.
Il est possible d’affiner la valeur estimée de ρ en réemployant la même procédure sur un
intervalle restreint et avec un pas plus fin (par exemple 0.01).
Il est à noter que cette technique est optimal selon le critère des moindres carrés puisque l’on
retient le ρ qui minimise la somme des carrés des résidus
Objectifs de l’exercice : test de détection d’une autocorrélation des erreurs (test de Durbin-
Watson et test de B-Godfrey). Forme de la matrice des variances-covariances des erreurs en
cas d’autocorrélation d’ordre 1 des erreurs. Méthodes d’estimation en cas d’autocorrélation,
estimation du coefficient d’autocorrélation, prévision en cas d’autocorrélation des erreurs.
T yt x 1 ,t x 2 ,t
1 -5 9 673 102
2 -3 5 522 566
3 -7 12 899 367
4 -20 10 249 319
5 -45 9 860 -258
6 -50 -320 -163
7 -15 691 383
8 8 9 998 470
9 10 11 063 419
10 23 12 420 615
11 45 13 118 432
12 79 12 148 4 226
13 16 14 837 -2835
14 25 18 453 505
15 5 13 761 170
16 -36 7 810 504
17 26 15 035 417
18 59 12 918 542
19 74 15 678 386
20 NA NA NA
1) Estimer la relation par la méthode des moindres carrés ordinaires. Etudier les résidus.
2) Effectuer le test d’autocorrélation des erreurs de Durbin-Watson. Commentaires.
3) Effectuer le test d’autocorrélation des erreurs de Breusch-Godfrey. Commentaires.
4) Donner les expressions de E(ε t), E(ε 2t ), Cov(ε t,ε t+i ). En déduire l’expression de la
matrice des variances-covariances des erreurs.
EXERCICE 2
Objectif de l’exercice : calculer et effectuer le test de Durbin – Watson.
Soit le tableau suivant :
T et
1 -5,808
2 -3,769
3 -4,839
4 7,912
5 5,748
6 -0,982
7 3,857
8 5,280
9 3,063
10 1,322
11 1,909
12 1,909
13 0,713
14 1,332
15 -1,028
16 -3,388
17 -2,500
18 -5,161
19 -4,738
20 -1, 450