Vous êtes sur la page 1sur 15

CHAPITRE 2 

: AUTOCORRELATION DES ERREURS : CAUSES,


CONSEQUENCES, CORRECTIONS

INTRODUCTION

Ce chapitre est consacré aux problèmes particuliers lies au non-respect des hypothèses. Nous
allons nous attacher particulièrement à la forme classique de l’autocorrélation des erreurs.
L’étude de ce phénomène nous permet de définir un nouvel estimateur (celui des moindres
carrés à la fin du chapitre précédent), utilisé lorsque la matrice des variances et covariances ne
répondent plus aux hypothèses classiques, tel que supposé jusqu’à maintenant. Pour mener à
bien notre idée, notre exposé s’articulera sur deux points : la présentation du problème de
l’autocorrélation des erreurs(I) ; les causes et le diagnostic de l’autocorrélation des
erreurs(II) ; les conséquences de l’autocorrélation des erreurs(III) et afin les corrections de
l’autocorrélation des erreurs (IV).

I. PRESENTATION DU PROBLEME
Jusqu’à maintenant nous avons considéré que, lors de l’estimation des paramètres du
modèle, les hypothèses sont toujours respectés :
 Le modèle est linéaire en x t
 Les valeurs de x t sont observées sans erreurs
 E ( Et )=0
E ( Et 2)= σ ε
2

 E ( Et E t ' ¿ = 0 si t≠ t '
 Cov ( x t , Et ¿= 0
La spécification de la matrice des variances de l’erreur est :

[ ][ ]
2
E(ε 1 ε 1) E (ε 1 ε 2 ) … E( ε 1 ε n) σ ε 0 … 0
2
' E(ε 2 ε 1) E (ε 2 ε 2 ) … E( ε 2 ε n) 0 σε … 0
Ωt = E (ℰ E ¿= =
… … …. ………. … … … …
E (ε n ε 1) E (ε n ε 2 ) … E(ε n ε n) 0 0
2
… σε

Lorsque l’hypothèse H 5n’est plus verifiée, la matrice E (ℰℰ’)=Ω ε ≠ σ 2ε I n' a plus cette forme
particulière (elle n’est plus composée de 0 à l’extérieur de la première diagonale, puisque cov
( Et , Et ' ¿ ≠ 0) et les estimateurs obtenus par la méthode des MCO sont sans biais mais ne sont
plus à variance minimale, en effet:
Ωa^ =E [ ( a^ −a ) (^a −a) ' ]

a^ −a=¿.

Donc Ωa^ =E ¿

¿¿

C’est-à-dire que a est un estimateur dont la première diagonale de la matrice des


variances et covariances est supérieure à celle de σ 2ε ¿questions :

 Comment déterminer un nouvel estimateur pour a ?


 Comment détecter une éventuelle autocorrélation des erreurs ?
 Quelles méthodes d’estimation doit-on utiliser ?

II. CAUSES ET DIAGNOSTIC DE L’AUTOCORRELATION DES ERREURS

1. Causes

On est en présence d’une autocorrélation des erreurs lorsque les erreurs sont liées
par un processus de reproduction (ou processus à mémoire). L’autocorrélation des
erreurs se rencontre essentiellement dans les modèles en séries temporelles ou
l’influence d’une erreur, due à une mauvaise spécification, d’une période sur
l’autre est plausible.

L’autocorrélation des erreurs peut être causée par :

 L’absence d’une variable explicative importante dont l’explication


résiduelle permettait de « blanchir » les erreurs
 Une mauvaise spécification du modèle, les relations entre la variable
endogène et les variables explicatives ne sont pas linéaires et s’expriment
sous une autre forme que celle du modèle estimé
 Un lissage par moyenne mobile ou interpolation des données

2. Diagnostique

La détection d’une éventuelle dépendance des erreurs ne peut s’effectuer


qu’à partir de l’analyse des résidus.

a- Examen visuel des résidus

L’analyse graphique des résidus permet le plus souvent de détecter


un processus de reproduction des erreurs :
 Les résidus sont pendant plusieurs périodes consécutives
soit positive, soit négative : autocorrélation positive
Les résidus sont de signe alternés : autocorrélation négative

Cependant, le plus souvent l’analyse graphique des résidus est délicate d’interpréter car le
dessin des résidus ne présente pas de caractéristique évidente.

a-Test de DURBIN-WASTON

Ce test permet de détecter une autocorrélation des erreurs d’ordre 1, selon la forme
ε t= ρ ε t−1 +ϑ t , où ϑ t suit une loi normale de moyenne nulle et d’écart type σ ϑ . Il s’agit alors de
tester l’hypothèse H 0 : ρ=0 ,contre H 1 : ρ ≠ 0 ( ou ρ<0 , ou ρ>0 ) . Pour effectuer ce test, on
n

∑ (et −e t −1 )2
t=2
calcule la statistique de Durbin – Watson : DW = n , où e t représente les résidus.
∑e 2
t
t=1

Par construction, cette statistique est entre 0 et 4, et nous avons DW = 2 lorsque ^ρ =0,
n

∑ e t et −1 DW
^ρ étant ≤ρ observé ( estimé ) . On a: ^ρ= t=2 n ou aussi ^ρ =1− .
2
∑ e 2t
t=1
Durbin et Watson ont tabulé les valeurs critiques de la statistique DW, au seuil de 5%, en
fonction de la taille n de l’échantillon et du nombre k de variables explicatives. Ainsi on a :

- Si d2¿DW¿4 – d2, on accepte l’hypothèse H0 : ρ=0.


- Si 0 ¿DW¿d1, on rejette H0, et on admet une autocorrélation positive ( ρ>0 ).
- Si 4 – d1¿DW¿4, on rejette H0, et on admet une autocorrélation négative ( ρ<0 ).
- Si d1¿DW¿d2, ou 4 – d2¿DW¿4 – d1, il y a doute ( on ne peut conclure).

Conditions d’utilisation du test :

Pour appliquer le test de Durbin – Watson :

i) le nombre d’observation n doit être supérieur ou égal à 15 ;

ii) le modèle étudié doit comporter un terme constant ;


iii) la variable à étudier ne doit pas figurer parmi les variables explicatives (en tant que
variable retardée).

Remarques :

- Le test de Durbin – Watson ne concerne qu’une autocorrélation d’ordre 1.


- Ce n’est qu’un test présomptif d’indépendance des erreurs (car il utilise les résidus).
- Pour les modèles en coupe instantanées, les observations doivent être ordonnées en
fonction croissante (ou décroissante) de la variable endogène.

c) Test de Breusch-Godfrey

Ce test, fondé sur un test de Fisher de nullité de coefficients ou de Multiplicateur de


Lagrange, permet de tester une autocorrélation d’un ordre supérieur à 1 et reste valide en
présence de la variable dépendante décalée en tant que variable explicative. L’idée générale
de ce test réside dans la recherche d’une relation significative entre le résidu et ce même
résidu décalé.
Une autocorrélation des erreurs d’un ordre p s’écrit :

Et =ρ1 Et −1 + ρ2 Et −2+ …+ ρ p Et− p + v t

Soit le modèle général à erreurs auto corrélées d’ordre p :


y t =a1 x 1t + a2 x2 t + …+a k x kt + a0 + ρ1 Et −1 + ρ 2 Et −2+ …+ ρ p Et −p + v t

Ce test est mené en trois étapes :

– Estimation par les MCO du modèle et calcul du résidu et, puisque les erreurs sont
inconnues, le test porte sur les résidus.
– Estimation par les MCO de l’équation intermédiaire :

e t =a1 x1 t + a2 x 2 t + …+ak x kt + a0 + ρ1 Et−1 + ρ2 Et −2 +…+ ρ p E t− p+ v t

Soit n le nombre d’observations disponibles (attention chaque décalage entraîne la perte d’une
observation) pour estimer les paramètres du modèle et R2 le coefficient de détermination.
Certains auteurs préconisent, afin de ne pas perdre d’observations, de mettre à 0 les premières
valeurs du résidu décalé. La différence n’est perceptible que pour des petits échantillons.

– Test d’hypothèses sur l’équation intermédiaire.


L’hypothèse H0 d’absence d’autocorrélation des erreurs à tester est :

H0 : ρ1= ρ2=…=ρ p =0


Si on refuse l’hypothèse nulle, alors il existe un risque d’autocorrélation des erreurs à l’ordre
Pour mener ce test, nous avons deux possibilités : soit effectuer un test de Fisher classique de
nullité des coefficients ρi soit recourir à la statistique

LM qui est distribuée comme un X 2 à p degrés de liberté ; si n× R 2> X 2 ( p) lu


dans la table au seuil α , on rejette l ’ hypothèse d ’ indépendance .

d) Tests de Box-Pierce et Ljung-Box

Soit le modèle suivant :

y t =a0 + a1 x 1 t + a2 x 2 t +…+ ak−1 a(k −1 )t + Et pour t=1,2 ,…,T une autocorrélation des erreurs
d’ordre k(k¿ 1 ¿.
Et =ρ1 Et −1 + ρ2 Et −2+ …+ ρk Et− k + v t Ou v t N (0 , σ v )

Les hypothèses de ce test sont :

k
{ H 0 : ρ=0
H 1 : ρ ≠0

La statistique utilisée est Q = n ∑ ^ρk


2

t =1
2
^ρ est le coefficient de corrélation d’ordre k des résidus estimése t . Sous
k
l’hypothèse H 0 vraie, Q suit une khi-deux de k degré de liberté.

Règle de décision : si Q
¿ k ¿ ou k ¿ est la valeur donnée par la table du khi−deux ; on rejette H 0 .

III. CONSEQUENCE DE L’AUTOCORRELATION

La principale conséquence de l’autocorrélation est que : la matrice E ( E E' ¿est


différente de σ 2E I cela veut dire que l’hypothèse d’homoscédasicité et d’absence
d’autocorrélation ne sont plus vérifié ou vraie.
Les termes de l’erreur ne sont plus indépendants. Au bout du temps la matrice
variance covariance ( Ω ^ ¿ des erreurs ne peuvent plus être une matrice diagonale.
E t

On traduit l’autocorrélation d’ordre 1 par l’écriture ci-après.


Et =ρ Et −1+ v t Cette relation permet de calculer les covariances entre les termes de
l’erreur.

En effet on peut écrire :


E ( Et E t−1 ¿=E ⟦ (ρ Et −1+ v t )E t−1 ⟧
= E[ ρ Et −1+ v t Et −1 ]
2

= ρE ( E t−1 ) + E ( v t E t−1 )
2

E( Et E t−1 ¿ = ρE ( E 2t−1 )
E( Et E t−1 ¿=ρ σ 2E

En général E ( Et E t−i ¿=ρ2 δ 2E . Cette relation permet de trouver la nouvelle matrice


variance covariance dans le cas d’une autocorrélation d’ordre 1. En effet

E ( E2 ¿=¿

En remplaçant E ( Et E t−1 ¿ par cette expression on a maintenant :

[ ]
1 ρ⋯ ρT−1
2 2
E( Et E t−1 ¿=δ E ρ 1⋯ ρ
T−2
= δE ω
T−1 T −2
ρ ρ ⋯ 1

[ ]
1 0⋯ 0
2 2
δ . ω ≠ δ I car I = 0 1⋯ 0
E
0 0⋯ 1

Remarque : Le biais résultant de l’application directe des MCO porte uniquement


sur la variance des estimateurs c’est-à-dire que les estimateurs eux même
demeurent sans biais autrement dit E ( ^ A ¿ ¿=A car la matrice variance covariance
n’intervient pas dans les calculs de l’espérance mathématique des estimateurs mais
affecte les variances. Ainsi la variance de ^A devient :
V( ^
A ¿=E ¿]
−1
= E ( X ' X ) X ' E ( E E' ) X ( X ' X )−1
= (X ' X )−1 X ' δ 2 ωX ( X ' X )−1
V( ^ 2 ' −1
A ¿=δ E ( X X ) X ' ωX ( X X )
' −1

2 δ2
Avec E δ =
1−ρ2

IV. PROCEDURE DE CORRECTION DE L’AUTOCORRELATION DES


ERREURS

Plusieurs méthodes permettent d’éliminer l’autocorrélation des erreurs. Ces méthodes ont en
commun de passer par une élimination préalable du terme de l’erreur.
Partons de la relation ci-après :

y t =a1 x 1t + a2 x2 t + a3 + Et
E t=ρ Et −1+ v t

A partir de la relation 1 on peut écrire

Et = y t −a1 x 1t −a 2 x 2 t−a3 (2)

(3) dans (2) donne y t −a1 x 1t −a 2 x 2 t−a3=ρ ( y t −1−a1 x 1t −1−a2 x 2t −1−a3 ) + v t

On a donc : y t −ρ y t−1=a1( x 1 t− ρ x 1 t−1 ¿+a2 ( x 2 t− ρ x 2 t−1 )+ a3 (1− ρ)+ v t (3)

Dans (3), on constate v t existe toujours et est un bruit blanc par contre Et source
d’autocorrélation n’existe plus. Toutes les méthodes de corrections de l’autocorrélation
partent de la relation (3)

 La méthode de Durbin-Waston en 2 étapes


 La méthode de Cochrane and Orcutt
 La méthode de Hidreth

a. La méthode de Durbin-Waston

On part de la relation (3) puis on écrit :


y t =ρ y t−1 +a1 ( x 1 t−ρ x 1 t−1 ) +a 2 ( x 2 t− ρ x 2 t−1 ) +a 3 ( 1− ρ )+ v t (4)

La première étape consiste à estimer l’équation (4) par la méthode de MCO. On


obtient les valeurs ^ρ ,a^1,a^2 et a^3. Mais ces estimateurs sont liés entre eux par une
contrainte qui est due au coefficient de la variable retardée en t-1 donc le
coefficient de tout a i x ¿−i est le produit du coefficient
x ¿ et du coefficient y t −i i allant de 1 à n.

Les estimateurs obtenus dans cette équation (4) notamment ceux qui sont
devant x 1 t−1 et x 2t −1ne sont pas cohérents. Seule le coefficient ^ρ est acceptable et
on l’utilise pour passer à la deuxième étape en procédant à la transformation des
variables. On a la nouvelle relation ci-après :

y t −^ρ y t−1=a1 ( x 1 t −^ρ x 1 t −1 ) + a2 ( x 2 t −^ρ x2 t −1) + a3 ¿) + v t

¿ ¿ ¿
y t =a1 x 1t + a2 x2 t + a3 ¿) + v t (5)

L’estimation de l’équation (5) permet alors par la méthode des MCO d’obtenir les meilleurs
valeurs de a 1 , a2 et a3 avec v t comme bruit blanc. On dit alors qu’on corrige l’autocorrélation
des erreurs en utilisant la méthode de Durbin-Watson en 2 étapes.

b. Méthode de Cochrane and Orcutt

Elle considère à partir de l’équation (3) ci-dessus. C’est une méthode itérative
qui consiste à donner les valeurs à ρ de manière arbitraire puis faire l’estimation
de l’équation (3). La valeur arbitraire de départ qui est souvent recommandée est
dosée par la relation suivante :
n

∑ et e t −1
^ρ = t =2 n (e=0)
∑e 2
t
t
On obtient après chaque estimation les valeurs de a^ 1 , a^ 2 et a^ 3 que l’on compare à
chaque fois aux valeurs précédentes. Il faut noter que cette procédure est
convergente au bout d’un certain nombre d’itération. Deux types de programme
pour sont proposés pour décider d’arrêter la procédure :
- On fixe à priori le nombre d’itération qu’on ne veut pas dépasser.
- On fixe un critère de divergence sur ρ .
Par exemple l’écart de convergence entre deux valeurs successives de ρ diffère de 1%.
Dans tous les cas de recherche, dans la procédure d’itération dès que les coefficients
estimés sont stables, on dit qu’on a corrigé l’autocorrélation des erreurs.
Pour une convergence encore plus rapide, il est recommandé de déduire ρ de la relation
ci-après :

Dw
Dw = 2-2 ρ ce qui implique ^ρ =1− qui est la méthode la plus recommandée.
2

c- La méthode du « balayage » ( Hildreh-lu )

Elle consiste à exprimer une succession de l’équation (3) pour des valeurs régulièrement
croissantes de ρ . Elle s’effectue en deux principales étapes :
Etape 1 : détermination du type d’autocorrélation.
A partie de la statistique de Durbin-Watson, on détermine une autocorrélation positive ou
négative ( ρ<0 , ρ>0 ¿ .
Etape 2 : régression pour l’intervalle des valeurs possibles de ρ .
Par exemple, on sait que ρ ∈[0; 1], nous régressons toutes les valeurs successives de
ρ={ 0.1; 0,2; … 0.9 ; 1 } sur l’intervalle [0 ;1] avec un pas fixé égal à 0.1.
Il est possible d’affiner la valeur estimée de ρ en réemployant la même procédure sur un
intervalle restreint et avec un pas plus fin (par exemple 0.01).
Il est à noter que cette technique est optimal selon le critère des moindres carrés puisque l’on
retient le ρ qui minimise la somme des carrés des résidus

FICHE DE TD SUR L’AUTOCORRELATION DES ERREURS


PREMIERE PARTIE: questions de cours

1. Qu’es ce qu’une autocorrélation des erreurs ? Présentez ses causes.

2. Comment détecter une autocorrélation des erreurs ?


3. Quelles sont les conséquences d’une autocorrélation des erreurs ?

4. Répondre par vrai ou faux.


a. Le test de Durbin-Watson permet de détecter une autocorrélation des erreurs
d’ordre supérieure à 1 ?
b. La statistique du test de Durbin-Watson varie entre 0 et 4 et nous avons DW = 2
lorsque ^ρ ≠ 0.
c. Le test de Durbin-Watson ne teste que les autocorrélations d’ordre 1.

5. Compléter le schéma ci-dessous avec les termes suivants : zone d’autocorrélation


positive, zone d’autocorrélation négative, zone de doute, zone d’absence
d’autocorrélation.

5. En quoi consiste la méthode de balayage ?

6. Comment interpréter la statistique de Durbin-Watson ? Quelles sont les limites de


l’utilisation de ce test ?

7. Qu’est-ce que le test de Breusch-Godfrey ?


DEUXIEME PARTIE : EXERCICES
EXERCICE 1

Objectifs de l’exercice : test de détection d’une autocorrélation des erreurs (test de Durbin-
Watson et test de B-Godfrey). Forme de la matrice des variances-covariances des erreurs en
cas d’autocorrélation d’ordre 1 des erreurs. Méthodes d’estimation en cas d’autocorrélation,
estimation du coefficient d’autocorrélation, prévision en cas d’autocorrélation des erreurs.

Nous cherchons à estimer la relation suivante sur 19 observations :


y t =a0 + a1 x 1 ,t + a2 x2 , t +ε t (t=1 , 19)

Soit le tableau des données pour les variables y t , x 1 ,t et x 2 ,t

T yt x 1 ,t x 2 ,t
1 -5 9 673 102
2 -3 5 522 566
3 -7 12 899 367
4 -20 10 249 319
5 -45 9 860 -258
6 -50 -320 -163
7 -15 691 383
8 8 9 998 470
9 10 11 063 419
10 23 12 420 615
11 45 13 118 432
12 79 12 148 4 226
13 16 14 837 -2835
14 25 18 453 505
15 5 13 761 170
16 -36 7 810 504
17 26 15 035 417
18 59 12 918 542
19 74 15 678 386
20 NA NA NA
1) Estimer la relation par la méthode des moindres carrés ordinaires. Etudier les résidus.
2) Effectuer le test d’autocorrélation des erreurs de Durbin-Watson. Commentaires.
3) Effectuer le test d’autocorrélation des erreurs de Breusch-Godfrey. Commentaires.
4) Donner les expressions de E(ε t), E(ε 2t ), Cov(ε t,ε t+i ). En déduire l’expression de la
matrice des variances-covariances des erreurs.

Soit le modèle à autocorrélation des erreurs :

y t =a0 + a1 x 1 ,t + a2 x2 , t +ε t (t=1 , 19)

ε t= ρ ε t−1 +v t Avec 0 ¿∨ρ∨¿ 1 ( v t→ nid ¿

5) A partir de ce modèle proposer une procédure afin de lever l’autocorrélation.


6) Quelle(s) méthode(s) permet d’estimer la valeur de ρ  ?
7) En déduire une méthode adéquate en cas d’autocorrélation des erreurs.
8) Connaissant les valeurs prévues de x 1 ,t et x2 , t pour les périodes 20 et 21, calculer les
prévisions de y t pour ces même périodes avec leur intervalles à 95%.

EXERCICE 2
Objectif de l’exercice : calculer et effectuer le test de Durbin – Watson.
Soit le tableau suivant :

T et
1 -5,808
2 -3,769
3 -4,839
4 7,912
5 5,748
6 -0,982
7 3,857
8 5,280
9 3,063
10 1,322
11 1,909
12 1,909
13 0,713
14 1,332
15 -1,028
16 -3,388
17 -2,500
18 -5,161
19 -4,738
20 -1, 450

1) Calculer la statistique du test de DURBIN-WATSON


2) Effectuer le test de DURBIN-WATSON. Commentaires.

Vous aimerez peut-être aussi