Vous êtes sur la page 1sur 28

Pratique de l’économétrie linéaire

Multi-colinéarité, hétéroscédasticité et
autocorrélation
Soussi Noufail Outmane
@ 2015
Plan du cours

› Rappel modèle de régression multiple


› Violation des hypothèses :
› La multi-colinéarité : qu’advient-il si les régresseurs sont
corrélés?
› L’hétéroscédasticité : qu’advient-il si la variance de l’erreur
n’est pas constante?
› L’autocorrélation : qu’advient-il si les termes d’erreur sont
corrélés?
Violation des hypothèses
L’autocorrélation : qu’advient-il si les termes d’erreur
sont corrélés?
L’autocorrélation des erreurs

› 𝐻3 du MC stipule que les erreurs sont non corrélées (ou indépendantes). Lorsque
𝐻3 est violée, nous sommes donc en présence d’autocorrélation des erreurs.

› Quelle est la nature de l’autocorrélation?


› Quelles sont les conséquences théoriques et pratiques de
l’autocorrélation ?
› Puisque l’hypothèse d’absence d’autocorrélation a trait aux erreurs
inobservables 𝑢𝑡 , comment sait on qu’il existe une autocorrélation dans
une situation données?
› Comment porter remède à l’autocorrélation?
Nature de L’autocorrélation des erreurs

Définition
› C’est la «corrélation entre éléments de séries ou d’observation rangés dans le
temps ou dans l’espace ». Dans le cadre de la régression, le MC linéaire suppose :
𝐸(𝑢𝑖 , 𝑢𝑗 ) = 0 pour 𝑖 ≠ 𝑗.
› Le MC suppose que le terme d’erreur relatif à toute observation n’est pas influencé
par celui de toute autre observation.
Exemples :
› Si une grève affectant le facteur travail se produit dans un trimestre, il n’y a pas
raison de croire que cette interruption sera poursuivie au trimestre suivant (temps).
› En analysant la relation entre consommation et revenu, l’effet de la hausse du
revenu d’une famille sur sa consommation n’est pas supposé affecter la
consommation d’une autre famille (espace).
› Autocorrélation des aléas existe : alors 𝐸(𝑢𝑖 , 𝑢𝑗 ) ≠ 0 pour 𝑖 ≠ 𝑗.
Nature de L’autocorrélation des erreurs

Distinction 1
› La corrélation entre deux séries temporelles : [𝑢1 , 𝑢2 , … , 𝑢9 et 𝑢2 , 𝑢3 , … , 𝑢10 ] c’est
la même série décalée d’une période : est appelée autocorrélation.
› La corrélation entre deux séries temporelles : [𝑢1 , 𝑢2 , … , 𝑢9 et 𝑣2 , 𝑣3 , … , 𝑣10 ] ou 𝑢
et 𝑣 deux séries différentes: est appelée corrélation sérielle.
Représentation graphique de l’autocorrélation
Nature de L’autocorrélation des erreurs

Représentation graphique de l’autocorrélation

Pas d’autocorrélation
Sources de L’autocorrélation des erreurs

› L’inertie : les séries chronologique (PIB, indices de prix, ..) sont sujette à des
cycles (fluctuations). La majorité de ces séries s’orientent à la hausse, il y a donc
une « force d’impulsion ».
› Le biais de spécification (cas de variables exclues) :
Soit le modèle suivant :
𝑌𝑡 = 𝛽1 + 𝛽2 𝑋2𝑡 + 𝛽3 𝑋3𝑡 + 𝛽4 𝑋4𝑡 + 𝑢𝑡
Avec 𝑌 : la quantité demandée de bœuf; 𝑋2 : le prix du Bœuf; 𝑋3 : le revenu du
consommateur; 𝑋4 : le prix du volaille; 𝑢𝑡 : le terme d’erreur.
Supposons : avoir estimer le modèle : 𝑌𝑡 = 𝛽1 + 𝛽2 𝑋2𝑡 + 𝛽3 𝑋3𝑡 + 𝑣𝑡
Donc si le modèle de départ est correcte, cela suppose que 𝑣𝑡 = 𝛽4 𝑋4𝑡 + 𝑢𝑡
Dans la mesure où la consommation du bœuf est affectée par le prix de volaille, alors
𝑣𝑡 aura une configuration systématique, créant une fausse autocorrélation ce qui
complique sa détection
Sources de L’autocorrélation des erreurs
› Le biais de spécification (cas de variables exclues) :
› D’après la théorie du producteur, la relation suivante est vrai :
𝑌𝑖 = 𝛽1 + 𝛽2 𝑋2𝑖 + 𝛽3 𝑋2𝑖 ² + 𝑢𝑖 avec 𝑌𝑖 : le coût marginal 𝑋2𝑖 : la production.
› Supposons: avoir estimer le modèle : 𝑌𝑖 = 𝛽1 + 𝛽2 𝑋2𝑖 + 𝑣𝑖 . Cette forme linéaire
n’est pas appropriée et cette droite surestime/sous-estime le véritable coût
marginal.
› Ce résultat est attendu: 𝑣𝑖 = 𝛽3 𝑋2𝑖 ² + 𝑢𝑖 .
› Dans ce cas 𝑣𝑖 reflétera l’autocorrélation à cause de la mauvaise spécification du
modèle.
› Le phénomène de cobweb (toile d’araignée)
› Ce modèle introduit de façon très simple la question de la stabilité de l’équilibre
dans un modèle de concurrence pure et parfaite. L’idée est de supposer que l’offre
s’adapte avec une période de retard aux variations du prix. (les retards)
𝑂𝑓𝑓𝑟𝑒𝑡 = 𝛽1 + 𝛽2 𝑃𝑟𝑖𝑥𝑡−1 + 𝑢𝑡
Sources de L’autocorrélation des erreurs
› Le phénomène de cobweb (toile d’araignée)

𝑂𝑓𝑓𝑟𝑒𝑡 = 𝛽1 + 𝛽2 𝑃𝑟𝑖𝑥𝑡−1 + 𝑢𝑡
› Dans la régression de la consommation sur le revenu, il est fréquent d’observer que
la consommation de la période courante dépend de celle de la période antérieure.
𝐶𝑡 = 𝛽1 + 𝛽2 𝑅𝑡 + 𝛽3 𝐶𝑡−1 + 𝑢𝑖
› Les consommateurs ne modifient pas facilement leurs consommations, si on
néglige la terme retardé, le terme d’erreur résultant reflètera une configuration
systématique.
› La non-stationnarité
› Voir le chapitre des séries chronologiques
Nature de L’autocorrélation des erreurs

Distinction 2
› Autocorrélation positive
› Autocorrélation négative
Représentation graphique de l’autocorrélation

Autocorrélation positive Autocorrélation Négative


Les conséquences de l’utilisation de MCO en présence de l’autocorrélation
En présence de l’autocorrélation, les estimateurs MCO sont:
1. Linéaires
2. Non biaisés, normalement distribués asymptotiquement
3. Il ne sont plus performants (pas de variance minimale)
Conséquences:
› Les estimateurs MCO demeurent sans biais car ils ne contient pas de variance de
l’erreur, mais deviennent inefficaces.
› La matrice des variances covariances des erreurs n’est plus une matrice diagonale,
les erreurs ne sont pas indépendantes.
› Cette situation remet en cause les tests d’inférences car la variance des erreurs
n’est pas minimale.
› En effet, les tests repose sur la détermination d’intervalle de confiance liés à la
variance des erreurs. On pourrait donc croire à tord qu’une variable est
significative alors qu’elle ne l’est pas.
La détection de l’autocorrélation
(1) La méthode graphique

› L’examen visuel de 𝑢𝑡 ou de 𝑢𝑡 peut fournir une information utile non seulement


de l’autocorrélation, mais aussi sur l’hétéroscédasticité, l’inadéquation du modèle,
le biais de spécification…
› On peut représenter les résidus par un graphique d’ordre temporel.
› On peut représenter les résidus standardisés (résidus / écart-type de la régression)
par un graphique d’ordre temporel.
› On peut représenter 𝑢𝑡 et 𝑢𝑡−1 , ce qui constitue un test empirique du processus
AR(1).
› Cette méthode demeure subjective et qualitative, mais il existe plusieurs tests
quantitatifs qui seront présentés maintenant.
La détection de l’autocorrélation
(1) La méthode graphique
Exemple : (relation entre les salaires et la productivité dans le secteur tertiaire)
› Les données concernent les indices du salaire réel horaire (Y) et la production
horaire (X) dans le secteur tertiaire aux USA sur la période 1960-2005. (1992=100)
› Estimation 𝑌𝑡 = 𝛽1 + 𝛽2 𝑋𝑡 + 𝑢𝑡 𝑙𝑛𝑌𝑡 = 𝛽1 + 𝛽2 𝐿𝑛𝑋𝑡 + 𝑢𝑡

Variable Coefficient Std. Error t-Statistic Prob. Variable Coefficient Std. Error t-Statistic Prob.

PRODUCTION 0.670406 0.015671 42.78133 0.0000 C 1.606680 0.054709 29.36802 0.0000


LOG(PRODUCTION) 0.652216 0.012353 52.79963 0.0000
C 32.74190 1.394020 23.48740 0.0000
R-squared 0.984462 Mean dependent var 4.490151
R-squared 0.976524 Mean dependent var 90.45217
Adjusted R-squared 0.984109 S.D. dependent var 0.175142
Adjusted R-squared 0.975990 S.D. dependent var 15.38853
S.E. of regression 0.022078 Akaike info criterion -4.745943
S.E. of regression 2.384463 Akaike info criterion 4.618330
Sum squared resid 0.021448 Schwarz criterion -4.666437
Sum squared resid 250.1693 Schwarz criterion 4.697836
Log likelihood 111.1567 Hannan-Quinn criter. -4.716159
Log likelihood -104.2216 Hannan-Quinn criter. 4.648113 F-statistic 2787.801 Durbin-Watson stat 0.217558
F-statistic 1830.242 Durbin-Watson stat 0.173888 Prob(F-statistic) 0.000000
Prob(F-statistic) 0.000000

Quelle est la fiabilité de ces résultats en présence de l’autocorrélation?


140

La détection de l’autocorrélation 120

PRODUCTION
100
(1) La méthode graphique
.3 80

.2
60

.1
40
.0 60 70 80 90 100 110 120 130

.06 SALAIRE
-.1

-.2
.04
-.3
1960 1965 1970 1975 1980 1985 1990 1995 2000 2005
.02
RESID_STAND RESID

L’examen de la séquence temporelle permet de

RESID
.00

voir que 𝑢𝑡 et 𝑢𝑡 standardisées suggèrent que les


𝑢𝑡 ne sont peut être pas aléatoires. -.02

-.04
La plus part des résidus sont groupés dans les
deuxième et le quatrième quadrants, ce qui -.06

suggère une importante corrélation positive des


-.06 -.04 -.02 .00 .02 .04 .06
résidus RESID_1
La détection de l’autocorrélation
(2) Le test de Durbin et Watson
𝑡=𝑛
𝑡=2 (𝑢𝑡 − 𝑢𝑡−1 )²
𝑑= 𝑡=𝑛
𝑡=1 (𝑢𝑡 ) ²

C’est le ratio de la somme des carrées des différences dans les résidus successifs à la
SCR
Hypothèses sous jacentes à la statistique 𝑑:
1. Le modèle comporte une valeur en ordonnée à l’origine.
2. Les variables explicatives ne sont pas stochastiques.
3. Les erreurs sont produites par un processus AR(1)
4. Les erreurs sont supposé avoir une distribution normale.
5. Le modèle de régression ne contient pas des valeurs retardées de la
variable dépendante ou l’une de variable explicative.
6. Dans les données, il n’y a pas d’observation omise
La détection de l’autocorrélation
(2) Le test de Durbin et Watson (construction)
La distribution exacte de ce test est difficile à trouver, car il dépend des valeurs de
𝑋𝑡 , car 𝑑 est calculée à partir des 𝑢𝑡 . Il n’y a pas de valeur critique unique menant à
l’acceptation ou au rejet de 𝐻0 (n’existe pas une corrélation sérielle positive ou
négative).
Cependant DW ont dérivé une limite inférieur 𝑑𝐿 et 𝑑𝑈 une limite supérieur, de telle
que si 𝑑 calculé se situe en dehors de ces valeurs critiques, on peut prendre une
décision sur la présence d’une corrélation sérielle positive ou négative.
Ces limites dépendent
seulement de 𝑛 et 𝑘
(nombre de paramètres)
la table de 𝐷𝑊
s’étendent de 6 à 200 et
jusqu’à 20 variables.
La détection de l’autocorrélation
(2) Le test de Durbin et Watson (procédure du test)
𝑡=𝑛 𝑡=𝑛 2 𝑡=𝑛 2 𝑡=𝑛
𝑡=2 (𝑢𝑡 − 𝑢𝑡−1 )² 𝑡=2 𝑢𝑡 + 𝑡=2 𝑢𝑡−1 + 2 𝑡=2 𝑢𝑡 𝑢𝑡−1
𝑑= 𝑡=𝑛 = 𝑡=𝑛
𝑡=1 (𝑢𝑡 ) ² 𝑡=1 (𝑢𝑡 ) ²
𝑡=𝑛
𝑡=𝑛 2 𝑡=𝑛 2 𝑡=2 𝑢𝑡 𝑢𝑡−1
Puisque 𝑡=2 𝑢𝑡 ≈ 𝑡=2 𝑢𝑡−1 on peut écrire : 𝑑 = 2 1 − 𝑡=𝑛 𝑢 2
=2 1−𝜌
𝑡=1 𝑡

Si −1 < 𝜌 < 1 ⟹ 0 < 𝑑 < 4


Toute les valeur estimées de 𝑑 doit se trouver à l’intérieur de l’intervalle
Ce test permet la détection d’une autocorrélation d’ordre un seulement.
› Si 𝜌 = 0, donc : 𝑑 = 2 : il y a absence d’autocorrélation
› Si 𝜌 = 1, donc 𝑑 = 0 : il y a autocorrélation positive
› Si 𝜌 = −1, donc 𝑑 = 4 : il y a autocorrélation négative
La détection de l’autocorrélation
(2) Le test de Durbin et Watson (mise en œuvre )

› Effectuer la régression MCO et obtenir les résidus

› Calculer 𝑑

› Pour la taille donnée de l’échantillon et compte tenu du nombre de variables


explicatives, trouver les valeurs critiques 𝑑𝐿 et 𝑑𝑈 .

› Suivre les règles de décision.


La détection de l’autocorrélation
(2) Le test de Durbin et Watson (mise en œuvre )
Exemple :
› Revenant à la régression salaire-productivité. La valeur estimée est de 𝑑 =
0,1738 suggérant la présence d’une corrélation sérielle positive des résidus. La
table de DW permet de trouver que pour 𝑛 = 46 et une variable explicative, 𝑑𝐿 =
1,48 et 𝑑𝑈 = 1,57 au niveau de 5%.

dl du 4-dl 4-du
0 4
d=0,1738

Autocorrélation Variable Coefficient Std. Error t-Statistic Prob.


Autocorrélation Positive Doute Absence Doute Négative

1,48 1,57 d'Autocorrélation PRODUCTION 0.670406 0.015671 42.78133 0.0000


C 32.74190 1.394020 23.48740 0.0000
Test de DW
R-squared 0.976524 Mean dependent var 90.45217
Adjusted R-squared 0.975990 S.D. dependent var 15.38853
S.E. of regression 2.384463 Akaike info criterion 4.618330
Sum squared resid 250.1693 Schwarz criterion 4.697836
Log likelihood -104.2216 Hannan-Quinn criter. 4.648113
F-statistic 1830.242 Durbin-Watson stat 0.173888
Prob(F-statistic) 0.000000
La détection de l’autocorrélation
(2) Le test de Durbin et Watson
Limite :
Ce test soufre d’un important inconvénient : s’il se trouve dans la zone d’indécision,
on ne peut conclure à l’existence ou non d’une autocorrélation (de premier ordre).

Remarque :
Si un modèle contient une des valeur (s) décalée (s) de la variable dépendante, le test
𝑑 s’établit souvent autour de 2, ce qui suggère l’absence d’autocorrélation (premier
ordre). Ce sui signifie que les modèle AR ne souffrent pas d’autocorrélation.
En fait Durbin à construit le test ℎ pour tester la corrélation sérielle dans de tels
modèles. Cependant, ce test n’est pas aussi puissant.
Les remèdes de l’autocorrélation des erreurs

› Essayer de trouver s’il s’agit d’une autocorrélation pure et non le résultat d’une
mauvaise spécification du modèle.

› On peut utiliser une transformation appropriée du modèle original (méthode des


moindres carrées généralisés).

› Dans de grands échantillons, on peut utiliser la méthode de Newey-West pour


obtenir des écarts types des estimateurs MCO corrigés de l’autocorrélation
Autocorrélation pure vs mauvaise spécification du modèle
Exemple : Salaire-Productivité
› La valeur de 𝑑 a suggéré une autocorrélation positive dans le terme d’erreur.
› Est-ce que cette corrélation est apparue en raison d’une mauvaise spécification ?
› Puisque il s’agit d’une série chronologique, il se peut que les séries possèdent des
trends.
› Dans ce cas il faut intégrer le temps dans le modèle.
Interprétation : Dans le temps, l’indice des Variable Coefficient Std. Error t-Statistic Prob.

salaires réels a diminuer 0,75 unités par an. C 0.113409 0.308559 0.367543 0.7150
Après prise en compte de fait, si l’indice de la LOG(PRODUCTION)
@TREND
1.028295
-0.007528
0.077552
0.001539
13.25937
-4.890317
0.0000
0.0000
productivité augmentait d’une unité, en R-squared 0.990015 Mean dependent var 4.490151
moyenne l’indice des salaires réels croit de Adjusted R-squared
S.E. of regression
0.989551
0.017903
S.D. dependent var
Akaike info criterion
0.175142
-5.144691
1,01 unités. Ce qui est intéressant à noter est Sum squared resid 0.013782 Schwarz criterion -5.025431

que même en tenant compte de la tendance, 𝑑


Log likelihood 121.3279 Hannan-Quinn criter. -5.100015
F-statistic 2131.802 Durbin-Watson stat 0.449741
Prob(F-statistic) 0.000000
est encore très faible, ce qui suggère que le
modèle souffre d‘une autocorrélation pure.
Autocorrélation pure vs mauvaise spécification du modèle

Exemple : Salaire Productivité


› Comment savoir si la spécification est correcte? Pour tester cela, nous régressons 𝑌
sur 𝑋 et 𝑋2 pour tester la possibilité que l'indice des salaires réels peut être liée (non
linéaire) à l'indice de productivité.
› Les résultats sont les suivants.
› Regardons le 𝑑, qui est encore assez faible, ce qui suggère que nous avons encore
la corrélation sérielle positive dans les résidus.
Variable Coefficient Std. Error t-Statistic Prob.
On peut conclure, que notre régression
C -1.784296 0.643853 -2.771276 0.0082
de salaire et de la productivité en LOG(PRODUCTION) 2.196345 0.292692 7.503954 0.0000
(LOG(PRODUCTION))^... -0.175155 0.033183 -5.278534 0.0000
souffre probablement d'autocorrélation
pure et pas nécessairement de biais de R-squared
Adjusted R-squared
0.990572
0.990133
Mean dependent var
S.D. dependent var
4.490151
0.175142
spécification. S.E. of regression 0.017397 Akaike info criterion -5.202012
Sum squared resid 0.013015 Schwarz criterion -5.082753
Log likelihood 122.6463 Hannan-Quinn criter. -5.157337
F-statistic 2258.838 Durbin-Watson stat 0.356051
Prob(F-statistic) 0.000000
Correction de l’autocorrélation pure MCG

Soit le modèle suivant :


𝑌𝑡 = 𝛽1 + 𝛽2 𝑋𝑡 + 𝑢𝑡
› Et supposons que 𝑢𝑡 suit un processus AR(1)
𝑢𝑡 = 𝜌𝑢𝑡−1 + 𝜀𝑡 −1<𝜌 <1
› Envisageons deux cas : 𝜌 est connu ; 𝜌 est inconnu (doit être estimé)
(1) dans le premier cas : le modèle peut être exprimé en (t-1) et en multipliant par 𝜌
𝜌𝑌𝑡−1 = 𝜌𝛽1 + 𝜌𝛽2 𝑋𝑡−1 + 𝜌𝑢𝑡−1
En soustrayant :
𝑌𝑡 − 𝜌𝑌𝑡−1 = 𝛽1 1 − 𝜌 + 𝛽2 (𝑋𝑡 − 𝜌𝑋𝑡−1 ) + 𝜀𝑡
𝑌𝑡∗ = 𝛽1∗ + 𝛽2∗ 𝑋𝑡∗ + 𝑢𝑡
On peut appliquer la MCO et obtenir des estimateurs BLEU. Exécuter cette équation
est équivalemment à utiliser les MCG.
Cette régression est connue sous le nom d’équation des différences généralisées (ou
quasi généralisées).
Correction de l’autocorrélation pure MCG

(2) dans le deuxième cas :


› En pratique il est difficile de mettre en œuvre la MCG car 𝜌 est inconnu. Il convient
alors de trouver des moyens de trouver 𝜌.
Il existe plusieurs méthodes :
› La méthode des différences premières: Dependent Variable: SALAIRE(-1)
Method: Least Squares
› Estimation de 𝜌 à partir des méthodes Date: 01/17/16 Time: 18:16
Sample (adjusted): 1961 2005
Included observations: 45 after adjustments
Itératives ….. Variable Coefficient Std. Error t-Statistic Prob.

C 32.08570 1.429154 22.45083 0.0000


PRODUCTION(-1) 0.679047 0.016308 41.63963 0.0000

R-squared 0.975800 Mean dependent var 89.79111


Adjusted R-squared 0.975237 S.D. dependent var 14.88724
S.E. of regression 2.342686 Akaike info criterion 4.583900
Sum squared resid 235.9916 Schwarz criterion 4.664196
Log likelihood -101.1377 Hannan-Quinn criter. 4.613833
F-statistic 1733.859 Durbin-Watson stat 0.181946
Prob(F-statistic) 0.000000
La méthode de Newey-West de correction de écarts types dans MCO

› Au lieu d’utiliser la MCG, on peut utiliser la MCO, mais corriger les écarts-types
de l’autocorrélation par un procédé développé par Newey et West.
› Les écarts-types corrigés sont nommés par (écarts-types cohérents avec
hétéroscedasticité et autocorrélation) écarts–types CHA de Newey-West.
› Eviews effectue cette correction.
› Il est a signalé que ce procédé est réservé au grands échantillons
HAC standard errors & covariance (Bartlett kernel, Newey-West fixed
Exemple : Salaire Productivité bandwidth = 4.0000)

› Avec 𝑛 = 40 (assez grand) Variable Coefficient Std. Error t-Statistic Prob.

C 32.74190 2.916218 11.22752 0.0000


› En comparaison des deux estimations PRODUCTION 0.670406 0.030199 22.19934 0.0000

R-squared 0.976524 Mean dependent var 90.45217


Les 𝑅² sont identiques, les écarts-types Adjusted R-squared 0.975990 S.D. dependent var 15.38853
S.E. of regression 2.384463 Akaike info criterion 4.618330
Sum squared resid 250.1693 Schwarz criterion 4.697836
CHA sont plus élevés que ceux MCO Log likelihood -104.2216 Hannan-Quinn criter. 4.648113
F-statistic 1830.242 Durbin-Watson stat 0.173888
MCO a sous-estimé les écarts-types Prob(F-statistic)
Prob(Wald F-statistic)
0.000000
0.000000
Wald F-statistic 492.8106
Exercices pour comprendre
1. Les propositions suivantes sont –elles vraies ou fausses? justifiez
› Lorsqu’il y a autocorrélation, les estimateurs MCO sont à la fois biaisés et non
performants.
› Le test d de DW suppose que la variance du terme d’erreur ut est homoscédastique.
› En présence de l’autocorrélation, les variances et les écarts types prévues calculés
par MCO sont non performants.
› L’omission d’une ou de plusieurs variables dans un modèle peut fournir une valeur
de d significative.
2. Étant donné un n=50 et 4 variables explicatives, que peut-on dire de : (a) 𝑑 = 1,05
(b) 𝑑 = 1,4 (c) 𝑑 = 2,5 (d) 𝑑 = 3,97