Explorer les Livres électroniques
Catégories
Explorer les Livres audio
Catégories
Explorer les Magazines
Catégories
Explorer les Documents
Catégories
Août 2014
Introduction
Ce support se veut un guide pratique d’économétrie, ce qui justifie l’absence de théories trop
formalisées. L’ensemble du cours est accessible au lecteur ayant des connaissances de base en
économie et en statistique mathématique. Il ne requiert pas un niveau mathématique
particulièrement élevé, d’autant qu’il n’y a pas de grandes démonstrations des formules
présentées. Ce parti pris constitue, en quelque sorte, mon défi : essayer de faire comprendre et
appliquer avec succès des éléments d’une discipline qui peut atteindre un niveau
mathématique d’une très grande complexité. Cependant, si l'orientation "appliquée" est
privilégiée, elle suppose d’abord quelques connaissances théoriques minimales en statistique
et en économie.
Avant d’aborder comment, de manière pratique, les différentes méthodes sont mises en
œuvre, le cours fait des rappels sur quelques éléments théoriques nécessaires à la
compréhension et à l’interprétation des résultats. Les exposés théoriques font l’objet de
renvois à des ouvrages académiques spécialisés. Les modèles théoriques énoncés sont illustrés
par des exercices pratiques commentés. Les applications seront faites essentiellement sur le
logiciel Eviews.
Chapitre 1 : Le Modèle Linéaire de Régression Multiple
L’analyse économique est basée sur la représentation théorique des comportements des agents
économiques. Elle repose sur des hypothèses plus ou moins réalistes et conduit à des
conclusions dont la portée peut être positive ou normative. Les théories économiques
influencent le réel dans la mesure où elles guident certaines décisions de politique
économique. Compte tenu de cette influence, les théories économiques doivent être
confrontées à la réalité afin d’évaluer leur pertinence empirique : les agents économiques se
comportent-ils conformément à la théorie ?
C f (R) (11.1)
où R représente le revenu. Pour spécifier le modèle empirique, on doit postuler une forme
pour les fonctions intervenant dans le modèle. Bien entendu ces fonctions mathématiques
doivent rester compatibles avec les hypothèses a priori du modèle théorique. En général, la
théorie économique se contente d’indiquer les variables économiques qui interviennent dans
le modèle et suggère le signe probable des dérivées partielles. Par exemple, pour la fonction
de consommation précédente, on a f ' R 0 . Cependant, la théorie économique ne renseigne
pas sur un certain nombre de choses dont la forme exacte des fonctions mathématiques, la
définition et la mesure des variables qui interviennent dans le modèle. Faut-il retenir une
spécification linéaire ? Faut-il raisonner en termes réels ou courants ? Faut-il considérer les
taux de croissance ou les niveaux des variables ? Faut-il appliquer une transformation
logarithmique à certaines variables ? Faut-il corriger les variables des variations saisonnières
ou non ? Ce sont là des questions pratiques importantes dont dépend l’issue de l’évaluation
empirique des modèles économiques.
Ct a0 a1 Rt et (11.2)
1
Il est évident que le revenu (R) n’est pas le seul déterminant de la consommation. La théorie
économique suggère que les prix et les dépenses publiques peuvent également expliquer la
consommation. Dans ces conditions, le modèle précédent dévient un modèle multiple c’est-à-
dire un modèle linéaire avec plusieurs variables explicatives:
Ct a0 a1 Rt a 2 Pt a3Gt et (11.3)
e t est un terme d’erreur qui capte l’ensemble d’autres variables explicatives pertinentes non
prises en compte dans la spécification, mais aussi d’autres types d’erreurs de spécification
telles que la forme de la relation mathématique, l’erreur d’échantillonnage et les erreurs de
mesure sur les variables. Ce terme est supposé aléatoire, ce qui permet de rendre le modèle
non déterministe : les valeurs observées de la consommation peuvent ainsi s’écarter des
valeurs théoriques issues de l’équation. Toutefois, pour que l’ajustement soit satisfaisant, les
valeurs de e t ne doivent pas être trop « grandes », sinon le modèle n’expliquerait pas grande
chose des variations de la consommation.
Pour « gérer » les termes d’erreurs e t ainsi que les propriétés des coefficients estimés du
modèle, on pose les hypothèses suivantes:
- Les erreurs e t sont de moyenne nulle : les erreurs se compensent sur toute la période;
- La variance des erreurs e t est constante (hypothèse d’homoscédascticité) ;
- Les erreurs e t sont indépendantes (l’erreur au temps t n’est pas influencée par l’erreur
aux temps t-1, t-2, ou plus généralement la corrélation entre deux observations
distinctes est nulle) ;
- Les erreurs e t suivent une distribution normale.
On résume ces quatre premières hypothèses en posant que les termes d’erreurs sont
normalement identiquement et indépendamment distribuées et on note e t ~ iid 0, 2 . La
pertinence des tests que nous allons faire sur le modèle dépendra de la validité de ces
hypothèses. L’hypothèse de normalité n’est pas indispensable pour garantir l’absence de biais
dans l’estimation des coefficients, mais elle s’avère cruciale pour réaliser les tests statistiques
sur le modèle.
En plus des hypothèses précédentes sur les termes d’erreurs, on pose également un certain
nombre d’hypothèses sur les variables explicatives. Ainsi une des hypothèses importantes
dans les modèles structurels est l’exogénéïté des variables explicatives. Cette hypothèse
signifie que les variables explicatives ne sont pas corrélées avec le terme d’erreur e t
( cov( xt , et ) 0) . La violation de cette hypothèse implique un traitement économétrique
approprié. On suppose d’une part que le nombre d’observations excède le nombre de
paramètres à estimer et, d’autre part, qu’il n’existe pas de multicolinéarité parfaite entre les
variables explicatives. La première condition est une condition nécessaire pour vérifier la
deuxième. L’absence d’une multicolinéarité parfaite signifie qu’il n’y a pas de redondance des
2
différentes variables explicatives dans la détermination de la variable expliquée. Cette
hypothèse conditionne la possibilité d’estimer les paramètres du modèle.
Une fois le modèle spécifié, il faut fournir des estimations des paramètres structurels a0 , a1 ,
a2 et a 3 à partir d’un échantillon d’observations. Ces coefficients sont importants pour
l’analyse économique étant donnée leur signification économique. Par exemple, le
coefficient a1 représente l’élasticité de la consommation par rapport au revenu ; il indique de
combien varie la consommation lorsque le revenu augmente de 1%. De même, le coefficient
a2 évalue l’élasticité de la consommation privée par rapport au niveau général des prix. Ces
paramètres structurels sont importants pour la simulation des politiques macroéconomiques.
La méthode d’estimation utilisée pour estimer ces paramètres est la méthode des moindres
carrés ordinaires. Cette méthode consiste à minimiser la somme des distances entre les
valeurs observées de la variable endogène (ici la consommation) et ses valeurs ajustées. Il
existe une méthode alternative connue sous le nom de maximum de vraisemblance qui vise à
maximiser la fonction de vraisemblance du modèle. On peut cependant retenir que dans les
hypothèses de base du modèle linéaire les deux méthodes d’estimation donnent des
estimateurs équivalents.
Dans le logiciel Eviews, pour estimer l’équation (11.3), on procède de la façon suivante. Dans
le menu principal, on clique sur Quick/Estimate Equation…. Dans la fenêtre qui s’affiche,
on tape l’équation en commençant par la variable endogène suivie d’une constante et des
variables explicatives. Cliquez sur OK pour valider. On obtient le tableau de résultats suivant.
3
Durbin-Watson stat 1.30263 Prob(F-statistic) 0.00000
Dans cette étape, on se pose les questions suivantes. La méthode d’estimation des coefficients
est-elle appropriée ? Les coefficients sont-ils significatifs ? Ont-ils le signe attendu ? Le
modèle théorique est-il validé ? Cette étape est très importante. Elle doit permettre d’évaluer
la robustesse du modèle sur le plan statistique et la pertinence des théories économiques qui
leur ont donné naissance. Lorsque la spécification retenue n’est pas satisfaisante, elle doit être
modifiée puis re-estimer à nouveau avant de conclure quant à la validité ou non de la théorie.
On commence par vérifier les hypothèses sur les termes d’erreurs et ensuite les restrictions sur
les coefficients. Avant de présenter ces tests, il nous faut préciser ce qu’est un test
d’hypothèse. Un test d’hypothèse consiste à tester une hypothèse nulle notée le plus
souvent H 0 contre une hypothèse alternative notée H 1 . Il ne s’agit pas d’une démonstration à
proprement dite. Conformément à une démarche d’infirmation, ne pas rejeter H 0 ne signifie
pas obligatoirement que celle-ci est vraie, mais seulement que les données disponibles ne sont
pas en contradiction avec cette hypothèse et que l’on n’a pas de raison suffisante de lui
préférer l’hypothèse alternative compte tenu des résultats obtenus sur l’échantillon. Rejeter
H 0 n’entraîne nullement l’acceptation de H 1 . En effet, l’issu du test d’une hypothèse dépend
de l’hypothèse alternative à laquelle on la confronte.
Par nature, le jugement sur échantillon ne permet pas de décider avec certitude. Nous ne
pouvons pas être sûr que l’hypothèse examinée est juste ou fausse. Il nous faudrait pour cela
examiner la population dans sa totalité, ce qui est impossible, voire parfois sans intérêt. C’est
pour cela, pour effectuer un test d'hypothèses, on se fixe une probabilité d’erreur a priori
notée , appélée encore erreur de première espèce ou seuil de signification: c’est la
probabilité de rejeter l’hypothèse nulle sachant qu’elle est vraie. On choisit, dans la pratique,
un faible :1%, 5% ou 10%. Les logiciels statistiques calculent un niveau de probabilité
qu’on appelle la p-value qui réprésente le seuil d’erreur minimal pour lequel la statistique de
test rejette l'hypothèse nulle. La p-value a l’avantage d’être directement interprétable : on
rejette l’hypothèse nulle lorsque la p-value est inférieure à .
Test de normalité
4
Pour réaliser le test de normalité, sélectionnez View/Residual Tests/Histogram-Normality
Test. On obtient le graphique suivant:
Mean 1.97E-15
6 Median -0.009997
Maximum 0.114133
Minimum -0.072786
4 Std. Dev. 0.042825
Skewness 0.687528
Kurtosis 3.013218
2
Jarque-Bera 2.994007
Probability 0.223800
0
-0.05 0.00 0.05 0.10
5
du Kurtosis est inférieure à 3, la distribution est plus aplatie que la normale (elle est dite
platikurtique). Dans notre cas, le Kurtosis approche la valeur 3.
T k 2 ( K 3) 2
JB S (11.4)
6 4
Sous l’hypothèse de normalité, la statistique de Jarque-Bera est distribuée suivant une loi du
2 à 2 degrés de liberté. La probabilité reportée représente la probabilité que 2 excède la
valeur calculée. Une probabilité inférieure à 0,05 conduit à rejeter l’hypothèse nulle d’une
distribution normale au seuil de 5%. Dans notre cas, la statistique de Jarque-Bera reporte une
valeur de 2,99 et une probabilité de commettre une erreur de première espèce de 0,22.
Autrement dit, si on rejette l’hypothèse de normalité des résidus, il y a 22% de chances de
prendre une mauvaise décision. Cette probabilité étant bien supérieure à 5%, on ne peut donc
rejeter l’hypothèse de normalité des résidus au seuil de 5%. Nous sommes donc amenés à
accepter l’hypothèse que les termes d’erreur suivent une distribution normale.
En plus du test de Jarque-Bera, EViews permet de faire d’autres tests de normalité comme
par exemple le test de Kolmogorov-Smirnov, le test de Lilliefors, le test de Cramer-von
Mises, le test d’Anderson-Darling et le test de Watson. Ces tests sont basés sur la
comparaison de la distribution empirique et une distribution théorique spécifiée.
Pour réaliser ces tests, double-cliquez sur la série des résidus RES, et sélectionnez
View/Distribution/Empirical Distribution Tests.
La distribution théorique est la distribution normale. Cette distribution est caractérisée par sa
moyenne et son écart-type. En ne renseignant pas ces paramètres, EViews les estime par la
méthode du maximum de vraisemblance sous l’hypothèse de normalité. Cliquez alors sur OK
pour obtenir les résultats.
Le tableau des résultats (cf. Tableau 11.2) comporte deux parties. La première partie
(PARTIE I) présente les statistiques de tests et les probabilités critiques correspondantes. La
colonne « Value » donne les valeurs asymptotiques des statistiques de tests et la colonne
« Adj.Value » corrige ces valeurs pour tenir compte à la fois de la taille finie de l’échantillon
et de l’incertitude sur les estimations des paramètres de la distribution théorique. La dernière
colonne indique les probabilités des valeurs ajustées.
PARTIE I
Method Value Adj. Value Probability
Lilliefors (D) 0.12966 NA > 0.1
6
Cramer-von Mises (W2) 0.09795 0.09924 0.1152
Watson (U2) 0.08284 0.08393 0.1557
Anderson-Darling (A2) 0.57622 0.58849 0.1251
PARTIE II
Method: Maximum Likelihood - d.f. corrected (Exact Solution)
Parameter Value Std. Error z-Statistic Prob.
MU 1.97E-15 0.00694 2.83E-13 1.0000
SIGMA 0.04282 0.00497 8.60232 0.0000
Log likelihood 66.30476 Mean dependent var. 1.97E-15
No. of Coefficients 2 S.D. dependent var. 0.04282
La seconde partie du tableau (PARTIE II) indique les valeurs des paramètres utilisées pour
calculer la fonction de densité théorique. La moyenne de la série résiduelle RES est estimée à
1.97x10-15 avec une probabilité égale à 1, indiquant que les erreurs ont une moyenne qui n’est
pas significativement différente de zéro. L’écart-type est estimé à 0.04282 avec une
probabilité qui indique que ce paramètre est significativement différent de zéro. On
remarquera que ces valeurs sont les mêmes que celles reportées dans l’histogramme des
résidus. Dans la partie inférieure du tableau on peut lire la valeur de la fonction de
vraisemblance ainsi que le nombre de paramètres estimés (moyenne et écart-type). Pour
revenir au tableau des estimations, cliquez sur l’onglet Stats.
Test d’hétéroscédasticité
L’hétéroscédasticité qualifie des données qui n’ont pas une variance constante. Le problème
de l’hétéroscédasticité se rencontre plus fréquemment sur des données en coupe instantanée
ou bien sur des données groupées. Elle prend souvent une forme particulière sur des données
temporelles. Néanmoins, il est important dans tous les cas de savoir la détecter et la corriger.
Plusieurs tests existent pour détecter l’hétéroscédasticité. Il s’agit en particulier des tests
suivants :
Test de Goldfeld et Quandt (1965)
Test de Breusch et Pagan (1979)
Test de Glesjer (1969)
Test de White (1980)
L’idée générale de ces tests est de vérifier si le carré des résidus peut être expliqué par les
variables du modèle. Si c’est le cas, il y a hétéroscédasticité. Dans le contexte du test
d’hétéroscédasticité de White, l’hypothèse nulle est que tous les coefficients de la régression
des carrés des résidus sont nuls, c’est-à-dire les variables du modèle n’expliquent pas la
variance des termes d’erreurs. Dans les tests de Goldfeld et Quandt et de Breusch et Pagan,
les variables responsables de l’hétéroscédasticité peuvent être des variables extérieures au
modèle, c’est-à-dire des variables qui ne font pas partie des variables exogènes. Il est clair
qu’en pratique trouver de telles variables n’est pas toujours une tâche aisée. Ces deux derniers
tests ne sont pas encore disponibles en mode interactif sous EViews. Toutefois, ils peuvent
être programmés sous grande difficulté1.
1
Pour une présentation théorique de ces tests, voir Dormon (1999, pp. 299-306).
7
Nous allons tester l’hypothèse d’hétéroscédacticité à l’aide du test de White. Nous
l’appliquons ici dans sa forme complète, c’est-à-dire en introduisant dans l’équation non
seulement les variables explicatives et leurs carrés mais également les doubles produits. Pour
ce faire, sélectionnez View/Residual Tests/White Heteroskedasticity (cross terms). Le
tableau qui s’affiche donne la régression de White. Les statistiques sur lesquelles est basé le
test de White figurent dans le haut du tableau. Il s’agit des tests de Fisher (F-statistic) et du
Chi-deux. La statistique du test de White est égale au produit du nombre d’observations et du
coefficient de détermination de la régression de test (Obs*R-squared). Le résultat du test
figure dans le tableau suivant:
Test d’autocorrélation
L’autocorrélation des erreurs signifie que le terme d’erreur correspondant à une période est
corrélé avec le terme d’erreur d’une autre période. Si cette corrélation joue entre deux termes
consécutifs ( e t et et 1 ), on parle d’autocorrélation d’ordre un. La plupart des applications sur
des données annuelles impliquent des autocorrélations d’ordre un. Dans les séries temporelles,
l’autocorrélation des erreurs peut avoir plusieurs origines. Elle peut provenir de phénomènes
de mémoire ou d’inertie dans la fonction de comportement des agents. Elle peut également
être liée à une erreur de spécification de la forme fonctionnelle ou à une erreur de mesure ou
encore à l’omission d’une variable explicative pertinente corrélée dans le temps. Dans le cas
des données transversales, il est possible d’observer une autocorrélation spatiale si les
observations ont été préalablement rangées selon un certain ordre, par exemple géographique.
8
Il existe plusieurs tests de l’autocorrélation des erreurs. Les plus couramment utilisés sont :
Les conditions d’application du test de Durbin et Watson supposent que les variables
explicatives ne sont pas aléatoires, ce qui implique que la variable endogène retardée ne figure
pas parmi les variables explicatives (sinon elle serait corrélée avec les termes erreurs en cas
d’autocorreléation). De plus, le modèle doit être spécifié avec une constante parmi les
explicatives et les erreurs doivent suivre une loi normale. Ce test ne s’applique que sur des
données temporelles. Le modèle (11.3) remplit bien toutes ces conditions.
DW 2(1 ˆ ) (11.5)
Cette formule s’avère utile en pratique car elle permet dans certains cas d’avoir très
rapidement une idée sur l’autocorrélation des erreurs. La valeur calculée de DW est comprise
entre 0 et 4. Une valeur proche de 2 indique une absence d’autocorrélation des erreurs tandis
qu’une valeur proche de zéro ou de 4 est révélatrice d’une autocorrélation des erreurs
(autocorrélation positive ou négative). Pour des valeurs qui s’éloignent de ces deux valeurs, il
faut consulter les valeurs critiques tabulées par Durbin et Watson pour pouvoir décider en
toute assurance.
Dans notre cas, la statistique de Durbin-Watson reporte une valeur de 1,302 qui n’est ni
proche de zéro ni proche de 2. Le recours à la table de Durbin et Watson est donc nécessaire
pour conclure. On lit dans la table de Durbin et Watson2 pour n 38 et k 3 , d1 1.32
et d 2 1.66 . La valeur de la statistique DW se situe à droite de d1 , nous pouvons conclure à
une autocorrélation positive des résidus, donc à une présomption de dépendance des erreurs.
2
Voir Bourbonnais (1998), Table de Durbin-Watson, page 297.
9
Figure 1.2 : Corrélogramme de la série des résidus de l’équation (11.3)
On observe ici que seul le premier terme du corrélogramme sort de l’intervalle de confiance.
En effet, la Q-stat de Ljung-Box reporte une valeur de 3.883 avec une probabilité de 0.049
inférieure à 0.05. Nous rejetons donc l’hypothèse de nullité du premier coefficient
d’autocorrélation.
Contrairement au test de Durbin et Watson, le test de Breusch et Godfrey permet de tester une
autocorrélation d’ordre supérieur à 1 et reste valable en présence de la variable endogène
retardée parmi les variables explicatives. Pour réaliser ce test, sélectionnez View/Residual
Tests/ Serial Correlation LM Test…. Précisez l’ordre de l’autocorrélation et cliquez sur
OK. Pour un nombre de retards égal à un, on obtient le tableau suivant:
10
Breusch-Godfrey Serial Correlation LM Test:
F-statistic 4.036988 Probability 0.052750
Obs*R-squared 4.141955 Probability 0.041833
On retient finalement l’hypothèse d’une autocorrélation des erreurs à l’ordre un. L’équation
de consommation doit donc être re-spécifiée et re-estimée avant d’être utilisée pour la
prévision ou la prise de décision. A cet égard, plusieurs techniques ont été proposées: la
méthode itérative de Cochrane-Orcutt, la procédure de Prais-Winsten, la méthode du balayage
de Hildreth-Lu, la méthode du maximum de vraisemblance et la méthode des variables
instrumentales.
Nous allons re-estimer le modèle en retenant une autocorrélation d’ordre 1. Pour cela, cliquez
sur Estimate dans le menu de l’équation pour retourner à la spécification de l’équation, et
ajoutez un terme AR(1) à la fin de l’équation. Cliquez sur OK pour valider. Vous obtenez le
tableau de résultats suivant:
Les coefficients estimés, les écart-types et les statistiques s’interprètent de la façon habituelle.
Le coefficient estimé du terme AR(1) est le coefficient de l’autocorrélation sérielle des résidus
inconditionnels. On constate que ce coefficient est significatif au seuil de 10% et est inférieur
à l’unité. Rappelez-vous que plusieurs raisons peuvent être à l’origine de l’autocorrélation des
erreurs, dont l’omission de variables explicatives pertinentes. Aussi, est-il possible de corriger
l’autocorrélation des erreurs en introduisant des retards de la variable endogène parmi les
11
variables explicatives. Nous reviendrons sur ce point lorsque nous aborderons les modèles à
décalages temporels.
Les tests de restrictions linéaires sur les coefficients sont de trois types : le test de
significativité globale des coefficients, le test de significativité individuelle des coefficients et
le test de stabilité.
Le test de significativité globale des coefficients cherche à savoir s’il existe au moins un
coefficient parmi tous les coefficients, à l’exception de la constante, qui soit significativement
différent de zéro, c’est-à-dire une variable explicative qui influence significativement la
variable endogène. On teste donc l’hypothèse nulle selon laquelle tous les coefficients du
modèle, à l’exception de la constante, sont égaux à zéro, contre l’hypothèse alternative selon
laquelle il existe au moins un coefficient différent de zéro.
H 0 : a1 a 2 a3 0 contre H 1 : i ai 0
Ce test est réalisé à partir de la statistique de Fisher. Celle-ci figure directement dans le
tableau des résultats. Si l’hypothèse nulle est acceptée, cela signifie qu’il n’existe aucune
relation linéaire significative entre la variable endogène et les variables explicatives retenues.
Il faudrait alors rechercher une spécification plus adéquate de la dynamique de la variable
endogène.
La valeur de la statistique de Ficher reporte ici une valeur de 642,746 avec une probabilité
presque nulle. Manifestement les coefficients sont globalement significatifs, ce qui signifie
que, prises ensemble, les trois variables explicatives influencent de façon significative les
variations de la consommation.
R2 T k 1
F (11.6)
1 R2 k
12
tester la significativité de R 2 . Si l’hypothèse alternative est acceptée, on doit s’attendre à ce
que R 2 et F prennent une valeur élevée.
Dire qu’un coefficient est significatif signifie que la variable explicative correspondante
contribue de façon significative à l’explication de la variable endogène. La significativité d’un
coefficient est testée à partir du t de Student. On teste l’hypothèse d’un coefficient nul contre
l’hypothèse alternative d’un coefficient différent de zéro (positif ou négatif, le test étant
bilatéral).
H 0 : ai 0 contre H 1 : i ai 0
Un coefficient sera significatif si la probabilité est inférieure au seuil de 5%. Cette probabilité
apparaît dans la dernière colonne du tableau des estimations (cf. tableau 11.5). Rappelons que
cette probabilité est calculée sur la base de l’hypothèse de normalité des termes d’erreurs.
Pour la variable LPIBR, la probabilité est presque nulle. Par conséquent, quel que soit le seuil
retenu, cette variable contribue significativement à expliquer le niveau de la consommation.
L’élasticité-revenu de la consommation est égale à 0,92, ce qui signifie que, toutes choses
égales par ailleurs, une augmentation du revenu de 10% entraîne un accroissement de la
consommation de 9,2%. On constate également que le coefficient de la variable de prix est
significatif au seuil de 5%. En revanche, l’utilisation des probabilités permet de rejeter, sans
ambiguïté, le caractère significatif des dépenses publiques. En effet, le rejet de l’hypothèse
nulle entraîne une probabilité d’erreur de 54%. On peut cependant continuer à interpréter les
résultats de l’estimation dans la mesure où le maintien d’une variable explicative non
significative ne biaise pas les estimations sous les hypothèses habituelles. Toutefois, si le
modèle doit être utilisé à des fins de prévision, on peut être amené à éliminer cette variable
conformément au principe de parcimonie.
13
La non significativité de la variable LGT peut apparaître surprenante dans la mesure où cette
variable présente une très forte corrélation avec la consommation. En fait, il existe une très
forte corrélation entre les trois variables explicatives, qui fait peser un risque de
multicolinéarité. Or la multicolinéarité entre les variables explicatives d’un modèle linéaire
conduit à des écarts-types des coefficients élevés, donc à des statistiques de Student faibles,
conduisant à la non significativité des coefficients alors que le coefficient de détermination R 2
reporte une valeur élevée. En outre, en présence de multicolinéarité approchée, il est difficile,
sinon impossible, d’isoler l’effet intrinsèque de chacune des variables explicatives sur
l’endogène (il y a confusion des effets), car toute variation de l’une des variables explicatives
implique une variation des autres variables. En supprimant tour à tour chacune des variables,
on constate que les autres variables présentent des coefficients significatifs. Mais la forte
colinéarité entre les variables génère un coefficient non significatif pour la dernière variable.
On rencontre très souvent ce genre de problème d’adéquation entre la théorie économique et
la pratique économétrique : en théorie on peut supposer que des variables sont orthogonales
mais lors de la modélisation on se rend compte qu’elles sont liées entre elles. On peut obtenir
des coefficients non significatifs ou affectés d’un signe erroné.
En réalité, le coefficient de corrélation simple n’est pas trop révélateur du degré de liaison
réelle entre deux variables. Il est d’une utilité limitée lorsqu’on travaille avec plusieurs
variables. On préfère dans ces conditions utiliser le coefficient de corrélation partielle qui
mesure la liaison ou corrélation nette entre deux variables lorsque l’influence d’une tierce
variable est retirée. Le coefficient de corrélation partielle permet de mieux juger de la
pertinence d’inclure une variable explicative dans un modèle. Ainsi plus le coefficient de
corrélation partielle d’une variable est élevé, plus sa contribution est importante à
l’explication des variations de la variable endogène. Dans notre exemple, le coefficient de
corrélation partielle entre la consommation et les dépenses publiques est égal à 0,124 avec une
probabilité de 0.472. Ainsi, lorsqu’on contrôle par le revenu et les prix, l’influence des
dépenses publiques sur la consommation devient non significative.
Il existe plusieurs techniques pour détecter la multicolinéarité entre les variables explicatives,
dont le test de Klein et le test de Farrar-Glauber3. La procédure du test de Klein (1962)
consiste à comparer le coefficient de détermination R 2 du modèle et les coefficients de
détermination entre les variables explicatives considérées deux à deux Rij2 . Il y a présomption
de multicolinéarité lorsque la plupart des Rij2 sont supérieurs au R 2 . La faiblesse de cette
méthode vient de ce que la colinéarité peut impliquer plus de deux variables explicatives. On
peut alors préférer régresser chaque variable explicative sur toutes les autres variables
explicatives. Si les coefficients de détermination R 2j sont élevés, alors il y a présomption de
multicolinéarité.
3
Une présentation théorique et une application de ces tests sont faites dans Bourbonnais (1998) pages 100-103.
14
Une deuxième approche consiste à remplacer les variables explicatives par un nombre plus
faible de combinaisons linéaires. A cet égard, les méthodes d’analyse factorielle telles que
l’Analyse en Composantes Principales (ACP) et l’Analyse des Correspondances Multiples
(ACM) peuvent s’avérer utiles, surtout si le nombre de variables explicatives est important4.
L’avantage d’utiliser des combinaisons linéaires issues d’une analyse factorielle réside dans
l’orthogonalité de ces combinaisons. Il faut cependant noter que l’utilisation des composantes
principales n’a pas de justification théorique. De plus, il est souvent difficile de donner une
signification précise à ces composantes principales, ce qui vient compliquer l’interprétation
des coefficients du modèle.
Il existe d’autres méthodes pour corriger les effets d’une forte multicolinéarité. On peut
chercher à augmenter le nombre des observations ou bien transformer la relation fonctionnelle
qui lie les variables explicatives à la variable endogène.
La prévision à partir d’un modèle économétrique repose sur l’hypothèse de constance dans le
temps et dans l’espace des coefficients du modèle. Cette hypothèse signifie que sur la période
d’estimation le comportement des agents n’a pas connu de changement structurel important.
Cette constance des paramètres de comportement est à la base des simulations qui vont être
faites pour évaluer l’impact de différentes politiques économiques. Des ruptures structurelles
dans la valeur des coefficients peuvent évoquer un problème de spécification du modèle. On
se souvient de la critique de Lucas selon laquelle l’utilisation des modèles économétriques
traditionnelles, pour simuler les effets des changements de politique économique, est
incorrecte dans la mesure où des agents dotés d’anticipations rationnelles vont modifier leur
comportement en réaction à des changements dans les règles du jeu. Il en résulte une
instabilité des paramètres du modèle.
Il est donc important de compléter la série des tests économétriques par des tests de stabilité.
Ces tests s’intéressent plus généralement à des questions du genre : peut-on considérer qu’il y
a eu un changement dans le comportement de consommation des ménages après une date
donnée? La propension marginale à consommer est-elle restée constante sur toute la période
d’estimation? Le comportement de consommation des hommes ou des ivoiriens est-il
identique à celui des femmes ou des Maliens? Lorsqu’on travaille sur des données
temporelles, les tests de stabilité prennent la forme de tests de stabilité temporelle ou
structurelle. Sur des données en coupe instantanée, il s’agit de tests d’homogénéité de
comportements (hommes/femmes ; riches/pauvres etc.).
Il existe plusieurs tests de stabilité dont les plus utilisés sont le test de Chow et les tests
CUSUM et CUSUMQ de Brown, Durbin et Evans (1975).
Le test de Chow
Le test de Chow effectue un test de Fisher en comparant les estimations des coefficients sur
deux ou plusieurs sous périodes. Il nécessite d’indiquer une ou plusieurs dates de rupture dans
les séries, ce qui requiert une analyse exploratoire plus précise des séries.
4
Les aspects techniques et pratiques de ces méthodes sont développés dans Lebart L., Morineau A. et Piron, M.
(1995), Statistique exploratoire multidimensionnelle, Dunod, Paris. Jambu M. (1999), Méthodes de base de
l’analyse des données, Dunod, Paris.
15
Nous allons réaliser le test de Chow en considérant les deux sous périodes 1965-1993 et 1994-
2002. A partir du menu de l’équation, sélectionnez View/Stability Tests/Chow Breakpoint
Test… et entrez 1994 dans la boîte de dialogue qui apparaît. Cette date correspond à la date
supposée de rupture. Cliquez sur OK pour obtenir le tableau suivant :
La statistique de Fisher reporte une probabilité supérieure à 5% : on ne peut donc pas rejeter
au seuil de 5% l’hypothèse de stabilité des coefficients. En d’autres termes, l’année 1994
n’introduit pas un changement structurel significatif dans le comportement de consommation
des ménages. Notons que le test de Chow n’est pas pertinent si la date choisie ne correspond
pas à la véritable date de rupture.
Pour mettre en œuvre ces tests, sélectionnez, à partir du menu de l’équation, View/Stability
Tests/Recursive Estimates… Il suffit de cocher la case correspondante au test que l’on veut
faire (CUSUM ou CUSUMQ). Les résultats pour les tests CUSUM et CUSUMQ sont
représentés dans les graphiques suivants :
20 1.6
15
1.2
10
5
0.8
0
-5 0.4
-10
0.0
-15
-20 -0.4
1970 1975 1980 1985 1990 1995 2000 1970 1975 1980 1985 1990 1995 2000
Si les courbes sortent du corridor stylisé par les droites en pointillés, on conclut qu’il y a
instabilité du modèle. Sinon, le modèle peut être considéré comme stable sur toute la période.
Ici, aucune des statistiques CUSUM et CUSUMQ ne franchit les droites: nous pouvons donc
16
conclure que le comportement de consommation des ménages est resté stable sur toute la
période d’étude.
Section 4 : Prévisions
Nous avons estimé une équation de consommation sur la période 1965-2002. Nous allons
maintenant utiliser cette équation pour réaliser des prévisions sur la période 2003-2015. Il
s’agira de déterminer les valeurs de la consommation pour des valeurs attribuées au revenu et
au prix. La variable LGT sera éliminée parmi les variables explicatives. Avant de se livrer à
cet exercice, nous allons évaluer la capacité prédictive du modèle en réalisant une simulation
historique.
La simulation historique consiste à appliquer le modèle pour générer les valeurs passées de la
consommation sur la période d’estimation. Cette simulation par resubstitution permet
d’évaluer la capacité prédictive du modèle, c’est-à-dire son aptitude à reproduire le passé.
Pour réaliser la simulation, sélectionnez Procs/Forecast ou cliquez simplement sur le bouton
Forecast dans la barre de menu de la fenêtre des estimations. Dans le champ Forecast
sample, indiquez la période de prévision et cliquez sur OK pour valider. Vous obtenez le
graphique donnant l’évolution de la variable CONSF sur toute la période historique 1965-
2002. Les courbes en pointillés matérialisent les bornes inférieure et supérieure de l’intervalle
de confiance à 5% des valeurs prévisionnelles. Une bonne adéquation se traduit par un
resserrement de ces deux courbes.
6000
Forecast: CONSF
Actual: CONS
5000
Forecast sample: 1965 2002
Included observations: 38
4000
Root Mean Squared Error 158.1191
Mean Absolute Error 114.9630
3000
Mean Abs. Percent Error 3.378645
Theil Inequality Coefficient 0.023481
2000 Bias Proportion 0.000559
Variance Proportion 0.011606
1000 Covariance Proportion 0.987835
0
1965 1970 1975 1980 1985 1990 1995 2000
CONSF
On peut représenter simultanément les évolutions des séries CONS et CONSF afin d’évaluer
graphiquement l’écart entre les valeurs réelles et les valeurs simulées. On constate (cf. figure
11.5) que globalement les simulations historiques ne s’écartent pas trop des valeurs réelles.
17
6000
5000
4000
3000
2000
1000
1965 1970 1975 1980 1985 1990 1995 2000
CONS CONSF
Les statistiques figurant à droite du graphique de CONSF (cf. figure 11.4) permettent de
procéder à une évaluation statistique de la qualité prédictive du modèle. Root Mean Squared
Error et Mean Absolute Error sont des statistiques qui dépendent de l’échelle de mesure de
la variable endogène. Elles permettent de comparer les prévisions d’une même endogène pour
différents modèles. Mean Absolute Percentage Error (MAPE) et Theil Inequality
Coefficient sont indépendantes de l’échelle de mesure de la variable endogène. Le coefficient
d’inégalité de Theil est compris en 0 et 1, une valeur proche de zéro indiquant une bonne
adéquation. La moyenne des carrés des erreurs de prévision (Mean Squared Error) est
décomposée suivant trois types de proportions. Bias Proportion indique combien la moyenne
des prévisions s’écarte de la moyenne des valeurs actuelles de la série. Variance Proportion
indique combien la variation des valeurs prévisionnelles s’écarte de celle des valeurs
actuelles. Covariance Proportion mesure les erreurs de prévision non systématiques. Pour
une bonne prévision, les deux premières proportions devraient fournir des valeurs faibles.
Notons que EViews n’affiche ces différentes statistiques que lorsque les valeurs de la variable
endogène sont renseignées sur la période de simulation. Il s’agit en effet de comparer les
valeurs prédites avec les valeurs réellement observées de la variable endogène. En pratique,
on utilise ces statistiques pour évaluer l’adéquation des prévisions avec les réalisations. Si
cette adéquation est bonne alors on peut procéder à la prévision proprement dite de la variable
endogène. Dans notre exemple, MAPE= 3,378% et Theil=0,023. La performance
prévisionnelle du modèle est donc bonne.
Cette méthode d’évaluation présente cependant un biais : elle fournit le plus souvent une
mesure optimiste de la capacité prédictive du modèle car elle applique le modèle à des
données qui ont servi à le construire. Une autre façon d’apprécier plus objectivement la
capacité prédictive d’un modèle consiste à utiliser le modèle pour prédire les valeurs de la
variable endogène pour une période non comprise dans l’échantillon d’estimation et à vérifier
si les valeurs prédites sont suffisamment proches des valeurs effectivement observées durant
cette période. Cette approche repose sur l’hypothèse de stabilité structurelle du modèle.
18
de l’échantillon (Sample). Ensuite, nous devons renseigner les valeurs futures du revenu et du
prix. De façon pratique, voici les étapes à suivre:
Retournez à l’équation et cliquez sur Forecast. Précisez la période de prévision qui est
2003-2015.
Quatre types d’erreurs entachent la qualité des prévisions : l’incertitude sur l’évolution future
des termes d’erreur; l’incertitude sur les coefficients structurels; l’incertitude sur les valeurs
futures des variables explicatives et l’erreur sur la spécification du modèle. L’incertitude sur
les termes d’erreur provient du fait que ces termes ne sont pas connus sur la période de
prévision, ils sont remplacés par leur valeur moyenne (ici zéro). Or si cette moyenne est nulle
sur une période, les valeurs individuelles peuvent cependant être non nulles. Plus l’erreur
19
individuelle sera importante, plus l’erreur de la prévision sera grande. L’erreur-type fournit
une mesure statistique de la variation des erreurs individuelles.
L’incertitude sur les coefficients structurels provient du fait que ces derniers sont estimés. Il
se peut donc que ces estimations dévient des valeurs vraies des coefficients. Les écart-types
des coefficients donnent une idée sur la précision avec laquelle ces coefficients sont estimés.
L’effet de ces incertitudes sur la prévision dépend de la trajectoire prévisionnelle des variables
exogènes. Plus ces variables dévieront fortement de leurs tendances moyennes, plus grande
sera l’imprécision des prévisions. La connaissance imprécise des valeurs futures des variables
exogènes introduit un élément supplémentaire d’incertitude dans la prévision de la variable
endogène. La qualité des prévisions dépend également du choix de la spécification du modèle.
Par exemple, si l’on adopte une spécification linéaire de façon « mécanique » alors qu’en
réalité la relation véritable est non linéaire, les prévisions seront mauvaises. C’est pour ces
diverses raisons que la prévision conditionnelle ne doit pas être utilisée sur un horizon
temporel assez long. Les techniques de prévision utilisant la méthodologie de Box et Jenkins
s’avèrent moins exigeantes en conjectures dans la mesure où elles utilisent seulement
l’information contenue dans la mémoire des séries pour former les prévisions.
Dans la spécification d’un modèle à décalages temporels, les retards peuvent porter sur
l’endogène et/ou sur les variables exogènes. Lorsque l’endogène retardée apparaît en
explicative, le modèle est dit autorégressif. Lorsque les décalages portent seulement sur les
exogènes, on parle de modèles à retards échelonnés. La combinaison de ces deux types de
modèles conduit aux modèles autorégressifs à retards échelonnés (ADL : Autorégressive
Distributed Lags).
Ct a0 a1 Rt a 2 Pt a3 Rt 1 a 4 Pt 1 a5 Ct 1 et (11.7)
Il s’agit bien d’un modèle autorégressif à retards échelonnés. Pour assurer la stabilité du
modèle on pose que a 5 1 . Si les termes d’erreurs e t respectent les hypothèses habituelles, on
peut utiliser la méthode des moindres carrés ordinaires pour estimer cette équation.
Pour estimer le modèle (11.7), sélectionnez, dans la barre de menu principal, Quick/Estimate
Equation et entrez les variables comme suit :
20
En cliquant sur OK, on obtient le tableau de résultats suivant:
n
h ˆ (11.8)
1 nˆ 2 ( aˆ 5 )
21
La statistique de Durbin-Watson ne nous permet pas de conclure car la valeur de DW se situe
dans la zone de doute ( d1 DW d 2 ). La statistique du « h » de Durbin laisse augurer d’une
d’autocorrélation des erreurs:
h 7.957 , h 1,96
L’analyse du corrélogramme et la statistique de Ljung-Box (cf. figure 11.6) suggèrent que les
erreurs ne sont pas autocorrélées à l’ordre un.
En définitive, nous retenons que les termes d’erreurs du modèle sont autocorrélés à l’ordre un.
Les résultats du test de White sont reportés dans le tableau suivant :
22
Au seuil de 5%, l’hypothèse nulle d’homoscédasticité ne peut être rejetée.
Plusieurs artifices sont proposés pour déterminer le nombre de retards dans les modèles à
retards échelonnés. Il s’agit des critères d’utiliser les critères d’information de Akaike (AIC)
et de Schwarz (SC). Ces critères fournissent en effet une mesure de la quantité d’information
contenue dans un modèle et donnent une idée de l’adéquation du modèle estimé au « vrai »
modèle. On préferera le modèle qui fournit une valeur du critère minimale. EViews calcule
directement ces critères qui apparaissent dans la partie inférieure à droite du tableau des
résultats des estimations.
Décalage AIC SC
0 -3.31671 -3.18743
1 -3.50994 -3.24871
2 -3.76892 -3.37304*
3 -3.77639* -3.24313
Le nombre de décalages correspond à la valeur minimale du critère. Les deux critères ne sont
pas concordants: le critère AIC suggère 3 décalages alors que le critère SC indique 2 retards.
Nous constatons cependant que la valeur de AIC pour 3 retards est très proche de celle avec 2
retards. De plus, lorsque nous estimons l’équation avec 3 retards, les coefficients associés aux
variables retardées de trois périodes ne sont pas significatifs. Ainsi, la spécification appropriée
est un modèle autorégressif à deux retards. L’estimation de ce modèle donne les résultats
reportés dans le tableau suivant :
23
Tableau 1.13 : Estimation de la fonction de consommation autorégressive avec deux retards
On peut appliquer tous les tests sur les termes d’erreur de cette équation.
24
Chapitre 2 : Modèle à équations simultanées
Dans la réalité économique il est rare de modéliser un phénomène par une seule équation de
comportement. En fait, les phénomènes macroéconomiques de quelque complexité sont
décrits par un ensemble de variables qui interagissent les unes avec les autres de sorte que
certaines variables explicatives d’une équation structurelle sont elles-mêmes expliquées dans
d’autres équations. On parle de modèles à équations simultanées. A chaque variable endogène
d’un modèle à équations simultanées est associée une équation structurelle.
Ct a0 a1 Pibt a 2 Ct 1 e1t
Pibt Ct I t Gt
avec :
Ct : la consommation privée;
It : l’investissement privé;
Pibt : le PIB;
rt : le taux d’intérêt réel ;
Gt : les dépenses publiques;
Cette spécification, dont les équations traduisent les idées économiques qui les inspirent, est
appelée la forme structurelle du modèle. Les coefficients que l’on souhaite pouvoir estimer
ont généralement une signification économique.
Dans ce modèle la variable Pibt apparaît comme variable explicative dans l’équation de la
consommation ( Ct ) et dans celle de l’investissement ( I t ). Elle intervient en tant que variable
endogène lorsqu’on considère la dernière équation. De même, la variable Ct intervient dans la
détermination de Pibt . Ce double statut crée un problème d’endogénéïté qui biaise
l’estimation du modèle par la méthode des moindres carrés ordinaires.
L’estimation des modèles à équations simultanées passe d’abord par l’identification des
variables exogènes et prédéterminées et des variables endogènes. Ensuite, il faut examiner la
possibilité de pouvoir estimer les paramètres du modèle. C’est la phase d’identification du
modèle. Une fois ces deux étapes réalisées, on estime, si cela est possible, les équations
structurelles du modèle par la méthode adéquate.
25
Section 2 : Conditions d’identification et méthodes d’estimation
Pour qu’une équation structurelle d’un modèle à équations simultanées soit identifiable, il faut
que le nombre de restrictions a priori sur cette équation soit supérieur ou égal au nombre
d’équations, moins 1. Lorsque les restrictions ne sont que des restrictions d’exclusion, cette
condition d’identification indique qu’il faut que le nombre de variables exclues de l’équation
soit supérieur ou égal au nombre d’équations moins 1. Bien que cette condition soit
nécessaire mais non suffisante, elle fournit le plus souvent la réponse correcte 5. En cas
d’égalité, l’équation est dite exactement ou juste identifiée. Dans ce cas, il existe une solution
unique pour les coefficients structurels à partir des coefficients de la forme réduite. Lorsque le
nombre de variables exclues de l’équation est strictement supérieur au nombre d’équations
moins 1, l’équation est dite sur-identifiée. Cela signifie qu’il existe plusieurs possibilités de
déterminer les paramètres structurels à partir des coefficients de la forme réduite. Lorsque la
condition énoncée n’est pas vérifiée pour une équation, le calcul des coefficients structurels
est impossible : on dit que l’équation est sous-identifiée. Pour arriver à estimer cette équation,
il faudrait la re-spécifier, soit en réduisant le nombre de variables (exogènes et/ou endogènes)
figurant en explicatives, soit en augmentant le nombre total de variables exogènes et
prédéterminées du modèle. En effet, si l’identification est une propriété associée à chaque
équation, elle dépend globalement de l’ensemble du modèle. L’ajout d’une variable exogène à
une équation structurelle peut rendre identifiable les autres équations structurelles.
La condition d’identification s’applique équation par équation. Elle constitue une phase
importante pour le choix final de la méthode d’estimation. Nous allons examiner
l’identification des équations du modèle précédent.
5
Il existe des conditions d’identification de rang qui sont à la fois nécessaires et suffisantes. Toutefois, dans la
pratique, ces conditions se révèlent difficiles, voire impossibles, à mettre en œuvre compte tenu des calculs
matriciels qu’elles impliquent. Voir Amemiya (1985, p. 230), Greene (1997, p.670), Bourbonnais (1998, p.213)
et Johnston et Dinardo (1999, 313) pour plus de détails.
26
5 variables exogènes et prédéterminées: constante, G t , rt , C t 1 et I t 1 .
La première équation est soumise à 4 restrictions d’exclusion tandis que la deuxième équation
est soumise à 2 contraintes d’exclusion. La première équation est donc sur-identifiée et la
deuxième est juste-identifiée. Il est donc possible d’estimer le modèle.
Le modèle précédent étant identifiable, nous allons utiliser la méthode des doubles moindres
carrés en utilisant l’ensemble des variables exogènes et prédéterminées comme instruments.
27
Chapitre 3 : Modélisation VAR
p p
Yt 0 1i X t i 1iYt i 1t (13.1)
i 1 i 1
p p
X t 0 2i X t i 2iYt i 2 t (13.2)
i 1 i 1
On voit clairement qu’un modèle VAR est un type particulier de modèle à équations
simultanées : chaque équation est un modèle autorégressif à p décalages temporels et toutes
les équations comportent les mêmes variables explicatives. Soulignons que les équations du
VAR peuvent inclure des tendances, des variables indicatrices ou d’autres variables exogènes
stationnaires.
Un modèle VAR peut être estimé par les méthodes présentées dans le chapitre précédent.
Toutefois, il est possible de recourir à la méthode des moindres carrés ordinaires.
Considérons le vecteur constitué des deux variables suivantes : LPibrt et LConsgt . Etant
donné que ces deux variables ne sont pas stationnaires en niveau, nous allons considérer les
différences premières. On génère les différences premières des séries à partir du menu
Quick/Generate Series. Après cette opération, sélectionnez les deux variables différenciées
dans le workfile et faites un clic droit puis sélectionnez Open/as VAR…
On peut aussi procéder par le menu principal en sélectionnant Quick/Estimate VAR… puis
on entre la liste des variables. La constante est ici la seule variable exogène. Cliquez sur OK
pour valider. On obtient le tableau de résultats suivant:
28
Included observations: 36 after adjusting endpoints
t-statistics in ( )
DLCONSG DLPIBR
DLCONSG(-1) -0.09121 -0.07550
(-0.51540) (-1.85118)
DLPIBR(-1) -0.04586 0.48188
(-0.07486) (3.41269)
C 0.05533 0.01855
(1.42978) (2.08037)
R-squared 0.00807 0.32067
Adj. R-squared -0.05204 0.27950
Sum sq. resids 1.10787 0.05884
S.E. equation 0.18322 0.04222
F-statistic 0.13434 7.78883
Log likelihood 11.5775 64.4125
Akaike AIC -0.47652 -3.41180
Schwarz SC -0.34456 -3.27984
Mean dependent 0.04943 0.03233
S.D. dependent 0.17863 0.04974
Determinant Residual Covariance 5.81E-05
Log Likelihood (d.f. adjusted) 73.38502
Akaike Information Criteria -3.74361
Schwarz Criteria -3.47969
Nous venons d’estimer un VAR bivarié avec un seul retard, ce qu’on note VAR(1).
Rappelons que l’estimation du VAR est équivalente à la régression par MCO équation par
équation. Ainsi les résultats présentés dans ce tableau peuvent être considérés comme une
compilation de deux régressions par moindres carrés ordinaires.
L’estimation d’un VAR ne présente pas les p-values pour le test de significativité des
coefficients. Cependant, sur la base des t-statistiques, on peut aisément conduire ce test, en
utilisant la valeur critique de 1,96 ou 2. Par exemple, si la valeur absolue du t-stat est
supérieure à 1,96 ou 2, alors on conclut que le coefficient est significativement différent de
zéro. Le coefficient de DLPIBR(-1) dans la première équation a un t-stat de -0.07486
indiquant que ce coefficient n’est pas significatif. Il en est de même pour la constante de la
première équation. Puisque certains coefficients ne sont pas significatifs, on peut les
supprimer du modèle de sorte à avoir un modèle réduit. Mais cela n’est pas possible à partir
de l’option VAR, puisque toutes les équations d’un modèle VAR devraient avoir exactement
le même nombre de retards et donc le même nombre de variables explicatives. Si l’on veut
obtenir un modèle réduit du VAR, on devra utiliser l’option system utilisée pour estimer les
modèles à équations simultanées (voir TP). En outre, l’option system permet de faire des tests
sur les coefficients des équations.
La détermination du nombre de retards est une étape préalable à l’estimation d’un VAR. Cette
étape est particulièrement délicate puisqu’elle n’est pas neutre au regard des résultats
numériques qui en découlent. L’estimation d’un VAR(p) à k variables nécessite au total
29
l’estimation de k+pk2 paramètres (y compris les termes constants). Ce nombre augmente de k2
avec chaque niveau de retards. Un nombre trop élevé de retards risque donc d’épuiser
rapidement les degrés de libertés et d’affaiblir la puissance des tests statistiques. Par exemple,
un VAR(4) à 5 variables nécessite l’estimation d’au moins 20 coefficients dans chacune des
équations. Si le nombre d’observations dont on dispose est faible, il aura une perte de degrés
de liberté qui appauvrira l’estimation puisqu’elle réduira le nombre de données disponibles.
Pour déterminer le nombre de retards, on utilise les critères d’information : on calcule ces
critères pour des ordres différents et on retient le retard qui minimise ces critères. EViews
offre la possibilité de réaliser plus aisément cette opération en sélectionnant lui-même la
solution. Sélectionnez View/Lag Structure/Lag Length Criteria…, puis indiquez le retard
maximal.
Pour chaque critère le signe (*) indique le retard optimal retenu. Selon la statistique du
rapport de vraisemblance et les critères SC et HQ, un retard suffit pour modéliser les
interrelations dynamiques entre le taux de croissance du PIB et celui des dépenses publiques.
Cependant les critères FPE et AIC sélectionnent trois retards. Notons qu’il est possible de
déterminer l’ordre du VAR à partir des propriétés statistiques des résidus. On estime le VAR
pour différents retards successifs et on retient le nombre de retard p pour lequel les résidus
sont des bruits blancs.
D’une façon générale, les coefficients d’un modèle VAR ne peuvent être directement
interprétés. Les retards d’une même variable peuvent se voir attribuer des signes différents.
On s’intéresse, en général, à la significativité globale des coefficients associés à une variable
spécifique ou à un groupe de variables6. C’est l’idée du test de causalité de Granger (1969).
La causalité au sens de Granger (1969) est une approche de la causalité qui renvoie non pas au
caractère théorique de la causalité (cause-effet) mais au caractère prédictif de l’éventuelle
cause sur l’effet. En effet, selon Granger (1969), une variable X cause une autre variable Y, si
la connaissance des valeurs passées de X rend meilleure la prévision de Y. En d’autres termes,
6
Il existe dans la littérature plusieurs tests de causalité. Pour une revue de littérature voir Bruneau (1996).
30
on dira que la variable X cause au sens de Granger la variable Y si les valeurs passées de X
influencent significativement la valeur contemporaine de Y. Sur le plan statistique, le test de
causalité au sens de Granger revient à faire un test de significativité globale des coefficients
associés aux valeurs passées de la variable causale dans l’équation de la variable causée.
p p
Yt c1 1i X t i 1iYt i 1t (13.3)
i 1 i 1
p p
X t c2 2i X t i 2iYt i 2 t (13.4)
i 1 i 1
Ces hypothèses peuvent être testées à l’aide du test de Fisher. On peut aussi utiliser un test du
rapport de vraisemblance par comparaison du modèle VAR non contraint et du modèle VAR
contraint. Le rejet des deux hypothèses implique une causalité réciproque entre X et Y. On
parle également de boucle rétroactive. Rappelons que le cadre statistique de ce test suppose la
stationnarité des variables.
Pour réaliser le test de causalité de Granger, sélectionnez View/Lag Structure/Pairwise
Granger Causality Tests.
Pour une variable dépendante donnée, le tableau donne la statistique de Wald du test de
nullité simultanée des coefficients associés aux retards de la variable dépendante. Par
exemple, pour la variable DLCONSG, la statistique de test donne une valeur de 0.0056 et une
probabilité égale à 0.94. Cette probabilité étant supérieure à 5%, l’hypothèse de non causalité
31
de DLCONSG par DLPIBR ne peut être rejetée au seuil de 5%. En d’autres termes, le PIB
réel ne cause pas la consommation publique au seuil de 5%. En revanche, quand on considère
l’équation du PIB réel, on constate que la consommation publique cause (négativement) le
PIB réel au seuil de 7%.
Nous allons refaire le test de Granger en considérant 3 retards. Les résultats sont donnés dans
le tableau suivant :
On voit bien qu’aucune causalité ne peut être mise ici en évidence avec ces résultats. Le test
de Granger est donc sensible au nombre de décalages pris en compte dans la modélisation.
L’une des principales applications des modèles VAR est d’analyser les effets de politiques
économiques au travers de simulations de chocs. Un modèle VAR modélise les relations
dynamiques entre un groupe de variables choisies pour caractériser un phénomène
économique particulier. L’analyse impulsionnelle permet d’analyser comment un choc à la
date T sur une variable affecte l’ensemble des variables du système pour les périodes T, T+1,
T+2,…
Le graphique suivant représente les réponses de la politique budgétaire aux chocs de demande
publique. Le deuxième graphique représente la réponse du PIB aux chocs de demande
publique. Nous allons nous intéresser particulièrement au second graphique.
32
Figure 3.1 : Fonctions de réponse de DLCONSG et DLPIBR
.25 .01
.20
.00
.15
-.01
.10
.05 -.02
.00
-.03
-.05
-.10 -.04
1 2 3 4 5 6 7 8 9 10 1 2 3 4 5 6 7 8 9 10
On observe qu’un choc positif sur les dépenses publiques (augmentation des dépenses
publiques) conduit dans un premier temps à une baisse transitoire du taux de croissance de
l’économie. L’effet sur l’activité s’estompe progressivement. Il décroît fortement dès la
deuxième année et tend à se résorber au bout de 8 années. Le fait que la réponse tend vers
zéro est en cohérence avec la propriété de stationnarité des séries.
7
Si les innovations ne sont pas orthogonales, il est possible de les orthogonaliser en utilisant
un minimum de raisonnement économique pour introduire des restrictions d’identification.
Cette approche est à la base des modèles VAR structurels (voir Blanchard et Quah, 1989;
Lütkepohl et Krätzig, 2004).
33
3 0.05129 15.23580 84.76420
4 0.05164 15.51525 84.48475
5 0.05172 15.57927 84.42073
6 0.05174 15.59451 84.40549
7 0.05174 15.59813 84.40187
8 0.05174 15.59899 84.40101
9 0.05174 15.59920 84.40080
10 0.05174 15.59924 84.40076
Cholesky Ordering: DLCONSG DLPIBR
Le premier tableau indique que le choc d’offre explique une très grande part de la dynamique
du PIB. De façon instantanée, le choc d’offre contribue à 97,11% de la variance de l’erreur de
prévision du PIB, contre seulement 2,88% pour le choc de demande publique. A moyen et
long terme, la variance de l’erreur de prévision du taux de croissance est expliquée à 84,4%
par ses propres innovations et à 15,6% par les dépenses publiques. La décomposition de la
variance de l’erreur de prévision des dépenses publiques (cf. tableau 7.8) indique que moins
de 0,1% de l’erreur de prévision de celles-ci est dû aux impulsions provenant des chocs
d’offre. Nous pouvons conclure que les chocs de politique budgétaire en matière de
consommation publique ont plus d’impact sur l’activité économique que l’impact d’un choc
d’offre en a sur la politique budgétaire.
34
Chapitre 4 : Cointégration et Modèles à Correction d’Erreurs
Lorsqu’on travaille avec des séries temporelles, il faut vérifier au préalable que celles-ci sont
stationnaires. Lorsque cela n’est pas le cas, il faut trouver la bonne façon de les rendre
stationnaires. La plupart des données temporelles macroéconomiques sont des réalisations de
processus non stationnaires (Nelson et Plosser, 1982). Ce qui implique que les méthodes
habituelles d’estimation et d’inférence (moindres carrés ordinaires, test de Student, test de
Fisher etc.) ne peuvent être appliquées directement. Néanmoins, la théorie de la cointégration
indique des conditions dans lesquelles les régressions sont autorisées entre des séries non
stationnaires. En effet, lorsque les variables ne sont pas stationnaires, l’estimation d’un VAR
en différences premières n’est pas toujours appropriée. La différenciation conduit à un
appauvrissement de l’information dans la mesure où on enlève les mouvements de long terme
contenus dans le niveau des variables. Or cette information devrait être exploitée pour enrichir
la dynamique des variables plutôt que d’être retirée. En différenciant, seuls les effets de court
terme peuvent être analysés. Le calcul des différences premières n’est donc pas une stratégie
appropriée. Les techniques de cointégration montrent que sous certaines conditions le modèle
initial peut être reparamétré sous la forme d’un modèle vectoriel à correction d’erreurs faisant
intervenir les variables en différences premières et leurs niveaux (Engle et Granger, 1987;
Johansen, 1988). La représentation du modèle sous la forme à correction d’erreurs a plusieurs
avantages. Premièrement, elle n’est pas sujette aux problèmes de régressions fallacieuses
puisque toutes les variables du modèle sont stationnaires (Banerjee et al. 1993).
Deuxièmement, elle permet de distinguer clairement entre les élasticités de court terme et de
long terme puisque les différences premières et les niveaux des variables interviennent
explicitement dans le modèle. La cointégration et les modèles à correction d’erreurs
s’inscrivent dans le prolongement de la modélisation VAR appliquée aux séries temporelles
non stationnaires. Leur mise œuvre et leur interprétation nécessitent de bien comprendre la
théorie sous-jacente. C’est pourquoi, dans ce chapitre, nous allons rappeler quelques éléments
essentiels de cette théorie. Nous recommandons aux lecteurs de se référer aux ouvrages
d’économétrie qui abordent en détail ces modèles afin d’approfondir certains aspects (par
exemple, Lardic et Mignon, 2002 ; Bourbonnais, 1998).
En pratique, les cas de non-stationnarité sont analysés à partir de deux types de processus. Les
processus TS (Trend Stationary) caractérisés par une non stationnarité de nature déterministe,
et les processus DS (Difference Stationary) présentant une non stationnarité de nature
stochastique. Dans le cas de processus TS, les données suivent une tendance qui a une
fonction définie (linéaire, quadratique, etc.). Afin de résoudre ce problème, il suffit d’inclure
35
une variable de tendance dans le modèle de régression. Toutefois, en pratique, il convient de
ne pas traiter une tendance stochastique comme une tendance déterministe. Dans le cas de
processus DS, les données suivent une marche aléatoire avec ou sans dérive avec un
coefficient de 1 pour le terme retardé : y t y t 1 u t , où u t est stationnaire. Il y a non-
stationnarité de y t car on montre que la variance n’est pas constante.
La distinction entre ces deux types de stationnarité est fondamentale sur le plan économique
dans la mesure où ces deux types de processus sont caractérisés par des comportements très
différents. L’effet d’un choc sur un processus TS est transitoire (la série a une mémoire finie
des chocs), alors que sur un processus DS cet effet est permanent (mémoire infinie des chocs),
aucune force ne le ramènera à son niveau antérieur, sauf occurrence d’un choc de signe
opposé et de même magnitude. Sur le plan statistique, il est important d’identifier
correctement la nature de la non-stationnarité d’une série avant de la rendre stationnaire. En
effet, une méthode de stationnarisation inappropriée peut engendrer des artefacts statistiques.
Un processus TS est rendu stationnaire par une régression sur une tendance déterministe, alors
qu’un processus DS devient stationnaire par différenciation. Quand un processus TS linéaire
est statistiquement traité comme un processus DS, cela crée artificiellement dans la série un
mouvement cyclique court. A l’inverse, lorsqu’un processus est traité comme un processus
TS, cela génère un mouvement cyclique long (Nelson et Kang, 1981).
L’identification et la caractérisation de la non-stationnarité peuvent être effectuées par le biais
de tests statistiques. A cet égard, il existe un grand nombre de tests8 dont les plus utilisés en
raison de leur simplicité sont les tests de Dickey et Fuller (1979, 1981), le test de Phillips-
Perron (1988) et le test de KPSS.
Les tests de Dickey-Fuller (DF) testent l’existence d’une racine unitaire dans le processus
générateur des données. Ce sont des tests paramétriques qui sont basés sur l’estimation d’un
modèle autorégressif. La loi du test DF sur laquelle est basé le test diffère selon l’hypothèse
alternative. Le choix de l’hypothèse alternative est donc primordial pour la validité du test.
Suivant les termes déterministes inclus dans d t , on aboutit aux trois modèles sur lesquels est
basé le test de Dickey-Fuller Augmenté:
p
Modèle [1] : yt yt 1 j yt j et (14.2)
j 1
p
Modèle [2] : y t y t 1 c j yt j et (14.3)
j 1
8
Pour une revue de ces tests, on pourra notamment consulter Banerjee et al (1993) et Darne et Terraza (2002).
36
p
Modèle [3] : yt yt 1 c bt j yt j et (14.4)
j 1
Dans ces modèles autorégressifs, le choix de p est très important pour l’issue du test. Comme
dans les modèles à décalages temporels, on peut utiliser les critères d'information (Akaike,
Schwarz, Hannan-Quinn, …).
La question se pose toujours de savoir laquelle des trois spécifications précédentes retenir
pour conduire le test de racine unitaire. Il est fondamental de retenir le modèle le plus adéquat
car l’introduction de termes déterministes non pertinents réduit la puissance du test. En
pratique, on adopte une approche séquentielle descendante pour traiter cette question. Celle-ci
consiste à partir du modèle le plus large (avec constante et tendance déterministe – modèle
[3]) jusqu’au plus spécifique (sans tendance, ni constante – modèle [1]). Pour chaque modèle,
on teste la significativité des termes déterministes en utilisant les tables de Dickey-Fuller.
C’est une fois l’équation de test déterminée qu’on peut lire le test de racine unitaire.
Le test est basé sur la statistique de student tˆ associée au coefficient de yt 1 . Toutefois,
Dickey et Fuller (1981) ont montré que sous l'hypothèse nulle de racine unitaire, tˆ ne suit
pas sa loi conventionnelle, même asymptotiquement. La distribution a été simulée par Dickey
et Fuller (1981) et par Mackinnon (1991). On rejette l’hypothèse nulle si la statistique
calculée est inférieure à la valeur critique tabulée. Si la statistique calculée est supérieure à
la valeur critique, on accepte l’hypothèse d’une racine unitaire, ce qui implique que la série
n’est pas stationnaire.
Test de Phillips-Perron
Le test de Phillips-Perron (1988) est construit sur une correction non paramétrique de la
statistique de Dickey-Fuller pour prendre en compte des erreurs hétéroscédastiques. Il se
déroule en deux étapes : on estime par MCO les trois modèles de base du test de Dickey-
Fuller et on calcule les statistiques associées, puis on estime un facteur correctif établi à partir
de la structure de covariance des résidus de telle sorte que les transformations réalisées
conduisent à des distributions identiques à celles du Dickey-Fuller standard. Ce test se ramène
donc au test de Dickey-Fuller simple dans le cas où les erreurs seraient homoscédastiques. Ce
test est non paramétrique car aucune modélisation du processus générateur des aléas n’est
formulée, il est plus robuste à une autocorrélation (mais également à une hétéroscédasticité)
de forme inconnue. La mise en œuvre du test est identique à celle du test de Dickey-Fuller :
on suit la même procédure séquentielle descendante.
9
Voir Perron (1989) et Zivot et Andrews (1992) pour les tests de racine unitaire prenant en compte le
changement structurel de tendance.
37
Test de KPSS
Le test de Kwiatkowski, Phillips, Schmidt, Shin (1992) (noté KPSS) a la particularité de poser
l’hypothèse de stationnarité comme hypothèse nulle. Il teste l'hypothèse de stationnarité en
niveau (test ) ou autour d'une tendance (test ) contre l'alternative de non stationnarité. Le
test KPSS repose sur la décomposition de la série étudiée en une partie déterministe, une
marche aléatoire et un bruit blanc. On régresse la série sur une constante (test ) ou sur une
constante et une tendance (test ) et on détermine la série des résidus estimés ê t . La statistique
de test est définit par:
T
1
Sˆ
t 1
t
2
KPSS / 2
(14.5)
S wa T
t
où Sˆt eˆl ( t=1, …, T) est la somme partielle des résidus et Swa
2
l'estimateur de la variance
l 1
de long terme de ê t . La règle de décision est que si KPSS / KPSS * alors la série est
stationnaire, où KPSS * est la valeur critique. Dans le cas contraire, on considère que la série
est non stationnaire. Pour choisir entre le modèle avec constante et le modèle avec trend
linéaire, on peut s’aider de la représentation graphique de la série ou utiliser les résultats des
tests de Dickey-Fuller.
Pour réaliser les tests de stationnarité d’une série en pratique, on visualise la série (par un
double clic sur la série) et on sélectionne à partir du menu de la fenêtre, Unit Root Test…
Les résultats du test de Dickey-Fuller pour la série LPIB sont présentés dans les tableaux
suivants:
38
Sample(adjusted): 1967 2002
Included observations: 36 after adjusting endpoints
Variable Coefficient Std. Error t-Statistic Prob.
LPIBR(-1) -0.06572 0.02415 -2.72106 0.0103
D(LPIBR(-1)) 0.29307 0.15259 1.92053 0.0635
C 1.93905 0.70726 2.74164 0.0098
R-squared 0.38754 Mean dependent var 0.03233
Adjusted R-squared 0.35042 S.D. dependent var 0.04974
S.E. of regression 0.04009 Akaike info criterion -3.51543
Sum squared resid 0.05305 Schwarz criterion -3.38347
Log likelihood 66.27786 F-statistic 10.4408
Durbin-Watson stat 1.90939 Prob(F-statistic) 0.00030
Le deuxième tableau indique le modèle à partir duquel le test est réalisé. On peut ainsi juger
de la pertinence des termes déterministes à inclure dans la régression auxiliaire.
Le premier tableau donne les statistiques de test ADF, les valeurs critiques et les probabilités
associées. La statistique de test reporte ici une valeur de -2,72106 supérieure aux valeurs
critiques aux seuils de 1% et 5%, ce qui nous conduit à accepter l’hypothèse nulle. La série
admet une racine unitaire et ne peut donc être stationnaire. Le test est effectué suivant la
même démarche pour les tests PP et KPSS. Il est important de toujours se rappeler que
l’hypothèse nulle du test KPSS est la stationnarité.
Le tableau suivant synthétise les résultats des tests ADF, PP et KPSS pour les huit variables
en niveau et en différence première.
Les différentes statistiques de tests conduisent à des résultats différents. Les tests ADF et
KPSS concluent à la non-stationnarité de LPIBR tandis que le test PP conclue à la
stationnarité de cette série. Selon les statistiques ADF et PP, la série LI est non stationnaire en
niveau. En revanche, le test KPSS indique que cette variable est stationnaire en niveau. Quant
à la série LC, le test PP rejette l’hypothèse de non stationnarité tandis que les tests ADF et
39
KPSS rejettent l’hypothèse de stationnarité. En d’autres termes, la série LC est stationnaire
selon la statistique PP, et non stationnaire selon les statistiques ADF et KPSS. Selon les trois
statistiques de test, les séries LG et LIPC sont non stationnaires en niveau et stationnaires
lorsqu’on considère les différences premières. Les trois statistiques de test indiquent que la
série R est stationnaire.
En définitive, nous retenons que toutes les séries, à l’exception de R, sont non stationnaires en
niveau et stationnaires en différences premières. En d’autres termes, les séries LPIBR, LI, LC,
LG et LIPC sont intégrées d’ordre un.
Deux mises en garde: Premièrement, il ne faut pas différencier un modèle avec tendance
déterministe. Deuxièmement, sur-différencier enlève tout potentiel d’interprétation au modèle.
Vous aurez beau dire que votre modèle est stationnaire, mais si vous ne pouvez pas
l’interpréter, vous n’êtes pas avancé. Le plus souvent les modèles différenciés ont un pouvoir
explicatif (R2) très faible comparé à celui du modèle en niveau.
La régression d'une série non stationnaire sur des séries non stationnaires peut donner une
régression n’ayant aucun sens économique. C’est ce qu’on appelle les régressions fallacieuses
(Granger et Newbold, 1974). L’estimation de modèles impliquant des variables non
stationnaires soulève plusieurs problèmes assez sérieux. Premièrement, les estimateurs des
coefficients ne sont pas convergents. Deuxièmement, les statistiques des tests conventionnels,
tels que le t de Student et le F de Fisher, ne suivent plus leur distribution habituelle sous
l’hypothèse nulle, même asymptotiquement. En conséquence, les valeurs critiques habituelles
ne sont plus appropriées. Troisièmement, les modèles présenteront une apparente bonne
adéquation reflétée par un coefficient de détermination très élevé, mais la statistique de
Durbin-Watson convergera vers zéro au fur à mesure que le nombre d’observations augmente
(Granger et Newbold, 1974).
Néanmoins, il arrive que des séries non stationnaires et intégrées d’ordre un forment une
combinaison linéaire stationnaire. Cette situation particulièrement intéressante signifierait
que, bien que chacune des séries ait tendance à "errer", elles "marchent ensemble" suivant
40
une relation commune. On dit qu'elles sont cointégrées. Economiquement, cela signifie qu'il
existe une relation de long terme stable qui unit ces variables.
Nous allons maintenant donner la définition formelle d’Engle et Granger (1987). Considérons
un vecteur X t de variables non stationnaires. Les composantes de X t sont dites cointégrées si
premièrement elles sont intégrées de même ordre d (I(d)), et s’il existe une combinaison
linéaire de ces variables d’ordre d’intégration inférieur, c’est-à-dire s’il existe un vecteur
non nul tel que Z t X t est I ( d b) , avec 0 b d . Le vecteur est le vecteur
cointégrant. Dans le cas où d 1 , la cointégration implique que Z t X t est stationnaire.
L’ordre d’intégration d’une variable est le nombre de fois qu’il faut la différencier pour la
rendre stationnaire. La cointégration se présente ainsi comme une propriété de réduction de
l’ordre d’intégration d’une combinaison linéaire de variables intégrées du même ordre.
Remarques
Lorsque deux variables sont cointégrées, elles sont liées par une relation de long terme.
Cependant, elles peuvent s'écarter de temps en temps (à court terme) de cette relation
d’équilibre. On peut interpréter l'écart entre Yt et sa valeur de long terme Yˆt X t comme
une "erreur d'équilibre" et utiliser cet écart pour lier le comportement de court terme des deux
variables à leur comportement de long terme. On définit ainsi le modèle suivant:
où et 1 Yt 1 Yˆt 1 Yt 1 X t 1 .
41
d'équilibre Yˆt 1 X t 1 . En supposant que le coefficient est négatif, le terme et 1 est
aussi négatif et, par conséquent, Yt Yt Yt 1 sera négatif. La valeur de Yt à la période t sera
inférieure à la valeur Yt 1 de sorte à corriger l'erreur d'équilibre. Si l'erreur
et 1 Yt 1 X t 1 est négative, alors Yt 1 sera en deçà de sa valeur d'équilibre. Le
terme et 1 étant positif ( étant supposé toujours négatif), la différence Yt Yt Yt 1 sera
également positive. Cela implique que Yt prendra une valeur supérieure à la valeur de Yt 1
permettant de réaliser l'équilibre. En d’autres termes, lorsqu’à un moment donné Yt s’écarte
de sa valeur d’équilibre, la période suivante, elle y revient : il y a un mécanisme à correction
qui gouverne la dynamique des variables et qui fait que ces dernières ne peuvent pas s’écarter
durablement de la relation d’équilibre. Si les séries sont cointégrées, les déviations par rapport
à la relation de long terme ont pour effet, à court terme, d’induire des variations dans
l’évolution de l’une ou de toutes les variables de façon à forcer le système à retourner vers son
équilibre de long terme.
Engle et Granger (1987) ont montré que tout ensemble de variables cointégrées peut être mis
sous la forme d’un modèle à correction d'erreurs où toutes les variables sont stationnaires:
p q
Yt 1 1 Yt 1 X t 1 1i Yt i 2i X t i 1t (14.7)
i 1 i 0
p q
X t 2 ' Yt 1 X t 1 '1i Yt i ' 2i X t i 2t (14.8)
i 0 i 1
La vitesse d'ajustement ou force de rappel vers l'équilibre est mesurée par les coefficients 1
et 2 . Suivant le même raisonnement, l’un au moins de ces deux paramètres doit être
significatif et négatif pour valider la représentation sous forme à correction d'erreurs. Si
42
l’hypothèse nulle H 0 : 1 2 0 est acceptée, cela signifie qu’aucun terme à correction
d’erreurs n’est significatif. Dans ce cas, il convient de rejeter la spécification à correction
d’erreurs. En revanche, si l’hypothèse est rejetée, alors au moins un terme à correction
d’erreurs est significativement différent de zéro. Cela traduit un retour vers la trajectoire de
long terme : les séries sont alors cointégrées. Il est possible d'ajouter aux équations de court
terme d'autres variables explicatives supplémentaires à condition que celles-ci soient
déterministes ou bien stationnaires.
Plusieurs méthodes d’estimation d’un MCE ont été proposées à la suite des travaux d’Engle et
Granger (1987). Dans cette section, nous allons présenter la méthode d’estimation en deux
étapes d’Engle et Granger, la procédure de Banerjee et alii. (1993) et la méthode de Johansen.
p
eˆt eˆt 1 i eˆt i t (14.9)
i 1
où on teste H 0 : 0 contre H a : 0 .
Si les résidus sont stationnaires, on conclut que les séries sont cointégrées, et la relation de
cointégration estimée est Yt ˆ ˆX t et . Bien entendu, il convient de s’assurer au préalable
que les variables en jeu sont intégrées d’ordre un. Néanmoins, étant donné que le test porte
sur les résidus êt calculés à partir de l'estimation de la relation de cointégration et non pas sur
les vraies erreurs et qui, elles, ne sont pas observées, les valeurs critiques des tests DF ou
DFA ne sont plus appropriées. Il convient d’utiliser les valeurs critiques tabulées par Engle et
Granger (1987), Engle et Yoo (1987) et Davidson et MacKinnon (1993).
10
Notons que le modèle à correction d’erreurs ne se réduit pas toujours à une seule équation. En général, il y a
autant d’équations que de variables. Le modèle se réduit à l’équation (14.11) uniquement si le coefficient de eˆt 1
dans l’équation de X t est nul. Cette hypothèse (dite d’exogénéité faible de X t ) doit être testée. Dans le cas où
43
p q
Yt 1 1eˆt 1 1i Yt i 2i X t i 1t (14.10)
i 1 i 0
Il est clair que cette seconde étape ne pose aucun problème particulier car tous les régresseurs
sont maintenant stationnaires. Les coefficients ont une distribution standard, ceux-ci peuvent
alors être soumis aux techniques classiques d’inférence statistique (Engle et Granger, 1987).
La cointégration implique non seulement que êt est stationnaire, mais que le coefficient
d’ajustement 1 est négatif et significatif. Ces restrictions sont nécessaires pour valider le
modèle à correction d’erreurs.
p
Yt X t c X
j p
j t j et (14.11)
Cette façon de prendre en compte la dynamique de court terme corrige l'estimation des biais
d'endogénéïté et permet ainsi d'interpréter le t-student associé au coefficient . Si les résidus
et sont autocorrélés, il suffit de corriger le t-student de par la correction de Newey-West.
Le ratio de Student ainsi corrigé suit asymptotiquement une loi normale standard.
celle-ci est rejetée, une méthode d’estimation appropriée de type variables instrumentales ou maximum de
vraisemblance devrait être envisagée pour estimer les coefficients de l’équation.
44
Certains auteurs ont montré que l’on peut faire l’économie de calculs en estimant
simultanément, en une seule étape, les paramètres de court et de long terme. Dans la méthode
préconisée par Banerjee, Dolado, Galbraith et Hendry (1993), l’estimation se fait directement
sur le modèle à correction d’erreurs, non pas en introduisant la relation de cointégration
estimée préalablement au cours d’une première étape, mais en introduisant directement dans
le modèle les niveaux retardés des variables. Le modèle estimé s’écrit sous la forme suivante:
Johansen (1988) a proposé une procédure de test de cointégration, qui sera répandue par la
suite par Johansen et Juselius (1990), qui permet de s’affranchir du cadre restrictif d’Engle et
Granger. La procédure de test est fondée sur la méthode du maximum de vraisemblance et
offre la possibilité de prendre en compte plusieurs spécifications pour la relation de long
terme (présence d’une constante/tendance ou non dans l’espace de cointégration). Cette
méthode est décrite abondamment dans les ouvrages d’économétrie des séries temporelles.
Nous nous contenterons ici d’exposer les éléments essentiels de cette approche.
11
Le problème ici est qu’il n’est pas possible de faire une inférence sur les coefficients . Les
écart-types peuvent être calculés suivant la transformation de Bewley ou de Bardsen. Voir
Banerjee et alii. (1993 : pp.53-64) pour plus de détails.
45
La plupart des variables économiques étant I(1), une différenciation est généralement
appliquée. Toutefois, l’estimation du VAR en différence peut conduire à une perte importante
d’information si les séries sont effectivement cointégrées. Pour tenir compte de cette
dimension potentiellement cointégrée des variables économiques, Johansen (1988) et
Johansen et Juselius (1990) réécrivent à partir de transformations algébriques l’équation (8.9)
sous la forme Vectorielle à Correction d’Erreurs (VEC par la suite) suivante :
k 1
X t X t 1 i X t i Dt t (14.16)
i 1
H 0 (r ) : ' (14.17)
Dans cette décomposition, représente la matrice des vecteurs de cointégration qui rendent
la combinaison linéaire ' X t 1 stationnaire.
La procédure de test permet de spécifier trois modèles. (a) Si est de plein rang colonne,
c’est-à-dire r p , alors X t est stationnaire. Dans ce cas, l’estimation sous la forme du VAR en
niveau (8.9) est appropriée. (b) Si le rang de est égal à zéro, alors 0 , et il n’existe
aucune relation de cointégration entre les variables. Dans ce cas, la modélisation appropriée
est celle d’un VAR en différence première d’ordre (k-1). Ce qui implique que la dynamique
de court terme ne dépend pas des niveaux des variables. (c) Si est de rang r inférieur à p ,
le modèle vectoriel à correction d’erreurs s’exprime sous la forme :
k 1
X t ' X t 1 i X t i Dt t (14.18)
i 1
46
La matrice de poids joue un rôle important dans cette spécification. Elle est constituée des
coefficients d’ajustement de court terme, c’est-à-dire des « forces de rappel » vers l’équilibre
dans la représentation vectorielle à correction d’erreurs. La ième ligne de cette matrice mesure
la vitesse avec laquelle la ième variable s’ajuste aux r relations de cointégration, c’est-à-dire
comment une des composantes donnée de X t réagit à court terme à une déviation transitoire
de ses déterminants de leur valeur d’équilibre de long terme. La matrice ' est la matrice qui
contient les r vecteurs cointégrants linéairement indépendants. Chaque ligne de cette matrice
est constituée d’une relation de long terme.
p
TraceH 0 (r ) / H 1 ( p) T ln( 1 ˆi (14.19)
i r 1
max H 0 (r ) / H 1 (r 1) T ln 1 ˆr 1 (14.20)
Il est possible d’inclure dans le modèle VEC des variables stationnaires. En effet, il est
raisonnable de penser qu’une relation de long terme contient également des variables
stationnaires. On augmente ainsi le nombre de valeurs propres significatives puisque le
vecteur où le coefficient est égal à 1 devant la variable stationnaire et 0 devant les autres
variables est aussi un vecteur cointégrant.
47
Le test de cointégration de Johansen comporte des avantages par rapport à la méthode en deux
étapes d’Engle et Granger. Toutefois, l’issue de test dépend du choix d’un certain nombre de
paramètres dont le nombre de retards et la présence de constante et de tendance dans la
spécification. Ces questions sont traitées dans les paragraphes qui suivent.
Les lois asymptotiques des statistiques de test de rang de cointégration de Johansen ne sont
pas invariantes à la prise en compte des variables qui ne sont pas explicitement modélisées
dans le système. En particulier, ces lois sont conditionnées par la présence éventuelle d’une
constante ou d’un trend linéaire dans les relations de long terme. Plusieurs spécifications du
modèle deviennent envisageables selon l’hypothèse faite sur la présence ou non de termes
déterministes (constante et trend) dans les relations de cointégration et dans le modèle à
correction d’erreurs. Les différentes interprétations inhérentes à ces spécifications prennent
leur source dans le fait qu’un modèle VEC mélange des variables en différence et des
variables en niveau modélisant un équilibre de long terme. Pour choisir entre les différentes
spécifications il importe de bien cerner d’abord leur signification.
Cette structure impose l’absence de toute composante déterministe, tant dans les séries en
niveau que dans les séries en différences premières.
Le fait que X t comporte une dérive implique que les séries en niveau sont caractérisées par
une tendance linéaire. Mais la relation d’équilibre de long terme est stationnaire de
moyenne 0 .
X t 1 Dt ( ' X t 1 0 t ) 0
(14.24)
48
L’introduction d’une tendance linéaire dans la relation de cointégration se justifie si certaines
variables de X t présentent une tendance linéaire. La relation d’équilibre de long terme est
stationnaire autour d’une tendance linéaire. Ce cas autorise la présence de variables TS.
Le fait que X t admette une représentation avec dérive et tendance linéaire signifie que les
séries en niveau X t comportent une tendance quadratique.
Il est important de distinguer clairement entre ces différents cas. Car, d’une part, ils
impliquent des interprétations différentes sur le comportement des variables et, d’autre part,
les tests de cointégration dépendent de la façon dont on spécifie les termes déterministes.
Pesaran et al. (2001) ont proposé une approche du test de cointégration basée sur les modèles
autorégressifs à retards échelonnés (ARDL). Cette méthodologie présente plusieurs avantages
par rapport aux méthodes d’Engle et Granger (1987) et de Johansen (1988). Premièrement, ce
test est applicable que les variables soient I(0) ou I(1). Cette caractéristique fondamentale
atténue le problème lié à l’incertitude des résultats des tests de racine unitaire. Deuxièmement,
la méthode tient compte des dynamiques de court et long termes lors du test de cointégration.
Au contraire, la méthode d’Engle et Granger (1987) estime la relation de long terme sans
prendre en compte explicitement les ajustements de court terme entre les variables.
Troisièmement, le test de Pesaran et al. (2001) s’avère relativement performante dans le cas
de petits échantillons contrairement au test de cointégration de Johansen dont la validité
requiert de grands échantillons.
p q
yt 0 1i yt i 1i xt i 1 yt 1 2 xt 1 t (14.26)
i 1 i 0
y t 0 1 xt t (14.27)
49
où 0 0 / 1 et 1 2 / 1 .
La spécification sous la forme à correction d’erreurs permet d'estimer les effets de court terme
et de long terme. En considérant l’équation (14.7), les coefficients 2 i et représentent
respectivement les effets de court terme et de long terme de la variable xt sur y t . Lorsque les
variables sont considérées sous la forme logarithmique, ces effets s’interprètent en termes
d’élasticités. Si les séries sont cointégrées, il est possible de distinguer la causalité de court
terme de celle de long terme.
Nous allons examiner la possibilité d’une relation de cointégration entre les variables
intervenant dans la fonction de consommation. S’il existe une telle relation alors il est
possible d’estimer la fonction de consommation à court terme sous la forme d’un modèle à
correction d’erreurs.
Pour qu’une relation de cointégration existe entre des variables, deux conditions doivent être
réunies. Premièrement, les variables doivent être non stationnaires et intégrées du même
ordre14. Deuxièmement, leurs tendances stochastiques doivent être liées, c’est-à-dire qu’il doit
exister au moins une combinaison linéaire de ces variables qui soit stationnaire. Par
conséquent, en premier lieu, on doit déterminer l’ordre d’intégration des variables par le biais
des tests de racines unitaires standards. Ces tests effectués précédemment ont montré que les
variables LC, LPIBR et LIPC étaient intégrées d’ordre un. Nous allons étudier la possibilité
12
Il s’agit des modèles avec ou sans constante et/ou tendance. Cinq (5) cas sont présentés. Voir Pesaran et al.
(2001).
13
D’où le nom de la méthode « Bounds testing approach to cointégration » ou « Approche de test de
cointégration par les bornes ».
14
Des variables stationnaires peuvent être incluses dans l’analyse de la cointegration mais on doit se rappeler
que chaque variable stationnaire crée une relation de cointégration additionnelle. Ilexiste des tests de cointegrtion
qui autorise la présence de variables stationnaires parmi les regresseurs (voir Pesaran et al. (2001)).
50
de cointégration entre ces variables en utilisant l’approche d’Engle et Granger et celle de
Johansen.
Ce test se fait en deux étapes. La première étape estime la relation statique de long terme par
la méthode des moindres carrés ordinaires. La seconde étape procède au test de stationnarité
des résidus de l’équation statique. La cointégration nécessite que la série résiduelle soit
stationnaire.
Il s’agit d’une équation linéaire dont la procédure d’estimation a été déjà vue. Le tableau
suivant reporte les coefficients de régression de cette équation.
Pour que la relation estimée soit une relation de cointégration, le résidu issu de cette
régression doit être stationnaire. Si les résidus sont non stationnaires, la relation estimée
pourrait être une régression fallacieuse. On va donc générer la série des résidus de cette
équation. Pour cela, cliquez sur Procs/Make Residuals series… et tapez le nom de la série
des résidus, soit RES.
On applique les tests de racine unitaire sur la série des résidus RES. Les résultats issus de
l’application des tests ADF et PP sont reportés dans le tableau suivant :
Tableau 4.4 : Test de stationnarité sur la série des résidus de l’équation de long terme
51
ADF PP
Statistique -4.65645 -3.26526
Valeur critique à 5% -1.95039 -1.95011
Les statistiques de tests reportent toutes des valeurs inférieures aux valeurs critiques à 5%. On
en déduit donc que la série des résidus de l’équation statique est stationnaire. Par conséquent,
les séries sont cointégrées. Il est alors possible d’estimer le modèle à correction d’erreurs.
Pour réaliser le test du rang de cointégration de Johansen, il faut choisir parmi les cinq
spécifications possibles celle qui apparaît la plus plausible pour les données. L’option par
défaut est la troisième, à savoir qu’il existe une constante à la fois dans l’équation de
cointégration et dans la forme à correction d’erreurs. La présence des deux constantes
implique la présence d’une tendance linéaire dans les niveaux des séries. L’option 6 fait un
résumé des cinq spécifications. En choisissant cette option, on obtient le tableau suivant:
On peut ainsi lire le nombre de relations de cointégration suivant l’hypothèse faite pour la
spécification du modèle. Par exemple, si on suppose qu’il n’y a aucune tendance dans les
séries, la présence d’un terme constant dans l’espace de cointégration (cas 2) conduit à retenir,
selon la statistique de la trace, l’hypothèse de deux relations de cointégration entre les trois
variables au seuil de 5%. La statistique de la valeur propre maximale indique au contraire une
seule relation de cointégration. En supposant une tendance linéaire dans les données et une
constante dans les équations de cointégration (cas 3), la statistique de la trace indique trois
relations de cointégration. L’existence de trois relations de cointégration entre trois variables
non stationnaires s’avère impossible car elle remet en cause la non stationnarité des variables.
En pratique, on ne choisit pas les cinq spécifications mais une seule. Or nous constatons que
le choix de la spécification n’est pas sans conséquence sur la structure du modèle. Comment
choisir la spécification la plus adaptée aux données ? L’analyse graphique des séries ainsi que
les tests de stationnarité peuvent être utiles à ce stade pour suggérer le choix de la ’’bonne’’
spécification. En examinant l’évolution des trois variables, on constate que celles-ci
présentent une tendance à la hausse. Si nous voulons autoriser la présence d’une constante
52
dans la relation de cointégration, nous devons choisir la deuxième ou la troisième
spécification. Cependant, les estimations montrent que ni la constante ni la tendance ne sont
significatives. La mise en relation des variables supprime donc la tendance linéaire commune
dans la relation. Nous choisissons la première option qui exclue la constante et la tendance de
toutes les équations. Les résultats du test correspondant à cette spécification sont consignés
dans le tableau suivant.
La première ligne du tableau teste l’hypothèse selon laquelle r 0 , c’est-à-dire qu’il n’existe
pas de relation de cointégration. Pour cette hypothèse, la statistique de la trace reporte une
valeur de 36,8405, supérieure aux valeurs critiques à 5% (24.31) et 1% (29,75), ce qui conduit
à rejeter l’hypothèse qu’il n’existe aucune relation de cointégration entre les variables. La
ligne suivante du tableau teste l’hypothèse d’au plus une relation de intégration. Cette
hypothèse ne peut être rejetée car la valeur de la statistique de la trace est inférieure à la
valeur critique à 5%. La procédure de test s’arrête à ce niveau. Finalement, la statistique de la
trace indique qu’il y a une seule relation de cointégration aux seuils de 5% et 1%.
Etant donné les distorsions du test de cointégration à distance finie, nous allons réexaminer les
résultats du test de cointégration en introduisant les facteurs de correction proposés par
Reinsel et Ahn (1992) et Cheung et Lai (1993). Les résultats sont reportés dans le tableau
suivant :
En considérant ces corrections, la conclusion du test de la trace ne s’en trouve pas modifiée.
En effet, l’hypothèse d’absence de cointégration est toujours rejetée au seuil de 5%. En
revanche, on ne peut rejeter l’hypothèse d’au plus une relation de cointégration. Le test de la
valeur propre maximale dont les résultats sont reportés dans le tableau ci-dessous confirme
qu’il existe une seule relation de cointégration.
53
Nombre de relations de Valeurs Statistique λmax Valeurs Valeurs
cointégration propres Critiques à 5% Critiques à 1%
r0 0.51826 26.2923 17.89 22.99
r 1 0.2299 9.4087 11.44 15.69
r2 0.03115 1.1393 3.84 6.51
En définitive, nous retenons qu’il existe une seule relation de cointégration entre les trois
variables. Nous allons estimer le modèle à correction d’erreurs qui lie la dynamique de court
terme à celle de long terme.
Nous allons appliquer trois méthodes pour estimer la fonction de consommation sous la forme
à correction d’erreurs.
Les résultats de l’estimation montrent que le coefficient associé à la force de rappel est négatif
(-0,86197) et significatif au seuil de 5%. Il existe bien un mécanisme à correction d’erreurs :
les déviations par rapport à la relation de long terme induisent à court terme des changements
dans l’évolution de la consommation, du PIB ou du prix de façon à forcer le système à
converger vers son équilibre de long terme. La valeur numérique du coefficient de rappel
représente la vitesse à laquelle tout déséquilibre entre les niveaux désiré et effectif de la
consommation est résorbé dans l’année qui suit tout choc. Ainsi, environ 86,197% des
déséquilibres de la consommation par rapport à son niveau de long terme sont corrigés
l’année suivante. Un choc constaté au cours d’une année est entièrement résorbé au bout
d’une année et 2 mois.
Tableau 4.9: Coefficients de régression du modèle à correction d’erreurs (méthode en une étape)
54
DLIPC 0.23984 0.10764 2.22800 0.0341
DLPIBR(-1) -0.17362 0.20015 -0.86747 0.3931
DLIPC(-1) -0.10618 0.11219 -0.94641 0.3520
DLCONS(-1) 0.55686 0.15729 3.54034 0.0014
LCONS(-1) -0.86197 0.17854 -4.82773 0.0000
LPIBR(-1) 0.78832 0.16410 4.80367 0.0000
LIPC(-1) 0.06847 0.01667 4.10677 0.0003
R-squared 0.80077 Mean dependent var 0.03476
Adjusted R-squared 0.75097 S.D. dependent var 0.06506
S.E. of regression 0.03247 Akaike info criterion -3.82380
Sum squared resid 0.02952 Schwarz criterion -3.47191
Log likelihood 76.8285 Durbin-Watson stat 2.11063
On peut calculer les élasticités de court et de long terme de la consommation par rapport au
revenu. L’élasticité de court terme est 1 0.3568 . Si le PIB réel augmente de 10%, la
consommation à court terme augmente de 35.68%. L’élasticité de long terme est égale à
0.7883
7 0.9145 . La consommation augmente à long terme de 9.145% suite à une
6 0.8619
augmentation du PIB réel de 10%.
On peut effectuer sur ce modèle tous les tests classiques sur les résidus (autocorrélation,
hétéroscédasticité, normalité, stabilité, test d’erreur de spécification). Les résultats des tests de
diagnostic montrent que les résidus du modèle vérifient toutes les hypothèses du modèle
linéaire.
55
Tableau 4.10 : Coefficients de régression du modèle à correction d’erreurs (méthode en deux
étapes)
Les variables étant toutes stationnaires, les tests usuels s’appliquent. Le coefficient associé à
la force de rappel est égal à -0,821. Il est négatif et significatif au seuil de 5%. La
représentation à correction d’erreurs est donc validée. La valeur du coefficient indique
qu’environ 82% du déséquilibre de la période t-1 est corrigé en t. L’élasticité de long terme
issue de l’estimation de la relation de cointégration est de 0,909. L’élasticité de court terme
est estimée à 0,4019. Nous remarquons que les resultats sont proches de ceux obtenus par la
méthode en une étape.
Il est important de rappeler que le modèle à correction d’erreurs ne se réduit pas à une seule
équation. Nous supposons ici qu’il se réduit à une seule équation parce que nous faisons
l’hypothèse d’exogénéïté faible15 des variables explicatives (LPIBR et LIPC). Il convient de
tester cette hypothèse dans l’étape suivante. Il est également possible d’appliquer tous les tests
classiques (autocorrélation, hétéroscédasticité, normalité, stabilité…) sur ce modèle.
La méthode de Johansen
15
Le test d’exogénéité faible renvoie à la notion de causalité de long terme et s’effectue en testant la nullité du
terme de rappel dans l’équation de la variable. Il existe une version forte (test d’exogénéité forte) qui impose des
restrictions sur les coefficients de court terme et le terme de rappel. Il s’agit d’un test de causalité globale. La
non significativité jointe de tous ces coefficients implique l’exogénéité forte de la variable.
56
On remarquera que le nombre de retards est celui du modèle VAR en différence première et
non celui du VAR en niveau. La méthode Johansen reste très sensible au nombre de retards.
Un nombre de retards élevé accroît la probabilité d’existence de relation de cointégration.
La première partie du tableau donne la relation de cointégration. CointEq1 désigne les résidus
retardés d’une période issus de la relation de cointégration. En mettant la variable LCONS en
début, la procédure choisit cette variable comme étant la variable endogène, LPIB et LIPC
étant les variables exogènes.
57
L’élasticité de long terme est donc estimée à 0,919, valeur qui est proche de celle obtenue par
les deux méthodes précédentes.
La deuxième partie du tableau montre que le terme à correction d’erreurs est négatif et
significativement différent de zéro dans l’équation relative au taux de croissance de la
consommation. Dans les équations relatives aux deux autres variables, ce terme est négatif
mais non significatif. Ce résultat indique que l’hypothèse d’exogénéïté faible des deux
variables LPIBR et LIPC ne peut être rejetée. Nous avons maintenant la certitude statistique
que la relation de cointégration mise en évidence plus haut est bien une équation de
consommation. A court terme, le taux de croissance de la consommation ne dépend que de sa
valeur passée, ceci reflète l’effet des habitudes de consommation.
58
Chapitre 5 : Introduction aux données de Panel
Il existe trois types d’échantillons de données. On distingue en premier lieu les données
temporelles ou séries chronologiques où les variables représentent des phénomènes observés à
intervalles réguliers. C’est ce type de données qu’on utilise dans la plupart des applications en
macroéconomie lorsqu’on travaille sur un pays donné. On a en second lieu les données en
coupe instantanée où les variables représentent des phénomènes observés au même instant sur
plusieurs individus. Il s’agit généralement des données d’enquête ponctuelle auprès
d’individus, de ménages ou d’entreprises. En troisième lieu, on a les données de panel dans
lesquelles les variables sont observées sur plusieurs individus et sur plusieurs périodes. Les
panels combinent donc les dimensions temporelle et individuelle des données. L’utilisation
des panels permet de contourner la difficulté liée au manque de données longues dans la
dimension temporelle. Elle permet de rendre plus puissants les tests lorsqu’on augmente la
dimension individuelle. Cependant, l’analyse des données de panel requiert des procédures
d’estimation très précises et fait apparaître des difficultés quant au traitement de
l’hétérogénéité individuelle. Elle constitue aujourd’hui une spécialité dans l’économétrie
(économétrie des données de panels) qui a donné lieu à de nombreux développements. Ici,
nous en faisons une brève présentation.
où l’indice i est pour l’individu i (par exemple le pays) et l’indice t pour la période t (l’année).
On suppose qu’il existe n individus et T périodes.
On suppose que l’échantillon est cylindré ou complet (balanced) : Chacun des n individus est
observé sur T périodes de sorte qu’on dispose de T observations pour chacun des n individus,
ce qui fournit n x T observations. Lorsque le panel n’est pas cylindré, il peut exister des
problèmes d’hétéroscédasticité et/ou d’autocorrélation des erreurs aléatoires. Aujourd’hui, la
plupart des logiciels économétrique sont capables de gérer des panels non cylindrés.
Pour tirer profit de la double dimension, individuelle et temporelle des données, différentes
spécifications ont été proposées.
59
Modèles à effets aléatoires
i : effet individuel
it : effet résiduel
On suppose que les coefficients varient d’un individu à l’autre et d’une période à l’autre.
Le modèle est spécifié comme suit :
60
La série admet une racine unitaire si i 1 .
Les tests précédents diffèrent suivant l’hypothèse sur la constance ou non du coefficient
autorégressif i . Les tests de Levin, Lin et Chu (LLC), Breitung et Hadri supposent que
i . Les tests IPS, ADF et PP supposent que le coefficient i varie selon les individus.
pi
y it y it1 ij y it j X it eit (15.5)
j 1
On teste alors :
H 0 : 0 contre H a : 0
Les tests de Levin, Lin et Chu (LLC) et de Breitung considèrent comme hypothèse nulle
l’existence d’une racine unitaire tandis que le test de Hadri considère l’absence de racine
unitaire comme hypothèse nulle. Il est donc similaire au test KPSS.
Un modèle en panel peut s’estimer aisément sur les logiciels Eviews et STATA. Après
l’estimation, il faut procéder aux différents tests. En particulier, il faut choisir entre un modèle
à effets fixes et un modèle à effets aléatoires. Pour cela, on recourt au test d’Hausman. Dans
Eviews, cela se fait en cliquant dans l’onglet View/Fixed/Random Effects
Testing/Correlated Random Effects - Hausman Test…
Les coefficients d’un modèle en données de panel s’interprètent de la même façon comme
dans les modèles en données strictement temporelles. Dans le cas d’un modèle à correction
d’erreur estimé par la méthode en deux étapes, il est possible de calculer les coefficients de
court terme et ceux de long terme.
61
REFERENCES BIBLIOGRAPHIQUES
62