Académique Documents
Professionnel Documents
Culture Documents
Tome 1
Yaya KEHO
Enseignant à l’ENSEA d’Abidjan, Côte d’Ivoire
Mars 2011
AUX LECTEURS
Suggestion de citation :
i
Table des matières
Avant-propos vi
Introduction 1
ii
3.6.1 Test de significativité globale 35
3.6.2 Test de significativité individuelle des coefficients 37
3.6.3 Test de stabilité des coefficients 39
3.7 Prévisions conditionnelles 42
3.7.1 Simulation historique et évaluation du pouvoir prédictif 42
du modèle
3.7.2 Prévision sur l’horizon 2003-2010 45
3.8 Estimation d’équations non linéaires 47
iii
Chapitre 7 : Stationnarité et modélisation VAR 72
A. La procédure de test 96
iv
104
8.3.4 Test de cointegration de Pesaran et al. (2001)
8.4 Cas pratique 104
8.4.1 Test de cointégration 104
A. Test de Engle et Granger 104
v
10.2.3 Estimer une équation par la méthode des variables 130
instrumentales
10.2.4 Faire des prévisions 131
10.3 Trois types de variables importants pour la programmation 131
10.3.1 Variables de contrôle 131
10.3.2 Variables de type string 132
10.3.3 Variables de remplacement 133
10.4 Les commandes IF, FOR et WHILE 133
10.4.1 La Commande IF 134
10.4.2 La boucle FOR …NEXT 135
A. La boucle FOR avec des variables de contrôle ou 135
des scalaires
B. La boucle FOR avec des variables de type string 137
10.4.3 La boucle WHILE …THEN 138
10.4.4 Quelques applications des commandes IF et FOR 139
A. Appliquer des opérations identiques à des variables 139
B. Correction de l’autocorrélation 140
vi
Références bibliographiques 182
vii
Avant-propos
Mes remerciements vont à l’endroit de tous ceux qui m’ont apporté un soutien
important. Je remercie particulièrement M. Koffi N’Guessan, Directeur de
l’ENSEA, pour ses encouragements incessants.
viii
Introduction
1. Objet de l'économétrie
2. La démarche économétrique
L'un des objets de l'économétrie est de confronter les prédictions des modèles
théoriques aux données économiques à l'aide de modèles statistiques. Cette
confrontation pour être réalisée doit suivre un certain nombre d’étapes: la
spécification du modèle, le recueil de données, l'estimation des paramètres du
modèle, les tests de spécification et la respécification.
1
postule que C = f (R ) où R représente le revenu. Pour spécifier le modèle
empirique, on doit postuler une forme pour les fonctions intervenant dans le
modèle. Bien entendu ces fonctions mathématiques doivent rester compatibles
avec les hypothèses a priori du modèle théorique. En général, la théorie
économique se contente d’indiquer les variables économiques qui interviennent
dans le modèle et suggère le signe probable des dérivées partielles. Par exemple,
pour la fonction de consommation précédente, on a f ' R > 0 . Cependant, la
théorie économique ne renseigne pas sur un certain nombre de choses dont la
forme exacte des fonctions mathématiques, la définition et la mesure des
variables qui interviennent dans le modèle. Faut-il retenir une spécification
linéaire ? Faut-il raisonner en termes réels ou courants ? Faut-il considérer les
taux de croissance ou les niveaux des variables ? Faut-il appliquer une
transformation logarithmique à certaines variables ? Faut-il corriger les variables
des variations saisonnières ou non ? Ce sont là des questions pratiques
importantes dont dépend l’issue de l’évaluation empirique des modèles
économiques.
Une fois le modèle spécifié, il faut réunir les données nécessaires à son
estimation. A cet égard, il existe trois types d’échantillons de données. On
distingue en premier lieu les données temporelles ou séries chronologiques où
les variables représentent des phénomènes observés à intervalles réguliers. C’est
ce type de données qu’on utilise dans la plupart des applications en
macroéconomie lorsqu’on travaille sur un pays donné. On a en second lieu les
données en coupe instantanée où les variables représentent des phénomènes
observés au même instant sur plusieurs individus. Il s’agit généralement des
données d’enquête ponctuelle auprès d’individus, de ménages ou d’entreprises.
En troisième lieu, on a les données de panel dans lesquelles les variables sont
observées sur plusieurs individus et sur plusieurs périodes. Les panels
combinent donc les dimensions temporelle et individuelle des données.
L’utilisation des panels permet de contourner la difficulté liée au manque de
données longues dans la dimension temporelle. Elle permet de rendre plus
puissants les tests lorsqu’on augmente la dimension individuelle. Cependant,
l’analyse des données de panel requiert des procédures d’estimation très précises
et fait apparaître des difficultés quant au traitement de l’hétérogénéité
individuelle. Elle constitue aujourd’hui une spécialité dans l’économétrie
(économétrie des données de panels) qui a donné lieu à de nombreux
développements.
2
théories économiques qui leur ont donné naissance. Les hypothèses théoriques
sont vérifiées en comparant leurs implications empiriques avec la réalité.
Lorsque la spécification retenue n’est pas satisfaisante, elle doit être modifiée
puis re-estimer à nouveau avant de conclure quant à la validité ou non de la
théorie.
3. Contenu de l’ouvrage
L'économétrie est une discipline qui effraie le plus souvent les étudiants par son
caractère formalisé et le recours à des notions de statistiques et de
mathématiques. L’objectif de cet ouvrage est d’offrir au lecteur une introduction
pratique à l’économétrie. Il ne se substitue pas aux manuels d’économétrie déjà
existant et ne prétend pas faire du lecteur un économètre. Car l’économétrie se
situe au confluent de plusieurs champs disciplinaires (sciences économiques,
probabilités et statistique mathématique) et nécessite par conséquent une
formation diversifiée à la fois sur le plan théorique et pratique. Chaque chapitre
renvoie à des références bibliographiques pour permettre au lecteur
d’approfondir un sujet particulier. Les modèles présentés sont illustrés par des
cas pratiques.
3
modèle économétrique, une procédure d’estimation alternative est décrite et
illustrée. Le chapitre 6 est consacré à l’estimation des modèles à équations
simultanées. Le statut des variables, les problèmes d’identification et les
méthodes d’estimation adéquates sont présentés et illustrés par un exemple
pratique. Le chapitre 7 aborde les modèles vectoriels autorégressifs qui se
présentent comme un cas particulier de modèles à équations simultanées. Ces
modèles explicitent les liens dynamiques entre plusieurs variables et permettent
ainsi de faire des prévisions, des analyses de causalité et des simulations de
chocs. Le chapitre 8 s’intéresse à la modélisation des séries économiques non
stationnaires. Différentes méthodes d’estimation des modèles à correction
d’erreurs sont décrites et appliquées à partir d’exemples pratiques. Le chapitre 9
est consacré à l’écriture et la résolution de modèles sous EViews. Le chapitre 10
présente une introduction à la programmation. Les procédures de spécification,
de résolution et de simulation sont décrites. Enfin le chapitre 11 propose deux
études de cas de synthèse. Ces exercices de synthèse font appel à l’ensemble des
éléments pratiques abordés dans les chapitres précédents.
4
Chapitre 1
5
documenté sur la mise en œuvre des procédures d’analyse, des commandes et
des opérations qu’il permet de faire.
EViews peut fonctionner aussi bien en mode interactif qu’en mode batch. En
mode interactif, l’utilisateur choisit, à partir des différentes fenêtres, ce qu’il
veut faire. Il tape la commande dans une fenêtre de commande et clique sur un
bouton pour obtenir le résultat. Il fait en quelque sorte de l’économétrie presse-
bouton. Le mode interactif est utilisé lorsque certaines étapes du traitement
exigent un examen des résultats et des prises de décision de l'utilisateur. Le
mode interactif présente l'avantage d'être simple, mais montre rapidement ses
limites pour réaliser certaines tâches plus élaborées. Il est alors préférable
d'utiliser le mode batch : les instructions sont écrites sous forme d’un
programme à l’aide d’une succession d’instructions utilisant des commandes. Le
mode batch nécessite donc la construction d’un fichier texte contenant une série
d’instructions pour aboutir aux résultats que l’on souhaite. L’utilisateur a la
possibilité d’exécuter une partie de ce programme dans différentes
circonstances. L’un des avantages des programmes est qu’ils permettent de
documenter l’analyse. On peut savoir comment on est arrivé aux résultats.
Notons cependant que le mode batch est plus complémentaire qu'incompatible
avec le mode interactif. Dans ce cours, nous allons utiliser ces deux modes de
fonctionnement du logiciel EViews et les illustrer à partir d’exemples pratiques.
Le lancement du logiciel se fait comme tout autre logiciel à partir du bureau ou
du menu démarrer.
La prévision macroéconomique :
• Prévision de l’inflation ;
• Prévision du taux de croissance ;
• Prévision du taux d’investissement ;
• Prévision des recettes budgétaires etc. ;
La prévision en entreprise
• Prévision des ventes ;
• Prévision de la demande ;
• Prévision des prix, etc.;
6
L’analyse financière
• Caractéristiques des séries financières
• Hétéroscédacticité et volatilité
• Les modèles à effets ARCH, ARCH en moyenne, ARCH
généralisé ;
EViews est basé sur la notion d’objet. Les objets sont des blocs d’éléments liés
par une notion commune et qui sont mis ensemble pour être utilisés plus
aisément. De façon virtuelle, tout le travail dans EViews impliquera l’utilisation
et la manipulation d’objets. L’objet le plus important dans EViews est le
workfile (espace de travail) et la première chose à faire sera de créer un workfile
ou d’ouvrir un workfile existant. Chaque objet est un ensemble d’information se
rapportant à un domaine particulier de l’analyse. Les objets peuvent recevoir
également des noms. Les objets les plus importants après le workfile sont les
séries et les équations. Il existe cependant un certain nombre d’autres objets qui
jouent des fonctions différentes. Il s’agit par exemple des vecteurs de
coefficients, des bases de données, des graphes, des groupes, des modèles, etc.
Tous ces objets, à l’exception des workfile et des bases de données, possèdent
leurs propres icônes qui apparaissent dans le workfile. Lorsqu’un nouvel espace
de travail (workfile) est crée, deux objets apparaissent automatiquement : le
vecteur des coefficients et la série des résidus. Le vecteur des coefficients sert à
stocker les coefficients des équations estimées. Par défaut, ce vecteur est nommé
par la lettre c et ses coefficients sont c(1), c(2), …, c(k). Toutefois, on peut
définir d’autres vecteurs pour recevoir les coefficients, par exemple a ou b.
Voici l’aperçu des icônes associés à certains objets :
7
Pour créer un nouvel objet, il suffit de sélectionner Object/New Object, à partir
du menu principal ou du menu du workfile, de choisir ensuite le type d’objet, de
le nommer et de cliquer sur OK pour valider.
8
Chapitre 2
Manipulation de données
Nous allons considérer des données portant sur la consommation privée réelle
(Cons), la consommation publique réelle (Consg), les dépenses publiques (GT),
l’investissement public (INVG), l’investissement privé (INVP), l’indice des prix
à la consommation (IPC), le PIB réel (PIBR) et le taux d’intérêt réel (R). Les
données couvrent la période 1965-2002. Elles se trouvent dans le fichier Excel
intitulé cons.xls. Elles sont reportées en annexes pour que le lecteur puisse lui-
même refaire les exercices. Il convient toujours de prendre connaissance des
données et de noter le nombre de variables et la période des observations. Ces
deux éléments seront nécessaires dans le processus d’importation des données
sous EViews.
La première action à faire sous EViews est de créer un workfile. Le workfile est
l’espace de travail qui organise et enregistre tous les objets qui vont être générés
lors du traitement des données. La création de l’espace de travail définit le
nombre d’observations, leur fréquence (données annuelles, trimestrielles,
mensuelles, journalières… ou irrégulières), le nombre et les noms des variables.
Il est nécessaire de relever ces caractéristiques dans le cas d’une importation de
données. Nous allons faire l’exercice à partir des données du fichier cons.xls.
9
Après cette opération, on obtient l’écran suivant :
Dans notre exemple, les données sont annuelles et commencent en 1965 pour
finir en 2002. Si les données étaient trimestrielles, on aurait indiqué le trimestre
après l’année en tapant 1965 :1 et 2001:4. Après avoir cliqué sur OK, l’écran
suivant s’affiche :
10
Vous venez de créer un workfile, c’est-à-dire un espace de travail. Ce workfile
ne contient pas encore de variables. C’est maintenant que nous allons procéder à
la saisie ou à l’importation des données du fichier cons.xls.
Dans la pratique, les données sont déjà saisies sous un autre logiciel. Dans la
plupart du temps, il s’agit de fichiers de format Excel. Dans ces cas, EViews
offre la possibilité d’importer ces données sans avoir à les ressaisir. Dans notre
cas, les données sont au format Excel et nous allons les importer dans EViews.
11
Précisez ensuite le nom du fichier de données (ici cons.xls) et cliquez sur ouvrir.
Vous obtenez l’écran suivant :
Taper ici le
nombre de
variables
Note * : La colonne A du fichier contient les années. Le fait d’avoir déjà précisé que les
données vont de 1965 à 2002 génère automatiquement la variable « année ». Les séries
commencent en réalité à partir de la colonne B, ligne 2. La ligne 1 contient les noms des
séries.
12
Vous venez d’importer les données du fichier cons.xls dans le fichier de travail.
Les huit (8) séries CONS, CONSG, GT, INVG, INVP, IPC, PIBR et R
apparaissent bien dans le workfile. Range indique la période couverte par les
séries. Sample indique la période qui va être considérée dans les calculs. Nous
pouvons maintenant procéder à l’analyse des données. Pour visualiser les
observations d’une série, double-cliquez sur la série. Pour visualiser un groupe
de variables, sélectionnez-les et faites Show puis validez. On peut aussi faire un
clic droit et sélectionner Open/As Group.
Il faut toujours enregistrer ou sauvegarder le worfile. Pour cela, cliquez sur Save
et donnez le nom de votre choix.
13
Générez de la même façon les logarithmes des autres variables. Les nouvelles
séries apparaissent dans le workfile. Pour créer un groupe comprenant les
nouvelles séries, sélectionnez-les variables et choisissez Show dans le menu
puis nommez le groupe.
2.5 Graphiques
Graphiques séparés
8.8 9.0
8.8
8.4 8.6
8.4
8.0
8.2
7.6 8.0
7.8
7.2
7.6
6.8 7.4
1965 1970 1975 1980 1985 1990 1995 2000 1965 1970 1975 1980 1985 1990 1995 2000
LCONS LPIBR
Graphiques simultanés
9.0
8.5
8.0
7.5
7.0
1965 1970 1975 1980 1985 1990 1995 2000
LPIBR LCONS
14
On peut également représenter le nuage de points entre deux variables. Ouvrez
les deux variables et sélectionnez View/Graph/Scatter/Simple Scatter. Pour le
couple (LPIBR, LCONS), on obtient le nuage de points suivant :
8.8
8.4
8.0
LCONS
7.6
7.2
6.8
7.4 7.6 7.8 8.0 8.2 8.4 8.6 8.8 9.0
LPIBR
On constate sur ce graphique qu’il existe une forte corrélation entre les deux
variables. Un ajustement linéaire de la consommation par le PIB paraît adéquat.
15
Tableau 2.1 : Statistiques descriptives sur les séries LCONS, LPIBR, LIPC et LGT
Observations 38 38 38 38
16
Chapitre 3
17
variables explicatives pertinentes non prises en compte dans la spécification,
mais aussi d’autres types d’erreurs de spécification telles que la forme de la
relation mathématique, l’erreur d’échantillonnage et les erreurs de mesure sur
les variables. Ce terme est supposé aléatoire, ce qui permet de rendre le modèle
non déterministe : les valeurs observées de la consommation peuvent ainsi
s’écarter des valeurs théoriques issues de l’équation. Toutefois, pour que
l’ajustement soit satisfaisant, les valeurs de e t ne doivent pas être trop
« grandes », sinon le modèle n’expliquerait pas grande chose des variations de la
consommation.
Notons que le caractère endogène ou exogène d’une variable n’est pas une
caractéristique intrinsèque de celle-ci, il dépend du modèle considéré. Ainsi, le
PIB sera une variable endogène dans un modèle global d’une économie, mais
une variable exogène dans un modèle du marché de l’immobilier. Nous
reviendrons dans la suite sur le statut des variables dans un modèle structurel
quand nous aborderons les modèles à équations simultanées.
Une fois le modèle spécifié, il faut fournir des estimations des paramètres
structurels a0 , a1 , a 2 et a3 à partir d’un échantillon d’observations. Ces
coefficients sont importants pour l’analyse économique étant donnée leur
signification économique. Par exemple, le coefficient a1 représente l’élasticité de
la consommation par rapport au revenu, il indique de combien varie la
consommation lorsque le revenu augmente de 1%. De même, le coefficient
a 2 évalue l’élasticité de la consommation privée par rapport au niveau général
des prix. Ces paramètres structurels sont importants pour la simulation des
politiques macroéconomiques.
Pour « gérer » les termes d’erreurs e t ainsi que les propriétés du modèle, on pose
les hypothèses suivantes:
- Les erreurs e t sont de moyenne nulle : les erreurs se compensent sur toute
la période;
- La variance des erreurs e t est constante (hypothèse d’homoscédascticité) ;
- Les erreurs e t sont indépendantes (l’erreur au temps t n’est pas influencée
par l’erreur aux temps t-1, t-2, ou plus généralement la corrélation entre
deux observations distinctes est nulle) ;
- Les erreurs e t suivent une distribution normale.
On résume ces quatre hypothèses en posant que les termes d’erreurs sont
normalement identiquement et indépendamment distribuées et on note
et ~ Νiid (0, σ 2 ) . La pertinence des tests que nous allons faire sur le modèle
18
dépendra de la validité de ces hypothèses. L’hypothèse de normalité n’est pas
indispensable pour garantir l’absence de biais dans l’estimation des coefficients,
mais elle s’avère cruciale pour réaliser les tests statistiques sur le modèle.
En plus des hypothèses précédentes sur les termes d’erreurs, on pose également
un certain nombre d’hypothèses sur les variables explicatives. Ainsi une des
hypothèses importantes dans les modèles structurels est l’exogénéïté des
variables explicatives. Cette hypothèse signifie que les variables explicatives
sont indépendantes du terme d’erreur et ( cov( xt , et ) = 0) . La violation de cette
hypothèse implique un traitement économétrique approprié. On suppose d’une
part que le nombre d’observations excède le nombre de paramètres à estimer et,
d’autre part, qu’il n’existe pas de multicolinéarité parfaite entre les variables
explicatives. La première condition est une condition nécessaire pour vérifier la
deuxième. L’absence d’une multicolinéarité parfaite signifie qu’il n’y a pas de
redondance des différentes variables explicatives dans la détermination de la
variable expliquée. Cette hypothèse conditionne la possibilité d’estimer les
paramètres du modèle.
19
Cette méthode devient fastidieuse si le modèle comporte un grand nombre de
variables explicatives. En outre, l’obligation de taper les noms exacts des
variables ajoute une difficulté supplémentaire à cette procédure.
Remarquez que la méthode d’estimation utilisée par défaut est la méthode des
moindres carrés ordinaires. Cette méthode d’estimation consiste à minimiser la
somme des distances entre les valeurs observées de la variable endogène et ses
valeurs ajustées. Il existe une méthode alternative connue sous le nom de
maximum de vraisemblance qui vise à maximiser la fonction de vraisemblance
du modèle. On peut cependant retenir que dans les hypothèses de base du
modèle linéaire les deux méthodes d’estimation donnent des estimateurs
équivalents.
A ce niveau, nous devons faire une remarque importante pour la suite. En effet,
dans cette spécification, nous avons utilisé les variables « loguées » (LCONS,
LPIBR, LIPC et LGT). L’avantage de cette transformation est d’obtenir
directement les élasticités partielles. Cependant, lorsque nous allons faire les
prévisions, il faudra revenir aux valeurs en niveau (CONS) en appliquant la
fonction exponentielle. Pour contourner cette opération et faire l’économie de
calculs, nous allons entrer l’équation de la façon suivante :
20
Cliquez sur OK pour valider. Vous obtenez le tableau de résultats suivant.
On peut nommer l’équation en tant qu’objet. Pour cela, cliquez sur Name et
tapez le nom (Eq1 par exemple). Pour documenter les résultats (dans un
document Word par exemple), cliquez sur View/Representations. Vous obtenez
trois lignes de textes qui indiquent la commande utilisée, l’équation estimée et
les valeurs des coefficients de l’équation. Pour revenir aux résultats de la
régression, cliquez sur l’onglet Stats.
21
Nous allons maintenant procéder aux différents tests de spécification sur le
modèle. Il s’agit des tests sur les termes d’erreurs, du test d’erreur de
spécification et des tests sur les coefficients.
Les propriétés des estimateurs des moindres carrés ordinaires reposent sur un
certain nombre d’hypothèses formulées a priori sur les termes d’erreur. Il s’agit
plus précisément de la nullité de la moyenne, de l’absence d’autocorrélation, de
l’homoscédasticité et de la normalité des erreurs. Ces hypothèses
économétriques sont importantes pour garantir de bonnes propriétés aux
estimateurs des moindres carrés ordinaires. Les tests d’hypothèses économiques
n’auront un sens que si la spécification économétrique du modèle n’a pas été
préalablement rejetée. Ne commentez pas les coefficients sans avoir vérifié au
préalable les hypothèses économétriques. En effet, le rejet, par exemple, des
hypothèses d’absence d’autocorrélation et d’homoscédasticité des erreurs rend
l’estimateur des moindres carrés ordinaires inefficace, et toute décision
économique basée sur cet estimateur est risquée. En corrigeant les estimations
de l’autocorrélation ou de l’hétéroscédasticité, la significativité de certains
coefficients peut s’en trouver modifier.
Par nature, le jugement sur échantillon ne permet pas de décider avec certitude.
Nous ne pouvons pas être sûr que l’hypothèse examinée est juste ou fausse. Il
nous faudrait pour cela examiner la population dans sa totalité, ce qui est
physiquement ou économiquement impossible, voire parfois sans intérêt. C’est
pour cela, pour effectuer un test d'hypothèses, on se fixe une probabilité d’erreur
a priori notée α , appélée encore erreur de première espèce ou seuil de
signification: c’est la probabilité de rejeter l’hypothèse nulle sachant qu’elle est
vraie.
22
La procédure d’un test d’hypothèse répose sur l’utilisation d’une variable
aléatoire (statistique de test) dont la distribution est connue sous l’hypothèse
nulle. On divise l’ensemble des réalisations possibles de cette variable en deux
régions : une région d’acceptation de l’hypothèse nulle et une région de rejet, la
frontière étant déterminée par une valeur critique, elle-même determinée par le
seuil de signification α . Il arrive que la statistique de test conduit à
accepter H 0 alors qu’en réalité elle est fausse. Dans ce cas, on commet une erreur
dite de deuxième espèce notée β . L’aptitude d’un test à rejetter l’hypothèse nulle
lorsqu’elle est fausse constitue la puissance du test. Logiquement, plus la région
d’acceptation est grande plus l’erreur de deuxième espèce est grande. Les deux
types d’erreur sont intimement liés. On ne peut réduire l’une qu’en consentant à
accroitre l’autre et vice-versa. Le seul moyen de réduire l’une et l’autre est
d’accroitre le nombre d’observations. Plus les observations sont nombreuses,
plus est étroit le champ des hypothèses admissibles et mieux nous sommes
armés pour rejetter l’hypothèse lorsqu’elle est fausse.
23
Vous obtenez le graphique suivant:
Mean 1.97E-15
6 Median -0.009997
Maximum 0.114133
Minimum -0.072786
4 Std. Dev. 0.042825
Skewness 0.687528
Kurtosis 3.013218
2
Jarque-Bera 2.994007
Probability 0.223800
0
-0.05 0.00 0.05 0.10
24
T
∑ (e − e)
2
t
s= T =1
(3.2)
T −1
et − e
T 3
1
S=
T
∑
t =1 σˆ
(3.3)
T −1
où σˆ = s est l’écart type des observations résiduelles.
T
et − e
T 4
1
K=
T
∑
t =1 σˆ
(3.4)
T − k 2 ( K − 3) 2
JB = S + (3.5)
6 4
25
Sous l’hypothèse de normalité, la statistique de Jarque-Bera est distribuée
suivant une loi du χ 2 à 2 degrés de liberté. La probabilité reportée représente la
probabilité que χ 2 excède la valeur calculée. Une probabilité inférieure à 0.05
conduit à rejeter l’hypothèse nulle d’une distribution normale au seuil de 5%.
Dans notre cas, la statistique de Jarque-Bera reporte une valeur de 2.99 et une
probabilité de commettre une erreur de première espèce de 0.22. Autrement dit,
si on rejette l’hypothèse de normalité des résidus, il y a 22% de chances de
prendre une mauvaise décision. Cette probabilité étant bien supérieure à 5%, on
ne peut donc rejeter l’hypothèse de normalité des résidus au seuil de 5%. Nous
sommes donc amenés à accepter l’hypothèse que les termes d’erreur suivent une
distribution normale.
Pour réaliser ces tests, double-cliquez sur la série des résidus RES, et
sélectionnez View/Distribution/Empirical Distribution Tests. Vous obtenez la
fenêtre suivante :
Le tableau des résultats (cf. Tableau 3.2) comporte deux parties. La première
partie (PARTIE I) présente les statistiques de tests et les probabilités critiques
26
correspondantes. La colonne « Value » donne les valeurs asymptotiques des
statistiques de tests et la colonne « Adj.Value » corrige ces valeurs pour tenir
compte à la fois de la taille finie de l’échantillon et de l’incertitude sur les
estimations des paramètres de la distribution théorique. La dernière colonne
indique les probabilités des valeurs ajustées.
PARTIE I
Method Value Adj. Value Probability
Lilliefors (D) 0.12966 NA > 0.1
Cramer-von Mises (W2) 0.09795 0.09924 0.1152
Watson (U2) 0.08284 0.08393 0.1557
Anderson-Darling (A2) 0.57622 0.58849 0.1251
PARTIE II
Method: Maximum Likelihood - d.f. corrected (Exact Solution)
Parameter Value Std. Error z-Statistic Prob.
MU 1.97E-15 0.00694 2.83E-13 1.0000
SIGMA 0.04282 0.00497 8.60232 0.0000
Log likelihood 66.30476 Mean dependent var. 1.97E-15
No. of Coefficients 2 S.D. dependent var. 0.04282
La seconde partie du tableau (PARTIE II) indique les valeurs des paramètres
utilisées pour calculer la fonction de densité théorique. La moyenne de la série
résiduelle RES est estimée à 1.97x10-15 avec une probabilité égale à 1, indiquant
que les erreurs ont une moyenne qui n’est pas significativement différente de
zéro. L’écart-type est estimé à 0.04282 avec une probabilité qui indique que ce
paramètre est significativement différent de zéro. On remarquera que ces valeurs
sont les mêmes que celles reportées dans l’histogramme des résidus. Dans la
partie inférieure du tableau on peut lire la valeur de la fonction de vraisemblance
ainsi que le nombre de paramètres estimés (moyenne et écart-type). Pour revenir
au tableau des estimations, cliquez sur l’onglet Stats.
L’hétéroscédasticité qualifie des données qui n’ont pas une variance constante.
L’hétéroscédasticité des erreurs ne biaise pas l’estimation des coefficients, mais
plutôt les tests statistiques puisque les écarts-types estimés des coefficients ne
sont pas adéquats. Le problème de l’hétéroscédasticité se rencontre plus
fréquemment sur des données en coupe instantanée ou bien sur des données
groupées. Elle prend souvent une forme particulière sur des données
27
temporelles. Néanmoins, il est important dans tous les cas de savoir la détecter
et la corriger.
28
rendre les erreurs homoscédastiques. On peut par exemple représenter
graphiquement le nuage de points entre la série des résidus et chacune des
variables explicatives. La présence d’une hétéroscédasticité implique une
variation systématique de la variance des résidus en fonction de la variable
causale. Pour corrige ce problème, on applique la méthode des moindres carrés
pondérés qui consiste à multiplier les variables initiales par l’inverse de la
variable causale. On peut aussi utiliser les procédures de correction proposées
par White (1980) et Newey et West (1978), disponibles en options dans la
fenêtre de spécification. Ces procédures apportent une correction seulement au
niveau de l’estimation des écart-types des coefficients. La procédure de White
propose une correction sans préciser la forme de l’hétéroscédasticité. Elle utilise
les estimateurs sans biais des coefficients obtenus par les moindres carrés
ordinaires, et estime ensuite la matrice de variance-covariance de façon
convergente. La procédure de Newey et West estime cette matrice sous
l’hypothèse d’une hétéroscédasticité et d’une autocorrélation de formes
inconnues.
29
serait corrélée avec les termes erreurs en cas d’autocorreléation). De plus, le
modèle doit être spécifié avec une constante parmi les explicatives et les erreurs
doivent suivre une loi normale. Ce test ne s’applique que sur des données
temporelles. Le modèle (3.1) remplit bien toutes ces conditions.
DW ≅ 2(1 − ρˆ ) (3.6)
Cette formule s’avère utile en pratique car elle permet dans certains cas d’avoir
très rapidement une idée sur l’autocorrélation des erreurs. La valeur calculée de
DW est comprise entre 0 et 4. Une valeur proche de 2 indique une absence
d’autocorrélation des erreurs tandis qu’une valeur proche de zéro ou de 4 est
révélatrice d’une autocorrélation des erreurs (autocorrélation positive ou
négative). Pour des valeurs qui s’éloignent de ces deux valeurs, il faut consulter
les valeurs critiques tabulées par Durbin et Watson pour pouvoir décider en
toute assurance.
Dans notre cas, la statistique de Durbin-Watson reporte une valeur de 1.302 qui
n’est ni proche de zéro ni proche de 2. Le recours à la table de Durbin et Watson
est donc nécessaire pour conclure. On lit dans la table de Durbin et Watson3 à
n = 38 et k = 3 , d 1 = 1.32 et d 2 = 1.66 . La valeur de la statistique DW se situe à
droite de d1 , nous pouvons conclure à une autocorrélation positive des résidus,
donc à une présomption de dépendance des erreurs.
3
Voir Bourbonnais (1998), Table de Durbin-Watson, page 297.
30
Figure 3.2 : Corrélogramme de la série des résidus de l’équation (3.1)
31
la variable endogène retardée parmi les variables explicatives. Pour réaliser ce
test, sélectionnez View/Residual Tests/ Serial Correlation LM Test….
Précisez l’ordre de l’autocorrélation et cliquez sur OK. Pour un nombre de
retards égal à un, on obtient le tableau suivant:
Tableau 3.4 : Statistiques du test d’ autocorrélation de Breusch-Godfrey
Dans ce qui précède nous avons testé les différentes hypothèses portant sur les
termes d’erreurs. Cependant, il existe d’autres types d’erreurs de spécification
qui peuvent affecter l’estimation du modèle. Le test de Ramsey (1969) teste les
trois types d’erreurs de spécification suivantes :
32
Le résultat du test est donné dans le tableau suivant :
Tableau 3.5 : Statistiques du test de Ramsey de l’équation (3.1)
33
Nous allons re-estimer le modèle en retenant une autocorrélation d’ordre 1. Pour
cela, cliquez sur Estimate dans le menu de l’équation pour retourner à la
spécification de l’équation, et ajoutez un terme AR(1) à la fin de l’équation.
Nous reviendrons sur les autres méthodes d’estimation dans le chapitre consacré
à la programmation. Rappelez-vous que plusieurs raisons peuvent être à
34
l’origine de l’autocorrélation des erreurs, dont l’omission de variables
explicatives pertinentes. Aussi, est-il possible de corriger l’autocorrélation des
erreurs en introduisant des retards de la variable endogène parmi les variables
explicatives. Nous reviendrons sur ce point lorsque nous aborderons les modèles
à décalages temporels.
Les tests de restrictions linéaires sur les coefficients sont de trois types : le test
de significativité globale des coefficients, le test de significativité des
coefficients pris individuellement et le test de stabilité. Le test de significativité
globale et le test de significativité individuelle des coefficients sont réalisés à
partir respectivement de la statistique de Fisher et de la statistique de Student.
Ces statistiques reposent sur l’hypothèse de normalité des erreurs. On peut aussi
utiliser un test du rapport de vraisemblance.
La valeur de la statistique de Ficher reporte ici une valeur de 642.746 avec une
probabilité presque nulle. Manifestement les coefficients sont globalement
significatifs, ce qui signifie que, prises ensemble, les trois variables explicatives
influencent de façon significative les variations de la consommation.
35
Il existe une relation entre la statistique de Fisher et le R 2 :
R2 T − k − 1
F= (3.7)
1 − R2 k
T −1
(1 − R 2 ) = (1 − R 2 ) (3.8)
T − k −1
T − k −1
D’après cette expression, on constate que R 2 < 0 dès que 1 − R 2 > .
T −1
4
L’ajout d’une variable à l’équation entraîne une augmentation duR 2 si et seulement si le t de Student de cette
2 2
variable est, en valeur absolue, supérieure à 1 (Greene, 1997). Le R est inférieur au R . Les deux statistiques
sont asymtotiquement équivalentes.
36
comporte pas de terme constant, l’équation de décomposition de la variance de
la variable expliquée n’est plus vérifiée. Dans ce cas, le R 2 peut donner une
valeur négative.
37
variables. En supprimant tour à tour chacune des variables, on constate que les
autres variables présentent des coefficients bien significatifs. Mais la forte
colinéarité entre les variables génère un coefficient non significatif pour la
dernière variable. On rencontre très souvent ce genre de problème d’adéquation
entre la théorie économique et la pratique économétrique : en théorie on peut
supposer que des variables sont orthogonales mais lors de la modélisation on se
rend compte qu’elles sont liées entre elles. On peut obtenir des coefficients non
significatifs ou affectés d’un signe erroné.
38
variables explicatives peut entraîner le rejet de l’hypothèse d’exogénéïté de ces
dernières et être à l’origine d’un biais d’estimation.
Il existe d’autres méthodes pour corriger les effets d’une forte multicolinéarité.
On peut chercher à augmenter le nombre des observations ou bien transformer la
relation fonctionnelle qui lie les variables explicatives à la variable endogène.
Il est donc important de compléter la série des tests économétriques par des tests
de stabilité. Ces tests s’intéressent plus généralement à des questions du genre :
peut-on considérer qu’il y a eu un changement dans le comportement de
consommation des ménages après telle date? La propension marginale à
consommer est-elle restée constante sur toute la période d’estimation? Les
6
Les aspects techniques et pratiques de ces méthodes sont développés dans Lebart L., Morineau A. et Piron, M.
(1995), Statistique exploratoire multidimensionnelle, Dunod, Paris. Jambu M. (1999), Méthodes de base de
l’analyse des données, Dunod, Paris.
39
sources de la croissance sont-elle restées les mêmes avant et après la crise des
années 1980? Le comportement de consommation des hommes est-il identique à
celui des femmes? Lorsqu’on travaille sur des données temporelles, les tests de
stabilité prennent la forme de tests de stabilité temporelle ou structurelle. Sur des
données en coupe instantanée, il s’agit de tests d’homogénéité de
comportements (hommes/femmes ; riches/pauvres etc.).
Il existe plusieurs tests de stabilité dont les plus utilisés sont le test de Chow,
l’analyse des résidus et des coefficients récursifs et les tests CUSUM et
CUSUMQ de Brown, Durbin et Evans (1975). Le test de Chow effectue un test
de Fisher en comparant les estimations des coefficients sur deux ou plusieurs
sous périodes. Il nécessite d’indiquer une ou plusieurs dates de rupture dans les
séries, ce qui requiert une analyse exploratoire plus précise des séries. Les tests
CUSUM et CUSUMQ dispensent de cette connaissance préalable.
Nous allons réaliser le test de Chow en considérant les deux sous périodes 1965-
1993 et 1994-2002. A partir du menu de l’équation, sélectionnez View/Stability
Tests/Chow Breakpoint Test…
Entrez 1994 dans la boîte de dialogue qui apparaît. Cette date correspond à la
date supposée de rupture. Cliquez sur OK pour obtenir le tableau suivant :
Tableau 3.7 : Résultat du test de stabilité de Chow
40
significatif dans le comportement de consommation des ménages. Notons que le
test de Chow n’est pas pertinent si la date choisie ne correspond pas à la
véritable date de rupture.
Une autre procédure de test de stabilité consiste à analyser les résidus ou les
coefficients récursifs. Ces derniers sont obtenus en estimant de façon récursive
le modèle : on commence à estimer le modèle avec un nombre réduit
d’observations, puis on augmente progressivement ce nombre jusqu’à utiliser
toutes les données. A chaque fois, on calcule de nouveaux coefficients (les
coefficients récursifs) à partir desquels on génère les résidus récursifs
normalisés. Si le modèle est stable, les coefficients récursifs seront très proches
et les résidus récursifs seront indépendamment et normalement distribués, de
moyenne nulle et d’écart-type constant. Les tests CUSUM et CUSUMSQ sont
basés sur les résidus récursifs. Le CUSUM utilise la somme cumulée des résidus
récursifs tandis que le CUSUMSQ utilise le carré des résidus récursifs. Ces
statistiques de test offrent l’avantage par rapport au test de Chow de ne pas
connaître a priori la date de rupture.
Il suffit de cocher la case correspondante au test que l’on veut faire (résidus
récursifs, CUSUM ou CUSUMQ). Les résultats pour les tests CUSUM et
CUSUMQ sont représentés dans les graphiques suivants :
41
Figure 3.3a: Test CUSUM Figure 3.3b: Test CUSUMQ
20 1.6
15
1.2
10
5
0.8
0
-5 0.4
-10
0.0
-15
-20 -0.4
1970 1975 1980 1985 1990 1995 2000 1970 1975 1980 1985 1990 1995 2000
Si les courbes sortent du corridor stylisé par les droites en pointillés, on conclut
qu’il y a instabilité du modèle. Sinon, le modèle peut être considéré comme
stable sur toute la période. Ici, aucune des statistiques CUSUM et CUSUMQ ne
franchit les droites: nous pouvons donc conclure que le comportement de
consommation des ménages est resté stable sur toute la période.
42
Bien que le modèle estimé soit spécifié sous la forme logarithmique, EViews
offre la possibilité de prévoir directement les valeurs de la série en niveau pour
l’horizon temporelle défini. La série simulée est nommée en ajoutant la lettre F
(pour Forecast) au nom de la variable endogène. Ici cette série prend le nom
CONSF. Toutefois, il est possible de la renommer autrement. La variable
CONSF apparaît dans le workfile.
43
Figure 3.4 : Evolution de la série prévisionnelle CONSF
6000
Forecast: CONSF
Actual: CONS
5000
Forecast sample: 1965 2002
Included observations: 38
4000
Root Mean Squared Error 158.1191
3000 Mean Absolute Error 114.9630
Mean Abs. Percent Error 3.378645
Theil Inequality Coefficient 0.023481
2000 Bias Proportion 0.000559
Variance Proportion 0.011606
1000 Covariance Proportion 0.987835
0
1965 1970 1975 1980 1985 1990 1995 2000
CONSF
5000
4000
3000
2000
1000
1965 1970 1975 1980 1985 1990 1995 2000
CONS CONSF
44
La moyenne des carrés des erreurs de prévision (Mean Squared Error) est
décomposée suivant trois types de proportions. Bias Proportion indique
combien la moyenne des prévisions s’écarte de la moyenne des valeurs actuelles
de la série. Variance Proportion indique combien la variation des valeurs
prévisionnelles s’écarte de celle des valeurs actuelles. Covariance Proportion
mesure les erreurs de prévision non systématiques. Pour une bonne prévision,
les deux premières proportions devraient fournir des valeurs faibles.
Notons que EViews n’affiche ces différentes statistiques que lorsque les valeurs
de la variable endogène sont renseignées sur la période de simulation. Il s’agit
en effet de comparer les valeurs prédites avec les valeurs réellement observées
de la variable endogène. En pratique, on utilise ces statistiques pour évaluer
l’adéquation des prévisions avec les réalisations. Si cette adéquation est bonne
alors on peut procéder à la prévision proprement dite de la variable endogène.
Dans notre exemple, MAPE= 3,378% et Theil=0,023. La performance
prévisionnelle du modèle est donc bonne.
45
• Ouvrez la série PIBR. Les valeurs pour 2003-2010 sont marquées par
« NA ». Entrez les valeurs pour la période 2003-2010. Nous allons
générer ces valeurs en supposant une augmentation des revenus de 10%
par an de 2003 à 2010. Sous cette hypothèse, les valeurs du revenu réel
ainsi que celles du prix sont données dans le tableau suivant:
Tableau 3.8 : Valeurs de PIBR et IPC de 2003 à 2010
46
Quatre types d’erreurs entachent la qualité des prévisions : l’incertitude sur
l’évolution future des termes d’erreur; l’incertitude sur les coefficients
structurels; l’incertitude sur les valeurs futures des variables explicatives et
l’erreur sur la spécification du modèle. L’incertitude sur les termes d’erreur
provient du fait que ces termes ne sont pas connus sur la période de prévision, ils
sont remplacés par leur valeur moyenne. Or si cette moyenne est nulle sur une
période, les valeurs individuelles peuvent cependant être non nulles. Plus
l’erreur individuelle sera importante, plus l’erreur de la prévision sera grande.
L’erreur-type fournit une mesure statistique de la variation des erreurs
individuelles.
L’incertitude sur les coefficients structurels provient du fait que ces derniers
sont estimés. Il se peut donc que ces estimations dévient des valeurs vraies des
coefficients. Les écart-types des coefficients donnent une idée sur la précision
avec laquelle ces coefficients sont estimés. L’effet de ces incertitudes sur la
prévision dépend de la trajectoire prévisionnelle des variables exogènes. Plus
ces variables dévieront fortement de leurs tendances moyennes, plus grande sera
l’imprécision des prévisions. La connaissance imprécise des valeurs futures des
variables exogènes introduit un élément supplémentaire d’incertitude dans la
prévision de la variable endogène. La qualité des prévisions dépend également
du choix de la spécification du modèle. Par exemple, si l’on adopte une
spécification linéaire de façon « mécanique » alors qu’en réalité la relation
véritable est non linéaire, les prévisions seront mauvaises. C’est pour ces
diverses raisons que la prévision conditionnelle ne doit pas être utilisée sur un
horizon temporel assez long. Les techniques de prévision utilisant la
méthodologie de Box et Jenkins s’avèrent moins exigeantes en conjectures dans
la mesure où elles utilisent seulement l’information contenue dans la mémoire
des séries pour former les prévisions.
Q t = AK tα Lβt (3.9)
47
Considérons maintenant une fonction de production du type CES (Constante
Elasticity of Substitution) de la forme suivante :
[
Q = β 1 β 2 K β 3 + (1 − β 2 ) Lβ 3 ]
β4
avec β 3 et β 4 < 0 (3.10)
[
Log(Q) = log(β1 ) + β4 Log β2 K β3 + (1 − β2 )Lβ3 ] (3.11)
Les techniques d’estimation des modèles non linéaires reposent sur des
algorithmes itératifs dans lesquels l’équation non linéaire est linéarisée à l’aide
d’un développement limité de Taylor à partir d’un jeu de coefficients initiaux.
Les moindres carrés ordinaires sont alors appliqués à cette équation linéaire afin
d’estimer de nouveaux coefficients. Ces derniers permettent, à l’aide d’un
nouveau développement limité, de procéder à une nouvelle linéarisation. La
procédure est répétée jusqu’à ce que les coefficients soient relativement stables
(convergence). Tout le problème ici réside dans le choix des valeurs initiales des
paramètres qui assurent la convergence de l’algorithme.
48
Chapitre 4
49
compte sera discuté et les critères statistiques qui permettent de choisir ce
nombre seront également présentés et illustrés.
50
Tableau 4.1 : Coefficients de régression de l’équation de consommation (4.1)
On peut effectuer sur le modèle les mêmes tests effectués sur l’équation de
consommation estimée dans le chapitre 3 (test de significativité, test de Wald,
test de normalité, test d’autocorrélation, test d’hétéroscédasticité etc.) de même
que des prévisions.
n
h = ρˆ (4.2)
1 − nσˆ 2 ( aˆ5 )
51
On voit qu’il y a équivalence entre la nullité de ρ̂ et celle de h . Sous l’hypothèse
nulle, la statistique h suit asymptotiquement une loi normale centrée et réduite.
La procédure du test « h » consiste à comparer la valeur absolue de h à 1,96
(valeur critique issue de la loi normale pour un test bilatéral à 5%). Dans notre
exemple, nous avons:
DW = 1.2771 ; σˆ ( aˆ 5 ) = 0.1580 ; n = T − 1 = 37
52
En définitive, nous retenons que les termes d’erreurs du modèle sont
autocorrélés à l’ordre un.
53
MCO. D’autre part, si le nombre de retards est sous-estimé, on risque d’oublier
des retards explicatifs significatifs et on connaît les conséquences de l’oubli de
variables explicatives sur la qualité des estimateurs.
Plusieurs artifices sont proposés pour déterminer le nombre de retards dans les
modèles à retards échelonnés. Il s’agit des critères d’utiliser les critères
d’information de Akaike (AIC) et de Schwarz (SC). Ces critères fournissent en
effet une mesure de la quantité d’information contenue dans un modèle et
donnent une idée de l’adéquation du modèle estimé au « vrai » modèle. On
préferera le modèle qui fournit une valeur du critère minimale. EViews calcule
directement ces critères qui apparaissent dans la partie inférieure à droite du
tableau des résultats des estimations.
Décalage AIC SC
0 -3.31671 -3.18743
1 -3.50994 -3.24871
2 -3.76892 -3.37304*
3 -3.77639* -3.24313
54
Tableau 4.6 : Estimation de la fonction de consommation autorégressive avec deux retards
On peut appliquer tous les tests sur les termes d’erreur de cette équation.
55
aˆ1 + aˆ 3 + aˆ 4 0.365 + 0.256 + 0.177
ε LT = = = 0.923 (4.3)
1 − (aˆ 7 + aˆ8 ) 1 − (0.693 − 0.557)
L’élasticité de long terme du revenu est donc égale à 0.923, ce qui signifie que
lorsque le revenu augmente de 10%, la consommation à long terme augmente de
9.23%. A long terme, la consommation et le revenu croissent à peu près au
même taux. Cela ne surprend pas car le ratio de la consommation par rapport au
PIBR reste peu variable sur la période : en moyenne 65.26% de la production est
consommé avec un écart-type de 4.38%. Le graphique de ces deux variables
présente des évolutions parallèles. Au stade actuel, nous ne pouvons pas juger de
la significativité de l’élasticité de long terme car celle-ci est obtenue par une
combinaison non linéaire des coefficients estimés. Nous reviendrons sur le
calcul des élasticités de court et long terme et des tests sur celles-ci dans le
chapitre sur la cointégration.
6000
Forecast: CONSFDYN
Actual: CONS
5000 Forecast sample: 1965 2002
Adjusted sample: 1967 2002
Included observations: 36
4000
Root Mean Squared Error 109.2078
Mean Absolute Error 76.61047
3000 Mean Abs. Percent Error 2.292895
Theil Inequality Coefficient 0.015858
Bias Proportion 0.009635
2000 Variance Proportion 0.056061
Covariance Proportion 0.934303
1000
1970 1975 1980 1985 1990 1995 2000
CONSFDYN
56
Tableau 4.7 : Comparaison des prévisions de la consommation (forme statique et forme
autorégressive)
Il est important de noter que dans les modèles autorégressifs les erreurs qui
affectent les prévisions successives de la variable endogène se cumulent d’une
période à l’autre, et la prévision peut devenir très mauvaise si la période de
prévision est longue. L’utilisation à des fins de prévision des modèles
autorégressifs doit être limitée à quelques périodes.
57
Chapitre 5
58
Les erreurs sur les variables peuvent provenir de la mesure elle-même au cours
de la constitution des données (la technique de sondage ou d’estimation utilisée).
Elles peuvent aussi être liées aux contraintes de disponibilité de certaines
variables ne pouvant être directement observées : il faut alors leur substituer
d’autres variables ; c’est le cas par exemple dans les enquêtes lorsqu’on utilise
les dépenses totales comme évaluation du revenu ou du niveau de vie des
ménages. Les problèmes d’endogénéïté apparaîssent beaucoup plus évident dans
les modèles à équations simultanées où une variable endogène d’une équation
apparaît en tant que variable explicative dans une autre équation. Nous
aborderons ces modèles plus en détail dans le chapitre suivant.
Nous allons illustrer cette méthode en supposant que le revenu est affecté
d’erreurs de mesure. Nous allons instrumenter le revenu dans l’équation de
consommation en utilisant comme instruments la valeur retardée d’une période
du revenu et l’indice des prix à la consommation (supposée exogène).
59
Notez que pour que la méthode fonctionne, il faut au moins autant de variables
instrumentales qu’il y a de variables explicatives dans le modèle. EViews inclut
automatiquement la constante parmi les variables instrumentales. Cliquez sur
OK pour valider. Le tableau suivant présente les résultats de l’estimation.
60
Dans ce qui précède, nous avons supposé que le revenu n’était pas exogène.
Cette hypothèse doit être testée formellement afin de légitimer l’utilisation de la
méthode des variables instrumentales. Dans la pratique économétrique,
l’exogénéïté est testée à l’aide du test d’Hausman (1978). Le principe théorique
de ce test est simple : sous l’hypothèse d’exogénéïté des variables explicatives,
l’estimateur des moindres carrés et celui des variables instrumentales sont tous
deux convergents, c’est-à-dire qu’ils tendent asymptotiquement vers les valeurs
vraies des paramètres. On peut donc baser le test d’exogénéïté sur la différence
entre ces deux estimateurs. Cette différence devrait converger vers zéro si
l’hypothèse d’exogénéïté est vérifiée. Si ce principe a l’air simple, la démarche
qui conduit à la statistique de test fait appel à un développement mathématique
quelque peu compliqué (voir Gouriéroux et Monfort, 1990 et Dormon, 1999).
Le test d’exogénéïté peut être mis en œuvre très facilement à partir d’un test de
significativité sur les coefficients d’un modèle augmenté (Davidson et
MacKinnon, 1989). Le test fonctionne de la façon suivante. On régresse la
variable en cause (ici LPIBR) sur une constante et les variables instrumentales
(LPIBR(-1) et LIPC) et on retient la série des résidus. Celle-ci est introduite
dans le modèle initial, on obtient ainsi un modèle augmenté. Ce modèle est
estimé par la méthode des moindres carrés. Le test d’exogénéïté consiste alors à
tester la significativité du coefficient associé à la série résiduelle. Dans le cas où
plusieurs variables explicatives seraient en cause, on peut utiliser un test de
Fisher ou un test du rapport de vraisemblance. L’hypothèse d’exogénéïté est
rejetée si les coefficients associés aux résidus sont globalement significatifs, elle
est acceptée dans le cas contraire. A ce stade, la mise en œuvre de ces opérations
ne devrait pas poser de difficulté. Les résultats de l’estimation du modèle
augmenté sont donnés dans le tableau 5.2.
61
Dependent Variable: LOG(CONS)
Method: Least Squares
Sample(adjusted): 1966 2002
Included observations: 37 after adjusting endpoints
Variable Coefficient Std. Error t-Statistic Prob.
C -0.84519 0.40700 -2.07661 0.0457
LOG(PIBR) 1.02699 0.05668 18.11685 0.0000
LOG(IPC) 0.05122 0.02146 2.38598 0.0229
RESPIBR -0.50537 0.17749 -2.84725 0.0075
R-squared 0.98882 Mean dependent var 8.02888
Adjusted R-squared 0.98780 S.D. dependent var 0.36970
S.E. of regression 0.04082 Akaike info criterion -3.45718
Sum squared resid 0.05500 Schwarz criterion -3.28302
Log likelihood 67.95782 F-statistic 973.0665
Durbin-Watson stat 1.20852 Prob(F-statistic) 0.00000
Dans les paragraphes précédents, nous avons appliqué la méthode des variables
instrumentales et réalisé le test d’exogénéïté d’Hausman en supposant que les
variables instrumentales étaient exogènes. Autrement dit, nous avons supposé
que les variables instrumentales vérifiaient l’hypothèse d’orthogonalité avec le
terme d’erreur.
62
degrés de liberté est égal à la différence entre le nombre d’instruments et le
nombre de variables explicatives. La procédure de test n’est pertinente que
lorsque le nombre de variables instrumentales excède le nombre de variables
explicatives.
63
Chapitre 6
64
avec :
Const : la consommation privée;
Consg t : la consommation publique;
Invp t : l’investissement privé;
Invg t : l’investissement public;
Pibt : le PIB;
rt : le taux d’intérêt réel.
Cette spécification, dont les équations traduisent les idées économiques qui les
inspirent, est dite sous forme structuelle. Les coefficients que l’on souhaite
pouvoir estimer ont généralement une signification économique.
65
• 3 variables endogènes : Const , Invpt et Pibt .
• 6 variables exogènes et prédéterminées: constante, Invg t , rt , Consg t ,
Const −1 et Invp t −1 .
66
d’égalité, l’équation est dite exactement ou juste identifiée. Dans ce cas, il existe
une solution unique pour les coefficients structurels à partir des coefficients de
la forme réduite. Lorsque le nombre de variables exclues de l’équation est
strictement supérieur au nombre d’équations moins 1, l’équation est dite sur-
identifiée. Cela signifie qu’il existe plusieurs possibilités de déterminer les
paramètres structurels à partir des coefficients de la forme réduite. Lorsque la
condition énoncée n’est pas vérifiée pour une équation, le calcul des coefficients
structurels est impossible : on dit que l’équation est sous-identifiée. Pour arriver
à estimer cette équation, il faudrait la re-spécifier, soit en réduisant le nombre de
variables (exogènes et/ou endogènes) figurant en explicatives, soit en
augmentant le nombre total de variables exogènes et prédéterminées du modèle.
En effet, si l’identification est une propriété associée à chaque équation, elle
dépend globalement de l’ensemble du modèle. L’ajout d’une variable exogène à
une équation structurelle peut rendre identifiable les autres équations
structurelles.
67
Les méthodes d’estimation à information complète estiment, globalement, les
paramètres du système en utilisant les informations a priori sur toutes les
équations. Elles sont donc potentiellement plus efficaces que les méthodes à
information limitée. Ces méthodes incluent la méthode des triples moindres
carrés et la méthode du maximum de vraisemblance à information complète. La
méthode des triples moindres carrés procède en trois étapes. Les deux premières
étapes sont les mêmes que celles des doubles moindres carrés. A la troisième
étape, la méthode applique les moindres carrés quasi-généralisés où la matrice
de variance des erreurs est estimée à partir des résidus issus des doubles
moindres carrés. Si elle permet un gain d’efficacité par rapport aux doubles
moindres carrés, il faut noter cependant que les triples moindres carrés sont
fragilisés en présence d’erreurs de spécification. Lorsqu’une équation est mal
spécifiée, la mauvaise qualité d’estimation de cette équation contaminera
l’estimation des autres équations structurelles, ce qui n’est pas le cas dans une
méthode d’estimation équation par équation. En l’absence de corrélation entre
les termes d’erreur des équations structurelles, les estimations obtenues par les
triples moindres carrés sont identiques à celles obtenues par les doubles
moindres carrés.
Dans la fenêtre qui apparaît, entrez les équations. Les coefficients à défaut sont
notés par c(1), c(2) etc. Cependant, on peut utiliser des coefficients différents
d'une équation à une autre. Pour ce faire, sélectionnez Objects/New
68
Object/Matrix-Vector-Coef/Coefficient Vector et nommez, par exemple, a.
Faites de même pour créer le vecteur b.
Après avoir écrit toutes les équations, cliquez sur l’onglet Estimate de la fenêtre
system. Une boite de dialogue vous demande de choisir la méthode
d’estimation. Et c’est à ce niveau que vous devez commencer à réfléchir sur la
méthode d’estimation appropriée. Nous choisissons ici la méthode des doubles
moindres carrés.
69
Tableau 6.1 : Résultats de l’estimation du modèle à équations simultanées
System: EQS
Estimation Method: Two-Stage Least Squares
Sample: 1966 2002
Included observations: 37
Total system (balanced) observations 74
Coefficient Std. Error t-Statistic Prob.
A(1) 16.9899 141.6023 0.11998 0.9049
A(2) 0.23217 0.10563 2.19791 0.0315
A(3) 0.66150 0.13120 5.04174 0.0000
B(1) 73.99123 57.45733 1.28776 0.2023
B(2) 0.00641 0.01182 0.54251 0.5893
B(3) 0.24490 0.14177 1.72740 0.0888
B(4) 0.61215 0.11742 5.21326 0.0000
B(5) -7.58032 2.14369 -3.53610 0.0007
Determinant residual covariance 1.62E+08
Equation: CONS=A(1)+A(2)*PIBR+A(3)*CONS(-1)
Instruments: CONSG INVG INVP(-1) CONS(-1) R C
Observations: 37
R-squared 0.97542 Mean dependent var 3255.914
Adjusted R-squared 0.97398 S.D. dependent var 1031.845
S.E. of regression 166.4424 Sum squared resid 941904.3
Durbin-Watson stat 1.18705
Equation: INVP=B(1)+B(2)*PIBR+B(3)*INVG+B(4)*INVP(-1)+B(5)*R
Instruments: CONSG INVG INVP(-1) CONS(-1) R C
Observations: 37
R-squared 0.81659 Mean dependent var 465.6901
Adjusted R-squared 0.79366 S.D. dependent var 189.6547
S.E. of regression 86.14908 Sum squared resid 237493.3
Durbin-Watson stat 2.40364
On peut également utiliser l’éditeur d’équation pour estimer de façon séparée les
différentes équations structurelles du modèle. Pour cela, sélectionnez
Quick/Estimate Equation et tapez l’équation.
70
Sélectionnez la méthode des doubles moindres carrés et entrez les variables
instrumentales. Reprendre la même procédure pour la deuxième équation. Les
équations seront nommées eq1cons et eq2invp. A partir des estimations
individuelles des équations du système, on peut effectuer les tests classiques sur
les résidus et sur les coefficients.
71
Chapitre 7
8
Les lecteurs désireux d’approfonfir l’analyse des séries temporelles pourront se référer aux ouvrages
consacrés : Lardic et Mignon (2002), Bourbonnais et Terraza (1998) et Hamilton (1994).
72
7.1 Tests de stationnarité
La distinction entre ces deux types de stationnarité est fondamentale sur le plan
économique dans la mesure où ces deux types de processus sont caractérisés par
des comportements très différents. L’effet d’un choc sur un processus TS est
transitoire (la série a une mémoire finie des chocs), alors que sur un processus
DS cet effet est permanent (mémoire infinie des chocs), aucune force ne le
ramènera à son niveau antérieur, sauf occurrence d’un choc de signe opposé et
de même magnitude. Sur le plan statistique, il est important d’identifier
correctement la nature de la non-stationnarité d’une série avant de la rendre
stationnaire. En effet, une méthode de stationnarisation inappropriée peut
engendrer des artefacts statistiques. Un processus TS est rendu stationnaire par
une régression sur une tendance déterministe, alors qu’un processus DS devient
stationnaire par différenciation. Quand un processus TS linéaire est
statistiquement traité comme un processus DS, cela crée artificiellement dans la
série un mouvement cyclique court. A l’inverse, lorsqu’un processus est traité
comme un processus TS, cela génère un mouvement cyclique long (Nelson et
Kang, 1981).
73
7.1.1 Tests de Dickey et Fuller
Dans les modèles utilisés pour les tests de Dickey-Fuller simples, la série yt est
supposée être un processus AR(1), c'est-à-dire que la perturbation et est, par
hypothèse, un bruit blanc. Or, il n’y a aucune raison pour que, a priori, la série
et soit non autocorrélée. Dickey et Fuller (1981) ont alors proposé de prendre en
compte cette hypothèse en considérant une série yt admettant une représentation
autorégressive d’ordre p. Le modèle augmenté correspondant à cette correction
prend la forme suivante:
p
∆y t = φy t −1 − ∑ γ j ∆y t − j + d t + et (7.1)
j =1
Suivant les termes déterministes inclus dans d t , on aboutit aux trois modèles sur
lesquels est basé le test de Dickey-Fuller Augmenté:
p
• Modèle [1] : ∆yt = φy t −1 − ∑ γ j ∆y t − j + et (7.2)
j =1
p
• Modèle [2] : ∆y t = φy t −1 + c − ∑ γ j ∆y t − j + et (7.3)
j =1
9
Pour une revue de ces tests, on pourra notamment consulter Banerjee et al (1993) et Darne et Terraza (2002).
74
p
• Modèle [3] : ∆yt = φy t −1 + c + bt − ∑ γ j ∆y t − j + et (7.4)
j =1
Dans la version augmentée, le choix de p est très important pour l’issue du test.
Le fait d'inclure un nombre suffisant de retards supprime l'autocorrélation des
erreurs, mais réduit le nombre de degrés de liberté et la puissance du test.
Oublier des retards pertinents affaiblit également la puissance du test. Il existe
plusieurs façons de fixer une valeur raisonnable de p. On peut se fonder sur les
propriétés du terme d’erreur ou partir d’un nombre de retards élevé puis tester la
significativité du retard le plus élevé (Campbell et Perron, 1991), ou bien encore
utiliser les critères d'information (Akaike, Schwarz, Hannan-Quinn, …).
10
Voir Perron (1989) et Zivot et Andrews (1992) pour les tests de racine unitaire prenant en compte le
changement structurel de tendance.
75
racine unitaire et de stationnarité dont ceux de Phillips et Perron (1988) et
Kwiatkowski, Phillips, Schmidt et Shin (1992) (noté KPSS par la suite).
1
∑ Sˆ
t =1
t
2
KPSS τ / µ = 2
(7.5)
S wa T
t
où Sˆ t = ∑ eˆl ( t=1, …, T) est la somme partielle des résidus et Swa
2 l'estimateur de
l =1
la variance de long terme de êt . La règle de décision est que si KPSSτ / µ < KPSS *
alors la série est stationnaire, où KPSS * est la valeur critique. Dans le cas
contraire, on considère que la série est non stationnaire. Pour choisir entre le
modèle avec constante et le modèle avec trend linéaire, on peut s’aider de la
représentation graphique de la série ou utiliser les résultats des tests de Dickey-
Fuller.
76
7.1.4 Les tests de stationnarité en pratique
Nous allons tester la stationnarité de la série LPIBR. Pour cela, il faut visualiser
la série (par un double clic sur la série) et sélectionner, à partir du menu de la
fenêtre, Unit Root Test…
Précisez l’ordre
de différenciation
Précisez les
termes
déterministes
Note: Pour le choix du nombre optimal de retards, EViews procède à la sélection automatique
en utilisant les critères d’information usuels. Toutefois, EViews donne la possibilité à
l’utilisateur de spécifier lui-même le nombre de retard (option User specified).
Les résultats du test de Dickey-Fuller sont présentés dans les tableaux suivants:
77
Tableau 7.1a : Résultats du test de Dickey-Fuller
Le deuxième tableau indique le modèle à partir duquel le test est réalisé. On peut
ainsi juger de la pertinence des termes déterministes à inclure dans la régression
auxiliaire.
Le premier tableau donne les statistiques de test ADF, les valeurs critiques et les
probabilités associées. La statistique de test reporte ici une valeur de -2.72106
supérieure aux valeurs critiques aux seuils de 1% et 5%, ce qui nous conduit à
accepter l’hypothèse nulle. La série admet une racine unitaire et ne peut donc
être stationnaire. Le test est effectué suivant la même démarche pour les tests PP
et KPSS. Il est important de toujours se rappeler que l’hypothèse nulle du test
KPSS est la stationnarité.
Le tableau suivant synthétise les résultats des tests ADF, PP et KPSS pour les
huit variables en niveau et en différence première.
78
Tableau 7.2 : Résultats des tests de stationnarité
Les différentes statistiques de tests conduisent à des résultats différents. Les tests
ADF et KPSS concluent à la non-stationnarité de LPIBR tandis que le test PP
conclue à la stationnarité de cette série. Selon les statistiques ADF et PP, les
séries LINVP et LINVG sont non stationnaires en niveau. En revanche, le test
KPSS indique que ces deux variables sont stationnaires en niveau. Quant à la
série LCONS, le test PP rejette l’hypothèse de non stationnarité tandis que les
tests ADF et KPSS rejettent l’hypothèse de stationnarité. En d’autres termes, la
série LCONS est stationnaire selon la statistique PP, et non stationnaire selon les
statistiques ADF et KPSS. Selon les trois statistiques de test, les séries
LCONSG, LGT et LIPC sont non stationnaires en niveau et stationnaires
lorsqu’on considère les différences premières. Les trois statistiques de test
indiquent que la série R est stationnaire.
En définitive, nous retenons que toutes les séries, à l’exception de R, sont non
stationnaires en niveau et stationnaires en différences premières. En d’autres
termes, les séries LPIBR, LINVP, LINVG, LCONS, LCONG, LGT et LIPC
sont intégrées d’ordre un.
79
d’une variable explicative importante. La théorie de la cointégration que nous
verrons dans le chapitre suivant indique les conditions sous lesquelles l’on est
autorisé à différencier les variables.
p p
X t = η0 + ∑ φ2i X t − i +
i =1
∑ϕ
i =1
2i Yt −i + µ 2t (7.7)
80
tendances, des variables indicatrices ou d’autres variables exogènes
stationnaires.
81
Liste des
variables
du VAR
Entrez ici le
nombre de
retards
82
Nous venons d’estimer un VAR bivarié avec un seul retard, ce qu’on note
VAR(1). Rappellons que l’estimation du VAR est équivalente à la régression par
MCO équation par équation. Ainsi les résultats présentés dans ce tableau
peuvent être considérés comme une compilation de deux régressions par
moindres carrés ordinaires.
L’estimation d’un VAR ne presente pas les p-values pour le test de
significativité des coefficients. Cependant, sur la base des t-statistiques, on peut
aisément conduire ce test, en utilisant la valeur critique de 1,96 ou 2. Par
exemple, si la valeur absolue du t-stat est supérieure à 1,96 ou 2, alors on
conclut que le coefficient est significativement différent de zéro. Le coefficient
de DLPIBR(-1) dans la première équation a un t-stat de -0.07486 indiquant que
ce coefficient n’est pas significatif. Il en est de même pour la constante de la
première équation. Puisque certains coefficients ne sont pas significatifs, on peut
les supprimer du modèle de sorte à avoir un modèle réduit. Mais cela n’est pas
possible à partir de l’option VAR, puisque toutes les équations d’un modèle
VAR devraient avoir exactement le même nombre de retards et donc le même
nombre de variables explicatives. Si l’on veut obtenir un modèle réduit du VAR,
on devra utiliser l’option system utilisée pour estimer les modèles à équations
simultanées (voir chapitre précédent). En outre, l’option system permet de faire
des tests sur les coefficients des équations.
Tous les tests d’hypothèses portant sur les résidus peuvent s’effectuer dans le
cadre des modèles VAR. Ces tests prennent la forme de tests multivariés (test de
normalité, test d’autocorrélation, test d’hétéroscédasticité). Pour réaliser ces
tests, sélectionnez View/Residuals Test et cliquez sur le test que vous désirez
implémenter.
83
Pour déterminer le nombre de retards, on utilise les critères d’information : on
calcule ces critères pour des ordres différents et on retient le retard qui minimise
ces critères. EViews offre la possibilité de réaliser plus aisément cette opération
en selectionnant lui-même la solution. Sélectionnez View/Lag Structure/Lag
Length Criteria…, puis indiquez le retard maximal.
Pour chaque critère le signe (*) indique le retard optimal retenu. Selon la
statistique du rapport de vraisemblance et les critères SC et HQ, un retard suffit
pour modéliser les interrelations dynamiques entre le taux de croissance du PIB
et celui des dépenses publiques. Cependant les critères FPE et AIC selectionnent
trois retards.
Notons qu’il est possible de determiner l’ordre du VAR à partir des propriétés
statistiques des résidus. On estime le VAR pour différents retards successifs et
on retient le nombre de retard p pour lequel les résidus sont des bruits blancs.
84
7.2.4 Tests de causalité de Granger
D’une façon générale, les coefficients d’un modèle VAR ne peuvent être
directement interprétés. Les retards d’une même variable peuvent se voir
attribuer des signes différents. On s’intéresse, en général, à la significativité
globale des coefficients associés à une variable spécifique ou à un groupe de
variables11. C’est l’idée du test de causalité de Granger (1969). La causalité au
sens de Granger (1969) est une approche de la causalité qui renvoie non pas au
caractère théorique de la causalité (cause-effet) mais au caractère prédictif de
l’éventuelle cause sur l’effet. En effet, selon Granger (1969), une variable X
cause une autre variable Y, si la connaissance des valeurs passées de X rend
meilleure la prévision de Y. En d’autres termes, on dira que la variable X cause
au sens de Granger la variable Y si les valeurs passées de X influencent
significativement la valeur contemporaine de Y. Sur le plan statistique, le test de
causalité au sens de Granger revient à faire un test de significativité globale des
coefficients associés aux valeurs passées de la variable causale dans l’équation
de la variable causée.
p p
X t = c2 + ∑ φ 2 i X t −i +
i =1
∑ϕ
i =1
2i Yt−i + µ 2 t (7.9)
Ces hypothèses peuvent être testées à l’aide du test de Fisher. On peut aussi
utiliser un test du rapport de vraisemblance par comparaison du modèle VAR
non contraint et du modèle VAR contraint. Le rejet des deux hypothèses
implique une causalité réciproque entre X et Y. On parle également de boucle
rétroactive. Rappellons que le cadre statistique de ce test suppose la stationnarité
des variables.
11
Il existe dans la littérature plusieurs tests de causalité. Pour une revue de littérature voir Bruneau (1996).
85
On obtient les résultats consignés dans le tableau suivant.
Nous allons refaire le test de Granger en condidérant 3 retards. Les resultats sont
donnés dans le tableau suivant :
86
Tableau 7.6 : Résultats du test de causalité de Granger (p=3)
On voit bien qu’aucune causalité ne peut être mise ici en évidence avec ces
résultats. Le test de Granger est donc sensible au nombre de décalages pris en
compte dans la modélisation.
7.2.5 Analyse impulsionnelle et décomposition de la variance
L’une des principales applications des modèles VAR est d’analyser les effets de
politiques économiques au travers de simulations de chocs. Un modèle VAR
modélise les relations dynamiques entre un groupe de variables choisies pour
caractériser un phénomène économique particulier. L’analyse impulsionnelle
permet d’analyser comment un choc à la date T sur une variable affecte
l’ensemble des variables du système pour les périodes T, T+1, T+2,…
Pour faire l’analyse impulsionnelle, sélectionnez View/Impusle Response… On
peut aussi directement cliquer sur l’onglet impulse dans le tableau des
estimations. Dans les deux cas, on obtient la fenêtre de dialogue suivante :
Impusles: Indiquez les variables dont on veut générer les innovations (impulses/chocs). Nous
simulons ici un choc sur les dépenses publiques.
87
Responses : Indiquez quelles sont les variables dont on veut observer les réponses.
.20
.00
.15
-.01
.10
.05 -.02
.00
-.03
-.05
-.10 -.04
1 2 3 4 5 6 7 8 9 10 1 2 3 4 5 6 7 8 9 10
On observe qu’un choc positif sur les dépenses publiques (augmentation des
dépenses publiques) conduit dans un premier temps à une baisse transitoire du
taux de croissance de l’économie. L’effet sur l’activité s’estompe
progressivement. Il décroît fortement dès la deuxième année et tend à se
résorber au bout de 8 années. Le fait que la réponse tend vers zéro est en
cohérence avec la propriété de stationnarité des séries.
88
de l’erreur de prévision de x sera entièrement due aux innovations de x et
aucunement à celles de y . Cette propriété n’est cependant vérifiée que si la
matrice de variance-covariance des innovations est diagonale12, c’est-à-dire s’il
n’y a pas de causalité instantanée entre les deux variables x et y .
Le premier tableau indique que le choc d’offre explique une très grande part de
la dynamique du PIB. De façon instantanée, le choc d’offre contribue à 97.11%
de la variance de l’erreur de prévision du PIB, contre seulement 2.88% pour le
choc de demande publique (première ligne du tableau 7.7, horizon à 1 période).
12
Si les innovations ne sont pas orthogonales, il est possible de les orthogonaliser en utilisant un minimum de
raisonnement économique pour introduire des restrictions d’identification. Cette approche est à la base des
modèles VAR structurels (voir Blanchard et Quah, 1989; Lütkepohl et Krätzig, 2004).
89
A moyen et long terme, la variance de l’erreur de prévision du taux de
croissance est expliquée à 84.4% par ses propres innovations et à 15.6% par les
dépenses publiques. La décomposition de la variance de l’erreur de prévision
des dépenses publiques (cf. tableau 7.8) indique que moins de 0.1% de l’erreur
de prévision de celles-ci est du aux impulsions provenant des chocs d’offre.
Nous pouvons conclure que les chocs de politique budgétaire en matière de
consommation publique ont plus d’impact sur l’activité économique que
l’impact d’un choc d’offre en a sur la politique budgétaire.
90
Chapitre 8
Lorsqu’on travaille avec des séries temporelles, il faut vérifier au préalable que
celles-ci sont stationnaires. Lorsque cela n’est pas le cas, il faut trouver la bonne
façon de les rendre stationnaires. La plupart des données temporelles
macroéconomiques sont des réalisations de processus non stationnaires (Nelson
et Plosser, 1982). Ce qui implique que les méthodes habituelles d’estimation et
d’inférence (moindres carrés ordinaires, test de Student, test de Fisher etc.) ne
peuvent être appliquées directement. Néanmoins, la théorie de la cointégration
indique des conditions dans lesquelles les régressions sont autorisées entre des
séries non stationnaires. En effet, lorsque les variables ne sont pas stationnaires,
l’estimation d’un VAR en différences premières n’est pas toujours appropriée.
La différenciation conduit à un appauvrissement de l’information dans la mesure
où on enlève les mouvements de long terme contenus dans le niveau des
variables. Or cette information devrait être exploitée pour enrichir la dynamique
des variables plutôt que d’être retirée. En différenciant, seuls les effets de court
terme peuvent être analysés. Le calcul des differences premières n’est donc pas
une stratégie appropriée. Les techniques de cointégration montrent que sous
certaines conditions le modèle initial peut être reparamétré sous la forme d’un
modèle vectoriel à correction d’erreurs faisant intervenir les variables en
différences premières et leurs niveaux (Engle et Granger, 1987; Johansen,
1988). La représentation du modèle sous la forme à correction d’erreurs a
plusieurs avantages. Premièrement, elle n’est pas sujette aux problèmes de
régressions fallacieuses puisque toutes les variables du modèle sont stationnaires
(Banerjee et al. 1993). Deuxièmement, elle permet de distinguer clairement
entre les élasticités de court terme et de long terme puisque les différences
premières et les niveaux des variables interviennent explicitement dans le
modèle. La cointégration et les modèles à correction d’erreurs s’inscrivent dans
le prolongement de la modélisation VAR appliquée aux séries temporelles non
stationnaires. Leur mise œuvre et leur interprétation nécessitent de bien
comprendre la théorie sous-jacente. C’est pourquoi, dans ce chapitre, nous
91
allons rappeler quelques éléments essentiels de cette théorie. Nous
recommandons aux lecteurs de se référer aux ouvrages d’économétrie qui
abordent en détail ces modèles afin d’approfondir certains aspects (par exemple,
Lardic et Mignon, 2002 ; Bourbonnais, 1998).
La régression d'une série non stationnaire sur des séries non stationnaires peut
donner une régression n’ayant aucun sens économique. C’est ce qu’on appelle
les régressions fallacieuses (Granger et Newbold, 1974). L’estimation de
modèles impliquant des variables non stationnaires soulève plusieurs problèmes
assez sérieux. Premièrement, les estimateurs des coefficients ne sont pas
convergents. Deuxièmement, les statistiques des tests conventionnels, tels que le
t de Student et le F de Fisher, ne suivent plus leur distribution habituelle sous
l’hypothèse nulle, même asymptotiquement. En conséquence, les valeurs
critiques habituelles ne sont plus appropriées. Troisièmement, les modèles
présenteront une apparente bonne adéquation reflétée par un coefficient de
détermination très élevé, mais la statistique de Durbin-Watson convergera vers
zéro au fur à mesure que le nombre d’observations augmente (Granger et
Newbold, 1974).
92
comme une propriété de réduction de l’ordre d’intégration d’une combinaison
linéaire de variables intégrées du même ordre.
Remarques
Lorsque deux variables sont cointégrées, elles sont liées par une relation de long
terme. Cependant, elles peuvent s'écarter de temps en temps (à court terme) de
cette relation d’équilibre. On peut interpréter l'écart entre Yt et sa valeur de long
terme Yˆt = α + βX t comme une "erreur d'équilibre" et utiliser cet écart pour lier le
comportement de court terme des deux variables à leur comportement de long
terme. On définit ainsi le modèle suivant:
93
moment donné Yt s’écarte de sa valeur d’équilibre, la période suivante, elle y
revient : il y a un mécanisme à correction qui gouverne la dynamique des
variables et qui fait que ces dernières ne peuvent pas s’écarter durablement de la
relation d’équilibre. Si les séries sont cointégrées, les déviations par rapport à la
relation de long terme ont pour effet, à court terme, d’induire des variations dans
l’évolution de l’une ou de toutes les variables de façon à forcer le système à
retourner vers son équilibre de long terme.
Engle et Granger (1987) ont montré que tout ensemble de variables cointégrées
peut être mis sous la forme d’un modèle à correction d'erreurs où toutes les
variables sont stationnaires:
p q
∆Yt = µ1 + λ1 (Yt −1 − α − βX t −1 ) + ∑ δ 1i ∆Yt −i + ∑ δ 2i ∆X t −i + η1t (8.2)
i =1 i =0
p q
∆X t = µ 2 + λ ' (Yt −1 − α − β X t −1 ) + ∑ δ '1i ∆Yt −i + ∑ δ ' 2i ∆X t −i + η 2t (8.3)
i=0 i =1
La vitesse d'ajustement ou force de rappel vers l'équilibre est mesurée par les
coefficients λ1 et λ2 . Suivant le même raisonnement, l’un au moins de ces deux
94
paramètres doit être significatif et négatif pour valider la représentation sous
forme à correction d'erreurs. Si l’hypothèse nulle H 0 : λ1 = λ2 = 0 est acceptée,
cela signifie qu’aucun terme à correction d’erreurs n’est significatif. Dans ce
cas, il convient de rejetter la spécification à correction d’erreurs. En revanche, si
l’hypothèse est rejetée, alors au moins un terme à correction d’erreurs est
significativement différent de zéro. Cela traduit un retour vers la trajectoire de
long terme : les séries sont alors cointégrées. Il est possible d'ajouter aux
équations de court terme d'autres variables explicatives supplémentaires à
condition que celles-ci soient déterministes ou bien stationnaires.
Plusieurs méthodes d’estimation d’un MCE ont été proposées à la suite des
travaux de Engle et Granger (1987). Dans cette section, nous allons présenter la
méthode d’estimation en deux étapes de Engle et Granger, la procédure de
Banerjee et alii. (1993) et la méthode de Johansen.
95
Si les résidus sont stationnaires, on conclut que les séries sont cointégrées, et la
relation de cointégration estimée est Yt = αˆ + βˆX t + et . Bien entendu, il convient de
s’assurer au préalable que les variables en jeu sont intégrées d’ordre un.
Néanmoins, étant donné que le test porte sur les résidus êt calculés à partir de
l'estimation de la relation de cointégration et non pas sur les vraies erreurs et
qui, elles, ne sont pas observées, les valeurs critiques des tests DF ou DFA ne
sont plus appropriées. Il convient d’utiliser les valeurs critiques tabulées par
Engle et Granger (1987), Engle et Yoo (1987) et Davidson et MacKinnon
(1993).
Il est clair que cette seconde étape ne pose aucun problème particulier car tous
les régresseurs sont maintenant stationnaires. Les coefficients ont une
distribution standard, ceux-ci peuvent alors être soumis aux techniques
classiques d’inférence statistique (Engle et Granger, 1987). La cointégration
implique non seulement que êt est stationnaire, mais que le coefficient
d’ajustement λ1 est négatif et significatif. Ces restrictions sont nécessaires pour
valider le modèle à correction d’erreurs.
96
Si la super convergence des estimateurs de première étape implique que ce biais
s’estompe asymptotiquement, ce biais peut être non négligeable pour de petits
échantillons (Stock, 1987 ; Davidson et MacKinnon, 1993 ; Banerjee, Dolado,
Galbraith et Hendry, 1993). En outre, la distribution asymptotique des
estimateurs de long terme n’est pas standard (Phillips et Durlauf, 1986). Par
conséquent, il n’est pas possible de leur appliquer les règles d’inférence
usuelles, notamment pour en étudier la significativité.
p
Yt = α + βX t + ∑ c ∆X
j =− p
j t− j +et (8.6)
Certains auteurs ont montré que l’on peut faire l’économie de calculs en
estimant simultanément, en une seule étape, les paramètres de court et de long
terme. Dans la méthode préconisée par Banerjee, Dolado, Galbraith et Hendry
(1993), l’estimation se fait directement sur le modèle à correction d’erreurs, non
pas en introduisant la relation de cointégration estimée préalablement au cours
d’une première étape, mais en introduisant directement dans le modèle les
niveaux retardés des variables. Le modèle estimé s’écrit sous la forme suivante:
14
Le problème ici est qu’il n’est pas possible de faire une inférence sur les coefficients β . Les écart-types
peuvent être calculés suivant la transformation de Bewley ou de Bardsen. Voir Banerjee et alii. (1993 : pp.53-64)
pour plus de détails.
97
λ2
λ = λ1 , β = − (8.8)
λ1
Cette procédure peut paraître douteuse dans la mesure où la variable expliquée
est stationnaire tandis que les variables explicatives Yt −1 et X t −1 sont non
stationnaires. Cependant, dans la mesure où il existe une relation de
cointégration entre les variables, l’estimation par MCO n’est pas biaisée. La
cointégration est testée à partir de la statistique de Student du coefficient λ1 . Pour
accepter la cointégration, il faudrait que ce coefficient soit significativement
différent de zéro et négatif.
A. La procédure de test
98
∆X t = µ + Π X t − k + Γ1 ∆X t −1 + .... + Γk −1 ∆X t − k +1 + ΨDt + ε t (8.10)
H 0 (r ) : Π = αβ ' (8.12)
La procédure de test permet de spécifier trois modèles. (a) Si Π est de plein rang
colonne, c’est-à-dire r = p , alors X t est stationnaire. Dans ce cas, l’estimation
sous la forme du VAR en niveau (8.9) est appropriée. (b) Si le rang de Π est égal
à zéro, alors Π = 0 , et il n’existe aucune relation de cointégration entre les
variables. Dans ce cas, la modélisation appropriée est celle d’un VAR en
différence première d’ordre (k-1). Ce qui implique que la dynamique de court
terme ne dépend pas des niveaux des variables. (c) Si Π est de rang r inférieur
à p , le modèle vectoriel à correction d’erreurs s’exprime sous la forme :
k −1
∆X t = µ + αβ ' X t −1 + ∑ Γi ∆X t −i + Ψ Dt + ε t (8.13)
i =1
99
La matrice de poids α joue un rôle important dans cette spécification. Elle est
constituée des coefficients d’ajustement de court terme, c’est-à-dire des « forces
de rappel » vers l’équilibre dans la représentation vectorielle à correction
d’erreurs. La ième ligne de cette matrice mesure la vitesse avec laquelle la ième
variable s’ajuste aux r relations de cointégration, c’est-à-dire comment une des
composantes donnée de X t réagit à court terme à une déviation transitoire de ses
déterminants de leur valeur d’équilibre de long terme. La matrice β ' est la
matrice qui contient les r vecteurs cointégrants linéairement indépendants.
Chaque ligne de cette matrice est constituée d’une relation de long terme.
∑ ln((1 − λˆ )
p
Trace(H 0 (r ) / H 1 ( p) ) = −T i (8.14)
i = r +1
(
λmax (H 0 (r ) / H 1 (r + 1) ) = −T ln 1 − λˆr +1 ) (8.15)
λ̂i est la i
ième
valeur propre maximale estimée.
100
résultats différents. Dans ce cas, il est préférable de retenir le résultat qui peut
recevoir une interprétation économique.
101
La procédure d’estimation de Johansen offre la possibilité de formuler et de
tester des hypothèses économiques d’intérêt sur les éléments de α et β . Par
exemple, il est possible de tester l’hypothèse d’une élasticité unitaire de prix
dans une fonction de demande de monnaie de long terme.
H 2 (β ) : β = Hφ (8.16)
Un autre test important sur β est le test d’exclusion. On peut vouloir tester si
certaines variables du modèle entrent dans l’espace de cointégration.
L’hypothèse nulle d’exclusion d’une variable X j s’exprime par :
H 2 ( β j ) : β 1 j = 0, β 2 j = 0,..., β rj = 0 (8.17)
r 1 − λ~j
Q2 ( β ) = −T ∑ ln (8.18)
1− λj
j =1
ˆ
~
où λ j et λ̂ j représentent les valeurs propres estimées respectivement à partir du
modèle contraint ( Π = αφ ' H ' ) et du modèle non contraint ( Π = αβ ' ). Sous
l’hypothèse nulle, la statistique Q2 ( β ) suit asymptotiquement une distribution
de χ 2 à r ( p − s ) degrés de liberté. En particulier, pour le test de l’hypothèse
d’exclusion, Q2 ( H 2 ( β j )) suit une loi de χ 2 à r degrés de liberté.
Pour les tests de restrictions sur les coefficients de α , l’hypothèse nulle peut être
formulée de la façon suivante :
H 3 (α ) : α = Aψ (8.19)
102
où A est une matrice ( p, m) .
H 3 (α j ) : α1 j = 0, α 2 j = 0,..., α rj = 0 (8.20)
1 − λ~j
r
Q3 (α ) = −T ∑ ln (8.21)
1 − λˆ
j =1
j
~
où λ j et λ̂ j représentent les valeurs propres estimées respectivement à partir du
modèle contraint ( Π = Aψβ ' ) et du modèle non contraint ( Π = αβ ' ). La
distribution asymptotique de cette statistique suit un χ 2 à r ( p − m) degrés de
liberté.
On peut conduire le test d’exogénéité d’une variable à l’aide d’un test de Fisher :
on estime par MCO le modèle VEC équation par équation et on teste au moyen
de la statistique de Fisher la nullité des coefficients α dans les équations
appropriées.
H 4 (β ,α ) : β = Hφ et α = Aψ (8.22)
103
déterministes (constante et trend) dans les relations de cointégration et dans le
modèle à correction d’erreurs. Les différentes interprétations inhérentes à ces
spécifications prennent leur source dans le fait qu’un modèle VEC mélange des
variables en différence et des variables en niveau modélisant un équilibre de
long terme. Pour choisir entre les différentes spécifications il importe de bien
cerner d’abord leur signification.
Cette structure impose l’absence de toute composante déterministe, tant dans les
séries en niveau que dans les séries en différences premières.
Le fait que ∆X t comporte une dérive implique que les séries en niveau sont
caractérisées par une tendance linéaire. Mais la relation d’équilibre de long
terme est stationnaire de moyenne β 0 .
ΠX t −1 + µ + ΨDt = α ( β ' X t −1 + β 0 + ρt ) + α ⊥ γ 0
(8.26)
104
5) Constante et trend dans le VAR et dans l’espace de cointégration :
Il est important de distinguer clairement entre ces différents cas. Car, d’une part,
ils impliquent des interprétations différentes sur le comportement des variables
et, d’autre part, les tests de cointégration dépendent de la façon dont on spécifie
les termes déterministes.
Des versions corrigées des statistiques de test ont été alors proposées pour
corriger les distorsions de niveau du test de cointégration. Ainsi Reinsel et Ahn
(1992) proposent une correction de la statistique de la trace sous la forme :
( )
p
TraceRA = −(T − pk ) ∑ ln( 1 − λˆi (8.28)
i = r +1
105
correction T /(T − pk ) . Cette correction implique que les valeurs critiques
asymptotiques devront être augmentées. Les facteurs de correction proposés par
Reinsel et Ahn (1992) et Cheung et Lai (1992) vont toujours soit diminuer la
valeur de la statistique de la trace soit augmenter la valeur critique. Ces facteurs
atténuent le biais d’un rejet fréquent de l’hypothèse nulle d’absence de
cointégration.
8.3.4 Test de cointégration de Pesaran et al. (2001)
Pesaran et al. (2001) ont proposé une approche du test de cointégration basée sur
les modèles autorégressifs à retards échelonnés (ARDL). Cette méthodologie
présente plusieurs avantages par rapport aux méthodes de Engle et Granger
(1987) et de Johansen (1988). Premièrement, ce test est applicable que les
variables soient I(0) ou I(1). Cette caractéristique fondamentale atténue le
problème lié à l’incertitude des résultats des tests de racine unitaire.
Deuxièmement, la méthode tient compte des dynamiques de court et long termes
lors du test de cointégration. Au contraire, la méthode d’Engle et Granger (1987)
estime la relation de long terme sans prendre en compte explicitement les
ajustements de court terme entre les variables. Troisièmement, le test de Pesaran
et al. (2001) s’avère relativement performante dans le cas de petits échantillons
contrairement au test de cointégration de Johansen dont la validité requiert de
grands échantillons.
yt = θ 0 + θ1 xt + µ t (8.30)
où θ 0 = −γ 0 / φ1 et θ1 = −φ2 / φ1 .
106
La procédure du test de cointégration repose sur le test de
l’hypothèse H 0 : φ1 = φ2 = 0 contre l’alternative que φ1 ≠ 0 , φ2 ≠ 0 . La statistique de
test bien que classique (Fisher ou Wald) ne suit pas une loi standard. La
distribution asymptotique dépend : (a) des propriétés de stationnarité des
variables explicatives, (b) du nombre de variables explicatives, (c) de la taille de
l’échantillon, et (d) de la présence de termes déterministes (constante et
tendance) dans le modèle. Ainsi Pesaran et al. (2001) ont simulé deux ensembles
de valeurs critiques pour la statistique de test, avec plusieurs cas15 et différents
seuils. Le premier ensemble correspond au cas où toutes les variables
explicatives sont I(0) et représente la borne inférieure ; le second ensemble
correspond au cas où toutes les explicatives sont I(1) et représente la borne
supérieure16. Si la F-stat. excède la borne supérieure alors il y a cointégration; si
elle est inférieure à la borne inférieure alors on rejette l’existence d’une relation
de cointégration. Si la F-stat. est comprise entre les deux bornes, on ne peut pas
conclure à moins de connaître l’ordre d’intégration exact des variables.
Pour qu’une relation de cointégration existe entre des variables, deux conditions
doivent être réunies. Premièrement, les variables doivent être non stationnaires
et intégrées du même ordre17. Deuxièmement, leurs tendances stochastiques
doivent être liées, c’est-à-dire qu’il doit exister au moins une combinaison
linéaire de ces variables qui soit stationaire. Par conséquent, en premier lieu, on
doit déterminer l’ordre d’intégration des variables par le biais des tests de
racines unitaires standards. Ces tests effectués précédemment ont montré que les
variables LCONS, LPIBR et LIPC étaient intégrées d’ordre un. Nous allons
étudier la possibilité de cointégration entre ces variables en utilisant l’approche
d’Engle et Granger et celle de Johansen.
15
Il s’agit des modèles avec ou sans constante et/ou tendance. Cinq (5) cas sont présentés. Voir Pesaran et al.
(2001).
16
D’où le nom de la méthode « Bounds testing approach to cointégration » ou « Approche de test de
cointégration par les bornes ».
17
Des variables stationnaires peuvent être incluses dans l’analyse de la cointegration mais on doit se rappeler
que chaque variable stationnaire crée une relation de cointégration additionnelle. Ilexiste des tests de cointegrtion
qui autorise la présence de variables stationnaires parmi les regresseurs (voir Pesaran et al. (2001)).
107
A. Test de Engle et Granger
Il s’agit d’une équation linéaire dont la procédure d’estimation a été déjà vue au
chapitre 3. Le tableau suivant reporte les coefficients de régression de cette
équation.
Tableau 8.1 : Estimation de la relation de long terme
Pour que la relation estimée soit une relation de cointégration, le résidu issu de
cette régression doit être stationnaire. Si les résidus sont non stationnaires, la
relation estimée pourrait être une régression fallacieuse. On va donc générer la
série des résidus de cette équation. Pour cela, cliquez sur Procs/Make
Residuals series… et tapez le nom de la série des résidus, soit RES.
On applique les tests de racine unitaire sur la série des résidus RES. Les résultats
issus de l’application des tests ADF et PP sont reportés dans le tableau suivant :
Tableau 8.2 : Test de stationnarité sur la série des résidus de l’équation de long terme
ADF PP
108
Statistique -4.65645 -3.26526
Valeur critique à 5% -1.95039 -1.95011
Les statistiques de tests reportent toutes des valeurs inférieures aux valeurs
critiques à 5%. On en déduit donc que la série des résidus de l’équation statique
est stationnaire. Par conséquent, les séries sont cointégrées. Il est alors possible
d’estimer le modèle à correction d’erreurs.
109
trois relations de cointégration entre trois variables non stationnaires s’avère
impossible car elle remet en cause la non stationnarité des variables.
En pratique, on ne choisit pas les cinq spécifications mais une seule. Or nous
constatons que le choix de la spécification n’est pas sans conséquence sur la
structure du modèle. Comment choisir la spécification la plus adaptée aux
données ? L’analyse graphique des séries ainsi que les tests de stationnarité
peuvent être utiles à ce stade pour suggérer le choix de la ’’bonne’’
spécification. En examinant l’évolution des trois variables, on constate que
celles-ci présentent une tendance à la hausse. Si nous voulons autoriser la
présence d’une constante dans la relation de cointégration, nous devons choisir
la deuxième ou la troisième spécification. Cependant, les estimations montrent
que ni la constante ni la tendance ne sont significatives. La mise en relation des
variables supprime donc la tendance linéaire commune dans la relation. Nous
choisissons la première option qui exclue la constante et la tendance de toutes
les équations. Les résultats du test correspondant à cette spécification sont
consignés dans le tableau suivant.
Etant donné les distorsions du test de cointégration à distance finie, nous allons
réexaminer les résultats du test de cointégration en introduisant les facteurs de
correction proposés par Reinsel et Ahn (1992) et Cheung et Lai (1993). Les
résultats sont reportés dans le tableau suivant :
110
Tableau 8. 5 : Correction de la statistique de la trace du test de cointégration de Johansen
En définitive, nous retenons qu’il existe une seule relation de cointégration entre
les trois variables. Nous allons estimer le modèle à correction d’erreurs qui lie
la dynamique de court terme à celle de long terme.
111
DLCons C DLPibr DLipc DLPibr(-1) DLipc(-1) DCons(-1) LCons(-1) LPibr(-1) Lipc(-1)
Les résultats de l’estimation (cf. tableau 8.7) montrent que le coefficient associé
à la force de rappel est négatif (-0.86197) et significatif au seuil de 5%. Il existe
bien un mécanisme à correction d’erreurs : les déviations par rapport à la
relation de long terme induisent à court terme des changements dans l’évolution
de la consommation, du PIB ou du prix de façon à forcer le système à converger
vers son équilibre de long terme. La valeur numérique du coefficient de rappel
représente la vitesse à laquelle tout déséquilibre entre les niveaux désiré et
effectif de la consommation est résorbé dans l’année qui suit tout choc. Ainsi,
environ 86.197% des déséquilibres de la consommation par rapport à son niveau
de long terme sont corrigés l’année suivante. Un choc constaté au cours d’une
année est entièrement résorbé au bout d’une année et 2 mois.
112
On peut calculer les élasticités de court et de long terme de la consommation par
rapport au revenu. L’élasticité de court terme est β1 = 0.3568 . Si le PIB réel
augmente de 10%, la consommation à court terme augmente de 35.68%.
β 7 0.7883
L’élasticité de long terme est égale à − = = 0.9145 . La consommation
β 6 0.8619
augmente à long terme de 9.145% suite à une augmentation du PIB réel de 10%.
On peut effectuer sur ce modèle tous les tests classiques sur les résidus
(autocorrélation, hétéroscédasticité, normalité, stabilité, test d’erreur de
spécification). Les résultats des tests de diagnostic montrent que les résidus du
modèle vérifient toutes les hypothèses du modèle linéaire.
113
Sum squared resid 0.03109 Schwarz criterion -3.61917
Log likelihood 75.8957 Durbin-Watson stat 2.01534
C. La méthode de Johansen
18
Le test d’exogénéité faible renvoie à la notion de causalité de long terme et s’effectue en testant la nullité du
terme de rappel dans l’équation de la variable. Il existe une version forte (test d’exogénéité forte) qui impose des
restrictions sur les coefficients de court terme et le terme de rappel. Il s’agit d’un test de causalité globale. La
non significativité jointe de tous ces coefficients implique l’exogénéité forte de la variable.
114
On remarquera que le nombre de retards est celui du modèle VAR en différence
première et non celui du VAR en niveau. La méthode Johansen reste très
sensible au nombre de retards. Un nombre de retards élevé accroît la probabilité
d’existence de relation de cointégration.
Cliquez ensuite sur OK pour valider. Dans la mesure où nous avons trois
variables, le modèle à correction d’erreurs comportera trois équations. Les
résultats de l’estimation du modèle vectoriel à correction d’erreurs sont reportés
dans le tableau suivant.
115
Tableau 8. 9 : Coefficients de régression du modèle à correction d’erreurs
(méthode de Johansen)
L’élasticité de long terme est donc estimée à 0.919, valeur qui est proche de
celle obtenue par les deux méthodes précédentes.
116
consommation. A court terme, le taux de croissance de la consommation ne
dépend que de sa valeur passée, ceci reflète l’effet des habitudes de
consommation.
117
Chapitre 9
19
Exemple d’équation de définition : pibn=pibr*deflateur.
118
une incertitude dans le modèle en ajoutant un terme aléatoire aux coefficients,
aux résidus des équations ou aux variables exogènes. L’objet Model permet
également de faire des simulations sous différentes hypothèses portant sur les
variables exogènes, ces ensembles d’hypothèses sont appelés scénarios.
Les variables d’un modèle sont de deux types : les variables endogènes et les
variables exogènes (déterminées hors du modèle). A ces deux types de variables,
on peut ajouter une troisième catégorie, les add factors, qui sont un type spécial
de variables exogènes. Nous reviendrons dans la suite sur l’utilisation de ce type
de variable.
f ( y, x) = 0 (9.1)
Dans EViews, à chaque équation d’un modèle est associée une seule variable
endogène. Ainsi, chaque équation d’un modèle doit pouvoir s’écrire sous la
forme :
y i = f i ( y, x ) (9.2)
119
La première variable que l’on rencontre dans la spécification d’une équation est
considérée comme l’endogène de cette équation. Puisque chaque endogène doit
être associée à une seule équation, on devra écrire les équations de manière à ce
que chaque équation commence avec une variable différente. Toute variable non
assignée à une équation sera considérée comme exogène. Dans un modèle
complet, le nombre d’équations est égal au nombre de variables endogènes.
Exemple de modèle
Avant de charger ces équations dans l’objet modèle, nous devons d’abord
estimer les coefficients des équations stochastiques, ce qui a déjà été fait dans le
chapitre 6.
Pour charger les équations estimées dans l’objet modèle crée à partir de la
première méthode, sélectionnez les équations dans le Workfile, faites un clic
droit et copiez puis allez coller dans le modèle (peu importe l’endroit). Les
équations apparaissent dans l’objet modèle sur une ligne avec une icône
indiquant le type d’objet, son nom, son numéro d’ordre et sa représentation
120
mathématique. En double-cliquant sur une équation, une fenêtre indique les
propriétés de cette équation. Pour ouvrir une équation dans le modèle,
sélectionnez cette équation et faites un clic droit puis sélectionnez Open Link.
On peut obtenir les propriétés d’une équation en double-cliquant sur son icône.
Nous avons ajouté les 2 équations en lien externe avec celles du Workfile. Cela
signifie que si nous réestimons les équations, nous pouvons mettre à jour
(update) les équations du modèle en utilisant la procédure Procs/Links/Update
All Links.
Dans cette fenêtre, on peut taper les 3 équations de la façon classique ou bien
indiquer simplement le nom de l’équation précédé de deux points (par
exemple ״:EQ01) ״. L’entrée des équations en tant que texte est la deuxième
façon (après la méthode du copier-coller) d’ajouter des équations à un modèle.
Après avoir validé, on obtient la configuration suivante.
121
La spécification du modèle est complète, nous pouvons maintenant procéder à sa
résolution. L’onglet Variable de la fenêtre permet d’obtenir la description de
chaque variable, l’équation à laquelle elle est assignée et le statut de la variable
(endogène ou exogène).
Remarque : Si après avoir ajouté des équations en tant que liens externes, vous
voulez les voir apparaître dans l’objet modèle de façon explicite sous la forme
de texte, alors sélectionnez, à partir du menu du modèle, Procs/Links/Break All
Links-Make all equations inline. La procédure Break All Links permet de
rompre les liens avec l’objet source. On peut procéder équation par équation par
sélection, puis clic droit et sélection de Break Link. Dans ce cas, les
modifications apportées aux équations ne seront pas prises en compte dans
l’objet modèle.
122
La résolution du modèle se fait sur une période pour laquelle les variables ont
des valeurs renseignées. Ici c’est la période 1965-2002.
Les résultats pour les endogènes apparaissent dans le Workfile avec le suffixe
_0. On peut les ouvrir de la façon habituelle et faire les graphiques. Cependant il
existe une méthode plus commode. Cliquez sur l’onglet variable, sélectionnez
les variables et faites un clic droit puis choisissez Procs/Make Graph Object…
123
Dans la boîte de dialogue qui apparaît, prenez le soin de cocher Actuals et
Active comme indiqué ci-dessous.
On constate que le modèle reproduit bien les données pour les premières années.
Cependant la qualité d’ajustement est moins bonne à partir de 1985. Nous allons
tenter d’améliorer les simulations en modélisant les termes d’erreurs à travers
l’ajout aux équations de facteurs additifs (Add Factors).
124
9.4 Utilisation des Add Factors
Lorsque le modèle est résolu de façon déterministe, les équations sont résolues
de sorte que chacune des équations du modèle soit exactement satisfaite. A
l’inverse, lorsque l’option de résolution choisie est de type stochastique, des
termes d’erreurs aléatoires sont ajoutés à chaque équation, mais ces termes sont
fixés de sorte à ce que leur moyenne soit nulle. Les Add Factors sont des
variables exogènes qui interviennent de façon un peu particulière dans les
équations. Ils permettent plus généralement d’intégrer l’information sur les
résidus dans la prévision dans le but de compenser la mauvaise qualité d’une
équation lorsque celle-ci est utilisée pour former des prévisions. Ils sont ajoutés
aux équations estimées afin de caler les simulations historiques sur les valeurs
historiques.
Pou ajouter un facteur additif à une équation, double cliquez sur l’équation et
cliquez sur l’onglet Add Factors puis sélectionnez l’option Equation intercept
(residual shift) comme type de facteur. La procédure crée une nouvelle variable
en ajoutant le suffixe _A au nom de la variable endogène. Cette variable est
ajoutée à la liste des variables du modèle. Nous allons ajouter un Add Factor à
l’équation de consommation. Pour cela double-cliquez sur cette équation et
pressez l’onglet Add Factor. La variable Add Factor portera le nom CONS_A.
En faisant une simulation historique du modèle, on obtient à nouveau les
graphiques suivants :
Figure 9.2 : Evolution comparée des séries réelles et simulées après ajout de facteurs additifs
1000 0 1000
1965 1970 1975 1980 1985 1990 1995 2000 1965 1970 1975 1980 1985 1990 1995 2000 1965 1970 1975 1980 1985 1990 1995 2000
Actual CONS (Baseline) Actual INVP (Baseline) Actual PIBR (Baseline)
125
En utilisant les variables Add Factors, on peut spécifier n’importe quelle
trajectoire pour les résidus des équations de comportement sur la période de
prévision.
Cliquez ici
En cliquant sur OK, un nouveau scénario est crée. On peut utiliser cette boîte de
dialogue pour sélectionner le scénario actif ou pour renommer ou supprimer des
scénarios existants.
126
Pour distinguer les données associées à différents scénarios, chaque scénario
modifie les noms des variables en ajoutant un nombre aux noms des variables,
comme par exemple _1, _2. Les données d’un même scénario apparaissent dans
le workfile avec le même suffixe.
La procédure nous permet d’indiquer en rouge les variables exogènes qui vont
être modifiées. Ces variables exogènes vont utiliser les valeurs des variables
suffixées qui leur correspondent dans le scénario. Il y a deux types spéciaux de
scénarios qui sont toujours présents dans un modèle : Actuals et Baseline. Ces
deux scénarios diffèrent en ce que le premier scénario écrit ses solutions
directement dans le workfile avec le même nom que les variables endogènes,
alors que le scénario Baseline modifie le nom en ajoutant le suffixe _0. En
résolvant le modèle en utilisant Actuals comme scénario actif, vous devez faire
attention à ne pas écraser accidentellement vos données historiques. Le scénario
de base tire son nom du fait qu’il fournit la base à partir de laquelle les autres
scénarios sont construits. Les scénarios construits diffèrent du scénario de base
en ayant une ou plusieurs variables marquées en rouge ou exclues.
Cliquez sur la variable INVG, faites ensuite un clic droit puis sélectionnez
properties. Dans l’écran qui s’affiche, cochez Use Override series in scenario.
Un message s’affiche pour demander la création de la variable INVG_1, cliquez
sur OK pour accepter l’opération. Les valeurs historiques de INVG_1 sont
identiques à celles de INVG. Générez les valeurs de INVG pour la période
2003-2010 en tapant l’équation INVG_1=INVG_1(-1)*(1+0.15). Procédez de la
même manière pour générer les valeurs des variables CONSG et R sur la
période 2003-2010.
Pour tourner le modèle sous ces nouvelles valeurs, cliquez sur l’onglet Solve.
Précisez la période de simulation (2003-2010) et cliquez sur OK. Les valeurs
des endogènes simulées apparaissent dans les séries CONS_1, INVP_1 et
PIBR_1. Procédez de la même manière pour simuler le deuxième scénario.
127
Tableau 9.1 : Résultats des simulations des deux scénarios
Une base de données est un ensemble de fichiers contenant des objets (séries,
groupes, équations, modèles). Elle ressemble de ce point de vue à un workfile.
Mais une base de données EViews diffère d’un Workfile sur deux points.
Premièrement, contrairement au Workfile, on n’a pas besoin de charger en
mémoire toute la base de données pour accéder aux objets qu’elle contient. En
effet, un objet peut être récupéré (instruction FETCH) ou stocké (instruction
STORE) directement dans une base de données sur le disque. Deuxièmement,
les objets d’une base de données n’ont pas nécessairement les mêmes périodes
d’observation. Une base de données pourrait très bien contenir une collection de
séries annuelles, trimestrielles ou mensuelles. L’extension d’une base de
données est .EDB.
Le fait que les bases de données EViews soient gardées sur le disque plutôt
qu’en mémoire a un certain nombre de conséquences dont il ne faut pas ignorer.
Toute modification faite à la base entraîne aussi des modifications des fichiers
associés sur le disque. De plus, contrairement aux workfile, les modifications
sont irréversibles, c’est-à-dire que vous ne pourrez pas revenir à la version
précédente une fois que vous avez effectué des modifications. Faites donc
attention lorsque vous modifiez une base de données.
128
9.6.1 Créer une base de données
Tapez ici le
nom de la
base à créer
Après avoir validé, une fenêtre de base de données s’ouvre sur l’écran. Cette
interface vous permet de faire des requêtes, des copier-coller d’objets d’un
workfile. Notons que certaines opérations peuvent être effectuées sans avoir à
ouvrir la fenêtre de la base de données.
Cette fenêtre nous indique qu’il n’y a pas d’objets chargés dans la base de
données. Le travail avec une base de données consistera la plupart du temps à
129
charger et décharger des objets de la base. Nous allons voir comment on peut
stocker des objets dans cette base et comment on peut les récupérer.
Il existe plusieurs façons de charger un objet dans une base de données. Si vous
avez un workfile qui est ouvert, cliquez sur l’objet que vous voulez charger,
faites un clic droit et cliquez sur Store to DB… Vous pouvez aussi cliquer sur
l’onglet Store du menu du workfile.
L’objet à
charger
Indiquez la base
de destination
Cliquez sur Yes pour valider. Si vous voulez charger l’objet avec un nouveau
nom, tapez ce nom à la place du nom de l’objet dans le champ Store …as.
Comme dans un workfile, les objets chargés dans une base apparaissent avec
leur icône identifiant le type d’objet. En double-cliquant sur un objet, on accède
à une description complète de celui-ci. Lorsqu’il y a un grand nombre d’objets,
vous pouvez utiliser l’option Query pour choisir les objets et le type
d’information que vous souhaiter afficher.
La façon la plus simple de récupérer des objets d’une base de données est de
cliquer sur l’onglet Fetch de la barre d’outils du workfile dans lequel on veut
décharger les objets.
130
Cliquez
ici pour
Tapez ici le choisir la
nom des objets base
à récupérer
Après avoir indiqué les noms des objets à récupérer, cliquez sur OK. Les objets
spécifiés apparaissent alors dans le workfile avec leur icône. On peut aussi
récupérer un objet d’une base à partir de la fenêtre de la base. A partir d’une
fenêtre de base de données déjà ouverte, sélectionnez les objets à copier, et
cliquez sur le bouton Export situé sur la barre d’outils de la fenêtre de la base
ou bien faites simplement un clic droit et choisissez Export to workfile…. Une
boîte de dialogue intitulé « Database Export » apparaît à l’écran. Le nom du
workfile actif apparaît sous le champ Workfile for selected. Cliquez sur OK
pour exécuter l’exportation.
Rappelons que les séries d’une base de données peuvent avoir des fréquences et
des étendues différentes alors que le workfile a une fréquence et une étendue
fixes. Décharger une série peut entraîner une conversion automatique de la
fréquence et de l’étendue de la série afin de les rendre compatibles avec celles
du workfile de destination.
131
Chapitre 10
Introduction à la Programmation
132
Un programme n’est pas un objet EViews. C’est un fichier texte contenant une
succession d’instructions faites de commandes. En conséquence, le programme
n’apparaît pas dans le workfile.
10.2 Quelques commandes pour générer des séries et estimer des équations
Supposons maintenant que nous voulons générer une série Z qui prend la valeur
1 de 1980 à 1993 et la valeur 0 ailleurs. On peut le faire à partir du menu
Quick/Generate Series, mais on peut le programmer plus directement en tapant
les instructions suivantes :
Series Z=0
SMPL 1980 1993
Series Z=1
SMPL @ALL
Il arrive parfois que l’on veuille travailler sur des observations sélectionnées
selon la valeur d’une variable X. Par exemple la commande :
Smpl if X<0
133
10.2.2 Estimer une équation par MCO
L’objet que l’on veut créer est une équation nommée ici eq1. La commande
« ls » indique qu’on utilise la méthode des moindres carrés (least squares en
anglais) pour faire l’estimation. En tapant :
Genr pond=1/sqr(z)
Equation eq2.ls(w=pond) y c z
Une ligne commençant par le symbole ‘ est une ligne de commentaire. Elle est
ignorée lors de l’exécution du programme. Les commentaires permettent de
documenter le programme.
134
généralisés (GMM), on doit indiquer la liste des variables instrumentales. On
peut spécifier ces variables de deux façons. Si on utilise les mêmes instruments
pour toutes les équations du système, alors on indique le mot instr en fin du
programme, suivi de la liste des instruments. Si on utilise des instruments
différents pour chaque équation, alors on indique le symbole @ à la fin de
chaque équation, suivi de la liste des instruments. L’identification des
coefficients d’une équation requiert qu’il y ait au moins autant de variables
instrumentales que de variables figurant en explicative.
Supposons que nous voulons estimer une équation sur la période 1965-2002 et
utiliser cette équation pour faire des prévisions sur l’horizon 2003-2010. Les
lignes d’instructions suivantes permettent d’obtenir les résultats :
SMPL 1965 2002 (ou SMPL @ALL)
Equation eq1.ls LCONS C LPIBR LCONS(-1)
Expand 1965 2010
SMPL 2003 2010
Eq1.fit LCONS_s ‘(Prévision statique)
Eq1.forecast LCONS_d ‘(Prévision dynamique)
Plot LCONS_s LCONS_d
Les variables de contrôle sont des variables qui peuvent être utilisées à la place
des valeurs numériques dans un programme. Une fois qu’une valeur est assignée
à une variable de contrôle, on peut l’utiliser partout dans le programme en lieu et
place de la valeur numérique. Le nom d’une variable de contrôle commence
toujours par la marque " ! ". Après cette marque, on peut donner n’importe quel
135
nom acceptable. Exemples de noms de variables de contrôle : !x=5 !1=8
!pi=3.14159.
Une variable de contrôle ne peut être utilisée sans être préalablement déclarée.
La valeur manquante d’une variable de contrôle est symbolisée par na : !x=na.
Un string est un texte bouclé par deux quotes " ". Exemple : ″on rejette
l’hypothèse nulle″. Une variable de type string est donc une variable dont les
valeurs sont des textes. La déclaration de ces variables se fait en précédant le
nom par le symbole %.
Exemples
Une fois assignée une valeur, une variable string peut être utilisée dans les
expressions. Par exemple:
cons.Label %cons
Smpl %Mysample
Equation eq1.ls %dep c %dep(-1)
Equation eq2.ls %dep c %dep(-1) %ARMAS
136
10.3.3 Variables de remplacement
Les variables de remplacement peuvent être utilisées pour former des mots.
Dans ce cas, elles doivent être mises entre guillemets. Exemples :
%Type="Bas", %NVAR="Revenu", Series REV1, REV1.Label
{%NVAR}{%Type} %Type="Elevé", Series REV2, REV2.Label
{%NVAR}{%Type}. Ici, le commentaire "Revenu Bas" est utilisé pour
labelliser la série REV1 et "Revenu Elevé " pour labelliser la série REV2. Dans
ces exemples, le terme {%NVAR}{%Type} est une variable de remplacement
puisque la commande est construite en remplaçant les variables string par leurs
contenus.
Les variables de contrôle peuvent aussi être utilisées comme des variables de
remplacement. Considérons l’exemple, GENR Y{!X}=NRND où !X est une
variable de contrôle. Si !X=1, cette ligne de commande est interprétée comme
GENR Y1=NRND. Si !X=12 alors la commande signifie GENR Y12=NRND.
Pour contrôler l’exécution d’un programme, on est souvent amené à recourir aux
commandes de contrôle. Ces commandes permettent en effet d’exécuter de
façon sélective des instructions. Elles sont familières à tous les logiciels de
programmation. Parmi les principales commandes de contrôle, on a la logique IF
137
et les boucles FOR et WHILE. La commande IF exécute un ensemble
d’instructions si une certaine condition est satisfaite. La boucle FOR répète un
ensemble d’instructions pour un nombre fixé de temps. La boucle WHILE
répète un ensemble d’instructions aussi longtemps qu’une certaine condition est
vérifiée.
10.4.1 La Commande IF
Exemple 1
IF !x=1 OR (!s=1 AND !r=1) THEN
SERIES INVGPIB=INVG/PIB
SERIES INVPPIB=INVP/PIB
ENDIF
Exemple 2
IF !x>0 THEN
GENR NAGE=AGE/!x
ELSE
GENR NAGE=AGE
ENDIF
138
IF peut aussi s’appliquer aux variables string.
Exemple
IF %x=″CA″ OR %x=″IN″ THEN
GENR STATID=1
ELSE
IF %x=″MA″ THEN
GENR STATID=2
ELSE
IF %x=″ID″ THEN
GENR STATID=3
ENDIF
ENDIF
ENDIF
Lorsqu’on veut répéter des instructions pour différentes valeurs d’une variable
de contrôle, FOR implique de poser l’égalité de cette variable de contrôle à une
valeur initiale, suivie du mot TO, et alors d’une valeur finale. Après la valeur
finale, l’on peut inclure le mot STEP suivi d’un nombre indiquant comment
changer la variable de contrôle à chaque fois que la boucle est exécutée. Si on
n’indique pas STEP, il est pris égal à 1. La syntaxe est :
FOR !i=1 TO 100
Instruction avec le paramètre numérique !i
NEXT
Exemple 1
FOR !j=1 TO 100
SERIES DECILE{!j}=(REVENU<NIV{!j})
NEXT
139
Dans cet exemple, STEP=1 et la variable !j est utilisée deux fois comme une
variable de remplacement, d’abord pour les 100 séries DECILE1 à DECILE100
et pour les 100 variables NIV1 à NIV100.
Exemple 2
FOR !j=100 TO 1 STEP -1
GENR RESCALE{!j}=REVENU/!j
NEXT
La boucle FOR est exécutée d’abord pour la valeur initiale, à moins que cette
valeur excède la limite supérieure. Après avoir exécuté pour la valeur initiale, la
variable de contrôle est incrémentée par STEP et le programme contrôle si elle
dépasse la limite ; si c’est le cas, l’exécution est stoppée.
Exemple 3
!SUM=0
!NUM=100
VECTOR(!NUM) X
FOR !I=1 TO !NUM
!SUM=!SUM+X(!I)
NEXT
SCALAR MEANX=!SUM/!NUM
On peut imbriquer les boucles FOR les unes dans les autres.
Exemple 4
MATRIX(20,10) XX
FOR !I=1 TO 20
FOR !J=1 TO 10
XX(!I,!J)=(!I-1)*10+!J
NEXT
NEXT
140
Ne jamais changer la variable de contrôle à l’intérieur de la boucle. Exemple (à
éviter) :
FOR !I=1 TO 20
...
!I=!I+10
NEXT
On peut exécuter une boucle FOR avec des scalaires au lieu de variables de
contrôle. On devra cependant déclarer le scalaire et ne pas l’utiliser comme une
variable de remplacement.
Exemple
SCALAR I
SCALAR SUM=0
VECTOR(10) X
FOR I=1 TO 10
X(I)=I
SUM=SUM+I
NEXT
Dans cet exemple, les scalaires I et SUM restent dans le Workfile à moins de les
supprimer.
Lorsqu’on veut répéter des commandes pour différentes valeurs d’une variable
string, on peut utiliser la boucle FOR. La boucle FOR permet à la variable string
de courir une liste de valeurs string définie a priori. On tape FOR puis on
indique le nom de la variable string suivi de la liste des valeurs. La structure de
la boucle se présente de la façon suivante :
FOR %ch chose1 chose2 chose3 chose4
Instruction avec le paramètre numérique !i
NEXT
141
Exemple
FOR %y PIB INVP CONS
EQUATION {%y}trend.Ls %y c {%y}(-1) time
NEXT
Exemple
!VAL=1
!A=1
WHILE !VAL<10000 AND !A<10 THEN
SERIES REV{!VAL}=REVENU/!VAL
!VAL=!VAL*10
!A=!A+1
WEND
Cette boucle comporte quatre parties. La première partie est l’initialisation des
variables de contrôle utilisées dans les conditions. La seconde partie est la
déclaration WHILE qui comprend les conditions et se termine par THEN. La
troisième partie est la mise à jour des variables de contrôle. La fin de la boucle
est marquée par le mot WEND.
142
10.4.4 Quelques applications des commandes IF et FOR
Supposons que nous voulons générer les logarithmes et les taux de croissance
des variables suivantes : CONS, CONSG, INVP, INVG, PIBR et IPC. On peut
utiliser la commande GENR pour générer ces variables. On peut utiliser un
programme pour obtenir plus rapidement le même résultat.
Group Varmod CONS CONSG INVP INVG PIBR IPC
FOR !j=1 To Varmod.@count
%y=Varmod.@SERIESNAME(!j)
Series L{%y}=log({%y})
Series Taux{%y}=@pch({%y})*100
NEXT
Nous avons ainsi généré 12 variables avec moins d’instructions. En effet, au lieu
d’écrire 12 lignes d’instructions, nous n’avons utilisé que quatre. Le gain de
commodité est d’autant plus important que le nombre de variables du groupe est
élevé, ce qui est le cas dans les grands modèles macroéconométriques. Si nous
voulons générer les séries à prix courants en utilisant un même indice de prix, on
comprend qu’il suffit d’insérer une seule ligne d’instruction au lieu de six !
143
B. Correction de l’autocorrélation
144
Equation eq3.ls resa c zinv ‘(Régression sur l’inverse de z)
Scalar proba=1
FOR !i=1 to 3
Scalar te=@abs(eq!i.c(2)/sqr(eq!i.@covariance(2,2)))
Scalar ddl=eq!i.@regobs-eq!i.@ncoef ‘(ncoef= nombre de coefficients
estimés, regobs=nombre d’observations)
IF @tdist(te,dll)<proba THEN
proba=@tdist(te,ddl)
scalar ind=!i ‘(On retient la probabilité critique la plus faible et
le numéro de l’équation significative
ENDIF
NEXT
145
10.5 Créer et travailler avec une base de données
Pour créer une base de données nommée par exemple BASEMACRO, on écrit
la ligne de commande suivante dans l’éditeur de programme :
dbcreate BASEMACRO ou dbcreate c:\cours\BASEMACRO
Pour récupérer des objets et les mettre dans le workfile actif, on utilise la
commande FETCH :
Fetch (d=c:\cours\BASEMACRO.edb)objet1 objet2 etc.
Il est possible d’utiliser directement les objets contenus dans une base de
données sans les décharger au préalable dans un workfile. Il suffit d’indiquer le
nom de la base suivi de :: et de la liste des objets. Par exemple, pour générer la
variable LPIBR à partir de la variable PIBR contenue dans la base de données
BASE1.edb, il suffit d’inscrire la ligne de commande suivante :
Series LPIBR=log(BASE1::PIBR)
La série LPIBR sera créée dans le workfile actif. Mais la série PIBR n’y est pas
forcément !
Exemple
Equation eq1.ls log(BASE1::CONS) C (BASE2::LPIBR)
146
10.6 Créer et gérer un modèle par programme
Pour déclarer ou créer un modèle nommé par exemple MACRO, on écrit la ligne
de commande suivante dans l’éditeur de programme:
Model MACRO
Une fois l’objet MACRO crée, on utilise les commandes append et merge pour
y ajouter les équations.
Si on veut ajouter plusieurs équations eq1, eq2 …eq10, on peut utiliser la boucle
FOR :
FOR %y eq1 eq2 eq2 … eq10
MACRO.merge %y
NEXT
La première ligne crée le système sys1. Les trois lignes suivantes y écrivent les
spécifications des variables endogènes du système. La cinquième ligne y écrit la
147
liste des variables instrumentales. La dernière ligne estime le modèle par les
triples moindres carrés.
Lorsque le modèle est résolu, les endogènes simulées portent le suffixe _0. La
commande assign permet de donner un nouveau suffixe aux variables
endogènes simulées. Ainsi les lignes de commandes suivantes
MACRO.append assign @all _smh
MACRO.solve
148
MACRO.addassign y1
Il existe des options pour indiquer le type de Add Factors à générer. Les
principales options sont :
• Changement de la constante (i) (option par défaut) ;
• Changement de l’endogène (v) ;
• Aucun changement - enlever les Add Factors (n) ;
• Changer des Add Factors existant en un type spécifié (c).
Exemple
MACRO.addassign(v) y1 y2
MACRO.addassign(v) @stochastic
La première ligne assigne des Add Factors aux équations correspondant aux
endogènes y1 et y2. La deuxième ligne assigne des Add Factors à toutes les
équations du modèle. La troisième affecte des Add Factors aux équations
stochastiques uniquement.
On peut créer un groupe pour recevoir les Add Factors. Par exemple,
l’instruction :
MACRO.Makegroup (a,n) RES @ADDFACTOR
La commande ADDINIT initialise les valeurs des Add Factors. Par exemple,
pour initialiser la valeur de la variable y1_A, on écrit l’instruction suivante :
MACRO.addinit(options) y1
149
Chapitre 11
150
Const = a 0 + a1 Pt + a 2 Pt −1 + a 3 (Wt + Wt g ) + ε 1t
p
(1)
I t = b0 + b1 Pt + b2 Pt −1 + b3 K t −1 + ε 2 t (2)
Wt p = c0 + c1 X t + c 2 X t −1 + c3 t + ε 3t (3)
X t = Cons t + I t + G t (4)
Pt = X t − Tax t − Wt p (5)
K t = I t + K t −1 (6)
où
Travail à faire
151
• Scénario 5 : Hausse de Gt de 10% par an sur la période 1942-
1945 ;
• Scénario 6 : Hausse de Gt , Taxt et Wt g de 10% par an sur la période
1942-1945.
Solution commentée
152
3) Conditions d’identification
153
Spécifiez l’équation et les instruments et cliquez sur OK. Procédez de la même
façon pour les deux autres équations.
154
Figure 11.1 : Evolution comparée des séries réelles et simulées
CONS I
75 6
70 4
65 2
60
0
55
-2
50
-4
45
-6
40
35 -8
20 22 24 26 28 30 32 34 36 38 40 20 22 24 26 28 30 32 34 36 38 40
WP X
55 90
50
80
45
70
40
60
35
30 50
25 40
20 22 24 26 28 30 32 34 36 38 40 20 22 24 26 28 30 32 34 36 38 40
Nous allons utiliser le modèle pour simuler les différents scénarios de politiques
économiques retenus. En plus des variables initiales du modèle, nous générons
les variables de sortie à savoir les taux de croissance de la production et de la
consommation, le solde budgétaire en % du produit, le taux d’investissement et
le taux d’imposition en % du produit. Ces variables seront générées au fur à
mesure que les scénarios seront simulés. Ces agrégats servent à l’analyse de la
politique d’impact. Ce sont des variables qu’il faut surveiller lors de l’analyse
des résultats. Par exemple, un scénario qui entraînerait un taux d’investissement
de 60% ou un déficit budgétaire de plus de 80% est-il vraiment réaliste,
soutenable? Au-delà de l’exercice « mathématique » de simulation, il faut
apporter un jugement « économique » et garder une veille critique quant aux
résultats des scénarios afin d’apprécier leur pertinence pratique.
155
Tableau 11.1 : Résultats des simulations
156
La résolution du modèle génère la série des dépenses publiques permettant de
réaliser les valeurs indiquées dans la série Xobj. On peut résoudre le modèle pour
générer tous les indicateurs du tableau de bord. Les résultats sont synthétisés
dans le tableau 11.2 ci-dessous.
Tableau 11.2 : Résultats des simulations pour atteindre un taux de croissance de 10%
157
scénario 1, mais le scénario 3 génère des déficits budgétaires relativement plus
importants. Quelle conclusion pouvez-vous tirer de ces résultats ? Laquelle des
mesures de politique budgétaire (politique fiscale, politique salariale ou
politique de dépense publique) vous semble efficace en terme d’impact social ?
8) Programme
L’ensemble des étapes précédentes peut être programmé sous forme de textes
dans l’éditeur de programme. L’avantage de la programmation est qu’on peut
savoir comment on est arrivé à un résultat donné. Nous donnons ici le
programme complet de résolution et de simulation du modèle de Klein sous les
scénarios précédents. Le programme permet aussi de synthétiser l’évolution des
variables d’impacts dans un tableau de sortie. Ce programme peut être adapté
pour les modèles macroéconomiques comportant un plus grand nombre de
variables.
‘Ecriture du modèle
Model KLEIN
KLEIN.merge eq1
KLEIN.merge eq2
KLEIN.merge eq3
KLEIN.append x=cons+i+g
KLEIN.append p=x-tax-wp
KLEIN.append k=k(-1)+i
KLEIN.Makegroup(a,n) ENDOINI @ENDOG '(on constitue un groupe de
l'ensemble des endogènes initiales du modèle : à ce niveau, il s’agit de
cons, i, wp, x, p et k)
158
Series taux{%y}=@pch({%y})*100
KLEIN.append taux{%y}=@pch({%y})*100
NEXT
Series Soldebudpib=(Tax-g-wg)/x*100
Series Txinvpib=i/x*100
Series Taxpib=Tax/x*100
KLEIN.append Soldebudpib=(Tax-g-wg)/x*100
KLEIN.append Txinvpib=i/x*100
KLEIN.append Taxpib=tax/x*100
KLEIN.Solve
159
KLEIN.MAKEGROUP ENDOCHOC1 @ENDOG
Scalar choc2=1
g=g(-1)+(an=1942)*choc2=1
tax=tax(-1)
wg=wg(-1)
KLEIN.append assign @all _2
KLEIN.Solve
KLEIN.MAKEGROUP ENDOCHOC2 @ENDOG
Scalar choc3=-2
tax=tax(-1)+(an=1942)*choc3
wg=wg(-1)
g=g(-1)
KLEIN.Append assign @all _3
KLEIN.Solve
KLEIN.MAKEGROUP ENDOCHOC3 @ENDOG
Scalar choc4tax=1
Scalar choc4wg=1
tax=tax(-1)+(an=1942)*choc4tax
wg=wg(-1)+(an=1942)*choc4wg
g=g(-1)
KLEIN.append assign @all _4
KLEIN.Solve
KLEIN.MAKEGROUP ENDOCHOC4 @ENDOG
Scalar choc5=0.10
g=g(-1)
tax=tax(-1)
wg=wg(-1)*(1+choc5)
KLEIN.append assign @all _5
KLEIN.Solve
KLEIN.MAKEGROUP ENDOCHOC5 @ENDOG
160
'Simulation du scénario 6 : choc permanent de +10% sur toutes les exogènes
Scalar choc6=0.10
FOR !j=1 to EXO.@count
%y=EXO.@Seriesname(!j)
Series %y=%y(-1)*(1+choc6)
Next
KLEIN.append assign @all _6
KLEIN.Solve
KLEIN.MAKEGROUP ENDOCHOC6 @ENDOG
Table(37, 6) Synthese
FOR !i=2 TO 6
setcell(Synthese,1, !i, 1939+!i)
NEXT
161
setcell(Synthese,19, 1, "Taxpib")
FOR !i=2 TO 6
setcell(Synthese,3, !i, tauxx_1(@dtoo("1939")+!i))
setcell(Synthese,4, !i, tauxcons_1(@dtoo("1939")+!i))
setcell(Synthese,5, !i, soldebudpib_1(@dtoo("1939")+!i))
setcell(Synthese,6, !i, Txinvpib_1(@dtoo("1939")+!i))
setcell(Synthese,7, !i, Taxpib_1(@dtoo("1939")+!i))
162
setcell(Synthese,22, !i, tauxcons_4(@dtoo("1939")+!i))
setcell(Synthese,23, !i, soldebudpib_4(@dtoo("1939")+!i))
setcell(Synthese,24, !i, Txinvpib_4(@dtoo("1939")+!i))
setcell(Synthese,25, !i, Taxpib_4(@dtoo("1939")+!i))
NEXT
‘FIN DU PROGRAMME
163
11.2 Exercice 2 : Cointégration et simulation d’un modèle à correction
d’erreurs
Solution commentée
1. Tests de stationnarité
Une première intuition sur la stationnarité peut être fournie par l’étude
graphique des séries ainsi que de leurs corrélogrammes. La figure 11.2 fait
ressortir une tendance globale à la hausse de la série X. Par ailleurs, le
corrélogramme représenté sur la figure 11.3 montre que les autocorrélations sont
positives et lentement décroissantes tandis que seule la première autocorrélation
partielle est significative. Ces éléments laissent présager que le processus
générateur de la série X n’est pas stationnaire.
164
Figure 11.2: Evolution temporelle de la série X
29.2
29.0
28.8
28.6
28.4
28.2
28.0
27.8
27.6
1965 1970 1975 1980 1985 1990 1995 2000
.10
.05
.00
-.05
-.10
-.15
1965 1970 1975 1980 1985 1990 1995 2000
DX
165
Figure 11.5 : Corrélogramme de la série DX
Pour mettre en œuvre ces tests, ouvrez la série (ici X) puis sélectionnez
View/Unit Root Test comme indiqué dans l’écran suivant :
Cliquez ici
166
(1) Déroulez ici pour
sélectionner le type de
test.
(4) On commence
avec le modèle [3]
Cette première étape donne les résultats reportés dans le tableau 11.3 ci-dessous.
Le nombre de retards utilisé pour éliminer l'autocorrélation des erreurs est
optimisé par le critère de Akaike.
t-Statistic Prob.*
Augmented Dickey-Fuller test statistic -2.42562 0.3607
Test critical values: 1% level -4.25287
5% level -3.54849
10% level -3.20709
*MacKinnon (1996) one-sided p-values.
167
Dans ce tableau, la constante est notée C et la tendance @TREND(1965). On
commence par tester la significativité de la tendance en se référant aux valeurs
critiques tabulées par Dickey-Fuller. Il apparaît ainsi que la tendance n’est pas
significativement différente de zéro, puisque sa t-statistique (=1.459) est
inférieure à la valeur critique de 2.79 au seuil de 5%. On estime en conséquence
le modèle avec une constante et sans tendance. Les résultats (cf. tableau 11.4)
indiquent que la constante est significativement différente de zéro.
t-Statistic Prob.*
Augmented Dickey-Fuller test statistic -2.68850 0.0858
Test critical values: 1% level -3.62678
5% level -2.94584
10% level -2.61153
*MacKinnon (1996) one-sided p-values.
168
Tableau 11.5 : Résultats des tests de stationnarité
Les résultats des tests indiquent que les séries ne sont pas stationnaires en niveau
au seuil de 5%. En effet pour les variables Z1, Z2 et Y, les statistiques ADF et PP
reportent des valeurs supérieures aux valeurs critiques à 5%. En conséquence,
ces tests ne rejettent pas l’hypothèse de racine unitaire. Quant à la série X, les
tests ADF et KPSS concluent à la non stationnarité tandis que le test PP indique
la stationnarité. Le test KPSS ne permet pas de rejeter l’hypothèse de
stationnarité pour Z1 et Z2. Les tests effectués sur les séries différenciées
conduisent à des résultats concordants : toutes les séries en différence première
sont stationnaires. En définitive, nous retenons que les séries sont intégrées
d’ordre 1.
2. Tests de cointégration
169
Le nombre de retards est déterminé à partir des critères d’information de
Akaike, Schwarz et Hannan-Quinn. Ces critères s’appuient sur l’apport
d’information généré par des retards supplémentaires dans le modèle: le nombre
de retards optimal est la valeur qui les optimise. Le critère de Akaike est
minimum lorsque l’on prend deux retards, tandis que ceux de Schwarz et
Hannan-Quinn le sont à un retard (cf. tableau 11.6). Pour choisir entre un et
deux retards, un autre procédé a été utilisé : celui de la préférence empirique. Il
s’agit de déterminer le nombre de retards en comparant les caractéristiques et
propriétés statistiques de plusieurs modèles se différenciant uniquement par le
nombre de retards. L’une des caractéristiques des modèles à correction d’erreurs
est que les coefficients de la relation de long terme ne sont pas sujets à
fluctuations en fonction du nombre de retards choisi. Le nombre de retards
optimal est par conséquent celui qui permet aux coefficients de la relation de
long terme de se stabiliser et qui préserve la qualité générale du modèle.
L’application de ce procédé a conduit à une spécification à deux retards. Ce
choix est confirmé par le test du rapport de vraisemblance.
Tableau 11.6 : Critères d’information
Un modèle VAR à deux retards peut donc être considéré comme représentant
correctement les données. En conséquence, l’analyse sera menée à partir d’un
VECM(1).
170
niveau des variables. De même, si la constante est non contrainte dans le
modèle, cette spécification autorise la présence d’un trend linéaire dans le
niveau des séries.
171
En définitive, nous considérons qu’il existe une seule relation de cointégration
entre les quatre variables. Les résultats du test de la valeur propre maximale
(non reportés ici) sont en accord avec cette conclusion.
Y X Z1 Z2 @TREND(66)
β 1.000 -4.355 0.593 0.097 0.122
(-13.050) (4.829) (1.158) (12.678)
α -0.362 -0.048 -0.165 -0.534 -
(-5.861) (-1,239) (-0.708) (-1.773)
172
tendance linéaire revient à tester si le vecteur β ' = (1,0,0,0, β 5 ) fait partie de
l’espace de cointégration.
Les tests de ratio de vraisemblance reportent des p-values inférieures à 0.05. Par
conséquent, ces tests rejettent l’hypothèse de stationnarité des variables autour
d’un trend linéaire. Les résultats des tests de stationnarité dans un cadre
multivarié, où sont modélisées explicitement les interdépendances entre les
variables, sont donc cohérents avec les résultats des tests de stationnarité
effectués dans le cadre univarié.
Ce résultat peut s’expliquer par la forte colinéarité entre Z1 et Z 2 , qui interdit que
ces deux variables se retrouvent ensemble dans l’équation de long terme. Dans
ces conditions, nous éliminons Z 2 du vecteur des variables qui se présente alors
sous la forme X 't = (Yt , X t , Z1t ) . Le test de cointégration retient toujours l’existence
d’une relation de long terme au seuil de 5%. L’estimation de la relation de
cointégration contrainte ne comportant pas la variable Z 2 conduit au tableau
suivant :
173
Tableau 11.11 : Vecteur cointégrant normalisé et coefficients d’ajustement
Y X Z1 @TREND(66)
β 1.000 -5.080 0.920 0.149
(-8.682) (4.911) (8.825)
α -0.282 -0.041 -0.202 -
(-5.851) (-1.397) (-1.176)
174
Il ressort que les deux variables X et Z1 peuvent être considérées comme
faiblement exogènes. La seule relation de long terme est bien celle que nous
avons identifiée. En effet, le seul coefficient d’ajustement significatif est celui
de l’équation de Y. Ainsi, on peut mener une inférence valide sans perte
d’information à partir de l’équation de Y qui constitue le modèle conditionnel,
sans tenir compte des équations décrivant l’évolution des autres variables du
modèle (modèle marginal). Nous pouvons améliorer les propriétés statistiques
des estimations en contraignant à zéro les paramètres d’ajustement associés aux
variables faiblement exogènes (cf. tableau 11.14).
Y X Z1 @TREND(66)
β 1.000 -5.131 0.872 0.149
(-8.672) (4.603) (8.733)
α -0.264 0 0 -
(-5.860)
175
Deuxièmement, les relations estimées sont globalement stables. D’une part les
résidus récursifs (cf. figure 11.6) et d’autre part les tests CUSUM et CUSUM
carrés (cf. figure 11.7) ne révèlent pas de source d’instabilité apparente.
L’hypothèse de stabilité des paramètres ne peut être rejetée.
.1
.0
-.1
-.2
-.3
1975 1980 1985 1990 1995 2000
15
1.2
10
5
0.8
0
-5 0.4
-10
0.0
-15
-20 -0.4
1975 1980 1985 1990 1995 2000 1975 1980 1985 1990 1995 2000
176
d’appliquer le test de causalité. Lorsque les variables sont effectivement
cointégrées, l’analyse de la causalité se fait sur un modèle à correction d’erreurs.
Si nous considérons l’équation de court terme correspondant à la variable Y,
celle-ci s’écrit :
Z1 ne cause pas Y implique que les coefficients associés aux valeurs retardées de
Z1 ne sont pas significatifs dans l’équation 11.3. Or la variable Z1 apparaît à
deux niveaux : elle apparaît explicitement dans l’équation (11.3) comme une
variable explicative mais aussi dans le terme à correction d’erreurs eˆt −1 . En
conséquence, la non causalité de Y par Z1 implique que α 1 = 0 et π 1i = 0 ∀i . Dans
ces conditions, le test de causalité de Granger peut être décomposé en un test de
causalité à court terme ( π 1i = 0 ) et un test de causalité à long terme ( α 1 = 0 ).
177
estimations corrigées de VAR pour tenir compte d’éventuelles relations de
cointégration, sans pour autant étudier explicitement cette cointégration. Ce
faisant, ces techniques permettent, en un unique test, de valider l’existence d’une
causalité globalement sur le court et le long terme.
Nous allons faire le test de causalité de Granger en suivant les deux approches.
Pour réaliser le test de causalité de Granger à partir d’un VAR ou d’un VECM,
sélectionnez View/Lag Structure/Pairwise Granger Causality Test, comme cela
est indiqué par l’écran suivant :
178
Les résultats des tests sont synthétisés dans le tableau 11.15. L’approche
séquentielle indique une absence de causalité dans le court terme entre les
variables. Toutefois, à long terme, X et Z1 causent Y, mais ces deux variables ne
sont causées par aucune autre variable (exogénéïté faible). En suivant l’approche
de Toda et Yamamoto, il ressort que Y est causée par X et Z1 globalement à
court et long terme. En revanche, aucune variable ne cause X et Z1 . Finalement,
les deux approches nous conduisent au même résultat : l’exogénéïté forte des
variables X et Z1 .
Tableau 11.15 : Résultats des tests de causalité de Granger
Variable causale
Variable
dépendante Y X Z1
Procédure séquentielle ( χ (1) ) 2
Y - 0.2739 1.5530
(0.6007) (0.2127)
X 0.4751 - 1.2843
(0.4906) (0.2571)
Z1 0.5842 0.7350 -
(0.4446) (0.3913)
Procédure non séquentielle de Toda et Yamamoto ( χ 2 (2) )
Y - 13.1709 7.0807
(0.0014) (0.0290)
X 1.4795 - 0.9279
(0.4772) (0.6288)
Z1 0.6478 3.1063 -
(0.7233) (0.2116)
Note : Les statistiques reportées sont les Chi-deux. Les valeurs entre parenthèses sont les
p-values.
179
La causalité donne une indication sur la direction de la causalité statistique entre
deux variables, mais ne fournit pas d’indication sur la force relative de la
causalité. Il convient donc de la compléter par une analyse impulsionnelle et une
décomposition des variances, afin de fournir des indications quantitatives
précises quant aux sens des causalités.
Pour simuler les réponses des variables suite aux chocs d’innovations,
sélectionnez View/Impusle Response. On peut aussi cliquer sur l’onglet impulse
dans la fenêtre des estimations. Dans les deux cas, on obtient l’écran suivant :
180
Figure 11.8 : Fonctions de réponses impulsionnelles
.16 .05
.12
.04
.08
.03
.04
.02
.00
-.04 .01
1 2 3 4 5 6 7 8 9 10 1 2 3 4 5 6 7 8 9 10
Z1 X Z1 X
181
Tableau 11.16 : Décomposition des variances
A. Variance de Y
Période S.E. Z1 X Y
1 0.254827 0.613089 17.62773 81.75918
2 0.388316 0.641081 57.36698 41.99194
3 0.503388 1.005631 74.53227 24.46210
4 0.603747 1.399534 83.76505 14.83541
5 0.693236 1.688256 88.36011 9.951631
6 0.774547 1.902735 90.99851 7.098756
7 0.849513 2.061493 92.59286 5.345644
8 0.919399 2.182246 93.62614 4.191612
9 0.985099 2.275845 94.32755 3.396609
10 1.047265 2.349892 94.82441 2.825701
B. Variance de X
Période S.E. Z1 X Y
1 0.044253 14.35170 85.64830 0.000000
2 0.075861 25.89619 73.79617 0.307636
3 0.101697 31.90699 67.75932 0.333687
4 0.123032 36.20714 63.46015 0.332713
5 0.141014 39.62782 60.06370 0.308482
6 0.156567 42.48217 57.23663 0.281199
7 0.170337 44.92698 54.81869 0.254332
8 0.182772 47.05055 52.71925 0.230206
9 0.194184 48.91212 50.87878 0.209097
10 0.204790 50.55444 49.25467 0.190892
C. Variance de Z1
Période S.E. Z1 X Y
1 0.071903 100.0000 0.000000 0.000000
2 0.106245 98.63608 0.885160 0.478758
3 0.151929 98.67440 0.937412 0.388188
4 0.200892 98.84997 0.787065 0.362961
5 0.250954 99.07145 0.614673 0.313877
6 0.300646 99.23189 0.493523 0.274587
7 0.349144 99.32684 0.433363 0.239801
8 0.396071 99.36489 0.423938 0.211168
9 0.441236 99.36142 0.451203 0.187377
10 0.484593 99.32986 0.502435 0.167703
182
Annexes
Les données qui ont servit aux applications sont reportées ici afin de permettre
au lecteur de s’exercer à reproduire les résultats. Elles sont également
disponibles sur demande auprès de l’auteur à l’adresse yayakeho@yahoo.fr.
183
Tableau A2 : Données de l’exercice N°1 (Modèle de Klein)
184
Tableau A3 : Données de l’exercice N°2
Année X Y Z1 Z2
1965 27.7629437151 30.750881717 29.6515985155 30.4497705681
1966 27.8724916966 30.8245577784 29.7771343888 30.4310615008
1967 27.9174474002 30.9407612463 29.9080331278 30.3907757952
1968 28.0356592155 31.0634997145 29.8362072409 30.4592448188
1969 28.1267716798 31.2330080421 29.9808777825 30.5187670591
1970 28.2254854356 31.3626102422 30.204196056 30.8224416149
1971 28.3158437433 31.5555914693 30.3484706655 30.9067969375
1972 28.3573370798 31.7077792698 30.1680115506 31.0032064112
1973 28.4150322428 31.8607721084 30.3261860062 31.1258796602
1974 28.457395893 31.9533702414 30.3031513816 31.0299151101
1975 28.5366956953 32.0935661786 30.7575391696 31.0878619734
1976 28.658173206 32.2111589 30.9044444278 31.2027535677
1977 28.7287663985 32.3937629974 31.105700755 31.4407934507
1978 28.832310355 32.4891877304 31.4238107665 31.624175858
1979 28.8559722887 32.5550316685 31.4438457539 31.4806550615
1980 28.7399137078 32.4476614263 31.1731561992 31.4573218798
1981 28.7743199323 32.5063334485 31.1265298057 31.5107860217
1982 28.7763261418 32.4926252191 31.0179828275 31.2060345841
1983 28.7365428092 32.4804736484 30.8419937716 30.8141132806
1984 28.7091585551 32.3041334312 30.0382374205 30.6990477235
1985 28.7531871601 32.2810430489 30.1769921462 30.9688322777
1986 28.7852607766 32.3076041362 30.0548219113 30.798572757
1987 28.7817649642 32.4177462422 30.3130441887 30.6679439618
1988 28.7930656891 32.4216071183 30.247932231 30.7686872748
1989 28.8221196007 32.3929973349 30.2041133719 30.239093948
1990 28.8111000211 32.4082757675 30.138943227 29.8900471356
1991 28.8115092004 32.3953157434 30.0949260439 30.0778316025
1992 28.8090605382 32.2766525052 30.1171988796 29.1794940429
1993 28.8072115392 32.2222289092 30.3947516803 30.3954050621
1994 28.8267601153 31.8268154168 30.4501135695 30.9837538633
1995 28.8939907443 31.908093846 30.5235737814 31.2452290263
1996 28.9681701425 31.7851361286 30.556409352 30.9443980468
1997 29.0236048493 31.8621965305 30.7176692811 31.218940959
1998 29.0704884352 31.8264565726 30.8698219991 31.0574668036
1999 29.0863617844 31.7417965606 30.5303318137 31.2701446673
2000 29.0630931575 31.787154042 30.0866811479 31.1222804945
2001 29.0540524128 31.820440485 29.6528033311 31.2664195954
2002 29.0360175895 31.7573130173 30.1854725274 31.021370434
185
Références bibliographiques
Banerjee A., Dolado J.J., Galbraith J.W. et Hendry D.F. (1993): Co-integration,
Error-correction and the Econometric Analysis of Non-Stationary Data, Oxford
University Press, Oxford.
Breusch T.S. et Pagan A.R. (1979) : «A Simple Test for Heteroscedasticity and
Random Coefficient Variation », Econometrica, Vol. 47, pp. 1287-1294.
186
Davidson R. et MacKinnon J.G. (1993): Estimation and Inference in
Econometrics, Oxford University Press.
Dejong D.N., Nankervis J.C. et Savin N.E. (1992): «Integration Versus Trend
Stationarity in Time Series», Econometrica, Vol. 60, pp. 423-433.
187
Granger C. et Newbold P. (1974): « Spurious Regressions in Econometrics »,
Journal of Econometrics, 2, 111-120.
Granger C. W. J. (1987): «Some Properties of Time Series Data and Their Use
in Econometric Model Specification», Journal of Econometrics, Vol. 16, No.1,
pp. 121-130.
188
Johnston J. et Dinardo J. (1999) : Méthodes Econométriques, 4e édition,
Economica.
Judge G.G., Carter Hill R., Griffiths W.E., Lütkepohl H. et Lee T.-C. (1988):
Introduction to theTheory and Practice of Econometrics, John Willey, New
York.
King R. G., Plosser C. I., Stock J.H. et Watson M.(1991): «Stochastic trends
and Economic Fluctuations», American Economic Review, Vol. 82, No.4, pp.
819-840.
Klein L.R. (1950): Economic fluctuations in the United States 1921-1941, John
Wiley, New York.
McKinnon J.G. (1991): «Numerical distribution functions for unit root and
cointegration tests», Journal of Applied Econometrics, Vol. 11, pp.601-618.
189
Newey W.K. et West K.D. (1987): «A Simple, Positive Semi-Definite,
Heteroscedasticity and Autocorrelation Consistent Matrix », Econometrica, 55,
pp. 703-708.
Perron P. (1989): «The Great Crash, the Oil Price Shock and the Unit Root
Hypothesis», Econometrica, Vol. 57, n° 6, pp. 1361-1401.
Phillips P. C.B. et Perron P. (1988): « Testing for a Unit Root in a Time Series
Regression », Biometrika, 75, pp. 335-346.
190
Toda H.Y. et Yamamoto T. (1995): «Statistical inference in vector
autoregression with possibly integrated processes», Journal of Econometrics,
Vol. 66, pp. 225-250.
Urbain J.P. (1992): «On Weak Exogeneity in Error Correction Models», Oxford
Bulletin of Economics and Statistics, 54, pp.187-207.
Wickens M.R. et Breusch T.S. (1988): «Dynamic specification, the long-run and
the estimation of transformed regression models», Economic Journal, 98,
pp.189-205.
191