Vous êtes sur la page 1sur 64

Cours d’économétrie 2003 1 Gérard Grellet

ECONOMETRIE

Gérard GRELLET
Cours d’économétrie 2003 2 Gérard Grellet

L'économétrie peut être définie comme l'application des méthodes statistiques à l'étude des
phénomènes économiques .Plus précisément la démarche économétrique comporte trois
étapes :

1) Construire un modèle testable qui soit justifié par la théorie économique et qui puisse
être vérifié statistiquement ;

2) Estimer les paramètres du modèle ;

3) Vérifier que les écarts entre les observations et les résultats théoriques du modèle ne
sont pas systématiques .

Historique

Premiers développements

Les tentatives de modélisation à partir de données empiriques ont une longue histoire que
l'on peut faire remonter aux " Political Arithmeticians " anglais du XVII ème siècle et
auxquels sont attachés les noms de William Petty , Gregory King et Charles Devenant .
Gregory King chercha par exemple à établir une loi entre d'une part les déficits des récoltes
de blé et d'autre part les variations du prix du blé . A partir du XVIII ème et surtout du XIX
ème siècle les économistes tentèrent d' établir des lois économiques à l'instar des lois de la
physique newtonnienne . Ce projet fut mené en termes scientifiques par Moore puis par
Schultz , Lenoir , Tinbergen et Frisch entre 1914 et 1938 . Les deux grands axes de recherche
furent alors l'estimation d'une loi de demande ( ce qui conduisit au problème de
l'identification ) et celle des cycles économiques . Clément Juglar ( 1819 - 1905) fut le
premier à utiliser les séries temporelles pour analyser les cycles et fut suivit par Kuznets et
Kondratieff . Toutefois les théoriciens du cycle se limitèrent à l'étude de la périodicité du
cycle et ne s'attachèrent guère à celle de la quantification des relations causales sous jacentes.
Leur apport à l'économétrie est donc resté marginal.

La naissance de l'économétrie moderne

L'économétrie moderne est née à la fin des années 30 et pendant les années 40. Elle est la
résultante de trois phénomènes :le développement de la théorie de l'inférence statistique à la
fin du XIX ème siècle ; la théorie macroéconomique et la comptabilité nationale qui offrent
des agrégats objectivement mesurables ( contrairement à la microéconomie fondée sur
l'utilité subjective ) ; enfin, et surtout , la forte demande de travaux économétriques, soit de la
part d'organismes publics de prévision et de planification , soit de la part d’entreprises qui
ont de plus en plus besoin de modéliser la demande et leur environnement économique
général. A partir des années 60 l'introduction de l'informatique et des logiciels standardisés
va rendre presque routinière l'utilisation de l'économétrie .
Cours d’économétrie 2003 3 Gérard Grellet

En simplifiant de façon sans doute abusive l'on peut distinguer deux grandes périodes de la
recherche économétrique moderne . Jusqu'à la fin des années 70 l'économétrie va étudier la
spécification et la solvabilité de modèles macroéconomiques à équations simultanées . Puis à
la suite de ce que l'on a appelé la révolution des anticipations rationnelles et de la critique de
Lucas, la recherche se tournera davantage vers la microéconomie et l'analyse des séries
temporelles .

Les modèles économétriques d'équations simultanées

La plus grande partie de la recherche économétrique américaine ( effectuée pour une large
part au sein de la Cowles Commission ) entre 1944 et 1960 porta sur les conditions
d'estimation des modèles macroéconomiques d'équations simultanées comportant un élément
aléatoire . En 1939 Tinbergen construisait un modèle des cycles économiques comportant 31
équations de comportement de 17 identités . Chacune des équations était estimée au moyen de
la méthode des moindres carrés , ce qui , nous le verrons ne pouvait conduire qu'à des
estimations inconsistentes . En 1944 Haavelmo posait les conditions générales de solvabilité
. Entre 1945 et 1950 Klein présentait ses premiers modèles dont la solution était obtenue par
la méthode du maximum de vraisemblance . En 1949 Koopmans déterminait les conditions de
solvabilité dans le cas d'un modèle linéaire . En 1954 Theil introduisait la méthode des
doubles moindres carrés permettant des calculs effectifs . Toutefois la généralisation des
modèles économétriques à équations simultanées utilisée pour des modèles prévisionnels se
heurta pendant longtemps au manque de moyens informatiques . Le premier modèle utilisé à
des fins prévisionnelles fut celui de Klein - Goldberger en 1955. D'autres modèles suivirent à
la fin des années 50 , en particulier celui de la Brookings Institution. Avec l'avancée des
techniques informatiques les années 60 et le début des années 70 virent une éclosion de
modèles macroéconomiques jouant un rôle important dans la prévision . Le modèle dit de
Brookings comprenait ainsi 400 équations . Aprés 1970 furent commercialisés des modèles
standards comme celui dit de Wharton . La stabilité relative de l'environnement économique
jusqu'en 1974 leur assura un certain succès .

L'analyse de la régression

L'importance des moyens consacrés à la résolution des problèmes d'identification laissa


quelque peu dans l'ombre la recherche sur la corrélation . Le principal obstacle théorique
était le traitement de l'autocorrélation des résidus aléatoires . En 1950 Durbin et Watson
élaboraient leur célèbre test . Les années 50 virent d'autre part l'apparition de modèles à
retards échelonnés avec les travaux de Koyck , d'Almon , de Cagan et de Friedman .

La révolution des anticipations rationnelles et la remise en cause des modèles


macroéconométriques

Les années 70 furent celles de la remise en cause radicale des modèles


macroéconométriques élaborés pendant les années 60 . Une des raisons vient de ce que
l'abandon du système de Bretton Woods puis le quadruplement du prix du pétrole
conduisirent à des bouleversements qui ne pouvaient être anticipés par les modèles
économétriques . Au niveau théorique il apparut rapidement que les modèles
macroéconométriques ne possédaient pas de fondations microéconomiques suffisamment
solides . En particulier Lucas montra dés 1972 que si les agents forment leurs anticipations
Cours d’économétrie 2003 4 Gérard Grellet

sur une base endogène à partir de leur expérience il n'est plus possible de considérer que les
coefficients structurels des modèles macroéconométriques restent inchangés . Ainsi toute
mesure de politique économique doit conduire à un changement dans le comportement des
agents tant au niveau de la consommation que de l'investissement . Ceci remet bien
évidemment en cause les modèles macroéconométriques traditionnels qui ne distinguaient
pas les paramètres expliqués par des causes structurelles de ceux expliqués par la réponse
aux mesures de politiques économique . Une estimation de ces deux types de paramètres a été
effectuée par Lucas et Sargent qui les obtinrent directement comme solutions de modèles
d'optimisation dynamique . Sur cette base la recherche économétrique des années 80 porta
sur les problèmes d'agrégation des préférences des agents , d'inégalité dans la répartition de
l'information et sur le processus d'apprentissage .

Vers une économétrie sans théorie ?

La critique de Lucas a ouvert la voie à des critiques plus radicales et a conduit certains
économètres comme Sims à dénier à la théorie toute pertinence dans l'estimation des
modèles . L'approche même en termes d'anticipations rationnelles est alors rejetée dans la
mesure où elle nécessite une connaissance à priori des délais. Plus fondamentalement les
modèles macroéconométriques reposaient sur une distinction entre variables "endogènes" et
"exogènes" . Cette distinction qui suppose une connaissance théorique à priori est rejetée.

Cette critique a conduit à retenir des modèles autorégressifs où n'existe pas à priori une
classification entre variables endogènes et exogènes . La question de l'utilité de tels modèles
reste toutefois controversée dans la mesure où ils ne fournissent pas une explication
structurelle de l'activité économique .
Cours d’économétrie 2003 5 Gérard Grellet

CHAPITRE I

LE MODELE CLASSIQUE DE REGRESSION LINEAIRE


Cours d’économétrie 2003 6 Gérard Grellet

I - 1 ) La droite de régression

Dans ce chapitre nous chercherons à déterminer une relation linéaire entre une ou plusieurs
variables explicatives (ou exogènes) et une variable déterminée ( ou endogène) à partir d'un
ensemble de n observations temporelles .

Nos observations sont partielles et constituent un échantillon (que nous supposerons ici
représentatif) de l'ensemble des observations.

Il s'agit donc d'estimer des coefficients à partir d'un échantillon aléatoire.

Par exemple si nous avons une seule variable expliquée Y(t) et une seule variable
explicative, X(t), nous chercherons à déterminer si la relation entre ces deux variables peut
être estimée par une relation linéaire de type:

(1-0) Y(t) = c(1) + c(2)* X(t) , t= 1, … , n

où le signe * est signe de multiplication.

les coefficients c(1) et c(2) devant être estimés à partir de n observations (voir graphique
1-1).Cette droite est dite " droite de régression".Remarquons que sur le graphique 1-1 les 10
observations peuvent être considérées comme un échantillon représentatif du nombre infini
des observations possibles dans la mesure où nos observations sont effectuées à intervalles
réguliers dans le temps.

Les coefficients c(1) et c(2) sont déterminés de façon à ce que la relation (1-1) minimise la
somme des écarts entre les valeurs observées Y(t) et les valeurs Y(t) données par la droite de
régression. La droite de régression passe donc par le "milieu " des points observés ( voir
annexe 1).

Les écarts entre les observations et la relation (1-1) peuvent être expliqués par :

- des erreurs d’observation

- des variables explicatives qui ne sont pas inclues dans la relation (1-1) . Par exemple si
Y(t) représente la consommation et X(t) le revenu, l'on sait que d'autres variables peuvent
expliquer la consommation comme le temps qu’il fait , les modes , les possibilités
d’emprunt. Il faut supposer que ces autres variables explicatives ont chacune une
influence très faible car sinon il faudrait les inclure explicitement dans la relation (1-1).
Nous verrons dans le chapitre suivant comment déterminer si des variables explicatives
importantes ont été oubliées dans une fonction .

- des erreurs qui viennent de ce que la vraie relation n'est pas en fait linéaire .

Dans ces deux derniers cas l’on dit que la relation a été mal spécifiée.

Ces trois sources d'écart sont considérées ici comme aléatoires ( cette hypothèse sera
examinée au chapitre suivant). Nous désignerons leur somme par e(t) au temps t.
Cours d’économétrie 2003 7 Gérard Grellet

Nos observations seront donc considérées comme la somme de c(1) + c(2)*X(t) et de


l’élément aléatoire e(t).

L'analyse de la régression peut être facilement généralisée à n variables.


Cours d’économétrie 2003 8 Gérard Grellet

I - 2 ) Le problème des observations aberrantes

L'on observe quelquefois des observations "aberrantes" dues soit à une erreur grossière ( par
exemple une erreur de virgule ) soit à l'incorporation dans les données de cas exceptionnels .

Considérons par exemple le cas du graphique 1 – 2 . Sur ce graphique l’on constate deux
observations « aberrantes » , celles des années 1996 et 1997. Si nous les incluons dans nos
observations nous obtenons une droite de régression :

Y = 0.7 + 0.62 X

Par contre si nous ne les incluons pas notre droite de régression devient :

Y = 1.13 + 0.46 X

L’inclusion ou la non inclusion de certaines variables peut conduire à des résultats


significativement différents. Dans ce cas il convient de s'assurer que les observations
"aberrantes " ne proviennent pas d'une erreur de mesure . Si tel n'est pas le cas l'on peut
chercher à comprendre les raisons de l'apparition de ces cas exceptionnels et faire deux
régressions, l'une sans , l'autre avec ces observations.
Cours d’économétrie 2003 9 Gérard Grellet

I – 3 ) La prise en compte des variables qualitatives explicatives

Par données qualitatives il faut entendre les données qui n'ont pas d'échelle de mesure mais
que l'on peut classer en catégories.

Certaines de ces données sont sans ambiguïté comme le lieu de naissance ou le sexe mais
d'autres doivent être considérées avec précaution comme les critères sociaux souvent
arbitraires . Nous supposerons ici que toutes les variables qualitatives peuvent être classées
en deux catégories comme par exemple le fait de voter oui ou non à une élection ,d'être
français ou non, d'appartenir ou non aux moins de vingt ans, etc..

L’on peut alors à tester si l'appartenance à un groupe "qualitatif" entraîne une différence
objective sur la variable déterminée.
Cours d’économétrie 2003 10 Gérard Grellet

Une variable qualitative qui peut prendre deux valeurs est appelée variable binaire ( ou
quelquefois variable muette ou encore variable auxiliaire ). Par exemple l'on peut chercher à
savoir si l'appartenance à l'un ou l'autre sexe entraîne une différence significative de salaire .
L'on crée alors une variable binaire qui prend la valeur 1 pour les salariés masculins et 0 pour
les salariés féminins .

L'on aura donc le modèle suivant :

Y(i) = c(1) + c(2)*X(i) + e(i)

où Y(i) est le revenu du nième salarié et où X(i) est une variable binaire .

Dans cet exemple simple c(1) mesure l’espérance mathématique du revenu féminin et c(2)
l’espérance mathématique de la différence de salaire entre hommes et femmes . En effet :

E ( Y (i)) = c(1) si X(i) = 0 et c(1) + c(2) si X(i) = 1

Pour savoir s'il existe une différence significative entre salariés masculins et féminins il
suffit donc de tester si c(2) est significativement différent de 0. En fait les estimations de c(1)
et de c(2) obtenues par régression sont respectivement les revenus moyens des salariés
féminins et la différence entre les revenus moyens des salariés masculins et féminins .

Une autre application est d'étudier s'il existe une différence significative des paramètres
d'une fonction économique entre différentes périodes .Par exemple si nous considérons le
graphique (1-3) l'on peut :

- soit effectuer une régression générale sur les dix observations et l'on obtiendra une
estimation :
Y = c(1) + c(2)* X , t = 1, ...., 10

- soit considérer que les paramètres des cinq premières observations sont différents des
paramètres des cinq dernières observations .Dans ce cas l'on procédera à deux
estimations :
-
Y = c(1)' + c(2)'* X , t = 1, ..., 5
Cours d’économétrie 2003 11 Gérard Grellet

Y = c(1)" + c(2)" *X , t = 6, ..., 10

et l'on testera si c (1)' est significativement différent de c (1)" et si c (2)' est


significativement différent de c(2)"

Si tel était le cas il ne serait pas légitime d'effectuer une régression sur l'ensemble des
variables .
Cours d’économétrie 2003 12 Gérard Grellet

I - 4 ) La régression log log

La régression log log présente deux avantages:

- elle permet de rendre linéaire une relation non linéaire;


- elle permet de faire apparaître les coefficients de la droite de régression comme des coefficients
d'élasticité puisque : dlog y / dlog x = dy/dx / x/y

I - 5 ) L'intervalle de confiance des coefficients

Dans la relation 1 - 1 nous avons estimé un coefficient c(2) sur la base de n observations. La question p
être posée si ce coefficient est significativement différent de 0. Si tel n'était pas le cas il n'existerait pas
relation certaine entre les y(t) et les x(t).

Pour dire si c(2) est significativement différent de 0 il faut que la valeur 0 ne soit pas comprise à l'intéri
de l'intervalle de confiance construit autour de c(2) avec une probabilité d'erreur donnée.

Il n'est toutefois pas possible de calculer directement l'intervalle de confiance autour de c(2) puisque no
ne connaissons pas directement l'écart type de c(2). L'on peut toutefois estimer celui ci mais il faut alors
utiliser une loi de Student à n-2 degrés de liberté pour les valeurs tabulaires t associées à des probabilité
données. L'on peut ainsi montrer que l'intervalle de confiance autour de c(2) est :
1
 ∑ ( y − yi ) /(n − 2)  2
c(2) ± tα   ou c(2) ± tα s
 ∑ ( xi − x )
2


où t est la valeur donnée par la table de Student avec n-2 degrés de liberté et une probabilité d'erreur
donnée.

Si la valeur 0 n'est pas comprise dans l'intervalle de confiance construit avec une probabilité donnée que
relation entre les x(t) et les y(t) peut être considérée comme significative, ce qui ne signifie toutefois pa
que les x(t) "déterminent" les y(t) ( voir p. )

L'on peut de façon équivalente calculer le t à partir duquel la valeur 0 serait incluse dans l'intervalle de
confiance soit c(2) +|t* s| = 0 ou c(2) / s = t

Si t > t alors la relation entre les x(t) et les y(t) peut être considérée comme significative à une probab
donnée .

En pratique l'on peut considérer que t = 2 pour n > 20.

I – 6 ) La régression dans E-view

1) Créer un fichier pour rentrer les données

File / New / Workfile


Quick / Empty group
Cours d’économétrie 2003 13 Gérard Grellet

Ou
Importer les données d'un tableur Excel ( auquel l'on a donné un nom ):
Procs / Import / Read Text / Excel / nom du tableur

Ou
Faire un copier coller dans le workfile avec le même nombre de lignes et de colonnes que
dans le tableur

2) Estimer les coefficients de la régression

Quick / estimate equation

Ou Object/ equation

L'on écrit le nom de la variable dépendante suivie de c ( la constante) et du nom des variables
explicatives.

Les variables suivies de (–1 ) , (-2) , (-3) etc … sont les variables retards. Exemple : fbcf(-1)

Pour écrire les logarithmes des données l'on fait précéder log du nom de la variable .
Exemple : log(fbcf) .

Rappelons que les coefficients d'une équation logarithmique sont les coefficients d'élasticité

Cliquer sur OK dans la boîte de dialogue .

L'estimation se fait en ajustant l'échantillon de façon à ne pas tenir compte des données
manquantes .

E-views donne le choix entre plusieurs techniques d'estimation . Dans une première approche
l'on peut se contenter de la méthode des moindres carrés ( "LS")

Résultats

L'on se bornera à ne considérer que les t de Student des différents coefficients ( significatifs
si t>2 )et le Durbin Watson ( qui doit être proche de 2 )
Exemple :

L’on cherche à estimer la relation , que l’on suppose linéaire , entre la consommation des
ménages français(CM) et le revenu national français (R) entre 1989 et 1998.

Ces données sont présentées dans le tableau suivant construit à partir de :

new / workfile ( indiquer que le tableau va de 1989 à 1998)


quick / empty group
Cours d’économétrie 2003 14 Gérard Grellet

Pour estimer la droite de régression l’on clique sur :

quick/estimate equation

L’on demande alors d’estimer la relation CM=c(1)+c(2)*R

L’on obtient alors :


Cours d’économétrie 2003 15 Gérard Grellet

La droite de régression est donc :

CM = 1316 + 0.33R

Remarquons que le Durbin Watson est très faible (0.8) ce qui signifie ici que la spécification
linéaire de la fonction n’est pas bonne ( voir chapitre suivant).
Cours d’économétrie 2003 16 Gérard Grellet

Annexe 1

La droite de régression

Soit un ensemble de n observations ( X(i) , Y(i)) , i = 1, …, n

L'analyse de la régression consiste à estimer les coefficients c(0) et c(1) d'une fonction
linéaire :

Y(i) = c(1) + c(2)* X(i) + e(i)

qui passe par le "milieu" des observations .

La méthode la plus couramment utilisée est la méthode dite des moindres carrés . Les
coefficients c(1) et c(2) sont définis en minimisant la somme des écarts e(i)_. L'on obtient
alors :
_ _
c'(2) = E ( x(i) – x ) ( y (i) – y )
_
E ( x (i) – x ) _
_ _
c'(1) = Y – c*(1) X

La droite de régression s'écrira donc :

Y = c'(1) + c'(2) X
Cours d’économétrie 2003 17 Gérard Grellet

CHAPITRE II

LA REMISE EN CAUSE DES HYPOTHESES

DU MODELE LINEAIRE CLASSIQUE


Cours d’économétrie 2003 18 Gérard Grellet

II – 1) Les hypothèses du modèle classique de régression linéaire

Le modèle classique de régression linéaire est fondé sur les quatre hypothèses suivantes :

1) La relation entre la variable endogène et la variable exogène est linéaire ;

2) Les variables endogènes observées possèdent un élément aléatoire e . Cet élément


aléatoire peut provenir par exemple de l'existence d'erreurs non systématiques d'observations
ou du fait de la non prise en compte de certaines variables, en particulier de variables dont
l'influence sur la variable endogène n'est pas systématique .

Dans le modèle classique de régression linéaire l'on suppose de plus que :

i) l'espérance mathématique des éléments aléatoires est nulle :

E(e)=0

ii) la variance de l'élément aléatoire est constante ( hypothèse d'homoscédasticité)

iii) les éléments aléatoires sont statistiquement indépendants soit

E ( e (i). e ( j ) ) = 0 , ∀ i et j

iv) les éléments aléatoires sont distribués suivant une loi normale . Cette dernière hypothèse
est justifiée par le théorème central limite .

Ce caractère aléatoire des erreurs constitue une hypothèse fondamentale du modèle


classique . Elle est justifiée si les erreurs n'ont pas un caractère systématique . Ceci suppose
que le modèle de régression n'ait pas oublié une variable explicative importante . C'est cette
hypothèse d'une loi de distribution statistique autour des vraies valeurs estimées qui va
permettre de faire des estimations des paramètres du modèle d'ajustement .

3) Les variables exogènes sont certaines . Elles ne comportent donc pas d'élément aléatoire.

4) Les variables exogènes sont non corrélées entre elles .

Nous examinerons dans ce chapitre la remise en cause de cinq de ces hypothèses du modèle
classique de régression linéaire :

1) l'indépendance dans le temps des éléments aléatoires ;

2) la constance dans le temps de la variance des éléments aléatoires ;

3) le caractère non stochastique des variables exogènes ;


Cours d’économétrie 2003 19 Gérard Grellet

4) la non corrélation des différentes variables exogènes;

5) la constance des coefficients du modèle

II - 2 ) La remise en cause de la première hypothèse : Les résidus sont auto - corrélés

Quand les éléments aléatoires sont corrélés entre eux l'on a :

e (t) = z e(t-1) + u(t) où u(t) est un élément aléatoire d'espérance statistique nulle mais
où z est significativement différent de 0 .

Graphiquement le problème de l'auto-corrélation des éléments aléatoires peut être représenté


sur le graphique (2-1) .

Si les observations sont représentées par des croix le modèle de régression peut conduire à
l'estimation de la fonction Y = c(1) + c(2)* X . Or cette relation peut être fausse si les e
suivent la loi suivante :

pour X< a , e >0

a <X < b , e < 0

X > b , e> 0

Pour mesurer l'auto - corrélation des éléments aléatoires l'on peut effectuer un test visuel
soit utiliser le test de Durbin Watson

Pour une taille d'échantillon donnée et pour un nombre donné de variables explicatives la
table des d du test de Durbin Watson donne deux valeurs critiques d (l) et d (v).

- si d (l) < d < d (v) le test n'est pas concluant


- si d < d (l) il existe une auto - corrélation positive entre les éléments aléatoires
- si d > d (v) l'on peut considérer que n'existe pas d'auto - corrélation positive

Ce test est inapplicable au modèle à retards échelonnés.

En pratique l'on peut considérer que n'existe pas d'auto-corrélation positive entre les résidus
si d> 2 . En cas de doute l'on peut chercher à visualiser le comportement des e(t).
Cours d’économétrie 2003 20 Gérard Grellet

D'où vient l'autocorrélation entre les éléments résiduels ? Elle peut naître de deux causes :

- la mauvaise spécification de la fonction

- l'omission d'une variable significative .

a) La mauvaise spécification de la fonction .

Supposons comme sur le graphique (2-1) que nous ayons estimé une relation FF non
linéaire par une relation ff linéaire . L'on constate alors que les écarts sont distribués
systématiquement au dessus puis en dessous puis à nouveau au dessus de la relation linéaire

b) L'omission d'une variable significative ou l'inclusion d'une variable non significative


Cours d’économétrie 2003 21 Gérard Grellet

Supposons que le "bon" modèle soit :

Y' = c(0) + c(1)*X + c(2) *Z + u

mais qu'il soit estimé par une fonction de type:

Y = c(0)+ c(1)* X + v

Dans ce cas les résidus ne sont plus distribués de façon aléatoire autour de Y mais reflètent
le comportement de Z. Les conséquences de l'omission de Z sont alors :

1) un biais dans l'estimation des paramètres

2) des erreurs dans l'estimation de la variance de X

Comment décèle-t-on l'omission d'une variable significative ?

L'auto - corrélation des résidus n'est pas une preuve suffisante puisque nous venons de voir
qu'elle peut provenir de la mauvaise spécification de la fonction . C'est pourquoi l'on l'on
comparera les taux de régression avant et après l'inclusion d'une nouvelle variable soit
Ra(ncien) et Rn(ouveau) . L'on calculera alors :

(Rn - Ra ) / nombre de paramètres de l'ancien modèle (m)


F = ------------------------------------------------------------------------
( 1 - Rn) / nbr d'observations (N)- nbr de paramètres dans le
nouveau modèle (k)

F est donné par la table de Fisher Snédécor . Si la valeur de F est supérieure à la valeur de F
tabulaire au niveau de signification de 5% avec pour degrés de liberté m au numérateur et
( N - k ) au dénominateur l'on peut retenir l'hypothèse que le modèle originel est mal spécifié.
Cours d’économétrie 2003 22 Gérard Grellet
Cours d’économétrie 2003 23 Gérard Grellet

II - 2 La remise en cause de la seconde hypothèse : l'hétéroscédasticité

L'on dira que l'élément aléatoire connaît une hétéroscédasticité quand sa variance présente
de larges écarts dans le temps. Il existe alors un biais important dans l'estimation des
paramètres puisque toutes les observations n'ont pas le même poids dans l'estimation de Y.
Les observations dans les périodes où la variance est élevée ont davantage de poids que les
observations dans les périodes où la variance est faible.

L'hétéroscédasticité peut être forte dans le cas de phénomènes d'apprentissage .

Pour déceler l'existence de l'hétéroscédasticité l'on utilisera soit un test visuel soit le test de
Goldfield - Quandt .

a) Le test visuel

Sur le graphique (2-2) l'on constate une variance décroissante avec le temps . Ce test doit
être utilisé avec précaution dans la mesure où la série est courte .

b) Le test de Goldfield - Quandt

Dans le cas d'une régression de Y par rapport à X on calcule les régressions pour le
premier et le dernier quart de la série soit :

Y = c (1) + c (1)* X pour le premier quart


Y = c(2) + c (2)*X pour le dernier quart

On calcule ensuite la somme des carrés des résidus pour les deux régressions soit :
S C R (1) = ∑ e1 et S C R (2) = ∑ e 2
2 2

or S C R (1) / S C R (2) obéit à une loi de Fisher à n - 2 degrés de liberté .

n = nombre total d'observations - nombre d'observations omises - 2 ( nombre de paramètres


estimés )

Si F dépasse le F tabulaire au niveau de signification de 5% alors l'hypothèse


d'hétéroscédasticité peut être retenue.`

Ce test suppose toutefois que nous puissions séparer la série en deux parties : l'une avec une
variance faible et l'autre avec une variance élevée .

c) Que faire en cas d'hétéroscédasticité ?

L'on peut diviser les observations de Y par leur écart type de sorte que quand l'écart type
est élevé la pondération est faible. Cette procédure est disponible sous E – view .
Cours d’économétrie 2003 24 Gérard Grellet

II - 4 : Le non respect de la troisième hypothèse : la multicolinéarité

La multicolinéarité peut être définie comme l'existence d'une relation linéaire entre les
variables indépendantes. Elle suppose donc l'existence d'une relation linéaire telle que :

c(1) *X(1) + c(2)* X(2) +...... + c(n)* X(n) = 0


Cours d’économétrie 2003 25 Gérard Grellet

Quand n'existent que deux variables exogènes la multicolinéarité peut être décelée en
calculant directement les coefficients de corrélation entre les deux variables .L'on peut ainsi
considérer qu'un coefficient de corrélation supérieur à 0.9 ou 0.8 indique une très forte
association linéaire et donc une colinéarité . Dans le cas où le modèle comporte plus de deux
variables , par exemple si :

Y= c(0)+ c(1)*X (1) + c(2)*X(2) + ... + c(n)* X(n)

l'on testera n équations :

X (1)= - c(2)/c(1)* X (2) - ... - c(n)/c(1)* X (n)

X (2)= - c(1)/c(2)* X (1) - ... - c(n)/c(2) *X (n)

...........................................................................................

X (n)= - c(1)/c(n) X (n)- .... - c(n-1)/c(n)* X (n-1)

Si les variables sont fortement corrélées il devient très difficile de déterminer leur influence
respective sur la variable dépendante . En d'autres termes pour que celle ci soit décelable il
faut que dans l'échantillon chaque variable indépendante ait un comportement indépendant.

Statistiquement la multicolinéarité conduit à une très large indétermination des paramètres


et donc à de très grands intervalles de confiance. Elle se traduit par la non robustesse des
coefficients estimés – en ajoutant ou en retirant une variable l'on modifie considérablement
les coefficients des autres variables explicatives. Toutefois la multicolinéarité n'entraîne en
elle même aucun biais dans l'estimation des coefficients. Elle a les mêmes conséquences qu'un
petit nombre d'observations. Elle n'est donc pas très gênante pour effectuer des prédictions
globales.

Pour éviter la multicolinéarité il est nécessaire de ne travailler qu'avec un nombre réduit de


variables explicatives que nous savons indépendantes les unes par rapport aux autres ce qui ,
malheureusement , appauvri le modèle .

II - 5 Le non respect de la quatrième hypothèse : Les variables indépendantes sont elles


mêmes des variables stochastiques

Les variables explicatives peuvent être elles mêmes des variables stochastiques soit parce
que la mesure de la variable est sujette à erreur soit parce que la variable est elle même
dépendante d'une variable aléatoire .

Par exemple dans le cas de la relation :

Y=c(0)+c(1)*X + e

X peut être stochastique parce que sa mesure repose sur une estimation statistique sujette à
des erreurs non systématiques . Deux estimations différentes effectuées simultanément
peuvent alors donner des résultats différents . Mais X peut également être stochastique parce
Cours d’économétrie 2003 26 Gérard Grellet

qu'il dépend d'un élément aléatoire :

X = c'(0) + c'(1)* Y + e'

Dans ces différents cas l'on ne peut savoir dans quelle mesure la différence entre la valeur
observée de la variable endogène et la valeur donnée de cette variable par la régression est
due à une erreur sur la variable explicative ou au caractère aléatoire de la variable dépendante.

L'on constate sur le graphique (2- 3) que les valeurs possibles de Y sont comprises dans une
ellipse et non sur une droite.

Il est facile de comprendre que si une variable explicative est stochastique, les estimations
de c(0) et de c(1) vont souffrir d'une large indétermination.

Pour aussi fréquent que soit le problème des variables explicatives stochastiques
l'économètre reste mal armé pour le résoudre de sorte qu'il a souvent tendance à passer le
problème sous silence . Ce n'est que dans les cas les plus graves qu'il utilise la méthode des
variables instrumentales .

La méthode des variables instrumentales est simple dans son principe et difficile dans son
application .

Le principe est de remplacer une variable stochastique par une variable non stochastique
dite "instrumentale" fortement corrélée avec la variable . Par exemple si la récolte de blé peut
être considérée comme une variable stochastique l'on peut chercher à la remplacer par un
indicateur pluviométrique si l'on sait par ailleurs que la corrélation est forte entre les
fluctuations de la production céréalière et celles de la météo.

Plus précisément l'on dira qu'une variable Z est instrumentale si :

1) la corrélation entre Z et e est nulle quand la taille de l'échantillon augmente ;

1) la corrélation entre Z et X n'est pas nulle quand la taille de l'échantillon augmente .


Cours d’économétrie 2003 27 Gérard Grellet

Une telle procédure pose toutefois deux problèmes .

En premier lieu il n’est pas toujours possible de trouver une telle variable instrumentale ;

En second lieu l'utilisation des variables instrumentales conduit à des estimations


consistantes mais ne garantit pas des estimations non biaisées.
Cours d’économétrie 2003 28 Gérard Grellet

Nous reprendrons le problème des variables instrumentales au chapitre III.

II-6 Le non respect de la cinquième hypothèse : les coefficients du modèle ne sont pas
invariants dans le temps

Sur le graphique 1-3 l'on peut penser que la relation Y = c(1) + c(2)*X(t) recouvre en fait
deux relations différentes:

une relation :Y = c (1)’ + c(2)’*X ( t ) pour t < t *

et une relation Y = c(1)'' + c(2)’’ *X ( t ) pour t > t * .

Afin de tester une telle possibilité l'on utilisera soit des variables muettes soit le test de
Chow . Ce dernier est effectué en calculant :

F = SRC (5) / k
SRC (4) / (N(1) + N(2) - 2 k )

Si SRC(1) est la somme des résidus au carré de la régression sur l'ensemble de la période ;
SRC(2) celle sur la première période ; SRC(3) celle sur la seconde période , alors SRC(4) est
défini comme la somme de SRC(2) et SRC(3) et SRC(5) comme la différence entre SRC(1) et
SRC(4) ; k est le nombre de paramètres à estimer ; N(1) est le nombre d'observations de la
première période ; N (2) le nombre d'observations de la seconde période . L'on compare alors
le F ainsi obtenu avec le F tabulaire , calculé avec un degré de confiance donné , un degré de
liberté égal à k au numérateur et égal à N(1) + N(2) - 2k au dénominateur . Si le F calculé
excède le F tabulaire l'on peut rejeter l'hypothèse que les deux régressions sont identiques .

II – 6 ) La pêche miraculeuse à la bonne régression

La pratique économétrique se borne trop souvent à tester différents modèles à partir d'un
ensemble de données et à sélectionner celui qui possède le meilleur t de Student , le meilleur
R et le meilleur coefficient de Durbin Watson . Nous allons tenter de montrer pourquoi une
telle pratique est en fait très insatisfaisante .

Prenons par exemple la recherche d'un modèle permettant d'expliquer la consommation


macroéconomique . Plusieurs modèles théoriques s'offrent à l'économètre comme :

- une explication par le revenu courant et une constante soit :

(1) C(t) = c(1) + c(2) *Y(t) + e(t)

- une explication par le revenu courant et la valeur de la consommation de la période


précédente soit :

(2) C(t) = c(1) + c(2)*Y(t) + c(3)*C(t-1) + e(t)


Cours d’économétrie 2003 29 Gérard Grellet

- une explication par la valeur moyenne du revenu courant sur les quatre dernières périodes
d'observation soit :

(3) C(t) = c(1) + c(2)*(( Y(t) + Y(t-1) + Y(t-2) + Y(t-3) )/4)) + e(t)

- une explication par le revenu courant et la valeur des actifs financiers soit :

(4) C(t) = c(1) + c(2) *Y(t) + c(3) *A(t) +e(t)

Supposons que nous testions ces quatre modèles et que nous trouvions :

(1) C(t) = 10.5 + 0.82 *Y(t) R_= 0.71


(3.2) (2.2)

(2) C(t) = 12.2 + 0.78 *Y(t) + 0.31 * C(t-1) R_= 0.81


(2.3) (3.1) (1.8)

(3) C(t) = 12.8 + 0.68*( Y(t) + Y(t-1) + Y(t-2) + Y(t-3) ) / 4 ) R_ = 0.85


(4.2) (4.1)

(4) C(t) = 14 + 0.61*Y(t) + 0.2 *A (t) R_= 0.66


(3.1) (3.05) (2.1)

Nous serions tentés de choisir le troisième modèle comme le meilleur . En fait une telle
procédure reste très ambiguë .

Considérons tout d'abord le critère du R_ . Nous avons vu que la méthode des moindres
carrés permet de fournir des estimations des paramètres en minimisant la somme des résidus
au carré . Il en résulte que l'introduction d'une nouvelle variable explicative réduit la somme
des résidus au carré même si cette nouvelle variable est faiblement corrélée avec la variable
expliquée L'on peut corriger partiellement cette difficulté en calculant le coefficient de
corrélation ajusté (CCA) avec :

CCA 2 = 1 - N - 1 ( 1 - R 2 )
-----------------------
N-n

où N est le nombre d'observations et n le nombre de variables .

Toutefois même CCA 2 ne peut être utilisé pour effectuer une sélection entre différentes
régressions . En effet supposons que nous voulions tester si l'addition d'une variable
supplémentaire X ( k + 1 ) donne un CCA 2 (k +1) significativement meilleur que CCA 2 ( k ) .
Ceci revient à tester si :

F = CCA 2 ( k + 1 ) - CCA 2 ( k ) .( N - n - 1 )
----------------------------------------------------
1 - CCA 2 ( k + 1 )

est significativement supérieur au F tabulaire . L'on constate qu'en manipulant N et n l'on


peut toujours obtenir un F significatif même si l'augmentation de CCA 2 n'est pas elle même
Cours d’économétrie 2003 30 Gérard Grellet

significative . D'autre part le test F suppose ici que le coefficient de corrélation est une
variable stochastique. Or nous ne connaissons pas à priori la distribution des R 2 qui de toute
façon ne peuvent être supposés identiques pour des modèles différents .

Considérons maintenant le critère du t de Student . Supposons que nous fassions la


régression d'une variable Y(t) sur des séries de n valeurs arbitraires d'une variable X(t) , soit

Y(t) = c(1) +c (2)* X (t)


.
L'on peut s'attendre à ce que le t de Student associé à c(2) ne soit pas significatif .
Toutefois si nous régressons Y(t) sur un grand nombre de séries X (t) prises au hasard il
existe une probabilité qu'un certain pourcentage de ces séries présente un coefficient c(2)
avec un t significatif , par exemple 5 sur 100 séries . Or il serait parfaitement absurde de
sélectionner parmi ces cinq résultats le coefficient qui a le t de Student le plus élevé . En
d'autres termes plus le nombre de variables potentielles rejetées est élevé par rapport au
nombre de variables préalablement sélectionnées , moins le résultat est significatif . Ce biais
est quelquefois appelé " biais de Lovell " . .

Le t de Student n'a donc pas la même signification selon qu'il résulte du test d'un seul
modèle ou de la sélection d'un modèle parmi beaucoup d'autres ... ce qu'omettent
généralement de mentionner les auteurs des modèles économétriques .
Cours d’économétrie 2003 31 Gérard Grellet

CHAPITRE III

L’ ESTIMATION ECONOMETRIQUE DES MODELES STRUCTURAUX


Cours d’économétrie 2003 32 Gérard Grellet

Nous définirons ici les modèles structuraux comme les modèles à équations simultanées
dans lesquels une variable peut être exogène dans une équation et endogène dans une autre.

Par exemple le modèle dit de Phillips peut être décrit par les deux équations suivantes

3- 1 dw /dt = c(1) + c(2) dp / dt + c(3) dCh/ dt + u (t)

3-2 dp / dt = c(4) + c(5) dw / dt + c(6) dr / dt + c(7) dM / dt + e (t)

avec Ch : niveau de chômage


r : coût du capital
M : prix des matières premières importées
p : niveau des prix
w : niveau du taux de salaire

Un autre exemple est celui du modèle utilisé par le professeur Lawrence Klein au début
des années 50 pour étudier les fluctuations de l’activité économique américaine :

3 -3 C(t) = c(1) + c(2) P(t) + c(3) (W(t) + W’(t)) + c(4) P(t-1)+u(1)

3 -4 I(t) = c(5) + c(6) P(t) + c(7) P (t-1)+ c(8) K(t-1) + u(2)

3 -5 W(t) = c(9) + c(10) (Y(t) + T(t) - W’(t) ) + c(11) (Y(t - 1) + T (t-1) - W’(t-1) ) +
c(12) + u(3)

3 -6 Y(t) + T(t) = C(t) + I(t) + G(t)

3-7 Y(t) = W’(t) + W(t) + P(t)

3 -8 K(t) = K(t-1) + I(t)

où C représente la consommation , I l’investissement , G les dépenses publiques , P les


profits , W la masse salariale du secteur privé , W’ la masse salariale du secteur public , K
le stock de capital , T le montant des impôts , Y le revenu net , t le temps et où u(1) , u(2)
et u(3) sont des éléments stochastiques . c(1) ...c(12) sont des coefficients à déterminer à
partir des régressions .

Dans ce modèle existent six variables endogènes : C , I , W ,W’ , P et K et trois variables


prédéterminées :P(t-1) , K(t-1) et Y(t-1).

L’on remarque que des variables qui apparaissent exogènes dans une équation apparaissent
endogènes dans une autre équation et sont donc soumises à des variations stochastiques .
Par exemple dp/dt , exogène dans l’équation (3-1), est en fait une variable déterminée par
un élément stochastique dans l’équation (3-2) . De même dans l’équation (3-3),W
apparaît être une variable exogène alors que d’après l’équation (3-4) elle est en fait une
variable stochastique .Dans chacun de ces exemples est violée une des conditions
fondamentales du modèle classique , à savoir que les variables explicatives ne doivent pas
être aléatoires.
Cours d’économétrie 2003 33 Gérard Grellet

Pour résoudre ce problème nous utiliserons la méthode dite des « doubles moindres
carrés »

III – 1 ) La méthode des doubles moindres carrés

Dans cette procédure l’on remplace les variables explicatives stochastiques par leur
régression sur des variables non stochastiques dites « variables instrumentales ».
Par exemple dans notre exemple précédent l’on peut chercher à remplacer dp/dt dans
l’équation 3-1 par sa régression sur dr/dt et dM/dt qui joueront alors le rôle de variables
instrumentales . L’on aura alors :

dw/dt = c(1)’+ c(2)’( c(4)’+c(5)’(dr/dt)+c(6)’(dM/dt))+ c(3)’dCh / dt + u’(t)

(n.b. : remarquez que les coefficients c(1) , c(2) , c(3) , c(5) , c(6) sont différents de c(1)’,
c(2)’,c(3)’,c(5)’et c(6)’).

Les variables retards peuvent être utilisées comme variables instrumentales.

Résoudre un système d’équations simultanées avec la méthode des doubles moindres


carrés suppose de plus que soient respectées certaines règles :
• le système ne doit pas inclure d’identités : dans le modèle de Klein l’on ne considérera
que les équations 3-3, 3-4 et 3-5 .
• les équations doivent être indépendantes
• pour chaque équation la somme des variables instrumentales et des constantes doit être au
moins égale au nombre de variables endogènes figurant à droite de l’équation .

L’estimation simultanée si elle résout le problème des variables explicatives stochastiques


n’est pas sans créer de nouveaux problèmes. Tout d’abord il n’existe pas toujours de
variables instrumentales disponibles qui répondent à la double exigence d’être à la fois
non stochastiques et fortement corrélées avec la variable explicative stochastique. L’on
peut même dire qu’il s’agit d’exigences contradictoires. En second lieu toute erreur
d’estimation dans une équation se transmet aux autres équations puisque celles ci sont
interdépendantes. Dans ces conditions l’on peut être en droit d’effectuer des estimations
équation par équation ou tout au moins comparer les résultats de celles ci avec celles de la
méthode des doubles moindres carrés.

III-2 ) Estimer un système d’équations par la méthode des doubles moindres carrées avec
E–view .

Object/ new object : system

Ecrire les équations .


Si les variables instrumentales sont les mêmes pour toutes les équations l’on ajoute une ligne
débutant par « inst » suivie du nom des variables instrumentales :
Exemple : inst dM/dt dr/dt

Si les variables instrumentales sont différentes pour chaque équation l’on fait suivre chaque
équation de @ et du nom des variables instrumentales pour l’équation .
Cours d’économétrie 2003 34 Gérard Grellet

Donner un nom au système en cliquant sur « name »

Estimer en cliquant sur « estimate equation » .L’on choisira ici la méthode des doubles
moindres carrés (« TSLS »)

Exemple

L’on cherche à estimer le système suivant afin de modéliser la conjoncture algérienne :

ctr = c(1)+c(2)*rr

rr = c(3) + c(4)*fbcfr(-1) +c(5)*xr

xr = c(6) + c(7)*pp

fbcfr = c(8) + c(9)* (rr – rr(-1))

ctr représente la consommation totale réelle

rr le revenu total réel

fbcf la formation brute de capital fixe réelle

xr les exportations réelles

pp le prix du pétrole sur le marché mondial

à partir des données suivantes ( source : FMI)

Pour résoudre ce système dans Eviews à partir de ces données et en considérant que pp ,
fbcfr(-1) et rr(-1) sont variables instrumentales l’on ouvre :

objects/ new object/ system

puis l’on écrit le système


Cours d’économétrie 2003 35 Gérard Grellet

inst pp fbcfr(-1) rr(-1)

ctr=c(1)+c(2)*rr

rr=c(3)+c(4)*xr

xr=c(5)+c(6)*pp

fbcfr=c(7)+c(8)*(rr-rr(-1))

( l’on vérifiera que les conditions d’estimation de ce système sont remplies)

l’on clique alors sur « estimate « puis sur « two stages least squares » et l’on obtient :

( voir tableau page suivante)

Si les coefficients sont tous significatifs les statistiques de Durbin Watson ne sont pas
bonnes…ce qui n’est guère surprenant du fait du faible nombre de nos variables
explicatives.

Une fois le système estimé il faut lui donner un nom ( ici » sysalgeria »).

L’on clique sur Procs/Make Model/Solve/OK

puis sur View / endogeneous table

et l’on obtient :

__
_
Cours d’économétrie 2003 36 Gérard Grellet
Cours d’économétrie 2003 37 Gérard Grellet

Remarquons ici que ce tableau fait suivre chaque variable de « F » afin de ne pas confondre
la valeur de ces variables, solutions du modèle avec les valeurs historiques observées.
L’on comparera alors les variables solutions du modèle avec les variables observées afin
d’estimer la pertinence du modèle.

III - 3) Le modèle VAR

Dans un modèle VAR l’on ne se donne pas de modèle théorique à priori . Tout modèle
peut en effet être arbitraire si les variables apparaissent à la fois à la droite et à gauche
des équations et si nous n’avons pas de causalité .
Dans ce cas l’on peut chercher à régresser chaque variable endogène sur l’ensemble des
autres variables , endogènes et exogènes . Le modèle sera déterminé en ne retenant que les
coefficients significatifs .
Dans un tel modèle nous n’avons donc à effectuer aucune hypothèse théorique . Nous
devons seulement :
• choisir les variables endogènes et exogènes ;
• choisir le nombre de délais à considérer .

Par exemple si nous avons deux variables endogènes X et Y et une variable exogène Z et
deux délais notre modèle pourra s’écrire :

X = c(0) + c(1)X(-1)+c(2)X(-2)+c(3)Y+c(4)Y(-1)+c(5)Y(-2)+c(6)Z+c(7)Z(-1)+c(8)Z(-2)
Y=c(9)+c(10)Y(-1)+c(11)Y(-2)+c(12)X+c(13)X(-1)+c(14)X(-2)+c(15)Z+c(16)Z(-
1)+c(17)Z(-2)

Estimer un système VAR avec E-views

Quick/ Estimate Var


Pour créer un model à partir des coefficients estimés
Procs / make model

Exemple

A partir de nos données algériennes l’on obtient le modèle suivant en considérant que les
variables endogènes sont fbcfr et xr , que les variables exogènes sont pp et une constante
et qu’il existe deux retards :

III-5 ) La simulation

Une fois estimés les coefficients structuraux du système d'équations l’on obtient un
modèle .

Dans la mesure où ce modèle comporte n équations indépendantes il permet de déterminer


n variables endogènes à partir des variables prédéterminées .
Cours d’économétrie 2003 38 Gérard Grellet

L’on peut alors comparer les n variables endogènes ainsi obtenues à leurs valeurs
historiques .

L’estimation des coefficients d’un modèle structural permet également d’effectuer des
exercices de simulation .

III-6) La simulation dans E-view

1) System / Procs / Make model ( enregistrer sous un nom « Name


1) Ecrire le modèle . Ajouter une ligne « ASSIGN @ all F ». Cette commande assure que
toutes les solutions du modèle apparaissent sous leur nom suivi de F afin de ne pas les
confondre avec les valeurs historiques .
1) Solve / choisir « dynamic solution « et ne pas cocher « stop on missing data »
1) View / endogeneous table : les solutions du modèle apparaissent avec un F suivant
leur nom .
1) View / endogeneous graphs

Comparer les solutions du modèle aux valeurs historiques

NB . Le message « Near singular matrix « signifie que les équations du modèle ne sont
pas indépendantes.
Cours d’économétrie 2003 39 Gérard Grellet

CHAPITRE IV

LA CAUSALITE
Cours d’économétrie 2003 40 Gérard Grellet

Un des problèmes soulevés par les modèles structuraux est qu'ils ne nous donnent aucune
indication sur les relations causales entre les variables . Or le sens de la causalité économique
est un élément essentiel pour élaborer une politique économique ou pour effectuer des
prévisions .Ce chapitre sera consacré à l'estimation économétrique de la causalité.

Il faut commencer par définir le terme de causalité .Littré définit la causalité comme " la
vertu par laquelle une cause produit un effet " mais en ce sens il est impossible de mesurer la
causalité . Les économètres vont utiliser une autre définition plus spécifique de la causalité
due à Granger . L'on dira qu'une variable X(t) exerce une causalité au sens de Granger sur
une variable Y(t) si l'ensemble des variables passées de X soit X(t-1), X(t-2) ...permet
d'améliorer la prédiction de Y par rapport à une régression sur les valeurs passées de
Y(t-1),Y(t-2),... En d'autres termes l'on peut conclure que X(t) exerce une causalité au sens de
Granger sur Y(t) si dans la régression :

4 – 1 Y (t) = c(1) Y ( t – 1) + …..+ c(n)Y (t-n) + c(1)' X ( t – 1) + ….+c(n)' X ( t – n) +e (t)

les coefficients c'(i) , i = 1, …, n , sont significativement différents de 0 , c'est à dire si 4- 1


améliore la régression par rapport à 4-2

4-2 Y(t) = c(1)Y ( t – 1 ) + …+ c(n) Y ( t – n ) + e'(t)

Le test de Granger peut être utilisé pour étudier des relations entre deux variables X(t) et Y(t)
par exemple la masse monétaire et le P.N.B. nominal , l'investissement et le P.N.B. réels
etc...) quand on s'interroge sur le sens de leur relation causale .L'on estime alors les deux
régressions suivantes :

4-3 :

Y(t) = c(1)Y ( t – 1 ) +…+ c(n) Y (t – n ) + c(1)'X ( t – 1)+….+c(m)'X ( t – m) + u (t)

4- 4 :

X(t) = c(1)"X ( t – 1)+ …+ c(m)"X(t – m ) +c(1)'''Y ( t – 1 ) + c ( n )"' Y ( t – n ) +u'(t)

L'on choisit les valeurs de n et de m de façon à ce que les résidus aléatoires u(t) et u'(t) ne
soient pas corrélés .

Quatre cas sont alors possibles :

- si les coefficients c(i) , c(i)', c(i)", c(i)''' sont tous significativement différents de 0 la
causalité entre Y et X est bilatérale ;

- si les coefficients c(i)' et c(i)'''sont tous non significativement différents de 0 il n'existe pas
de lien de causalité entre X et Y ;

- si les coefficients c(i)' sont significativement différents de 0 alors que les coefficients c(i)'''
ne sont pas significativement différents de 0 la relation de causalité est de X à Y;
Cours d’économétrie 2003 41 Gérard Grellet

- si les coefficients c(i)' ne sont pas significativement différent de 0 alors que les coefficients
c(i)''' sont significativement différents de 0 la relation de causalité est de Y à X.

L'on peut bien évidemment prolonger l'analyse en distinguant la causalité instantanée de la


causalité retardée.

Le test de Granger n'est pas sans poser trois problèmes :

Il n'est d'abord pratiquement utilisable que dans le cas de deux variables même si
théoriquement l'on peut envisager le cas de plusieurs variables .

Il est possible que X et Y soient déterminés toutes deux par une troisième variable Z qui agit
avec des délais différents . L'observateur en conclura que X exerce une causalité au sens de
Granger sur Y. Par exemple la vente de glaces en août exerce une causalité au sens de
Granger sur la date des vendanges en octobre. Ces deux phénomènes ne sont bien
évidemment pas liés entre eux par une relation de cause à effet mais dépendent tout deux du
degré d'ensoleillement au mois d'août .

Enfin le test de Granger ne peut nous donner que des indications sur la causalité ex post et
non sur celle ex ante. En fait nous ne pouvons guère utiliser l'estimation de relations causales
dans le passé comme guide par la politique future dans la mesure où un changement de
politique peut produire un changement structurel et donc influer sur la nature des causalités .

La causalité dans E-views

Workfile/show/mettre le nom des variables

Group/view/Granger causality
Cours d’économétrie 2003 42 Gérard Grellet

CHAPITRE V

LES SERIES TEMPORELLES


Cours d’économétrie 2003 43 Gérard Grellet

Les séries temporelles peuvent être définies comme un ensemble d'observations ordonnées
dans le temps. En ajoutant une dimension temporelle il est possible d'expliquer les variables
endogènes non seulement par les variables explicatives présentes mais également par des
variables explicatives passées , en particulier par des valeurs passées de la variable
endogène.

Il existe deux grandes classes de séries temporelles : les séries auto - régressives et les
séries à moyenne mobile . Dans le cas des séries auto - régressives (AR) les seules variables
explicatives considérées sont les valeurs passées de la variable endogène. Les séries à
moyenne mobile (MA) sont fondées sur une moyenne pondérées des résidus antérieurs. L'on
peut bien évidemment combiner ces deux approches (séries ARMA) .

Les séries temporelles peuvent être utilisées pour résoudre deux types de problèmes : celui
de l'auto-corrélation des résidus et celui de la construction d’un modèle empirique sans
modèle théorique explicatif, soit parce que nous ne connaissons ou ne pouvons mesurer les
variables explicatives, soit parce que les coefficients estimés sont entachés d'un degré
d'incertitude beaucoup trop élevé pour être utilisables à des fins prévisionnelles .

V- 1 L'utilisation d'une série autorégressive quand existe une auto-corrélation des résidus

Nous avons vu que quand existe une auto-corrélation des résidus ( DW << 2) les estimations
des coefficients sont biaisées .

Si nous ne parvenons pas à déterminer les raisons d'une telle auto-corrélation l'on peut
chercher à décomposer le résidu entre d'une part la relation d'auto-corrélation et d'autre part
le résidu véritablement aléatoire soit :

e = c(1) e(-1) + e'

où e = c(1)e(-1) représente la relation d'auto-corrélation des résidus et où e' est un résidu


aléatoire d'espérance mathématique nulle et tel que : E ( e' , e' (-k) ) = 0 pour tout k .

L'on vérifiera que c(1) est significativement différent de 0 et que les e' ne sont pas auto-
corrélés en calculant le DW.

S'il n'en est pas ainsi l'on calculera une fonction auto- régressive des résidus d'un ordre
supérieur par exemple :

e=c(1)e(-1)+c(2)e(-2)+e' (ordre 2)

e=c(1)e(-1)+c(2)e(-2)+c(3)e(-3)+e' (ordre3)

et plus généralement

e=c(1)e(-1) + …+c(n)e(-n) +e' (ordre n)

Pour calculer l'ordre n l'on peut recourir à la fonction d'auto-corrélation partielle qui montre le
Cours d’économétrie 2003 44 Gérard Grellet

gain obtenu sur le coefficient d'auto-corrélation en incluant la variable retard d'un ordre
supplémentaire . n est obtenu quand cette fonction n'apporte pas de gain significatif pour n+1.

Procédure sous E-view

View/ residual tests /correlogram

Le corrélogramme nous permet de déterminer l'ordre n (voir V-2)

L'on ajoute alors AR(n) dans les variables explicatives de la régression .

V-2 La modélisation empirique des séries

Il existe trois procédures courantes qui permettent de modéliser à partir d'un échantillon de
taille T des séries dont on ne connaît pas les variables explicatives mais dont on peut penser
qu'elles suivent des lois temporelles : l'auto-régression ( "autoregression" en abrégé AR) ,
l'intégration ("integration" en abrégé I)et la moyenne mobile ("moving average"en abrégé
MA). Nous ne considérerons ici que des séries stationnaires c'est à dire des séries qui ont une
moyenne constante et une covariance constante entre deux éléments séparés par k périodes
quelque soit k . Le cas des séries non stationnaires sera examiné au § V-2 -4

Bien évidemment toutes ces procédures peuvent être utilisées pour la modélisation des résidus
qui présentent une auto-corrélation.

V-2-1 : L'autoregression AR

Considérons par exemple le modèle :

( V-1 ) Y =c(1)+ c(2)* X + c(3)* Z

La prévision de Y va dépendre des estimations de c(0) , c(1) , c(2) et des valeurs données
aux variables exogènes X et Z ce qui peut conduire à une multiplication des erreurs . Par
contre avec une série dite auto - régressive l'on utilisera une régression de type :

( V-2 ) Y = c(1) + c(2)*Y(-1) + c(3)*Y(-2) + ... + c(n-1)*Y(-n)

Dans l'équation (V-2) , Y(-1)...Y(-n) sont connus ce qui réduit considérablement les
erreurs possibles sur les données.

Ceci explique que si une équation comme celle (V-2) ne repose sur aucune explication économique,
elle peut souvent conduire à de meilleures prédictions que celles de l'équation (V-1). L'on peut être
ainsi conduit à utiliser un modèle auto - régressif quand :

i) Il existe une réelle incertitude sur les variables causales en particulier quand la théorie
économique ne permet pas de spécifier de façon suffisamment simple le modèle structurel
sous-jacent

ii) L'on peut soupçonner l'existence d'un cycle économique


Cours d’économétrie 2003 45 Gérard Grellet

iii) L'objet du modèle est d'effectuer une prévision à court terme ;

iv) Il existe une série longue d'observations sur la variable à prédire .

L'on peut par exemple utiliser les modèles auto- régressifs pour l'étude du mouvement des
prix réels des matières premières dans la mesure où les séries disponibles sont longues , où le
nombre de variables explicatives est élevé et où l'on cherche à effectuer des prévisions à
court terme. Il serait par contre absurde d'utiliser de telles séries pour l'étude de l'inflation
pour laquelle le nombre de variables explicative est faible et pour laquelle l'on sait qu' il
n'existe pas de cycle .

Pour estimer une fonction d'auto – corrélation sous E – view il suffit de taper AR(n) comme
seule variable explicative d'une régression . Il est toutefois nécessaire de connaître au
préalable l'ordre n de la fonction AR(n).Pour cela l'on utilisera une fonction d'auto –
corrélation partielle ( ou corrélogramme) . Une telle fonction est construite à partir de la
séquence des coefficients d'auto - corrélation partielle qui mesurent la corrélation entre y et
y(-p) une fois pris en compte les effets de y(-1), y(-2)…,y(-p+1) .

Par exemple dans la régression :

y = c(0) + c(1) y(-1) + e

le paramètre c(1) est le premier coefficient d'auto-corrélation partielle

Dans la régression :

y = c(0) + c(1)y(-1) + c(2) y(-2) + e

Le paramètre c(2) est le second coefficient d'auto-corrélation partielle . Il mesure l'association


entre y(-2) et y une fois "enlevé" l'effet de y(-1) .

Pour choisir l'ordre p d'une fonction AR l'on choisira donc c(p) tel que c(p) soit
statistiquement différent de 0 mais ne soit pas statistiquement différent de 0 pour c(p+1) .

Comme nos observations peuvent être considérées comme un échantillon de la série nous ne
pouvons faire que des estimations des coefficients d'auto-corrélation partielle . Nous pouvons
toutefois faire l'hypothèse que ces coefficients sont distribués suivant une loi normale de
moyenne nulle et de variance 1/T si l'échantillon est suffisamment large . L'on peut alors
comparer la valeur du test statistique t = c(n) / (1/ (T) exp 1/2 ) avec la valeur critique 1.96
( approximée par 2) .L'on peut alors tester si le coefficient d'auto-corrélation l'hypothèse que
le coefficient d'auto-corrélation partielle est en fait nul. En pratique l'on retiendra cette
hypothèse si t est inférieur à 2.

Par exemple si nous estimons les trois modèles AR suivants à partir d'un échantillon de 100
observations .

AR(1) : y = -0.166 + 0.464 y (-1)

AR(2) : y = - 0.114 + 0.212 y (-1) + 0.493 y (-2)


Cours d’économétrie 2003 46 Gérard Grellet

AR(3) : y = -0.115 + 0.212 y(-1) + 0.498 y(-2) – 0.017 y (-3)

Les trois coefficients estimés d'auto-corrélation partielle sont : 0.464 , 0.493 , -0.017 ce qui
donne des valeurs du t statistique de 4.64 , 4.93 et –0.17 Seuls les deux premiers coefficients
d'auto-corrélation partielle sont supérieurs à 2 de sorte que l'ordre de notre fonction est 2 .

Exemple :

L’on cherche à modéliser l’évolution de l’indice du prix mensuel du café ( variable SERCAF)
de janvier 1992 à mai 2001. Notre série de 113 observations est présentée dans le tableau
V-1( source : FMI).
Il est difficile de construire un modèle théorique de cette série car l’évolution des cours du
café dépend d’un grand nombre de facteurs ( apparition de nouveaux producteurs , variations
climatiques, phénomènes spéculatifs, accords entre producteurs…) . Par contre l’on sait que
les cours du café obéissent à des cycles de sorte que l’on peut tester l’hypothèse que les prix
sont auto-corrélés.

Pour tester cette hypothèse l’on estime tout d’abord le modèle AR(1) soit :

SERCAF = c(1) + c(2)*SERCAF(-1)

L’on obtient :

_
Le t de c(2) est excellent : il existe donc une forte auto-corrélation d’un mois sur l’autre du
prix du café. Celle-ci explique l’existence d’une forte spéculation : quand un mouvement à la
hausse ou à la baisse se déclenche il existe une très forte probabilité statistique qu’elle se
prolonge le mois suivant .
_
_
Cours d’économétrie 2003 47 Gérard Grellet

__
Cours d’économétrie 2003 48 Gérard Grellet

L’on peut tester une auto-corrélation d’ordre 2 suivant le modèle :

SERCAF = c(1) + c(2)*SERCAF(-1) + c(3)*SERCAF(-2)cv vc vc vc xwc<vv

et l’on obtient :

_l’on constate que c(2) et c(3) sont très significativement différents de 0.

Plus généralement l’on peut effectuer le corrélogramme de notre série ( voir page suivante ) .
L’on constate que l’auto-corrélation est significative jusqu’à l’ordre 11 ( ce qui peut être
visualisé par le dépassement des traits en pointillé). En termes économiques les mouvements
de prix sont systématiquement orientés dans le sens de la hausse ou de la baisse sur des
périodes de 11 mois – celles qui séparent deux récoltes : il n’existe en effet qu’une récolte de
café par an et toutes les récoltes se font dans la zone intertropicale.

V-2 -3 Les modèles à moyenne mobile (MA)

Dans une série à moyenne mobile d'ordre q chaque élément y est généré par une moyenne
pondérée de l'ensemble des résidus aléatoires passés :

y = c(1) + e + c(2)*e (-1) + c(3)*e (-2) + ... + c(q+1)* e (-q)

A titre d'exemple l'on peut supposer que y représente la variation de prix journalière sur le
marché d'une matière première soumis à des chocs exogènes dénotés e soit :

y(t)= c(1) + e(t)

L'on peut toutefois penser que l'impact de ce choc exogène ne sera pas complètement
absorbé par le marché en une seule journée de sorte que l'on aura :

y(t+1) = c(1) +e(t+1) + c(2)* e(t)


Cours d’économétrie 2003 49 Gérard Grellet

où e(t+1) représente l'impact du choc exogène e(t) au temps t+1 et c(2) e(t) l'impact au temps
t+1 du choc exogène de la période t.

_
Nous supposerons que chaque élément aléatoire e(t), ..., e (t-q) a une espérance mathématique
nulle et une même variance .Par exemple un modèle à moyenne mobile d'ordre 2 que l'on
écrira MA (2) a pour équation :

y = e + c'(1) e(-1) + c'(2) e (-2)

De même que pour les modèles auto - régressifs il convient d' estimer l'ordre de la série .
Cours d’économétrie 2003 50 Gérard Grellet

L’ordre de la série

L'on peut montrer que le coefficient d'auto - corrélation d'un processus MA(q) est nul après
q délais . Il est donc possible d'identifier l'ordre q d'un processus MA en déterminant le délai à
partir duquel les auto - corrélations ne différent plus significativement de 0 . Toutefois nous
ne connaissons pas la véritable fonction d'auto- corrélation et celle ci doit être estimée à
partir d'un échantillon de T observations .Si le nombre T est suffisamment large les auto -
corrélations de l'échantillon sont distribuées suivant une loi Normale avec une moyenne
nulle et un écart type moyen égal à 1 / (T) exp 1/2 . L 'on peut donc tester à un niveau de
confiance donné , l'hypothèse que l'auto – corrélation d'un ordre q + 1 est nul en comparant
l'auto - corrélation obtenue dans l'échantillon avec les limites de l'intervalle de confiance .Si
cet intervalle de confiance ne comprend pas la valeur 0 alors l'on peut rejeter l'hypothèse que
ce coefficient d'auto – corrélation est nul .

Estimation des paramètres d'un processus MA (q) sous E - views

L'estimation des coefficients d'une fonction MA se fera en introduisant MA (q) comme seule
variable explicative dans une régression .

Exemple :
L’on cherche à modéliser un indice du prix du coton sur les dix principaux marchés
américains ( voir tableau page suivante ; source FMI)

L’on estime l’équation :

coton = c(1)+c(2)ma(1)+c(3)ma(2)

_
c(2) et c(3) sont significativement différents de 0

Remarque :

Le corrélogramme du coton montre qu’existe un cycle du coton comme il existe un cycle du


café. Toutefois il est beaucoup moins marqué car :
- le coton est plus facilement stockable que le café
Cours d’économétrie 2003 51 Gérard Grellet

- l’élasticité prix du coton est plus forte que pour le café


- le coton est produit dans les deux hémisphères.

V – 2 – 4 ) Les modèles à la fois autorégressifs et à moyenne mobile ( ARMA)

Il est possible de combiner les deux modèles précédents . Le modèle est dit alors ARMA et
a pour ordre
( p , q). Il peut être décrit par l'équation :

y = c(1) + c(2)*y (-1) + ... + c(p+1)* y (-p) + e + c’(1) *e(-1) + ... + c'(q)* e (-q)

Par exemple un modèle ARMA (1,1) sera décrit par :

y = c(1)+c(2)*y (-1) + e + c(3)*e (-1)

Comme le processus ARMA est une combinaison des processus AR et MA , la fonction


d'auto- corrélation reflète à la fois les caractéristiques des processus AR et MA.

E-views propose systèmatiquement d’inclure ARMA dans les régressions


Cours d’économétrie 2003 52 Gérard Grellet
Cours d’économétrie 2003 53 Gérard Grellet
Cours d’économétrie 2003 54 Gérard Grellet

CHAPITRE VI

LA COINTEGRATION
Cours d’économétrie 2003 55 Gérard Grellet

Dans une économie en croissance ou soumise à l’inflation la plupart des séries


macroéconomiques possèdent un trend temporel. Elles sont dites « non stationnaires » car
leur moyenne n’est pas constante dans le temps.

La corrélation entre deux séries non stationnaires s’avère souvent excellente sans qu’existe
pour autant une justification économique de cette corrélation . Leur corrélation ne naît que
parce qu’elles augmentent toutes deux dans le temps. Par exemple le PNB nominal de l’Inde
et celui de la France ont sur une longue période une très bonne corrélation sans que l’on
puisse dire que l’un dépend de l’autre.

Dans ce chapitre nous commencerons par définir et par tester la non stationnarité des séries
temporelles. Nous étudierons ensuite l’existence de relations stables entre les séries non
stationnaires.

VI – 1 ) Le test de stationnarité

Une série autorégressive :

y = c(1) + c(2)*y(-1) + e

est dite stationnaire si -1 < c(2) < 1

Si c(2) = 1 la série est dite non stationnaire

Si c(2) > 1 la série est dite explosive . Ce type de série n’est pratiquement jamais rencontré
par l’économiste.

Pour savoir si une série est stationnaire il faut donc tester si c(2) est significativement
différent de 1 ou , en posant c’(2) = 1 – c(2) , si, dans :

dy = c’(1) + c’(2) *y (-1) + e

c’(2) est significativement différent de 0 .

Malheureusement l’on peut montrer que la table de distribution du t de Student ne peut être ici
utilisée. Il faut utiliser pour ce test une table dite de Dickey-Fuller.

Le test de stationnarité peut être généralisé à une série autorégressive d’ordre n . L’on utilise
alors une table dite table de Dickey-Fuller augmentée.

Exemple :

L’on cherche à savoir si la production industrielle des pays de l’OCDE est ou non
stationnaire à partir de la série mensuelle suivante de janvier 1992 à mai 2001 ( source :
FMI)
Cours d’économétrie 2003 56 Gérard Grellet
Cours d’économétrie 2003 57 Gérard Grellet

Dans E-views l’on rentre la série puis l’on clique sur :

View/Unit root test/

L’on choisit alors comme test : Augmented Dickey – Fuller

Le tableau suivant apparaît :

L’ADF de la première ligne est de -1.373637 . Il est donc inférieur à toutes les valeurs
critiques. L’on ne peut donc rejeter l’hypothèse que les c’(i) soient en fait nuls et donc que les
c(i) soient en fait égaux à 1 , c'est-à-dire que la série soit en fait non stationnaire . La
production industrielle des pays de l’OCDE n’a donc pas stagnée entre 1992 et 2001.
Cours d’économétrie 2003 58 Gérard Grellet

VI – 2 ) La cointégration

L’étude de la cointégration permet de tester l’existence d’une relation stable de long terme
entre deux variables non stationnaires , en incluant des variables retards et des variables
exogènes .

Il existence plusieurs tests de la cointégration le plus général étant celui de Johanssen qui est
celui utilisé par E-views . Quelque soit le test retenu il n’a de signification que sur des séries
non stationnaires longues , supérieures à 100 observations.

Nous ne présenterons pas ici l’interprétation du test dans la mesure où E-views présente
directement les résultats sous forme normalisée.

Exemple :

Nous cherchons à savoir s’il existe une relation stable de long terme entre les variations
mensuelles de prix aux Etats-Unis et lles variations mensuelles de la masse monétaire
américaine M1 entre janvier 1992 et mai 2001(voir tableau page suivante . Source FMI)

Nous commençons par tester si les deux séries sont effectivement non stationnaires.

Le test de Johanssen s’effectue sous :

View/cointegration test

Le logiciel nous demande s’il existe un trend dans chaque série (nour répondons oui car nous
ne travaillons pas sur une série de la masse monétaire réelle : il existe donc une dérive
inflationniste), d’éventuelles variables exogènes (non) et le nombre de délais à prendre en
considération (nous prenons six délais car l’on peut considérer que l’impact de
l’augmentation de la masse monétaire sur les prix s’effectue dans les six mois).

Les résultats apparaissent sous la forme suivante :


Cours d’économétrie 2003 59 Gérard Grellet
Cours d’économétrie 2003 60 Gérard Grellet

Remarque : Les résultats sont présentés en différences , non en valeurs absolues.

Ces résultats s’interprètent de la façon suivante :

- il existe une seule relation de cointégration dans l’intervalle de confiance de 5% du test


de vraisemblance

- la relation normalisée est :

dp = 0.33 dm + 7528

( remarque : pour que la variable dépendante p soit normalisée il faut qu’elle soit dans
la première colonne de gauche de notre tableau de données)

En d’autres termes une hausse de 10% de la masse monétaire M1 conduit dans les six
mois à une hausse des prix de 3,3%.
Cours d’économétrie 2003 61 Gérard Grellet

CONCLUSION

La théorie économétrique a été élaborée dans les années 40 en supposant d'une part
que la théorie économique est capable de fournir des modèles directement testables et
d'autre part que la confrontation avec les données nous permet de rejeter ou d'accepter
sans ambiguïté une théorie.

Il s'agit , nous l'avons vu , d'une double illusion .

Tout d'abord les modèles théoriques sont loin d'être toujours utilisables par
l'économètre . En effet certaines variables ne sont ni directement observables ni
directement mesurables .D'autre part de nombreux modèles théoriques restent
insuffisamment spécifiés . Par exemple ils n'indiquent pas les délais à prendre en
compte . Enfin les théories économiques sont formalisées de façon trop générale pour
être testables ( comme la théorie walrasienne) soit sont construites sous l'hypothèse
"Ceteris Paribus" . Dans ce dernier cas nous ne pouvons savoir si la non
correspondance entre le modèle théorique et les observations proviennent de la
mauvaise spécification de la fonction ou bien d'un changement dans l'environnement du
modèle.

Les difficultés proprement statistiques ne sont pas moins réelles . Trop souvent les
données utilisées par l'économètre restent très approximatives - pour ne pas dire
fausses - ce qui rendent douteux les résultats obtenus ; D'autre part les méthodes
statistiques ne sont souvent justifiées que pour des séries très longues alors que
l'économiste ne dispose généralement que de séries courtes. Au reste pour des séries très
longues l'homogénéité des variables pose souvent problème .

Ces difficultés ne doivent pas cacher l'importance de l'économétrie dans l'analyse


économique contemporaine . S'il n'est souvent pas possible de rejeter une théorie
économique sur la seule base des résultats économétriques , les tests d'acceptabilité
statistique sont devenus des procédures routinières, d'autant que les programmes
informatiques sont aujourd'hui facilement disponibles. L'économétrie a du reste
contribué à modifier la théorie économique dans la mesure l'exigence de modèles
testables devient une condition d'acceptabilité dans les publications scientifiques .
Cours d’économétrie 2003 62 Gérard Grellet

BIBLIOGRAPHIE

• niveau facile ** niveau moyen *** niveau difficile

CHAREMZA W.W. et DEADMAN D.F. « New Directions in Econometric Practice »


Edward Elgar , 1992 (***)
CUTHBERTSON K. , HALL S.G. et TAYLOR M.P. « Applied Econometric Techniques »
Philip Allan 1992 (***)
DESAI M. « Testing Monetarism »Frances Pinter , Londres 1981(**)
DODGE Y. « Statistique . Dictionnaire Encyclopédique » Dunod , 1993 (*)
DOUGHERTY « Introduction to Econometrics » Oxford University Press 1992 (*)
ENGLE R.F. et GRANGER C.W.J. (eds) « Long Run Economic Relations : Readings in
Cointegration « Oxford University Press 1991 (***)
GHOSH S.K. « Econometrics » Prentice Hall 1991 (**)
GRANGER , C.W. J. et NEWBOLD P. « Forecasting Economic Time Series » Academic
Press , 1986 (***)
GRIFFITHS W.E. , HILL R.C. et JUDGE G.G. « Learning and Practicing Econometrics »
John Wiley & Sons 1993 (**)
GUJARATI D.N. « Basic Econometrics » Mac Graw Hill 1988 (*)
HARVEY « The Econometric Analysis of Time Series « Philip Allan 1990 (**)
JUDGE, G.G. , HILL, R.C. , GRIFFITHS W.E. , LUTKEPOHL H. et LEE , T.C.
« Introduction to the Theory and Practice of Econometrics « John Wiley & Sons , 1988 (**)
LUCAS R.E. « Economic Policy Evaluation : A Critique « in Brunner K. et Metzler A.M.
(eds) « The Phillips Curve and Labor Markets « Carnegie Rochester Conference Series on
Public Policy , vol. 1 , North Holland (1976)
MACKINNON , J.G. « Critical Values for Cointegration Tests « in R.F. Engle et C.W.J
Granger (eds) 1991.
PINDYCK S.R. et RUBINFIELD D.L. « Econometric Models & Econometric Forecasts «
Mc Graw Hill 1991 (**)
SALVATORE « Econométrie et Statistique Appliquées » Mc Graw Hill 1985 (*).
SIMS « Money Income and Causality « American Economic Review 1972 (**)
SIMS C.A. « Macroeconomics and Reality « Econometrica , vol .48, 1980 (***)
WONNACOTT T.H et R . J « Statistique « Economica 1988 (*)
WONNACOTT T.H et R.J « Econometrics » John Wiley 1979 (*)
Cours d’économétrie 2003 63 Gérard Grellet

TABLE DES MATIERES

Chapitre 1 Le modèle classique de régression linéaire

I – 1 ) La droite de régression

I – 2 ) Le problème des observations aberrantes

I – 3 ) La prise en compte des variables qualitatives explicatives

I – 4 ) La régression dans E – views

Annexe 1

Chapitre II La remise en cause des hypothèses du modèle linéaire classique

II – 1 ) Les hypothèses du modèle classique de régression linéaire

II – 2 ) La remise en cause de la première hypothèse : les résidus sont auto-corrélés

II – 3) La remise en cause de la seconde hypothèse : l’hétéroscédasticité

II – 4 ) Le non respect de la troisième hypothèse : la multicolinéarité

II – 5 ) Le non respect de la quatrième hypothèse : les variables explicatives sont elles mêmes
des variables stochastiques

II – 6 ) Le non respect de la cinquième hypothèse : les coefficients du modèle ne sont pas


invariants dans le temps

II – 7 ) La pêche miraculeuse à la bonne régression


Cours d’économétrie 2003 64 Gérard Grellet

Chapitre III L’estimation économétrique des modèles structuraux

III – 1 ) La méthode des doubles moindres carrés

III – 2 ) Estimer un système d’équations par la méthode des doubles moindres carrés avec E –
views

III – 3 ) Le modèle VAR

Chapitre IV La causalité

Chapitre V Les séries temporelles

V – 1 ) L’utilisation d’une série auto-régressive quand existe une auto-corrélation des résidus

V – 2 ) La modélisation empirique des séries

Chapitre VI La cointégration

VI – 1 ) Le test de stationnarité

VI – 2 ) La cointégration

Conclusion

Bibliographie