Vous êtes sur la page 1sur 108

Econométrie des séries

temporelles et des
données qualitatives

Amadou CISSE
1- Objectifs du cours
■ Présentation des techniques économétriques de
base : MCO

■ Exposer les développements récent : Théorie de


la cointégration et modèle MCE

■ Présentation de l’économétrie des données


qualitatives

■ Familiariser les participants avec l’utilisation du


logiciel EVIEWS
2
2 - Contenu du cours
■ Introduction à l’économétrie

■ Modèle de régression multiple

■ Les modèles à correction d’erreur

■ L’économétrie des données qualitatives

3
3 – Introduction
■ L’économétrie est une discipline fondée sur
l’application de méthodes statistiques et
mathématiques pour étudier et représenter
des phénomènes économiques.

■ Outil de mesure de l’économie, permettant de


fournir une base empirique aux modèles
économiques.

4
3 – Introduction (suite)
■ Outil essentiel de validation et d’analyse des
relations, postulées a priori, entre différentes
variables économiques.

■ Elle joue un rôle de plus en plus important


dans toutes les disciplines qui font recours à
des modèles, c’est-à-dire des représentations
mathématiques simplifiées de la réalité.

5
3.1 – Utilité de l’économétrie
■ Tester la théorie économique.

■ Construire des politiques économiques.

■ Prévoir les grandeurs économiques

6
- Tester la théorie économique
■ Tester le pouvoir explicatif des théories
économiques, notamment en ce qui
concerne le comportement des agents
économiques.

■ Soumettre à une validation empirique les


propositions théoriques.

7
- Construire des politiques économiques

■ Evaluation quantitative de l’impact des


mesures de politique économique.

■ Réaliser des simulations de politique


économique.

8
- Prévision
■ Deux approches pour la prévision
 l ’approche empirique fondée sur le
comportement intrinsèque de la grandeur
 l ’approche explicative permettant la prévision
de la grandeur à partir de l ’évolution d ’autres
variables
■ L’économétrie permet surtout de mettre en
œuvre l’approche explicative.

9
3.2 - Branches de l’économétrie

■ Econométrie des variables quantitatives

■ Econométrie des variables qualitatives

■ NB. Cette distinction ne signifie pas une absence


de relation entre les deux. Les variables qualitatives
peuvent être intégrées dans des modèles
quantitatifs et inversement.

10
3.2 - Branches de l’économétrie
■Econométrie des variables quantitatives
On distingue :
l’économétrie des séries temporelles
l ’économétrie des variables financières
(caractérisées par une grande volatilité de la
variance)
l ’économétrie des données de panel

■ Econométrie des variables quantitatives

11
3.2 - Branches de l’économétrie
Une équation Système
d’équations
Modèle non ARMA VAR simple
explicatif VAR structurels

Modèle MCO Equations


explicatif MCE simultanées
Panel Panel

12
4 – Modèle linéaire multiple
■ Notion de modèle.
■ Méthode d’estimation des coefficients
■ Les hypothèses des MCO
■ La solution
■ L’équation d’analyse de la variance
■ Inférence statistique (Tests Statistiques)

13
4.1 – La notion de modèle
■ Formalisation mathématique, sous forme
d’équations, d’un phénomène. C’est une
représentation qui cherche à approcher le
mieux possible la réalité et améliorer la
compréhension et l’explication des
phénomènes économiques.

■ Le modèle cherche à expliciter les relations


qui existeraient entre plusieurs variables
(nature et forme ) et ce, à partir des
hypothèses émises par le modélisateur
14
4.1 – La notion de modèle

■ Le modèle repose sur une théorie qui postule


l’existence de relations, ainsi que la nature de
celles-ci, entre différentes variables. Exemple,
les modèles Y = f(X)= a+bX et Y=f(X)=bXa
postulent tous les deux l’existence d’une
relation entre les variables X et Y

15
4.1 – La notion de modèle

■ Deux types de variable dans un modèle :


 une variable expliquée (aussi appelée variable
dépendante)
 une ou plusieurs variables explicatives (aussi
appelées variables indépendantes).

16
4.1 – La notion de modèle

■ Modèle univarié : décrit la relation entre deux


variables uniquement (une seule variable
explicative) ;
■ En revanche, lorsque le nombre de variables
explicatives est au moins égal à deux, le
modèle est dit multivarié.

17
4.1 – La notion de modèle
■ La nature de la relation entre les variables
économiques peut être de différentes formes,
mais les méthodes les plus couramment
utilisées reposent sur des relations linéaires ;

■ Modèle de régression linéaire simple : une


seule variable explicative. Il s’écrit de la forme
ci-après : 
Yt = a + bX t + ε,t t=1,2,…,n.

18
4.1 – La notion de modèle

■ εt : appelé perturbation, représente l’erreur de


spécification

■ Deux coefficients à estimer : a, qui représente


la constante, et b.

19
4.1 – La notion de modèle
■ Le modèle de régression linéaire comporte plus
d’une variable explicative. Il s’écrit de la forme
ci-après : 
Yt = β 0 + β 1 X 1t + β 2 X 2t + ..... + β k X k + ε t

t=1,2,…,n.
■ C’est un modèle à k variables explicatives
(indépendantes) X1, X2,…. et Xk

20
4.1 – La notion de modèle
■ Ce modèle comporte k+1 coefficients à
estimer :
β0 qui représente la constante ;
β1, β2, β3, …. et βk qui représentent
respectivement les coefficients des variables
X1, X2, X3,….. et Xk

■ Lorsque k=1, on retrouve le modèle de


régression simple
21
4.2 – Méthode d’estimation des coefficients

■ La méthode d’estimation la plus utilisée est


celle des Moindres Carrés Ordinaires (MCO)

■ D’autres méthodes : DMC, MVI, MCE etc

22
4.2 – Méthode d’estimation des coefficients

■ Le modèle
Y=Xβ+ε (1)

■ Le principe de la méthode des Moindres Carrés


Ordinaires repose sur la minimisation des
carrés des erreurs du modèle :
n
S= ∑
t=1
ε t2

23
4.2 – Méthode d’estimation des coefficients

■ Estimer le modèle (1), revient donc à déterminer β̂


solution du programme Min S (β ) = ε 'ε
β

■ Attention ! Pour résoudre ce programme il est


nécessaire d’émettre certaines hypothèses sur les
variables explicatives et le terme d’erreur.

24
4.3 – Les hypothèses des MCO
H1 : le modèle est linéaire en X et le nombre
d’observation n est supérieur au nombre de
variables explicatives, k (n>k)
H2 : les variables
 
X1, X2, X3,….. et Xk sont
observées sans erreur 
H3 : L’erreur est indépendante des variables explicatives
E ( X it , ε t ) = 0, ∀ t

25
4.3 – Les hypothèses des MCO
H4 : les variables explicatives sont non corrélées
entre elles. La matrice (X’X) est non
singulière, donc inversible
H5 : il existe une matrice non singulière Q tel que
 
1
lim X ' X = Q
n→ ∞ n

H6 : l’espérance mathématique de l’erreur est


nulle E ( ε t ) = 0 ∀ t

26
4.3 – Les hypothèses des MCO
H7 : les erreurs sont non corrélées (absence
d’autocorrélation des erreurs) :
E ( ε t , ε t ' ) = 0 ∀ t ≠ t'
H8 : la variance de l’erreur est constante
E(ε )=σ
 

(homoscédasticité) : t
2
ε
2
∀ t

NB : la combinaison des hypothèses 7 et 8 donne


E ( ε ε ') = σ ε
2
In

27
4.4 – La solution
■ Il s’agit de résoudre le programme (P1),
Min S ( β ) = ε ' ε
β

■ Les conditions du premier ordre : la solution est


telle que :
∂ S ( βˆ )
= 0
∂β
−1

⇒ βˆ = ( X 'X) X 'Y

28
4.4 – La solution
∧ ∧
■ Le modèle estimé : Y= Xβ

■ Le résidu du modèle : c’est l’écart entre les


observations et le modèle estimé, soit

e = Y − Yˆ

29
4.5 – L’équation d’analyse de la variance
■ L’équation d’analyse de la variance est
donnée ci-après :
n n n

∑t= 1
(Yt − Y)2 = ∑
t= 1
ˆ − Y)
(Yt
ˆ 2+

t= 1
e2t

SCT = SCE + SCR

La variance totale (SCT) est décomposée en une


variance expliquée (SCE) et une variance
résiduelle (SCR).
30
4.5 – L’équation d’analyse de la variance

■ La régression est d’autant plus bonne que la


variance expliquée est élevée.
■ Le coefficient de détermination R² permet
d’apprécié la qualité de la régression.

R² = SCE / SCT

31
4.6 – L’inférence statistique
■ L’application des MCO a permis d’estimer la
valeur approchée de β, mais elle ne permet
pas de connaître la valeur exacte de β car
celle-ci demeurera inconnue.
■ L’inférence statistique consiste à effectuer des
tests sur les estimations des éléments de β
■ Exemples
T1 : H0 : βi= b T2 : H0 : Rβ= r  
H1 : βi ≠ b H1 : Rβ ≠ r

32
4.6 – L’inférence statistique
■ Pour résoudre ces tests il faut une hypothèse
supplémentaire sur la loi de εt.

■ H9 : εt est une variable aléatoire normale : 

εt → Ν ( 0 ,σ ) ε
2

33
4.6.1 – Test de Student

■ C’est un test de type T1 avec b = 0 


H0 : βi = 0
H1 : βi ≠ 0.
■ Loi de probabilité de βˆi estimateur de βi : 


βˆ est un vecteur aléatoire normal
βˆi
❒ est une variables aléatoire normale

34
4.6.1 – Test de Student

■ Espérance de βˆi

■ βˆi estimateur sans biais de β i

 ∧ 
E β  = β
 
 ∧ 
⇒ E βi  = βi
 

35
4.6.1 – Test de Student
■ Variance de βˆi :

( X 'X)
−1
σ 2
βˆ
=σ 2
βˆ
⇒ σ 2
∧ =σ v 2
ε ii
βi

où vii est le i+1ème élément de la diagonale de


la matrice (X’X)-1.

⇒ βˆi → Ν (β i ,σ 2
βˆi ) et
βˆi − β i
σ βˆ
i
→ Ν ( 0 , 1)

36
4.6.1 – Test de Student

Problème : σ
2
■ est inconnue, comment
βˆi
faire de l’inférence

Solution : Déterminer l’estimateur de σ


2

βˆi

σ 2
∧ =σ v
2
ε ii ⇒ σˆ ∧ = σˆ ε vii
2 2
βi βi

37
4.6.1 – Test de Student
e 'e
■ Comme : σˆ =
ε
2
est un estimateur
n− k − 1
sans biais de σ ε
2

e 'e
donc σˆ ∧ = σˆ v =
2 2
ε ii vii
βi n− k − 1

38
4.6.1 – Test de Student

σˆ 2

(n − k − 1)
βˆi
→ χ 2
( n − k − 1)
σ 2
βˆi

βˆi − β i
⇒ → T (n-k-1)
σˆ βˆ
i

39
4.6.1 – Test de Student
βˆi
■ Sous l’hypothèse nulle, βi=0 ⇒
σˆ βˆ
→ T (n-k-1)
i

βˆi
On calcule t β*ˆ =
■ i
σˆ βˆ
i

α
■ t 2
On détermine n − k − 1 lue dans la table de
student
■ α représente le seuil (généralement α =5%)

40
4.6.1 – Test de Student

■ Règle de décision :

α
Si t > tn − 2k − 1 alors on rejette H0.
*

βˆi

Conclusion : βi est statistiquement non nul

41
4.6.2 – Test de Fischer
■ C’est un test de type T2 avec r = (0) et R=(1)
H0 : β1 = β2 = ····· = βk = 0
H1 : il existe au moins un i tel que βi ≠ 0.

■ La statistique de Fischer : 
SCE
SCE /k R²
F* = k = SCT = k
SCR SCR (1 − R ²)
( n − k − 1) SCT (/ n − k − 1) ( n − k − 1)

42
4.6.2 – Test de Fischer

■ Règle de décision :

α
Si F > F
*

lu alors on rejette H0.

Conclusion : le modèle est globalement


acceptable

43
4.6.2 – Test d’autocorrélation

■ Il s’agit de la violation de l’hypothèse 7

■ Rappel de l’hypothèse 7 : les erreurs sont non


corrélées ⇒ E ( ε t , ε t ' ) = 0 ∀ t ≠ t'

■ C’est un problème beaucoup plus fréquent


avec les séries temporelles.

44
4.6.2 – Test d’autocorrélation

■ Conséquences :
➾ la variance n’est plus minimale ;
➾ les t-stats sont sous estimés ;
➾ Peut fausser les résultats des tests de
student.

45
4.6.2 – Test d’autocorrélation
■ Comment détecter l’autocorrélation ?

■ Détection visuelle :
A partir des signes des résidus

■ Test d’autocorrélation :
Test de Durbin-Watson, test de Breusch-Godfrey
(LM-Test)

46
4.6.2 – Test d’autocorrélation

■ Détection visuelle :
i- Alternance de signes +/- : autoccorélation négative
+- +- +- +- +- +- +- ρ p 0

ii - Succession de signe + / -:
autocorrélation positive
++++--------++++++-------- ρ f 0

47
4.6.2 – Test d’autocorrélation
■ Comment tester l’autocorrélation ?
■ Deux cas à distinguer :

1. Autocorrélation d ’ordre 1

ε t = ρ 1ε t − 1 + vt (Test de DW plus fréquent)


2. autocorrélation d ’ordre p, supérieur à 1

ε t = ρ 1ε t − 1 + ρ 2ε t − 2 + ..... + ρ pε t − p + vt
(Breusch Godfrey – (LM-Test))

48
4.6.2 – Test d’autocorrélation
■ Cas d’une autocorrélation d’ordre 1
et = ρ et − 1 + vt
Test de student
H0 : ρ = 0

H1 : ρ ≠ 0
■ C’est un test peu performant : on lui préfère le
Durbin Watson

49
4.6.2 – Test d’autocorrélation
■ Test de Durbin-Watson
et = ρ et − 1 + vt
On effectue la régression puis on calcule n

Cov ( et , et − 1 ) ∑ et et − 1
ρˆ = = t= 2

V ( et ) n

∑t=1
et2− 1
n

∑e e t t −1
ρ
ˆ ; t =2
n

∑ t
e
t
2

50
4.6.2 – Test d’autocorrélation
■ Statistique de Durbin-Watson
n n

∑ (e + et − 1 ) ∑ (e + et )
2 2
t t+1
DW = t= 2
n
= t=1
n


t=1
2
e
t ∑
t=1
et2

n n n

∑ e 2
t ∑ e 2
t−1 ∑ et et − 1
DW = t=1
n
+ t= 2
n
−2 t= 2
n

∑ t=1
et2 ∑t=1
et2 ∑t=1
et2

51
4.6.2 – Test d’autocorrélation
■ Statistique de Durbin-Watson
DW = 1 + 1 − 2 ρˆ
 pour ρˆ → 1 , DW 0 (autocorrélation positive)
 pour ρˆ → − 1 , DW 4 (autocorrélation négative)
 pour ρˆ → 0 , DW 2 (pas d’autocorrélation)

ρ > 0 ρ = 0 ρ < 0
0 d1 ? d2 2 4-d2 ? 4-d1 4

52
4.6.2 – Test d’autocorrélation

■ Cas particulier : Endogène décalé (h de


Durbin)

Yt = a1Yt − 1 + β 0 + β 1 X 1t + ..... + β k X kt + ε t

n  2 − DW  n
h = ρˆ =  
1 − nσ aˆ1 
ˆ 2
2  1 − nσˆ a2ˆ1

53
4.6.2 – Test d’autocorrélation
■ LM-Test : Test de Breusch-Godfrey
ε t = ρ 1ε t − 1 + ρ 2ε t − 2 + ..... + ρ pε t − p + vt

■ Étape 1: Régression du modèle Y=Xβ+ε puis on


récupère les résidus.
■ Étape 2 : Estimer l’un des modèles ci-après
et = ( X β )t + ρ 1et − 1 + ρ 2 et − 2 + ..... + ρ p et − p + vt

Yt = ( X β )t + ρ 1et − 1 + ρ 2 et − 2 + ..... + ρ p et − p + vt

54
4.6.2 – Test d’autocorrélation

■ Étape 3 : Calculer la statistique de BG


( n − p) R 2
→ χ 2
p

■ Règle de décision :
Si ( n − p ) R > χ théorique on rejette H0
2 2

(Il y’a autocorrélation)

55
4.6.3 – Test d’hétéroscédasticité

■ Il s’agit de la violation de l’hypothèse 8

■ Rappel de l’hypothèse 8 : la variance de


l’erreur est constante ⇒ E ( )
ε t
2
= σ ε ∀ t
2

■ C’est un problème beaucoup plus fréquent


avec les données spatiales.

56
4.6.3 – Test d’hétéroscédasticité
■ Conséquence : ⇒ E ( ε t2 ) ≠ σ ε2 ∀ t
⇒ E ( ε ε ') ≠ σ ε
2
In

■ Causes de l’hétéroscédasticité

 présence d’éléments systématiques :


correction possible
 purement aléatoire : correction presque
impossible.
57
4.6.3 – Test d’hétéroscédasticité

■ Comment tester l’hétéroscédasticité ?


H0 : Homoscédasticité
H1 : Hétéroscédasticité

 Test de Goldfeld – Quandt


 Test de Glejser

58
4.6.3 – Test d’hétéroscédasticité

■ Test de Goldfeld – Quandt

 S’interesse aux extrémités du nuage de point


 C’est un test d’analyse de la variance

59
4.6.3 – Test d’hétéroscédasticité
■ Étape 1 : Diviser la population en deux sous
population, en excluant m observations
centrales. Taille de chaque sous-population
= (n-m)/2
■ Étape 2 :Régression sur chaque sous
population.
Sous population 1 donne SCR1
Sous population 2 donne SCR2

60
4.6.3 – Test d’hétéroscédasticité
■ Étape 3 : Calculer la statistique de Fischer
SCR1
n− m
− k−1  n − m − 2 ( k + 1) n − m − 2 ( k + 1) 
F =
* 2 → F ,
SCR 2 
 2 2 
n− m
− k−1
2

■ Règle de décision :
α
Si F *
> Flu alors on rejette l’hypothèse
nulle. Le modèle n’est pas homoscédastique.

61
4.6.3 – Test d’hétéroscédasticité
■ Test de Glejser
■ Étape 1 :Estimer le modèle Y=Xβ+ε puis on
récupère les résidus.
■ Étape 2 : Régression de la valeur absolue ou
des carrés des résidus sur l’ensemble des
variables explicatives
et = β 0 + β 1 X 1t + β 2 X 2t + ..... + β k X kt + ε t

et2 = β 0 + β 1 X 1t + β 2 X 2t + ..... + β k X kt + ε t

62
4.6.3 – Test d’hétéroscédasticité
■ Test de Glejser
■ Étape 3 : Test de student sur chaque
coefficient : S ’il existe au moins un coefficient
non nul, alors on rejette l’hypothèse
d’homoscédasticité. Le modèle est
hétéroscédastique.
■ Correction : Moindres Carrés Généralisés
(MCG).

63
4.6.4 – Test de stabilité
■ Test de Chow

■ Étape 1 : Diviser la population en deux sous


population, Taille de la sous-population 1 = n1
et taille de la sous-population 2 = n2.

■ Étape 2 : Estimer le modèle sur les deux sous-


populations, puis calculer SCR1 et SCR2.

64
4.6.4 – Test de stabilité
■ Test de Chow
■ Étape 3 : Calculer la statistique de Fischer
 SCR − ( SCR1 + SCR2 )  / ( k + 1)
F =
*
→ F ( k + 1, n1 + n2 − 2 ( k + 1) )
 ( SCR1 + SCR2 )  /  n1 + n2 − 2 ( k + 1) 

■ Règle de décision :
α
Si F > Flu alors on ne rejette pas
*

l’hypothèse nulle. Les coefficients du modèle


sont donc stables.
65
5 – Les modèles à correction d’erreur (MCE)

■ Notion de stationnarité.

■ Tests de racine unitaire

■ Tests de cointégration

■ Modèles à Correction d’erreur (MCE)

66
5.1 – La notion de stationnarité
■ Les méthodes d’estimation classique doivent
être appliquées sur des variables
stationnaires. Sinon, les propriétés
statistiques risquent de ne plus être valables.
Les statistiques de student ne suivent plus les
distributions standards.
■ Ceci accroît alors le risque d’accepter des
corrélations fortuites (spurious correlations)
comme vraies alors qu’elles n’ont aucun
fondement.

67
5.1 – La notion de stationnarité
■ De tels situations se présentent surtout
lorsque les régressions fournissent un R²
élevé et un DW proche de zéro (Phillips,
1986).
■ Ce résultat remet en question la pertinence
de l’application de l’économétrie sur des
variables non stationnaires.

68
5.1 – La notion de stationnarité
■ La validité de la méthode des MCO repose
sur un nombre important d’hypothèses dont
celle de Bruit Blanc faite sur les erreurs.
■ L’application des méthodes classiques de
l’économétrie sur des séries non stationnaires
peut conduire à un vecteur d’erreur ayant une
variance infinie, donc non stationnaire.

69
5.1 – La notion de stationnarité
■ Il est donc important de savoir dans quelles
conditions, et comment, est-il possible
d’appliquer les méthodes classiques à des
séries non stationnaires. Il est également tout
aussi important de pouvoir tester la
stationnarité des séries.
■ L’application des méthodes économétriques
doit toujours être précédée de l’étude de la
stationnarité des séries: test de racine
unitaire.

70
5.1 – La notion de stationnarité
■ Plusieurs études empiriques ont montré que
de nombreuses variables macroéconomiques
ne sont pas stationnaires. Elles possèdent
une racine unitaire et intégrées d’ordre 1
(Nelson et Plosser 1982, pour les USA).
■ Les séries économiques ont une tendance
intrinsèque à croître ou décroître au cours du
temps. Ainsi, elles intègrent une tendance qui
peut être systématique (déterministe) ou
aléatoire.

71
5.1 – La notion de stationnarité
■ La stationnarité est une notion statistique qui
traduit la stabilité ou la relative invariance
d’une série au cours du temps.
■ On dit qu’une série temporelle est
stationnaire du second ordre ou faiblement
stationnaire si son espérance et sa
covariance sont indépendantes du temps.
E ( Xt ) = µ ∀t
Cov ( X t , X t + k ) = γ ( k ) ∀ t et k
72
5.1 – La notion de stationnarité

❒ Exemple de série Stationnaire : Bruit Blanc


Un Bruit Blanc est un processus stationnaire de
moyenne et de covariance nulles.
E ( Xt ) = 0 ∀ t
et
γ (k ) = Cov ( X t , X t + k ) = 0 ∀ t et k
γ (k)  1 si k = 0
⇒ ρ (k) = = 
γ ( 0) 0 si k ≠ 0
73
5.1 – La notion de stationnarité

 Exemple de série non stationnaire : Marche aléatoire

Soit le modèle X t = X t − 1 + ε t avec ε t un Bruit Blanc

X t = X t− 1 + ε t = X t− 2 + ε t− 1 + ε t
= X t− k + ε t− k+ 1 + L + ε t− 1 + ε t

Ce processus présente une racine unitaire

74
5.1 – La notion de stationnarité

 Exemple de série non stationnaire : Marche aléatoire

 La variance de ce processus n’est pas constante et n’est


pas indépendante du temps. Il n’est donc pas
stationnaire.
 Une série présentant une racine unitaire n’est pas
stationnaire.
 Test de stationnarité = test de racine unitaire.

75
5.1 – La notion de stationnarité
 La tendance
 Les séries temporelles peuvent évoluer en
fonction du temps. Cette évolution peut être
déterministe ou aléatoire.
 Important d’identifier les composantes
déterministes et stochastiques de la série.
 Deux type de processus non stationnaires :
Trend Stationnary (TS) ou Differency
Stationnary (DS.

76
5.1 – La notion de stationnarité
 Processus TS
❒ Un processus TS est série non stationnaire de

type déterministe.
Si Xt est un processus TS, alors il peut s’écrire
comme suit : Xt=f(t)+εt, où f(t) est une fonction
du temps et εt un processus stationnaire.
❒ Exemple : Xt=a0+a1t+εt (1).

77
5.1 – La notion de stationnarité

 Processus TS

❒ Comment stationnariser ce type de processus


TS ?
 Estimer le modèle (1) puis retrancher â0+â1t de
Xt.

78
5.1 – La notion de stationnarité
 Processus DS
 Un processus DS est série non stationnaire de

type aléatoire.
 Comment stationnariser un processus DS ?
Application successive d’un filtre retard L,
comme suit : (1-L)dXt= β+εt (d = nombre de
retard)
 ε étant stationnaire
t
 L étant l’opérateur retard (LdX =X )
t t-d

Exemple si d=2, (1-L)2Xt=(1-L)(1-L)Xt=(1-L)(Xt-Xt-1)


=(1-L)ΔX = ΔXt-ΔXt-1
Amadou CISSE / Janviert 2006 79
5.1 – La notion de stationnarité
 Processus DS

❒ Le nombre de retard d, du processus DS


représente l’ordre d’intégration de Xt. Un
processus est dit intégré d’ordre d, s’il a fallu le
différencier d fois pour le rendre stationnaire.

❒ Généralement les séries économiques sont


intégré d’ordre 1 (d=1).
Le processus s’écrit alors :Xt=Xt-1+β+εt.
❒ C’est une marche aléatoire, avec dérive si β≠0
et sans dérive si β=0.
80
5.1 – La notion de stationnarité
 La persistance des chocs

❒ Les chocs se répercutent de façon permanente


sur les processus DS et transitoire sur les
processus TS.
❒ Un choc permanent dévie de façon définitive le
processus de sa tendance de long terme.
❒ Par contre un choc transitoire dévie de façon
temporaire le processus de sa tendance de long
terme. Le processus retrouve au bout d’un délai
plus ou moins long sa tendance de long terme.

81
5.1 – La notion de stationnarité
 La persistance des chocs

❒ Le délai d’absorption des chocs dépend du


degré de persistance de ceux-ci.
❒ Pour les processus TS, puisque le choc est
transitoire, ce délai est fini. Pour les processus
DS, le choc étant permanent, le choc n’est
jamais absorbé. Le délai est donc infini.
❒ Il est donc essentiel que tout travail
économétrique soit précédé d’une analyse de la
nature des séries afin de bien identifier la
méthode de stationnarisation.
82
5.2 – Les tests de racine unitaire

 Soit le processus Yt=αYt-1+εt (1)

 Si α=1, alors le processus est une marche


aléatoire et n’est pas stationnaire.

 Le test de racine unitaire porte alors sur le


coefficient α de Yt-1.
Il est de la forme :
H0 : α=1
H1 : α ≠1
83
5.2 – Les tests de racine unitaire
 Si l’hypothèse nulle est rejetée, alors le
processus est stationnaire.

 Toutefois, afin de simplifier le test, le modèle (1)


est modifié ainsi qu’il suit :
Yt-Yt-1=αYt-1-Yt-1+εt, soit ΔYt=ρYt-1+εt. Avec ρ=1-α

 Le test de racine unitaire est donc équivalent au


test ci-après, effectué sur ce modèle modifié :
H0 : ρ=0
H1 : ρ ≠0
84
5.2.1 – Le Test de Dickey-Fuller simple (DF)

 Dans la pratique, le test est effectué sur l’un des


trois modèles ci-après:

Modèle 1 : ΔYt=ρYt-1+εt.

Modèle 2 : ΔYt=a+ρYt-1+εt.

Modèle 3 : ΔYt=a+b.t+ρYt-1+εt.

85
5.2.1 – Le Test de Dickey-Fuller simple (DF)

 Il est alors conseillé de commencer par le


modèle (3) puis le modèle (2) au cas où le
coefficient b serait statistiquement nul (test de
student). Si la constante n’est pas significative
dans le modèle (2), alors on passe au modèle
(1).
 Règle de décision.
Elle est basée sur la table de DF. La statistique
de student ne suit plus la distribution standard.
Par conséquent elle est comparée aux valeurs
théoriques de la table de DF.

86
5.2.2 – Le Test de Dickey-Fuller Augmenté (ADF)
 Le test précédent supposait que dans le modèle
de base, εt est un bruit blanc, ce qui n’est pas
nécessairement vraie. Le test ADF ne fait plus
cette hypothèse et est effectué sur l’un des
modèles ci-après:
p

Modèle 1’ : ∆ Yt = ρ Yt − 1 + ∑
j= 2
∆ Yt − j + 1 + ε t
p

Modèle 2’ : ∆ Yt = ρ Yt − 1 + a + ∑j= 2
∆ Yt − j + 1 + ε t
p

Modèle 3’ : ∆ Yt = ρ Yt − 1 + a + bt + ∑
j= 2
∆ Yt − j + 1 + ε t

87
5.3 – Les tests de cointégration

■ Que faire en présence de racine unitaire ?

■ Il est possible d’appliquer les MCO à condition


que les variables soient cointégrées (MCE,
VECM).

■ D’où l’importance des tests de cointégration

88
5.3 – Les tests de cointégration
■ L’apport principal de la théorie de la
cointégration est de déterminer les conditions
dans lesquelles il est possible d’appliquer les
méthodes de l’économétrie classique sur des
séries non stationnaires
■ La théorie de la cointégration est apparue
récemment, au milieu des années 80, dans la
littérature. Elle fait suite aux travaux de Granger
et Newbold (1974).

89
5.3 – Les tests de cointégration
■ Définition
Soient (Xt) et (Yt) deux séries intégrées de
même ordre d.
Xt → I ( d )

Yt → I ( d )
■ On dit que X et Y sont cointégrées s’il existe un
vecteur (α,β) et un entier non nul b tel que la
combinaison linéaire Zt= αXt+βYt est intégrée
d’ordre d-b. Z ~ I(d-b).
90
5.3 – Les tests de cointégration
■ Définition (suite)
On dit alors que les séries Xt et Yt sont
cointégrés CI(d,b).
■ Le vecteur (α,β) est appelé vecteur cointégrant.
■ Cette définition peut être généralisé à un
nombre quelconque de variables (x1t, x2t, x3t, …
….) intégrées du même ordre d, mais attention !
dans ce cas le vecteur cointégrant n’est pas
forcément unique

91
5.3 – Les tests de cointégration
■ Définition (suite)
On dit alors que les séries Xt et Yt sont
cointégrés CI(d,b).
■ Le vecteur (α,β) est appelé vecteur cointégrant.
■ Cette définition peut être généralisé à un
nombre quelconque de variables (x1t, x2t, x3t, …
….) intégrées du même ordre d, mais attention !
dans ce cas le vecteur cointégrant n’est pas
forcément unique

92
5.3 – Les tests de cointégration
■ Dans le cas de deux séries cointégrées, le
vecteur cointégrant est unique. Cela signifie qu’il
n’existe qu’une seule combinaison qui gouverne
l’évolution des comportements des variables.
■ Dans le cas de plus de deux séries, il peut y

avoir plusieurs relations d’équilibre qui


gouvernent l’évolution des comportements des
variables.
NB. Le nombre maximal de relations de
cointégrations entre k variables est égal à k-1.
93
5.3 – Les tests de cointégration

■ Exemple, Cas particulier de séries CI(1,1)

■ Pour d=1, on dira que les variables X et Y sont


cointégrées si leur combinaison linéaire est
intégrée d’ordre 0, c’est-à-dire si elle est
stationnaire.

94
5.3 – Les tests de cointégration
■ Comment tester la cointégration CI(1,1)
■ Soient X et Y intégrées d’ordre 1.
■ X et Y sont cointégrées si la combinaison
Zt=αYt+βXt est stationnaire.
■ Tester la stationnarité de Zt= αYt+βXt, est
équivalente à tester la stationnarité des résidus
du modèle Yt=aXt+εt.
■ Yt=aXt+εt → εt= Yt- aXt comme Zt= αYt+βXt, le
test de stationnarité sur Zt correspond au test de
stationnarité d 95
5.3 – Les tests de cointégration
■ Comment tester la cointégration CI(1,1)
■ Yt=aXt+εt → εt= Yt- aXt
Comme Zt= αYt+βXt, le test de stationnarité sur
Zt correspond au test de stationnarité de εt avec
α=1 et β=-a.

■ Nous allons étudier deux types de test : le test


de Engle et Granger et le test de Johansen.

96
5.3 – Les tests de cointégration
■ Test de Engle
■ Procédure :
■ Étape 1 : Estimer le modèle Yt=aXt+εt, puis
récupérer les résidus e ;

■ Étape 2 : Effectuer le test de racine unitaire sur


les résidus e ;

Attention !! Utiliser la table de McKinnon plutôt


que la table de Dickey-Fuller.
Amadou CISSE / Janvier 2006 97
5.3 – Les tests de cointégration
■ Test de Engle

■ Si les résidus présentent une racine unitaire,


alors ils sont non stationnaires et les séries X et
Y ne sont pas cointégrées.

■ Si les résidus ne présentent pas de racine


unitaire, alors ils sont stationnaires les séries X
et Y sont cointégrées d’ordre 1 (X et Y CI(1,1)).

98
5.3 – Les tests de cointégration
■ Test de Engle

■ Le test de Engle permet de dire si des séries


sont cointégrées mais il ne permet pas de
déterminer le nombre de relations de
cointégrations, lorsqu’il est appliqué à plus de
deux variables.
■ Le test de Johansen s’applique à un nombre
quelconque de variable et permet de déterminer
le nombre de relations de cointégration.
99
5.3 – Les tests de cointégration
Test de Johansen : Généralisation du test de
cointégration à plus de 2 variables.
■ La méthode de Johansen consiste à tester une

succession d’hypothèses concernant les


relations de cointégration existant entre
plusieurs variables.
Rappel : Il y a au plus k-1 relations entre k
variables intgérées de même ordre.

100
5.3 – Les tests de cointégration
■ Le test de cointégration entre k variables, se fait
par succession d’hypothèses du type :
H0 : aucune relation de cointégration
H0 : au plus une relation de cointégration
… …… … … … ….
… …… … … … ….
H0 : au plus k-1 relation de cointégration

101
5.3 – Les tests de cointégration
■ Johansen propose cinq spécifications pour
effectuer ce test.
a) Absence de tendance linéaire dans les données
1. Absence d’une tendance linéaire dans les
séries et d’une constante dans les relations
de cointégration.
2. Absence d’une tendance linéaire dans les
séries mais présence d’une constante dans
les relations de cointégration.

102
5.3 – Les tests de cointégration
b) Présence d’une tendance linéaire dans les
données
3. Présence d’une tendance linéaire dans les
séries et d’une constante dans les relation
de cointégration.
4. Présence d’une tendance linéaire dans les
séries et d’une constante dans les relation
de cointégration

103
5.3 – Les tests de cointégration
c) Présence d’une tendance quadratique dans les
données.
5. Présence d’une tendance quadratique
dans les séries et d’une tendance linéaire
dans les relations de cointégration.

Ce test est disponible sur Eviews.

104
5.3 – Les tests de cointégration

Amadou CISSE / Janvier 2006 105


5.3 – Les tests de cointégration
La démarche économétrique.
2. Tester l’ordre d’intégration des séries ;
3. Si elles ne sont pas toutes stationnaires, tester
la cointégration des séries intégrées du même
ordre ;
4. Ne pas mélanger dans une même équation des
séries ayant des ordres d’intégration différents
(homogénéité des équations) ;
5. Utiliser un modèle à correction d’erreur (MCE)
si les variables sont cointégrées.
Amadou CISSE / Janvier 2006 106
5.4 – Les Modèles à Correction d’Erreur (MCE)
La méthode de Engle et Granger
■ La relation de cointégration est une relation de long
terme. Cependant il peut exister une dynamique de
court terme.
■ Étape 1 :
Estimer la relation de cointégration puis récupérer
les résidus.
Yt = β 0 + β 1 X t
107
6.1 – Introduction aux données qualitatives
■ Comment prendre en compte les caractères
qualitatifs dans un modèle économétrique ?

Deux solutions :
1. Codage direct de la variable ;
2. Créer une variable dichotomique pour
chaque variable

116

Vous aimerez peut-être aussi