Académique Documents
Professionnel Documents
Culture Documents
temporelles et des
données qualitatives
Amadou CISSE
1- Objectifs du cours
■ Présentation des techniques économétriques de
base : MCO
3
3 – Introduction
■ L’économétrie est une discipline fondée sur
l’application de méthodes statistiques et
mathématiques pour étudier et représenter
des phénomènes économiques.
4
3 – Introduction (suite)
■ Outil essentiel de validation et d’analyse des
relations, postulées a priori, entre différentes
variables économiques.
5
3.1 – Utilité de l’économétrie
■ Tester la théorie économique.
6
- Tester la théorie économique
■ Tester le pouvoir explicatif des théories
économiques, notamment en ce qui
concerne le comportement des agents
économiques.
7
- Construire des politiques économiques
8
- Prévision
■ Deux approches pour la prévision
l ’approche empirique fondée sur le
comportement intrinsèque de la grandeur
l ’approche explicative permettant la prévision
de la grandeur à partir de l ’évolution d ’autres
variables
■ L’économétrie permet surtout de mettre en
œuvre l’approche explicative.
9
3.2 - Branches de l’économétrie
10
3.2 - Branches de l’économétrie
■Econométrie des variables quantitatives
On distingue :
l’économétrie des séries temporelles
l ’économétrie des variables financières
(caractérisées par une grande volatilité de la
variance)
l ’économétrie des données de panel
11
3.2 - Branches de l’économétrie
Une équation Système
d’équations
Modèle non ARMA VAR simple
explicatif VAR structurels
12
4 – Modèle linéaire multiple
■ Notion de modèle.
■ Méthode d’estimation des coefficients
■ Les hypothèses des MCO
■ La solution
■ L’équation d’analyse de la variance
■ Inférence statistique (Tests Statistiques)
13
4.1 – La notion de modèle
■ Formalisation mathématique, sous forme
d’équations, d’un phénomène. C’est une
représentation qui cherche à approcher le
mieux possible la réalité et améliorer la
compréhension et l’explication des
phénomènes économiques.
15
4.1 – La notion de modèle
16
4.1 – La notion de modèle
17
4.1 – La notion de modèle
■ La nature de la relation entre les variables
économiques peut être de différentes formes,
mais les méthodes les plus couramment
utilisées reposent sur des relations linéaires ;
18
4.1 – La notion de modèle
19
4.1 – La notion de modèle
■ Le modèle de régression linéaire comporte plus
d’une variable explicative. Il s’écrit de la forme
ci-après :
Yt = β 0 + β 1 X 1t + β 2 X 2t + ..... + β k X k + ε t
t=1,2,…,n.
■ C’est un modèle à k variables explicatives
(indépendantes) X1, X2,…. et Xk
20
4.1 – La notion de modèle
■ Ce modèle comporte k+1 coefficients à
estimer :
β0 qui représente la constante ;
β1, β2, β3, …. et βk qui représentent
respectivement les coefficients des variables
X1, X2, X3,….. et Xk
22
4.2 – Méthode d’estimation des coefficients
■ Le modèle
Y=Xβ+ε (1)
23
4.2 – Méthode d’estimation des coefficients
24
4.3 – Les hypothèses des MCO
H1 : le modèle est linéaire en X et le nombre
d’observation n est supérieur au nombre de
variables explicatives, k (n>k)
H2 : les variables
X1, X2, X3,….. et Xk sont
observées sans erreur
H3 : L’erreur est indépendante des variables explicatives
E ( X it , ε t ) = 0, ∀ t
25
4.3 – Les hypothèses des MCO
H4 : les variables explicatives sont non corrélées
entre elles. La matrice (X’X) est non
singulière, donc inversible
H5 : il existe une matrice non singulière Q tel que
1
lim X ' X = Q
n→ ∞ n
26
4.3 – Les hypothèses des MCO
H7 : les erreurs sont non corrélées (absence
d’autocorrélation des erreurs) :
E ( ε t , ε t ' ) = 0 ∀ t ≠ t'
H8 : la variance de l’erreur est constante
E(ε )=σ
(homoscédasticité) : t
2
ε
2
∀ t
27
4.4 – La solution
■ Il s’agit de résoudre le programme (P1),
Min S ( β ) = ε ' ε
β
⇒ βˆ = ( X 'X) X 'Y
28
4.4 – La solution
∧ ∧
■ Le modèle estimé : Y= Xβ
e = Y − Yˆ
29
4.5 – L’équation d’analyse de la variance
■ L’équation d’analyse de la variance est
donnée ci-après :
n n n
∑t= 1
(Yt − Y)2 = ∑
t= 1
ˆ − Y)
(Yt
ˆ 2+
∑
t= 1
e2t
R² = SCE / SCT
31
4.6 – L’inférence statistique
■ L’application des MCO a permis d’estimer la
valeur approchée de β, mais elle ne permet
pas de connaître la valeur exacte de β car
celle-ci demeurera inconnue.
■ L’inférence statistique consiste à effectuer des
tests sur les estimations des éléments de β
■ Exemples
T1 : H0 : βi= b T2 : H0 : Rβ= r
H1 : βi ≠ b H1 : Rβ ≠ r
32
4.6 – L’inférence statistique
■ Pour résoudre ces tests il faut une hypothèse
supplémentaire sur la loi de εt.
εt → Ν ( 0 ,σ ) ε
2
33
4.6.1 – Test de Student
❒
βˆ est un vecteur aléatoire normal
βˆi
❒ est une variables aléatoire normale
34
4.6.1 – Test de Student
■ Espérance de βˆi
∧
E β = β
∧
⇒ E βi = βi
35
4.6.1 – Test de Student
■ Variance de βˆi :
( X 'X)
−1
σ 2
βˆ
=σ 2
βˆ
⇒ σ 2
∧ =σ v 2
ε ii
βi
⇒ βˆi → Ν (β i ,σ 2
βˆi ) et
βˆi − β i
σ βˆ
i
→ Ν ( 0 , 1)
36
4.6.1 – Test de Student
Problème : σ
2
■ est inconnue, comment
βˆi
faire de l’inférence
σ 2
∧ =σ v
2
ε ii ⇒ σˆ ∧ = σˆ ε vii
2 2
βi βi
37
4.6.1 – Test de Student
e 'e
■ Comme : σˆ =
ε
2
est un estimateur
n− k − 1
sans biais de σ ε
2
e 'e
donc σˆ ∧ = σˆ v =
2 2
ε ii vii
βi n− k − 1
38
4.6.1 – Test de Student
σˆ 2
(n − k − 1)
βˆi
→ χ 2
( n − k − 1)
σ 2
βˆi
βˆi − β i
⇒ → T (n-k-1)
σˆ βˆ
i
39
4.6.1 – Test de Student
βˆi
■ Sous l’hypothèse nulle, βi=0 ⇒
σˆ βˆ
→ T (n-k-1)
i
βˆi
On calcule t β*ˆ =
■ i
σˆ βˆ
i
α
■ t 2
On détermine n − k − 1 lue dans la table de
student
■ α représente le seuil (généralement α =5%)
40
4.6.1 – Test de Student
■ Règle de décision :
α
Si t > tn − 2k − 1 alors on rejette H0.
*
■
βˆi
41
4.6.2 – Test de Fischer
■ C’est un test de type T2 avec r = (0) et R=(1)
H0 : β1 = β2 = ····· = βk = 0
H1 : il existe au moins un i tel que βi ≠ 0.
■ La statistique de Fischer :
SCE
SCE /k R²
F* = k = SCT = k
SCR SCR (1 − R ²)
( n − k − 1) SCT (/ n − k − 1) ( n − k − 1)
42
4.6.2 – Test de Fischer
■ Règle de décision :
α
Si F > F
*
■
lu alors on rejette H0.
43
4.6.2 – Test d’autocorrélation
44
4.6.2 – Test d’autocorrélation
■ Conséquences :
➾ la variance n’est plus minimale ;
➾ les t-stats sont sous estimés ;
➾ Peut fausser les résultats des tests de
student.
45
4.6.2 – Test d’autocorrélation
■ Comment détecter l’autocorrélation ?
■ Détection visuelle :
A partir des signes des résidus
■ Test d’autocorrélation :
Test de Durbin-Watson, test de Breusch-Godfrey
(LM-Test)
46
4.6.2 – Test d’autocorrélation
■ Détection visuelle :
i- Alternance de signes +/- : autoccorélation négative
+- +- +- +- +- +- +- ρ p 0
ii - Succession de signe + / -:
autocorrélation positive
++++--------++++++-------- ρ f 0
47
4.6.2 – Test d’autocorrélation
■ Comment tester l’autocorrélation ?
■ Deux cas à distinguer :
1. Autocorrélation d ’ordre 1
ε t = ρ 1ε t − 1 + ρ 2ε t − 2 + ..... + ρ pε t − p + vt
(Breusch Godfrey – (LM-Test))
48
4.6.2 – Test d’autocorrélation
■ Cas d’une autocorrélation d’ordre 1
et = ρ et − 1 + vt
Test de student
H0 : ρ = 0
H1 : ρ ≠ 0
■ C’est un test peu performant : on lui préfère le
Durbin Watson
49
4.6.2 – Test d’autocorrélation
■ Test de Durbin-Watson
et = ρ et − 1 + vt
On effectue la régression puis on calcule n
Cov ( et , et − 1 ) ∑ et et − 1
ρˆ = = t= 2
V ( et ) n
∑t=1
et2− 1
n
∑e e t t −1
ρ
ˆ ; t =2
n
∑ t
e
t
2
50
4.6.2 – Test d’autocorrélation
■ Statistique de Durbin-Watson
n n
∑ (e + et − 1 ) ∑ (e + et )
2 2
t t+1
DW = t= 2
n
= t=1
n
∑
t=1
2
e
t ∑
t=1
et2
n n n
∑ e 2
t ∑ e 2
t−1 ∑ et et − 1
DW = t=1
n
+ t= 2
n
−2 t= 2
n
∑ t=1
et2 ∑t=1
et2 ∑t=1
et2
51
4.6.2 – Test d’autocorrélation
■ Statistique de Durbin-Watson
DW = 1 + 1 − 2 ρˆ
pour ρˆ → 1 , DW 0 (autocorrélation positive)
pour ρˆ → − 1 , DW 4 (autocorrélation négative)
pour ρˆ → 0 , DW 2 (pas d’autocorrélation)
ρ > 0 ρ = 0 ρ < 0
0 d1 ? d2 2 4-d2 ? 4-d1 4
52
4.6.2 – Test d’autocorrélation
Yt = a1Yt − 1 + β 0 + β 1 X 1t + ..... + β k X kt + ε t
n 2 − DW n
h = ρˆ =
1 − nσ aˆ1
ˆ 2
2 1 − nσˆ a2ˆ1
53
4.6.2 – Test d’autocorrélation
■ LM-Test : Test de Breusch-Godfrey
ε t = ρ 1ε t − 1 + ρ 2ε t − 2 + ..... + ρ pε t − p + vt
Yt = ( X β )t + ρ 1et − 1 + ρ 2 et − 2 + ..... + ρ p et − p + vt
54
4.6.2 – Test d’autocorrélation
■ Règle de décision :
Si ( n − p ) R > χ théorique on rejette H0
2 2
55
4.6.3 – Test d’hétéroscédasticité
56
4.6.3 – Test d’hétéroscédasticité
■ Conséquence : ⇒ E ( ε t2 ) ≠ σ ε2 ∀ t
⇒ E ( ε ε ') ≠ σ ε
2
In
■ Causes de l’hétéroscédasticité
58
4.6.3 – Test d’hétéroscédasticité
59
4.6.3 – Test d’hétéroscédasticité
■ Étape 1 : Diviser la population en deux sous
population, en excluant m observations
centrales. Taille de chaque sous-population
= (n-m)/2
■ Étape 2 :Régression sur chaque sous
population.
Sous population 1 donne SCR1
Sous population 2 donne SCR2
60
4.6.3 – Test d’hétéroscédasticité
■ Étape 3 : Calculer la statistique de Fischer
SCR1
n− m
− k−1 n − m − 2 ( k + 1) n − m − 2 ( k + 1)
F =
* 2 → F ,
SCR 2
2 2
n− m
− k−1
2
■ Règle de décision :
α
Si F *
> Flu alors on rejette l’hypothèse
nulle. Le modèle n’est pas homoscédastique.
61
4.6.3 – Test d’hétéroscédasticité
■ Test de Glejser
■ Étape 1 :Estimer le modèle Y=Xβ+ε puis on
récupère les résidus.
■ Étape 2 : Régression de la valeur absolue ou
des carrés des résidus sur l’ensemble des
variables explicatives
et = β 0 + β 1 X 1t + β 2 X 2t + ..... + β k X kt + ε t
et2 = β 0 + β 1 X 1t + β 2 X 2t + ..... + β k X kt + ε t
62
4.6.3 – Test d’hétéroscédasticité
■ Test de Glejser
■ Étape 3 : Test de student sur chaque
coefficient : S ’il existe au moins un coefficient
non nul, alors on rejette l’hypothèse
d’homoscédasticité. Le modèle est
hétéroscédastique.
■ Correction : Moindres Carrés Généralisés
(MCG).
63
4.6.4 – Test de stabilité
■ Test de Chow
64
4.6.4 – Test de stabilité
■ Test de Chow
■ Étape 3 : Calculer la statistique de Fischer
SCR − ( SCR1 + SCR2 ) / ( k + 1)
F =
*
→ F ( k + 1, n1 + n2 − 2 ( k + 1) )
( SCR1 + SCR2 ) / n1 + n2 − 2 ( k + 1)
■ Règle de décision :
α
Si F > Flu alors on ne rejette pas
*
■ Notion de stationnarité.
■ Tests de cointégration
66
5.1 – La notion de stationnarité
■ Les méthodes d’estimation classique doivent
être appliquées sur des variables
stationnaires. Sinon, les propriétés
statistiques risquent de ne plus être valables.
Les statistiques de student ne suivent plus les
distributions standards.
■ Ceci accroît alors le risque d’accepter des
corrélations fortuites (spurious correlations)
comme vraies alors qu’elles n’ont aucun
fondement.
67
5.1 – La notion de stationnarité
■ De tels situations se présentent surtout
lorsque les régressions fournissent un R²
élevé et un DW proche de zéro (Phillips,
1986).
■ Ce résultat remet en question la pertinence
de l’application de l’économétrie sur des
variables non stationnaires.
68
5.1 – La notion de stationnarité
■ La validité de la méthode des MCO repose
sur un nombre important d’hypothèses dont
celle de Bruit Blanc faite sur les erreurs.
■ L’application des méthodes classiques de
l’économétrie sur des séries non stationnaires
peut conduire à un vecteur d’erreur ayant une
variance infinie, donc non stationnaire.
69
5.1 – La notion de stationnarité
■ Il est donc important de savoir dans quelles
conditions, et comment, est-il possible
d’appliquer les méthodes classiques à des
séries non stationnaires. Il est également tout
aussi important de pouvoir tester la
stationnarité des séries.
■ L’application des méthodes économétriques
doit toujours être précédée de l’étude de la
stationnarité des séries: test de racine
unitaire.
70
5.1 – La notion de stationnarité
■ Plusieurs études empiriques ont montré que
de nombreuses variables macroéconomiques
ne sont pas stationnaires. Elles possèdent
une racine unitaire et intégrées d’ordre 1
(Nelson et Plosser 1982, pour les USA).
■ Les séries économiques ont une tendance
intrinsèque à croître ou décroître au cours du
temps. Ainsi, elles intègrent une tendance qui
peut être systématique (déterministe) ou
aléatoire.
71
5.1 – La notion de stationnarité
■ La stationnarité est une notion statistique qui
traduit la stabilité ou la relative invariance
d’une série au cours du temps.
■ On dit qu’une série temporelle est
stationnaire du second ordre ou faiblement
stationnaire si son espérance et sa
covariance sont indépendantes du temps.
E ( Xt ) = µ ∀t
Cov ( X t , X t + k ) = γ ( k ) ∀ t et k
72
5.1 – La notion de stationnarité
X t = X t− 1 + ε t = X t− 2 + ε t− 1 + ε t
= X t− k + ε t− k+ 1 + L + ε t− 1 + ε t
74
5.1 – La notion de stationnarité
75
5.1 – La notion de stationnarité
La tendance
Les séries temporelles peuvent évoluer en
fonction du temps. Cette évolution peut être
déterministe ou aléatoire.
Important d’identifier les composantes
déterministes et stochastiques de la série.
Deux type de processus non stationnaires :
Trend Stationnary (TS) ou Differency
Stationnary (DS.
76
5.1 – La notion de stationnarité
Processus TS
❒ Un processus TS est série non stationnaire de
type déterministe.
Si Xt est un processus TS, alors il peut s’écrire
comme suit : Xt=f(t)+εt, où f(t) est une fonction
du temps et εt un processus stationnaire.
❒ Exemple : Xt=a0+a1t+εt (1).
77
5.1 – La notion de stationnarité
Processus TS
78
5.1 – La notion de stationnarité
Processus DS
Un processus DS est série non stationnaire de
type aléatoire.
Comment stationnariser un processus DS ?
Application successive d’un filtre retard L,
comme suit : (1-L)dXt= β+εt (d = nombre de
retard)
ε étant stationnaire
t
L étant l’opérateur retard (LdX =X )
t t-d
81
5.1 – La notion de stationnarité
La persistance des chocs
Modèle 1 : ΔYt=ρYt-1+εt.
Modèle 2 : ΔYt=a+ρYt-1+εt.
Modèle 3 : ΔYt=a+b.t+ρYt-1+εt.
85
5.2.1 – Le Test de Dickey-Fuller simple (DF)
86
5.2.2 – Le Test de Dickey-Fuller Augmenté (ADF)
Le test précédent supposait que dans le modèle
de base, εt est un bruit blanc, ce qui n’est pas
nécessairement vraie. Le test ADF ne fait plus
cette hypothèse et est effectué sur l’un des
modèles ci-après:
p
Modèle 1’ : ∆ Yt = ρ Yt − 1 + ∑
j= 2
∆ Yt − j + 1 + ε t
p
Modèle 2’ : ∆ Yt = ρ Yt − 1 + a + ∑j= 2
∆ Yt − j + 1 + ε t
p
Modèle 3’ : ∆ Yt = ρ Yt − 1 + a + bt + ∑
j= 2
∆ Yt − j + 1 + ε t
87
5.3 – Les tests de cointégration
88
5.3 – Les tests de cointégration
■ L’apport principal de la théorie de la
cointégration est de déterminer les conditions
dans lesquelles il est possible d’appliquer les
méthodes de l’économétrie classique sur des
séries non stationnaires
■ La théorie de la cointégration est apparue
récemment, au milieu des années 80, dans la
littérature. Elle fait suite aux travaux de Granger
et Newbold (1974).
89
5.3 – Les tests de cointégration
■ Définition
Soient (Xt) et (Yt) deux séries intégrées de
même ordre d.
Xt → I ( d )
Yt → I ( d )
■ On dit que X et Y sont cointégrées s’il existe un
vecteur (α,β) et un entier non nul b tel que la
combinaison linéaire Zt= αXt+βYt est intégrée
d’ordre d-b. Z ~ I(d-b).
90
5.3 – Les tests de cointégration
■ Définition (suite)
On dit alors que les séries Xt et Yt sont
cointégrés CI(d,b).
■ Le vecteur (α,β) est appelé vecteur cointégrant.
■ Cette définition peut être généralisé à un
nombre quelconque de variables (x1t, x2t, x3t, …
….) intégrées du même ordre d, mais attention !
dans ce cas le vecteur cointégrant n’est pas
forcément unique
91
5.3 – Les tests de cointégration
■ Définition (suite)
On dit alors que les séries Xt et Yt sont
cointégrés CI(d,b).
■ Le vecteur (α,β) est appelé vecteur cointégrant.
■ Cette définition peut être généralisé à un
nombre quelconque de variables (x1t, x2t, x3t, …
….) intégrées du même ordre d, mais attention !
dans ce cas le vecteur cointégrant n’est pas
forcément unique
92
5.3 – Les tests de cointégration
■ Dans le cas de deux séries cointégrées, le
vecteur cointégrant est unique. Cela signifie qu’il
n’existe qu’une seule combinaison qui gouverne
l’évolution des comportements des variables.
■ Dans le cas de plus de deux séries, il peut y
94
5.3 – Les tests de cointégration
■ Comment tester la cointégration CI(1,1)
■ Soient X et Y intégrées d’ordre 1.
■ X et Y sont cointégrées si la combinaison
Zt=αYt+βXt est stationnaire.
■ Tester la stationnarité de Zt= αYt+βXt, est
équivalente à tester la stationnarité des résidus
du modèle Yt=aXt+εt.
■ Yt=aXt+εt → εt= Yt- aXt comme Zt= αYt+βXt, le
test de stationnarité sur Zt correspond au test de
stationnarité d 95
5.3 – Les tests de cointégration
■ Comment tester la cointégration CI(1,1)
■ Yt=aXt+εt → εt= Yt- aXt
Comme Zt= αYt+βXt, le test de stationnarité sur
Zt correspond au test de stationnarité de εt avec
α=1 et β=-a.
96
5.3 – Les tests de cointégration
■ Test de Engle
■ Procédure :
■ Étape 1 : Estimer le modèle Yt=aXt+εt, puis
récupérer les résidus e ;
98
5.3 – Les tests de cointégration
■ Test de Engle
100
5.3 – Les tests de cointégration
■ Le test de cointégration entre k variables, se fait
par succession d’hypothèses du type :
H0 : aucune relation de cointégration
H0 : au plus une relation de cointégration
… …… … … … ….
… …… … … … ….
H0 : au plus k-1 relation de cointégration
101
5.3 – Les tests de cointégration
■ Johansen propose cinq spécifications pour
effectuer ce test.
a) Absence de tendance linéaire dans les données
1. Absence d’une tendance linéaire dans les
séries et d’une constante dans les relations
de cointégration.
2. Absence d’une tendance linéaire dans les
séries mais présence d’une constante dans
les relations de cointégration.
102
5.3 – Les tests de cointégration
b) Présence d’une tendance linéaire dans les
données
3. Présence d’une tendance linéaire dans les
séries et d’une constante dans les relation
de cointégration.
4. Présence d’une tendance linéaire dans les
séries et d’une constante dans les relation
de cointégration
103
5.3 – Les tests de cointégration
c) Présence d’une tendance quadratique dans les
données.
5. Présence d’une tendance quadratique
dans les séries et d’une tendance linéaire
dans les relations de cointégration.
104
5.3 – Les tests de cointégration
Deux solutions :
1. Codage direct de la variable ;
2. Créer une variable dichotomique pour
chaque variable
116