Académique Documents
Professionnel Documents
Culture Documents
Économétrie non-linéaire
Chapitre 1: Introduction
Septembre 2016
NON LIN2ARIT2 : on rejette l’hyptohèse de linéarité => éventail très large
CHAP 2 Modèles où le determinants est un facteur latent => état de la nature qui est plus complexe qu’une simple modélisation linéaire
Méthode du Maximum de
1 Faits stylisés
Vraisemblance
2 Rappel - modèles linéaires 4 Conclusions
3 Méthodes d’estimation 5 Références
1. FAITS STYLISES
Introduction
Introduction
Introduction
Introduction
{Yt , t 2 ⌦}
Introduction
Sur la base des objectifs fixés ex-ante et des faits stylisés identifiés
sur les données observées, le modèle probabiliste le plus approprié
est choisi
Introduction
Remark
La caractérisation complète de la dynamique du processus stochastique
est impossible si on ne recourt pas à des hypothèses simplificatrices.
hypothèse de normalité des résidus
2.0
•
•
•
•
•
•• Moins évident à voir à l’oeil nu
• • •• •
•
••• • • •
• • • • •
1.5
• • •
•
• • • • • •
• • • • • • • • ••
• • ••
•
•• •
• •• • •
• • • • • • • •
• •
1.0
• •
• ••• • • • • •• • •
• ••
• • • •
• • •
• •
•
• •• ••
•
•
0.5
•
• • •
•
• •
• •
• •
0.0
•
•
•
• •
• • •• • •
• •• •• •
• • •
• • • •
• ••
• • • • •
•••
3.5
• • • •• • •••
••
• • • • •• • • •
• • • • • •
• •
• • •• •
•••• •
• •• • • • •
• • • ••• • • • •• • • • • • • ••
• • • • • • •• • • •
• • ••
• • •• •• • • •
• • • • •• • •• •• ••• •
• •• • • • •
2.5
• • • • •
••
• • •• • • •
•• • • • •
• • • • •• • • •
• • •
• • • ••• •
••• • • • • • ••
• • •
1.5
• •• •
•
0 50 100 150 200
2.0
•
•
• ••
• • •
• • •• •
••• • • •
• • • • •
1.5
• • •
•
• • • • • •
• •
• • • • • • • ••
• • ••
•• •
• •• • •
• • • • • • • •
• •
1.0
• •
• ••• • • • • •• • •
• ••
• • • • • •
• Ce modèle est linéaire
• •
•
• •• ••
•
•
0.5
•
• • •
•
• •
• •
• •
0.0
•
•
• • • •• • •••
••
• • • • •• • • •
• • • • • •
• •
• • •• •
•••• •
• •• • • • • Non linéaire
• • • ••• • • • •• • • • • • • ••
• • • • • • •• • • • Linéaire par partie
• • ••
• • •• •• • • •
• • • • •• • •• •• ••• •
• •• • • • •
2.5
• • • • •
••
• • •• • • •
•• • • • •
• • • • •• • • •
• • •
• • • ••• •
••• • • • • • ••
• • •
1.5
• •• •
•
0 50 100 150 200
The parameters are taken from a two regime TAR �it to the lynx data.
Tresial auto regressive
AR(2)
TAR(2)
Deux modèles linéaires => deux dynamiques pour différents régimes
(
Xt = 0.62 + 1.25Xt 1 0.43Xt 2 + ✏ t , Xt 2 3.25
2.25 + 1.52Xt 1 1.24Xt 2 + ✏ t 0 , Xt 2 3.25
les lynx arrivent à maturité à 2 ans => treshold
SCRXt <X̄t
= 2.25 rejet de la linéartié
SCRXt >X̄t
significatif pour un seuil de risque de 1% (F-test dont H0 est que les
deux sous-ensembles de résidus sont des tirages aléatoires de la même
population gaussienne)
•• • •• • • •••••
•••• •• ••
• • •••• •• • ••• ••
• • •
• • • • • • • ••
•• • • • • • • • ••• •
•
•
• • •• • •
• •••
•• •• • ••• •• ••• • ••
•• • • • • •
••
2.0
• • •• •••
•• •
0 20 40 60 80 100
•• ••• ••••• • • •• • • ••
• • • • • • •• •
• •• • •••• •• • •• •
•• • • • • ••
• • • • • • • • •
•• • •• • • • • • •••
•
• •• • • •• • ••
• •• • ••• ••• • • • •
2.0
••• •
•••• ••
0 20 40 60 80 100
fluctuations périodiques, cycles asymétriques chaque cycle dure autour de 9-10 ans
1.0
1.0
0.8
deux régimes
0.8
0.6
0.6
0.4
0.4
0.2
0.2
0.0
0.0
1.5 2.0 2.5 3.0 3.5 4.0 1.5 2.0 2.5 3.0 3.5 4.0
si on rejette la linéarité
3.5
•••• ••• • • •• ••
0.5
•
• • •• • • •• • • •• • • • • • • • • ••
xt dépend linéairement de y • •••• • • • •• • •• • • • •• • • • • •• ••• • il y a pas de corrélation entre
•• • •• • •• • ••• •••• • •••• • •• • ••••••
les résidus et la variable retardée
3.0
3.0
•• • • • • • • •• • • • • •• • • •
•• •• • • • •• •• •• • •
residual
• • • •• • ••• • •
• •
0.0
•• • C’est normal on a un AR (1°
X(t)
X(t)
•••• • • • • • • •• • • • •• • • • • • •• • • • • ••
•
• • •• •• •• • • •• • • •• •• • • • • • •• • • • • • • •
2.5
2.5
• • • •• • • • • • •
• • • • • •• • • • • • •• • • • •
•• • •• •
-0.5
• • • • • •
• • •• •
2.0
2.0
• •• • • • • • • •
•• • • • • • • • ••
• • •
• ••
-1.0
• •
2.0 2.5 3.0 3.5 2.0 2.5 3.0 3.5 2.0 2.5 3.0 3.5
X(t-1) X(t-2) X(t-1)
(c) Scatter plot at lag 3 (d) Scatter plot at lag 4 (f) Residual against X(t-2)
• • •• • • ••
• • • •
• •• • • Pour des valeurs élevés ya
• ••• • • ••• • • •• • • •• • ••• • • • •• •
3.5
3.5
0.5
• • • •• ••• • • • une corrélation entre les
• ••• • •• • • • • •• • •• • • • • • •
• •• • •• •• • •
• ••• •• •• • • • • résidus et Xt-2
• •
•• ••• • • • • • • •• • • • ••• ••• • • ••• • •• • • ••
• • • • • • • • • • ••
3.0
3.0
• • • • • • • • •
• •• • •• ••
residual
• •• • •• • • •• • • • • • • •
0.0
•• • •
•• • • ••• •• •
X(t)
X(t)
• • •
•• ••• • • •
• • ••
• •• • • • ••
• ••
• •• • •• • ••• • • • • ••• • • •• • • • •• • •
2.5
2.5
• • • • • • •• • •
• • • • • • • • • •• • • • • • • •• •
-0.5
• • • • • •
• • •
• ••• • •
2.0
2.0
• • • • •
• • • •• • •••
•
•• •
•
• • • • •
• •
-1.0
• •
2.0 2.5 3.0 3.5 2.0 2.5 3.0 3.5 2.0 2.5 3.0 3.5
X(t-3) X(t-4) X(t-2)
Scatter plots of Xt against (a)Xt 1, (b)Xt 2, (c)Xt 3, and (d)Xt 4 for Canadian lynx data together with kernel
regression estimators (solid curves) for E(Xt|Xt k=x) and scatter plots of the residual from the linear regression
Xt= 0.620 +0.788Xt 1 against (e)Xt 1 and (f)Xt 2. Solid curvesare nonparametric regression estimators.
utiliser des voisinage pour essayer de trouver la regression qui nous permettra d’être bien fitted
Les graphiques montre que mm si x montre que il semble y avorir une relation linéaire, si on va un peu plus loin dans le passé on s’aperçoit de l’existance d’une certaine non linéarité
5
0
-10
-20
Time plots of (a) the S&P 500 returns {Xt }, (b) the estimated conditional
standard deviations { t } , and (c) the residual { t=Xt/ t}
The estimates were derived based on a GARCH(1, 3) model with t N(0,1).
Gilles de Truchis, Elena Dumitrescu Économétrie non-linéaire 17/63
Faits stylisés Rappel - modèles linéaires Méthodes d’estimation Conclusions Références
10
0.5
••••••
5
0.4
•••••
•••••••
quantile of returns
•••
•
•• •
••
•
••
• •
•
••
• •
••••••••••••••
•
•••
•• •••
••
•••••
•• •••
••
•••• •• •••
••
••••••
•••••• ••
••••••••••
•••
•••
••
•••
••••
•••••
••• •••
•••
•••
•••••
••• •••
•••
•••
•• •• •••
•••
••••
•••
•••
••• •• ••
•••
•••
••
•••••
••
0
•• ••
•••
••••••• •• •••
••
•••
•••
••••••••
0.3
•••
•••
•••••••••••••
•••
•••
••
••• •••
••
••••
••••••••••
••••••••••••••••••
••••••••
••••••••
••
••••••••
•
-5
••
0.2
•
•••
•
-10
0.1
-15
0.0
Histogram of the S&P 500 returns and a normal density function with the same mean and variance.
QQ plot of S&P 500 returns against quantiles of N(0,1).
1.0
mais dans les carrés des
re n d e m e n t s : e x i s t a n c e
d’autocorrélation dans les
STD de la série
0.8
0.8
Ya pas
0.6
0.6
d’autoccorélation
dans les
ACF
ACF
rendament
0.4
0.4
0.2
0.2
0.0
0.0
0 20 40 60 80 100 0 20 40 60 80 100
Lag Lag
Correlogram of (a) the S&P 500 returns, and (b) the squared returns.
Definition (Formelle)
Un processus non-linéaire est tout processus stochastique qui n’est pas
linéaire. Or, pour cela, un processus linéaire doit être défini.
Definition (Intuitive)
Les séries temporelles non-linéaires sont générés par des équations dy-
namiques non-linéaires. Elles présentent des caractéristiques qui ne
peuvent pas être modélisées par les processus linéaires : variance qui
varie dans le temps, cycles asymétriques, dépendance dans les moments
d’ordre supérieur à 1, seuils et ruptures.
Y t = ↵ + Xt + u t
Yt = ↵ + Xt2 + ut
A l’inverse, les modèle suivants ne sont pas linéaires dans les pa-
ramètres
2
Yt = ↵ + Xt + ut , Yt = ↵ + Xt + ut
↵
Gilles de Truchis, Elena Dumitrescu Économétrie non-linéaire 22/63
Faits stylisés Rappel - modèles linéaires Méthodes d’estimation Conclusions Références
Théorème de Wold
Definition
Un processus stochastique stationnaire au sens faible {Yt , t 2 Z} peut
s’écrire comme une somme pondérée de chocs aléatoires orthogonaux
centrés et de même variance, éventuellement augmenté d’une compo-
sante déterministe
1
X
Yt = ct + i ut i , 8t 2 Z,
i=0
avec { i }1
i=0 un ensemble de coefficients réels non aléatoires vérifiant
la condition suivante :
X1
2
i 1
i=0
Definition
Le processus stochastique {Yt , t 2 Z} est stationnaire au sens strict ssi
{Y1 , Y2 , · · · , Yn } et {Y1+k , Y2+k , · · · , Yn+k } ont la même distribu-
tion quel que soit n 1 et n, k 2 Z.
Remark
Pour les séries non-linéaires, le plus souvent la stationnarité au sens
stricte s’avère plus pertinente.
Modèles ARMA
avec ✓i = i, ✓q 6= 0.
Modèles ARMA
La spécification moyennes mobiles (Moving Average)
q
X
Yt = c + ✓i ut i
i=0
avec ✓i = i, ✓q 6= 0.
La spécification autoregressive (AR)
p
X
Yt = µ + i Yt i + ut
i=0
Demo : On suppose i = i
) Yt = c + ut + ut 1 + 2 ut 2 + · · ·
De cette spécification on a Yt (1 L 2 2
L 3 3
L · · · ) = µ + ut
et Yt = µ + Yt 1 + Yt 2 + Yt 3 + · · · + ut
2 3
avec µ = (1 )c.
La spécification autoregressive moyennes mobiles (ARMA)
Gilles de Truchis, Elena Dumitrescu Économétrie non-linéaire 28/63
Faits stylisés Rappel - modèles linéaires Méthodes d’estimation Conclusions Références
Modèles ARMA
La spécification moyennes mobiles (Moving Average)
q
X
Yt = c + ✓i ut i
i=0
avec ✓i = i, ✓q 6= 0.
La spécification autoregressive (AR)
un processus MA est tjrs stationnaire et un processus
p
X
Yt = µ + i Yt i + ut
i=0
Stationnarité et inversibilité
Theorem
Le processus ARMA(p,q) est stationnaire si les racines du polynôme
(z) 6= 0, possiblement à valeur dans C, sont à l’extérieur du cercle
unitaire
Conséquence : un processus MA est toujours stationnaire
Theorem
Le processus ARMA(p,q) est inversible si les racines du polynôme ✓(z) 6=
0, possiblement à valeur dans C, sont à l’extérieur du cercle unitaire
Autocovariance et autocorrélation
Definition (ACVF)
La fonction d’autocovariance (ACVF) d’un processus stationnaire Yt
est
(k) = cov(Yt+k , Yt ), 8k in Z.
Definition (ACF)
La fonction d’autocorrélation (ACF) de Yt est
Autocovariance et autocorrélation
1 Yt = Yt 1 + "t
1 Yt = Yt 1 + "t
2 Yt = g(Yt 1 , ✓) + "t
1 Yt = Yt 1 + "t
2 Yt = g(Yt 1 , ✓) + "t
3 Yt = g(Zt , ✓) + "t
G peut être une focntion non linéaire, dépends des variables et des tetas
2 Yt = g(Yt 1 , ✓) + "t
non linéarité en moyenne conditionnelle E(Yt/ Ft-1) = E(g(Yt-1, teta) / Ft-1)
4 Yt = Yt 1 + h(Yt 1 , ✓)"t
1 Yt = Yt 1 + "t
2 Yt = g(Yt 1 , ✓) + "t
3 Yt = g(Zt , ✓) + "t
4 Yt = Yt 1 + h(Yt 1 , ✓)"t
Plan
Log-Vraisemblance Gaussienne
Dans l’exemple, il s’agissait de variables aléatoires discrètes
i=1
✓ Pn ◆
2 n/2 i=1 (xi µ)2
= (2⇡ ") exp
2 "2
n
n 2 n 1 X
ln Ln (✓; x1 , · · · , xn ) = ln( ") ln(2⇡) 2
(xi µ)2
2 2 2 " i=1
Hypothèses
✓ = (µ, 2 )0 est identifiable : 8✓⇤ , ✓ avec ✓⇤ 6= ✓, les lois jointes de
x1 , · · · , xn sont différentes
ˆ x1 , · · · , x n ) = @ ln Ln (✓; x1 , · · · , xn )
gn (✓; =0
@✓ ✓ˆ
Pn
Les P
estimateurs du ML sont m̂ = n 1
i=1 Xi = X̄ et ˆ 2 =
n 1 n i=1 (Xi X̄)2
On obtient alors
On obtient alors
✓ Pn ◆
@ 2 `n (✓; x) n
i=1 (xi m̂) 1
= 1
Pn ˆ2 P n
ˆ4
@✓@✓0 ✓ˆ ˆ4 i=1 (xi m̂) 2ˆn4 1
ˆ6 i=1 (xi m̂)2
Pn
D’après l’étude du gradient, on sait que n ⇥ m̂ = i=1 xi et donc
n n n n
1 X 1 X 1 1 X 1 X
(xi m̂) = x i + n⇥ m̂ = xi xi = 0
ˆ 4 i=1 ˆ 4 i=1 ˆ4 ˆ 4 i=1 ˆ 4 i=1
Pn
De plus, n ⇥ ˆ 2 = i=1 (xi m̂)2 , ce qui donne
✓ n ◆ ✓ n ◆
@ 2 `n (✓; x) ˆ2 0 ˆ2 0
= n nˆ 2 = n
@✓@✓0 ✓ˆ 0 2ˆ 4 ˆ 6 0 2ˆ 4
Le score
Le score ressemble au gradient mais en diffère pour la raison sui-
vante :
Le gradient est déterministe car basé sur les réalisations :
@`n (✓; x1 , · · · , xn )
@✓
Le score est une version stochastique du gradient car basé sur les
variables aléatoires :
@`n (✓; X1 , · · · , Xn )
Sn (✓; X) =
@✓
Le score étant une variable aléatoire, il convient de s’intéresser à
ces moments et notamment son espérance
La hessienne stochastique
@ 2 `n (✓; X1 , · · · , Xn )
Hn (✓, X) =
@✓@✓0
La hessienne stochastique étant une variable aléatoire elle a des
moments :
L’information de Fisher
Remark
La quantité d’information de Fisher associée à l’échantillon est une
constante définie par la variance du score ou l’espérance de l’opposée
de la hessienne stochastique :
In (✓) = V(Sn (✓; X)) = E(Sn2 (✓; X)) E(Sn (✓; X))2
ou
In (✓) = E( Hn (✓, X))
✓ n 1
Pn ◆
Hn (✓; X) = Pn 2 4 i=1 (Xi
P m)
1 n 1 n
4 i=1 (Xi m) 2 4 6 i=1 (Xi m)2
fY |X (y|x; ✓)
Exercice type
Soit un échantillon (X1 , · · · , Xn ) ⇠ i. i. d. selon une distribution
exponentielle de paramètre ✓ 1
La fonction de densité d’une loi exponentielle est ✓ 1
exp( ✓ 1
X)
Exercice type
Soit un échantillon (X1 , · · · , Xn ) ⇠ i. i. d. selon une distribution
exponentielle de paramètre ✓ 1
La fonction de densité d’une loi exponentielle est ✓ 1
exp( ✓ 1
X)
Exercice type
Soit un échantillon (X1 , · · · , Xn ) ⇠ i. i. d. selon une distribution
exponentielle de paramètre ✓ 1
La fonction de densité d’une loi exponentielle est ✓ 1
exp( ✓ 1
X)
Exercice type
Soit un échantillon (X1 , · · · , Xn ) ⇠ i. i. d. selon une distribution
exponentielle de paramètre ✓ 1
La fonction de densité d’une loi exponentielle est ✓ 1
exp( ✓ 1
X)
Exercice type
ˆ
Calculez E(✓)
Exercice type
ˆ
Calculez E(✓)
⇣ n
X ⌘ n
X n ⇥ ✓0
ˆ =E n
E(✓) 1
Xt = n 1
E(Xt ) = = ✓0
t=1 t=1
n
ˆ
Calculez V(✓)
Exercice type
ˆ
Calculez E(✓)
⇣ n
X ⌘ n
X n ⇥ ✓0
ˆ =E n
E(✓) 1
Xt = n 1
E(Xt ) = = ✓0
t=1 t=1
n
ˆ
Calculez V(✓)
⇣ n
X ⌘ n
X n ⇥ ✓02 ✓02
ˆ =V n
V(✓) 1
Xt = n 2
V(Xt ) = =
t=1 t=1
n2 n
Exercice type
ˆ
Calculez E(✓)
⇣ n
X ⌘ n
X n ⇥ ✓0
ˆ =E n
E(✓) 1
Xt = n 1
E(Xt ) = = ✓0
t=1 t=1
n
ˆ
Calculez V(✓)
⇣ n
X ⌘ n
X n ⇥ ✓02 ✓02
ˆ =V n
V(✓) 1
Xt = n 2
V(Xt ) = =
t=1 t=1
n2 n
@ 2 `n (✓; X1 , · · · , Xn )
In (✓) = E( Hn (✓, X)) = E0 ( )
@✓@✓0
et
Remark (1)
Dans la pratique les matrice In (✓) et Jn (✓) sont directement estimées
en remplaçant l’espérance E0 par la moyenne empirique et le paramètre
inconnu ✓ par son estimateur convergent ✓ˆQM LE
Remark (2)
Dans le cas où la vraie loi sous-jacente est normale (Maximum de Vrai-
semblance), la matrice de variance covariance asymptotique se réduit
à
V (✓ˆQM LE ✓0 ) = In (✓) 1
puisque In (✓) = Jn (✓)
On cherche
✓ˆ = arg max+ `n (✓; x1 , · · · , xn )
✓2R
Conclusions
Bibliographie générale :
Gourieroux, C., Monfort, A., 1989, Statistics and Econometric Models, Volume 2,
Cambridge University Press.
Tong, H., 1990. Non-Linear Time Series : A Dynamical Systems Approach,
Oxford : Oxford University Press
Teräsvirta, T., Tjøstheim, D., et Granger, C. W. J. (2010), Modelling nonlinear
economic time series, Oxford University Press.