Académique Documents
Professionnel Documents
Culture Documents
0.1 Introduction
1
0.4 Fonction de contraste sur le schéma d'Euler
- Dénitions et généralités.
√
- Modèle de Brennan-Schwartz dXt = α(β − Xt )dt + σ Xt dWt . Existence de solutions.
- Modèles du type dXt = α(β − Xt )dt + σXtδ dWt , δ ∈] 12 , 1]. Existence de solutions.
- Estimateurs obtenus par une fonction de contraste sur les modèles discrétisés.
- Asymptotique.
sur un espace de probabilité ltré (Ω, A, (Ft ), P), où W est un F -mouvement brownien à
m
valeurs dans R , η une variable aléatoire F0 -mesurable (donc indépendante du mouvement
brownien) de loi νθ . L'archétype d'un tel processus est le modèle de Black et Scholes :
b : R+ × R d × Θ → Rd , (2)
σ : R+ × R d × Θ → Rd ⊗ Rm (3)
ces fonctions ayant des propriétés de régularité susante pour que l'EDS ci-dessus ait une
unique solution forte à θ xé. (voir par exemple Protter [28].) On se pose le problème de
l'estimation de θ à partir d'observations de la trajectoire dont on dispose. Les observations
seront toujours de la forme FT (ξt , , t ∈ [0, T ]). Notre but est donc de construire des
estimateurs θ̂ de la vraie valeur θ0 du paramètre, qui soient fonction des observations,
puis d'en étudier les propriétés.
2
- estimateurs de minimum de contraste : lorsque la vraisemblance de l'échantillon
est dicile à calculer, voire impossible, ou dicile à exploiter, une alternative est de
construire des pseudo-logvraisemblances dont l'opposé sera dit contraste et dont on
tirera des estimateurs.
- estimateurs empiriques fondés sur une méthode de moments, éventuellement méth-
ode de moments généralisée.
- estimateurs fondés sur des équations d'estimation, c'est à dire que si Gn est une
fonction des observations (par exemple Gn = ∂θ log L, gradient de la log-vraisemblance
parfois appelée fonction score), une équation d'estimation est Gn (θ, xi ) = 0 dont la so-
lution suggère des estimations possibles de θ.
- observations discrètes : le point de vue naturel et le plus réaliste sur le plan pra-
tique consiste à supposer que l'on observe la trajectoire ξ à des instants t1 , · · · , tN ,
avec 0 ≤ t1 ≤, · · · , ≤ tN ≤ T. Le modèle statistique est alors déni par l'observation
du N −uple (ξt1 , · · · , ξtN ). On étudiera notamment le cas où les observations sont faites
régulièrement : ti = i∆, T = N ∆, ∆ est le pas de la discrétisation. Eventuellement, le
pas ∆N dépend du nombre d'observations.
L'étude et la comparaison des diérents estimateurs n'est possible, dans la plupart des
cas, que dans un cadre asymptotique. En statistique des diusions, plusieurs approches
asymptotiques sont envisageables, qui dièrent suivant les modèles que l'on considère ou
suivant les observations dont on dispose.
- On pourra faire tendre T vers l'inni (longueur de l'intervalle d'observation), ou bien
N vers l'inni (nombre d'observations), ∆ restant xe.
3
- On peut également supposer simultanément que N tend vers l'inni et ∆ tend vers
0, le produit T
étant xe (observations de plus en plus rapprochées à l'intérieur d'un
T
intervalle xe) : par exemple ∆N = N , N → ∞, ∆N → 0.
- On peut enn supposer que N et T tendent vers l'inni, même si ∆N tend vers
0 : observations de plus en plus rapprochées à l'intérieur d'un intervalle de plus en plus
√
a
grand : par exemple ∆N = √ , TN = a N .
N
Selon le cas, on identiera les paramètres inconnus gurant dans les fonctions b et/ou
σ.
- Enn, soit ε > 0, et supposons que le coecient de diusion soit de la forme εσ(t, x),
σ étant complètement connu. Le modèle dans ce cas est celui d'une petite perturbation
de l'équation diérentielle ordinaire
Exemple : soient n processus réels (Yi ) indépendants et de même loi, dont la dynamique
est donnée par
1
dȲt = [a(t, θ)Ȳt + b(t, θ)]dt + √ dBtn ; t ∈ [0, T ], Ȳ0 = y ∈ R,
n
W 1 +···+W n
où Bn = √
n
est un mouvement brownien. Ainsi, Ȳ est régi par une EDS de petite
1
Le cas de petite variance s'apparente au cas
variance √ quand n tend vers l'inni.
n
où l'observation est une moyenne d'observations indépendantes et de même
loi de diusion.
4
1 Exemples de modèles
ou :
√
drt = κ(θ − rt )dt + σ rt dWt (Heath-Jarrow-Morton).
Notons bien sûr que les modélisations par des processus de diusion, solutions d'EDS,
existent dans bien d'autres domaines que celui de la nance : génétique, mécanique,
météorologique par exemple.
Le premier modèle est celui présenté par Bachelier dans sa thèse en 1900 [1]. Il s'agissait
d'un modèle gaussien :
Les modèles ont été ensuite plus sophistiqués, mais celui-ci, à l'époque, s'ajustait assez
bien aux données de la Bourse de Paris.
5
très utilisé, d'où l'importance de bien estimer les paramètres du modèle : les fonctions b et
σ ci-dessus sont simplement des constantes, donc ce sont les deux paramètres à estimer ;
il n'y a qu'une action :
St+h −St
L'interprétation de cette EDS est la suivante : d log St ∼
St
∼ bh + σ(Wt+h − Wt ),
est l'accroissement relatif du prix de l'actif, soit son rendement sur une petite durée h.
On dit que la loi est log-normale (le log de l'actif suit une loi gaussienne, dont un
petit accroissement représente le rendement de l'action. Il s'agit d'une EDS linéaire
1 2
explicitement résoluble : St = exp(σWt + (b − σ )t). On pourrait même prendre St =
2
exp(σWt + bt). En eet, dans la pratique, on trouve comme ordres de grandeur b ∼
10−3 , σ 2 ∼ 10−7 en log de Francs par minute.
1.3.2 Vasicek
ou plutôt, comme l'on dit en calcul stochastique, processus de Ornstein-Uhlenbeck :
ou bien :
dSt = α(ν − St )dt + σdWt , t ∈ [0, T ], S0 = η,
η variable aléatoire gaussienne de moyenne m et variance τ 2, indépendante de W. Le
paramètre à estimer est θ = (µ, σ). Voir [9] page 191 où la solution explicite est donnée :
Z t
−αt
St = (η − ν)e +ν+σ e−α(t−u) dWu .
0
1.3.3 Cox-Ingersol-Ross
C'est un modèle utilisé principalement pour la courbe des taux ([9] page 188) :
√
drt = κ(θ − rt )dt + σ rt dWt .
Hull et White :
drt = (θ + at (b − rt ))dt + σt dWt ,
6
1.3.4 Modèle bilinéaire
dXt = (aXt + b)dt + σXt dWt .
Rappelons le modèle général donné par la dynamique (1). Il s'agit d'une diusion (cf.
par exemple `http://www.math.univ-toulouse.fr/ pontier/ensgnt.html Squ_insa.pdf ')
Dénition 1.2. Une diusion est le processus stochastique solution d'une telle EDS.
Remarquons qu'à l'origine le terme de diusion désigne un processus de Markov fort
à trajectoires continues (cf. Karlin-Taylor, 1981, chapitre 15).
Xt : Ω → R,
Preuve
(i) Tout élément A∈U se décrit avec des images réciproques d'applications coordonnées.
Cette remarque montre l'inclusion σ(U) ⊂ σ(Xs , s ∈ [0, T ]).
(ii) Pour tout s ∈ [0, T ], l'application Xs est continue pour la TCU, donc B -mesurable et
l'on a l'inclusion CT ⊂ B.
7
(iii) On utilise le fait que la topologie TCU sur Ω est séparable, ce qui entraîne que la
tribu des boréliens B est engendrée par la classe des boules de la forme
Dénition 1.4. La loi de probabilité PT sur (CT , CT )) image de P par la variable aléatoire
X s'appelle la loi de probabilité du processus (Xt , t ∈ [0, T ]). Elle est dénie par
Exemples :
(i) B = {x ∈ CT , x(t1 ) ≤ a1 , · · · , x(tn ) ≤ an } où t1 ≤ · · · ≤ tn , a ∈ Rn . Alors PT (B) =
P{ω : ω(t1 ) ≤ a1 , · · · , ω(tn ) ≤ an }.
T
(ii) B = {x ∈ CT , supt∈[0,T ] x(t) > a}. Dans ce cas, P (B) = P{ω : supt∈[0,T ] Xt (ω) > a}.
(iii) Plus généralement, si f est une application mesurable sur (CT , CT ),
Z Z
EP [f ] = f ◦ X(ω)dP(ω) = f (x)dPT (x) = EPT [f ].
Ω CT
Par exemple, si X est le mouvement brownien standard, P est dénie sur (Ω, A) en
sorte que l'image de P par le vecteur aléatoire (Xt1 , Xt2 − Xt1 , · · · , Xtn − Xtn−1 ) est la loi
gaussienne N (0, t1 ) ⊗ · · · ⊗ N (0, tn − tn−1 ).
De façon générale, la probabilité P est dénie sur (Ω, A) en sorte que l'image de P par
une application cylindrique est la loi d'un vecteur discrétisé du processus.
Proposition 1.5. (VGC page 7) La loi de probabilité P est caractérisée par ses réparti-
tions nies, c'est à dire : il sut de donner ∀k ∈ N, ∀t1 ≤ · · · ≤ tk , ∀a1 , · · · , ak ∈ Rk , la
quantité P{x, xti ≤ ai , i = 1, · · · , k}.
8
Cette proposition justie l'intérêt de l'introduction des cylindres.
Preuve : ces données dénissent P sur la classe U qui est une classe monotone, puis on
utilise le théorème de Carathéodory pour conclure.
Premier exemple : reprenons le mouvement brownien standard, P est dénie sur (Ω, A)
en sorte que l'image de P par le vecteur aléatoire (Xt1 , Xt2 − Xt1 , · · · , Xtn − Xtn−1 ) est la
loi gaussienne N (0, t1 ) ⊗ · · · ⊗ N (0, tn − tn−1 ), c'est à dire que
P(X0 = 0) = 1;
k ai u2
Z
Y 1 − 2(t
P(Xti − Xti−1 ≤ ai , i = 1, · · · , k} = p e i −ti−1 ) du.
1 2π(ti − ti−1 ) −∞
Z t
Xt = Wt + fsθ ds, où f ∈ L1loc (R+ , R).
0
R ti θ
Le vecteur (Xt1 , Xt2 , · · · , Xtn ) est sous P de loi F (⊗ni=1 N ( ti−1 fs ds, ti − ti−1 )) où F est
n n
l'application de R dans R : x 7→ (yi = x1 + · · · + xi ). Si 0 = t0 < t1 < · · · < tk ≤
T, (Xti − Xti−1 , i = 1, ..., k) est un vecteur aléatoire de composantes indépendantes et cha-
R ti θ
cune de loi gaussienne de moyenne
ti−1
f (s)ds et de variance ti − ti−1 . On peut comme
T
dans l'exemple précédent construire la probabilité P sur CT .
R ti
1 (xi − ti−1
fsθ ds)2
Πni=1 p exp − .
2π(ti − ti−1 ) 2(ti − ti−1 )
9
1.5 Rappels sur les EDS
On cherche à dénir Pθ , loi de Xθ sous P. Pour toute fonction g borélienne bornée sur
CT , d'une part
EQ [g(X θ )] = EP [g(W )],
et d'autre part
EQ [g(X θ )] = EP [Lg(X θ )],
Et si l'on utilise que P = L−1 .Q dWs = dXsθ − fsθ ds et EPθ [g] = EP [g(X θ )]
et :
Z T
1 T θ 2
Z
θ θ
EP [g(X )] = EQ [exp( fs dWs + (fs ) ds)g(X θ )]
0 2 0
Z T Z T
1
= EQ [exp( fsθ dXsθ − (fsθ )2 ds)g(X θ )]
0 2 0
Z T
1 T θ 2
Z
θ
= EP [exp( fs dWs − (fs ) ds)g(W )]
0 2 0
RT RT
montre que Pθ = exp( 0 fsθ dWs − 21 0 (fsθ )2 ds).PW , soit :
dPθ
Z T
1 T θ 2
Z
θ
(x) = exp[ ft dxt − (ft ) dt],
dPW 0 2 0
10
et la fonction de vraisemblance
Z T Z T
1
θ→
7 exp[ ftθ dxt − (ftθ )2 dt]
0 2 0
Z T Z T
1
θ 7→ ftθ dxt − (ftθ )2 dt
0 2 0
dPθ
Z T
1 T −1 θ 2
Z
−2 θ
(X) = exp[ σt ft dXt − (σt ft ) dt],
dP 0 2 0
Rt
et sous Pθ ,σ −1 (dXsθ − f (θ, s)ds) suit une loi de mouvement brownien, d'où pour ce
0 s
modèle la log-vraisemblance :
Z T Z T
1
σt−2 ftθ dXt − (σt−1 ftθ )2 ds.
0 2 0
Exemple : √
f (θ, s) = θ, σs = σ 1 + s2 , (4)
T
1 θ2
Z
θ dXs
− ArctgT
σ2 0 1 + s2 2 σ 2
1
RTdXs
qui est une fonction concave en θ et atteint son maximum pour θ̂ = ArctgT 0 1+s2
.
dXs θds σdBs σ2
Comme
1+s2
= 1+s 2 +
√
1+s2
, θ̂ est de loi gaussienne N (θ, ArtgT ). C'est un estimateur sans
biais, mais n'a aucune propriété de convergence lorsque T tend vers l'inni : ainsi, l'erreur
2
quadratique d'estimation décroit vers 2σ /T sans tendre vers 0.
11
1.6.2 Loi des estimateurs de maximum de vraisemblance, comportement
asymptotique
(VGC, 2.3, pages 18bis-19ter)
Considérons l'exemple particulier du modèle
où f et σ sont des fonctions connues et déterministes comme dans les exemples précédents.
La fonction de log-vraisemblance s'écrit
T T
θ2 f 2 (s)
Z Z
f (s)
lT (θ) = θ dXs − ds,
0 σ 2 (s) 2 0 σ 2 (s)
concave en θ, d'où l'on tire l'EMV
RT f (s)
0 σ 2 (s)
dXs
θ̂T = R T f 2 (s) .
0 σ 2 (s)
ds
R
Dans cet exemple, la loi de θ̂ est facile à trouver : c'est une gaussienne puisque dXt =
R
T −2
σ f (θf ds+σ dB ) RT RT
θft dt+σt dBt , et θ̂ = 0 s Ts σ−2s f 2 ds s s est de loi N (θ, ( 0 σs−2 fs2 ds)−1 ) car 0 σs−2 fs dXs =
R T −2 2 R T −1 0 s s
θ 0 σs fs ds + 0 σs fs dBs .
L'estimateur de maximum de vraisemblance θ̂ est donc sans biais et son comportement
R T −2 2
asymptotique dépend de
0
σs fs ds. Il n'y a pas de théorie générale ; tout dépend de
2 −2 2
ce que sont σ et f : il y a convergence L (donc en probabilité) dès que σs fs n'est pas
+
intégrable sur R , convergence presque sûre chaque fois que l'on peut mettre l'estimateur
sous la forme d'une moyenne de variables aléatoires intégrables indépendantes et de même
loi (loi des grands nombre).
On a plus généralement la convergence presque sûre par un théorème de convergence
de martingales : si M est une martingale locale continue, telle que hM it converge presque
sûrement vers l'inni quand t tend vers l'inni, alors
Mt
→ 0.
hM it
Dans cet exemple, l'estimateur est bien une martingale et on peut conclure ici que θ̂T
R t −2 2 −1
converge presque sûrement vers θ à l'inni dès que hM it = ( σ fs ds) converge quand
0 s
t tend vers l'inni.
Dans l'exemple (4), l'estimateur θ̂ n'est même pas consistant puisque Arctg T converge
vers π/2 pour T inni, et l'erreur quadratique d'estimation décroit vers 2σ 2 /T sans tendre
vers 0.
On peut nalement retenir quelques faits. Ou bien les EMV se calculent de manière
explicite en fonction des processus observés (c'est le cas des précédents exemples) et on
peut alors étudier directement ces estimateurs.
12
Sinon, on les étudie directement sur l'équation qui les dénit. La forme explicite des
fonctions de dérive b(t, θ) et de volatilité σ(t, θ) fournit les éléments de l'étude asympto-
tique des EMV lorsque T tend vers l'inni.
1.6.3 Contraste
Quand on ne peut rien tirer de la vraisemblance, une alternative est de considérer le
schéma d'Euler sur les observations discrétisées, par exemple :
13
Ceci donne pour l'exemple précédent lorsque σ = 1,
Y X [xi+1 − xi − ∆f (θi∆)]2
p(xi , xi+1 ; θ) = exp −
i i
2∆
X
C(θ) = (Xi+1 − Xi − ∆f (θi∆)]2 .
i
1 0 X
C (θ) = if 0 (θi∆)(xi + ∆f (θi∆) − xi+1 )
2∆2 i
1 00 X
C (θ) = i2 ∆f ”(θi∆)(xi + ∆f (θi∆) − xi+1 ) + (i∆)2 (f 0 (θi∆))2 .
2∆2 i
14
2 Modèle de Black et Scholes
Louis Bachelier a soutenu sa thèse le 29 Mars 1900. Son oeuvre prophétique n'a d'abord
eu aucune reconnaissance de la part des mathématiciens français tels Borel et Lévy par
exemple. En revanche, elle a été d'abord reconnue à Moscou par Khinchine et Kolmogorov
vers 1930, avant d'être redécouverte in extremis par Lévy en 1944 (Bachelier est mort en
1946 !) et plus tard par la communauté internationale dans les années soixante[...]
Borel, pour sa part, se contente de considérer Bachelier comme un mathématicien
assez faible (il ne fait partie du sérail à aucun titre, ni normalien, ni polytechnicien, une
mention honorable seulement pour sa thèse de mathématiques, autant dire rien du tout)
mais original et en tout cas méritant, qu'il convient d'aider dans une certaine mesure si
l'occasion s'en présente [...]
Signalons qu'en revanche Bachelier s'est vu refuser par la commission de mathéma-
tiques de la faculté des sciences de Paris en 1909 une subvention spéciale pour l'impression
de son livre (qui sera publié à compte d'auteur en 1912) avec ce rapport de Jules Tannery :
M. Bachelier a demandé une subvention de 3000 francs pour lui permettre d'imprimer ses
recherches sur le calcul des probabilités. La commission ne propose pas d'accorder cette
subvention, d'autant que les travaux que M. Bachelier voudrait éditer ne lui ont pas paru
diérer essentiellement de ceux qu'il a publiés dans le journal de M. Jordan et les Annales
de l'ENS.
Rappelons que le traité de Bachelier de 1912 a joué un rôle important en Europe dans
les années trente et aux Etats-Unis après la deuxième guerre mondiale...
(d'après Bernard BRU, bulletin 60, octobre 1999, SMAI)
2.1 Le modèle
15
Exercice : Ecrire la famille des lois. La famille est dominée par la mesure de Lebesgue.
On obtient pour un N −échantillon de la trajectoire, puisque les accroissements sont in-
dépendants :
PN N 2
θ (x) = ⊗i=1 N (b∆, σ ∆)(xi+1 − xi ).
2.2 Vraisemblance
On observe que toutes les lois de cette famille sont dominées par la mesure de Lebesgue,
on est donc dans les conditions d'application de la vraisemblance. On obtient
N −1
1 1 X
L(θ) = θ 7→ √ exp[− 2 (ξt − ξti − b∆)2 ].
(σ 2π∆)N 2σ ∆ i=0 i+1
Si l'on change de mesure dominante, par exemple ν = g.µ, la vraisemblance est multipliée
par la densité de µ par rapport à ν, indépendante de θ, donc ne jouant aucun rôle au
regard de la vraisemblance.
Dans le cas de ce modèle exponentiel, il est clair que l'on a tout intérêt à utiliser plutôt
la log-vraisemblance que l'on note l(θ).
N −1
N 2 1 X
l(θ) = − log σ − 2 (ξti+1 − ξti − b∆)2 .
2 2σ ∆ i=0
ξT − ξ0 1X
b̂ = ; â = (ξti+1 − ξti − ∆b̂)2 .
T T i
Il faut vérier que ce couple réalise un maximum de la fonction l ; d'une part l est concave
en b et donc pour tout a b̂ réalise un maximum.
Ensuite, on a successivement :
N 1 X
∂a l = − + 2 (ξti+1 − ξti − ∆b̂)2
2a 2a ∆ i
et
N 2 X
∂a2 l = − (ξti+1 − ξti − ∆b̂)2
2a2 2a3 ∆ i
et le tableau de variation en fonction de a montre que l'on a bien un maximum.
16
2.3 Variations quadratiques
N −1
1 X
σ˜2 = (ξt − ξti )2 = â + (b̂)2 ∆
T i=0 i+1
dont on sait ([21] ou [28]) qu'elle converge vers le crochet de la diusion hξiT et dont la loi
2
(au coecient σ /N près...) est celle d'un chi-deux (à n degrés de liberté) décentré de la
√
b ∆
quantité qui est petite en même temps que ∆. En eet, c'est la norme au carré d'un
σ
N −vecteur gaussien de variables aléatoires indépendantes de moyenne √b∆T et de variance
a∆
T
= Na .
ξT WT
bbT = , soit la variable aléatoire b+σ ,
T T
17
N −1
σ2 X WT 2
ac
T = (∆i W − ) ).
T i=0 N
Les Xi = ξti+1 − ξti sont des variables aléatoires indépendantes, de loi de Gauss (b∆, σ 2 ∆)
et le théorème de Cochran montre alors que les deux estimateurs sont indépendants et
σ2
que le couple est de loi N (b,
T
) ⊗ χ2N −1 à un coecient multiplicatif près (σ 2 /N ).
2 −1
- Le biais de ce couple d'estimateurs est donc (0, σ ),
N
2 3 2
σ 4 2(N −1) +N
- l'erreur quadratique est ( , σ ( ).
T N4
2
√ De fait, 2on peut montrer que ac T − σ converge presque sûrement vers 0 et que
N (caT − σ ) converge en loi vers une gaussienne centrée de variance 2σ 4 .
2.5 Asymptotique
N
aX WT 2
ac
T = (∆i W − ),
T i=1 N
N
a X ∆i W 2 WT 2
ac
T = ( √ ) − a∆( ).
N i=1 ∆ T
D'après l'étude de b̂T , le deuxième terme converge presque sûrement vers 0. De même, en
utilisant la loi des grands nombres, on peut voir que le premier terme, moyenne de i=1à
i=N de variables aléatoires indépendantes deux à deux et intégrables, converge presque
sûrement vers a, et donc ac
T est encore un estimateur consistant. Avec le théorème de
la limite centrale, on peut de plus montrer une convergence en loi lorsque T tend vers
l'inni : √
aT − a) → N (0, 2a2 ).
N (c
18
De plus, l'erreur quadratique est en
√ 1/T : il y a donc également convergence dans L2 et
on a une convergence en T.
b) Lorsque ∆ tend vers 0 avec T xe, on a encore N = T /∆ tend vers l'inni, et les
c) Lorsque ∆ tend vers 0 et T tend vers l'inni, N tend aussi vers l'inni, les estimateurs
sont asymptotiquement sans biais, convergents dans L2 , et consistants grâce à la loi des
grands nombres :
bbT converge presque sûrement vers b, l'erreur quadratique est en 1/T : il y a donc égale-
√
ment convergence dans L2 et on a une convergence en T et on a la convergence en
loi : √
T (bbT − b) → N (0, a).
Par ailleurs,
a X ∆i W 2 WT 2
ac
T = ( √ ) − a∆( ).
N i ∆ T
19
La conclusion est ici qu'on estime simultanément de façon consistante a et b, et que
l'on obtient des lois asymptotiques gaussiennes :
√ √
T (bbT − b) de loi N (0, 1) ; aT − a) → N (0, 2a2 ).
N (c
Notons qu'ils n'ont pas la même vitesse de convergence : celle de ac
T est plus rapide.
d) Le cas de la petite variance se présente lorsque T est xe mais que σ est connu et
W σ2
tend vers 0. Alors, bbσ = b + σ T , bbσ − b est de loi N (0,
T T
) et σ1 (bbσ − b) est de loi N (0, T1 ).
2.6
On peut enn chercher des intervalles de conance. On tire du fait que bbT − b suit une
σ2
loi de Gauss N (0, ) l'encadrement (lorsque σ est connue)
T
p
P{|bbT − b| ≤ C} = N (0, 1){|y| ≤ C T /σ 2 }
et au niveau 0.05, on obtient l'intervalle de conance pour b
σ σ
b ∈ [bbT − 1.64 √ , bbT + 1.64 √ ].
T T
Cet intervalle est intéressant aussi bien pour T grand que σ petit. On voit là que les
T
grand, ou σ petit.
c
résultats sont bons dans les deux cas :
a N
De même, cette fois lorsque σ est inconnue, T 2 suivant une loi de chi-deux à N − 1
σ
a N
degrés de liberté, pour N = 30 par exemple, on obtient P{16.8 ≤ T 2 ≤ 47} = 0.95, d'où
c
σ
l'intervalle de conance
30 30
σ 2 ∈ [c
aT , ac
T ].
47 16.8
2.7 Extensions
20
On cherche à estimer θ. Dans ce cas, la vraisemblance s'écrit
N −1
Rt
Y 1 (xi − tii+1 b(s, θ)ds)2
L(θ) = q R exp[− R ti+1 ].
ti+1 2 2 σ 2 (s, θ)ds
i=0 2π σ (s, θ)ds
ti ti
La log-vraisemblance s'écrit :
N −1
R ti+1
ti+1 (x − b(s, θ)ds)2
Z
X 1 2 i ti
l(θ) = − log σ (s, θ)ds − Rt ,
i=0
2 ti 2 tii+1 σ 2 (s, θ)ds
où sont les valeurs observées pour les variables aléatoires Yi = Xti+1 − Xti qui sont
xi
R ti+1 Rt
indépendantes et suivent des lois gaussiennes N (
ti
b(s, θ)ds, tii+1 σ 2 (s, θ)ds). Le calcul
de l'EMV n'est pas forcément aisé selon la forme de b et σ .... Cependant, le calcul par
une méthode numérique des EMV est possible dans la mesure où la vraisemblance est
explicite.
Exercices : voir ce que cela donne avec
. b(t, θ) = tm, σ(t, θ) = σ, θ = (m, σ).
. b(t, θ) = mf (t), σ(t, θ) √
= σ, θ = (m, σ).
. b(t, θ) = m, σ(t, θ) = σ 1 + t2 , θ = (m, σ).
Premier exemple :
N −1
X 1 2 1 (Yi − m 12 h2 (2i + 1))2
l(θ) = [− log(σ h) − .
i=0
2 2 hσ 2
PN −1 1
i=0 Xi (i + 2 )
m
cT = P −1 ].
h2 N 1 2
i=0 (i + 2 )
σ2
C'est un estimateur sans biais de variance
h
.
On peut montrer que le suivant est aussi EMV :
N −1
1 X 1
ac
T = (Yi − (i + )m̂h2 )2 .
T i=0 2
21
2.8 Simulations
Un mot en conclusion sur les simulations : lorsque l'on ne dispose pas de données réelles,
ou pour valider la méthode d'estimation que l'on a choisie, il est intéressant de simuler des
données. Ceci est particulièrement vrai lorsqu'on sait faire une simulation exacte de la
trajectoire observée. C'est le cas des modèles de processus à accroissements indépendants
gaussiens. Soit à simuler (ξti , i = 1, N ) lorsque la trajectoire ξ est dénie par :
sZ
Z ti+1 ti+1
ξti+1 = ξti + b(s, θ)ds + σ 2 (s, θ)ds.εi ,
ti ti
22
3 Modèle de Vasicek
L'équation (5) est une équation diérentielle stochastique de paramètres à estimer (θ, σ) ∈
+
R×R .
Proposition 3.1. L'équation (5) admet l'unique solution
Z t
θt
Xt = e η + σe θt
e−θs dWs .
0
et la variable aléatoire Zt,∆ = Xt+∆ − eθ∆ Xt est de loi gaussienne N (0, σ2 e ) indépen-
2θ∆ −1
2θ
dante de Xt .
Preuve : (i) l'unicité est conséquence de la théorie des équations diérentielles
stochastiques car les coecients sont lipschitziens : b(x) = θx, σ(x) = σ. Mais plus
1 2 1 2
simplement, si X et X sont solutions, X − X est solution de l'équation diérentielle
ordinaire
d(Xt1 − Xt2 ) = θ(Xt1 − Xt2 )dt, (X01 − X02 ) = 0,
qui admet l'unique solution identiquement nulle sur R+ .
(ii) Le fait que la solution est de cette forme, une fois l'unicité établie, est conséquence
de la dérivation de Itô de la forme proposée ; il s'agit d'une simple vérication (exercice).
(iii) On écrit les deux termes de la diérence cherchée :
Z t Z t+∆
−θs
θ∆ θt
Xt+∆ = e e η + σe e [ e dWs +θ∆ θt
e−θs dWs ],
Z t 0 t
et on simplie. Puisque θ et ∆ sont réels, on a clairement que la variable aléatoire Zt,∆ suit
2 2θ(t+∆) t+∆ −2θs
R
une loi gaussienne, centrée, de variance σ e e ds qui se calcule aisément.
t
23
Remarque 3.2. Si η est gaussienne, indépendante de W, Xt est aussi gaussienne, de loi
). De plus, X est alors un processus gaussien, de fonction de
2θt −1
N (eθt E[η], e2θt ση2 + σ 2 e 2θ
covariance
e2θt − 1
cov(Xt , Xs+t ) = eθs [e2θt ση2 + σ 2 ).
2θ
Preuve : k, tout k−uple croissant (t1 , · · · , tk ), le vecteur (Xt1 , · · · , Xtk )
(i) pour tout
η k 2 e2θ(ti+1 −ti ) −1
est de loi image par F linéaire de la loi P ⊗1 N (0, σ ). Comme F est linéaire
2θ
(de fait sa matrice est triangulaire avec des 1 sur la diagonale, et le jacobien vaut 1) la
loi image est gaussienne, et le processus est gaussien.
3.2 Discrétisation
θh
Donc, si l'on pose Yi = Xih , Yi+1 est e Yi plus une gaussienne indépendante, centrée,
2θh −1
2e
de variance σ et l'on peut considérer que (Yi ) est une suite solution de l'équation
2h
ARMA : r
e2θh − 1
Yi+1 = eθh Yi + σ εi+1
2θ
où la suite ε est un bruit blanc.
24
3.3 Fonction de vraisemblance du modèle discrétisé
On suppose ici que η = x déterministe dans R et connu. Les observations se font aux
N N θ,σ
temps ih, i = 0, · · · , N ; T = hN ). Le modèle statistique est alors (R , B(R ), P ) où la
θ,σ 2
densité de P par rapport à la mesure de Lebesgue est donnée par (a = σ ) :
N
Y 1 (xi − eθh xi−1 )2
L(θ, a) = exp − 2hθ
2 e 2θ−1 a
q
2hθ
i=1 2π e −1 a
2θ
N
X (xi − eθh xi−1 )2
1 N N
− [log a + log v(θ) + e2hθ −1
]
2 i=1 2θ
a
e2hθ −1
où v(θ) = 2θ
.
1 1 X
L : (θ1 , θ2 ) 7→ − N log θ2 − (xi − θ1 xi−1 )2 .
2 2θ2 i
On obtient : P
xi xi−1 1 X
θ̂1 = Pi 2 ; θ̂2 = (xi − θ̂1 xi−1 )2 .
x
i i−1 N i
Ceci se justie par l'étude de L. Le gradient de L est
1 X N 1 X
∇θ1 l = xi−1 (xi − θ1 xi−1 ); ∇θ2 l = − + 2 (xi − θ1 xi−1 )2 .
θ2 i 2θ2 2θ2 i
L est concave en sa première variable. La même étude que celle menée en 2.2 conduit au
résultat.
Il faut remarquer que θ̂1 est censé estimer une exponentielle, mais n'est pas forcément
positif ; si l'on exprime l'estimateur, il vient au numérateur (le dénominateur est positif ) :
X
(ehθ X(i−1)h + Z(i−1)h,h )X(i−1)h
i
dont la loi est connue : la variance de Z est négligeable devant celle de X, aussi la
probabilité que certains des termes de la somme soient négatifs est faible. Donc, la
probabilité que la somme est négative est faible.
25
3.4 Propriétés
3.4.1 AR(1)
D'après la discrétisation, on tire évidemment les estimations des coecients de l'équation
ARMA et toutes les propriétés classiques
(cf. cours ????.)
Par exemple, si h est petit, v(θ) est proche de h, la log vraisemblance est proche de
N 1 X
− log a − (xi − xi−1 − θhxi−1 )2 ,
2 2ah i
1 X
ã = (xi − xi−1 )2 ,
Nh i
PN
i=1 xi−1 (xi − xi−1 )
θ̃ = .
h N 2
P
i=1 xi−1
Les formules donnant θ̃ et ã dénissent d'autres estimateurs que l'on peut étudier
également. Ainsi, lorsque T est xe et N tend vers l'inni, le pas h tend vers 0, et presque
sûrement, au sens des intégrales de Stieljes, θ̃ converge vers
RT
Xs dXs
R0 T .
0
Xs2 ds
N Z
X N Z
X N
X
2 2 2
T ã = θ ( Xs ds) + 2θσ Xs ds∆i W + σ (∆i W )2 .
i=1 Ii i=1 Ii i=1
√
Presque sûrement, le premier terme est un O(h), le second un O( h) et le dernier converge
2
presque sûrement vers σ T. On a donc un estimateur consistant de a. On reprendra ceci
plus en détail au paragraphe 3.6.3
26
3.6 Asymptotique
Proposition 3.4. :
(i) Si θ < 0, Xt converge en loi lorsque t tend vers l'inni vers la loi N (0, −2θ
a
).
(ii) Si θ > 0, Xt e converge dans L (P) et presque sûrement vers Zθ = η +σ 0 e dWt .
−θt 2
R ∞ −θt
(i) Si θ < 0, eθt η converge presque sûrement vers 0, donc en probabilité, donc en loi.
Le deuxième terme est une variable aléatoire gaussienne ; sa convergence en loi est assurée
dès que son espérance et sa variance converge. Or, l'espérance est nulle et la variance est
2θt 2θt
a e 2θ−1 . De plus, limt→∞ a e 2θ−1 = −2θ a
.
−θt t −θs R∞
= η+σ R 0 e dWs . Il sut d'examiner la limite de k t e−θs dWs k22 .
R
(ii) Si θ > 0, Xt e
∞ −2θs
Or cette norme au carré vaut
t
e ds = e−2θt dont la limite est nulle à l'inni, d'où le
résultat.
R t −θs
Remarquons de plus que t 7→ e dWs est une martingale ; si elle converge dans
0
2 1
L
R ∞, elle converge dans L , elle est donc régulière et converge presque sûrement vers
−θs
0
e dW s.
Nous avons décrit le comportement asymptotique de Xt pour t inni ; ceci sera utilisé
pour le comportement asymptotique des estimateurs de la section 3.5 obtenus sur la base
d'une observation continue de X sur tout l'intervalle de temps.
27
est bien dénie presque sûrement. Par conséquent, la convergence se déduit grâce au
facteur σ. Plus précisément,
R . −θs par les inégalités de Burkholder, on contrôle tous les moments
de la martingale
0
e dW s : il existe une constante Cp > 0 telle que :
Z t Z T
−θs
k sup | e dWs |kp ≤ Cp k e−θs dWs kp , ∀p ≥ 1.
0≤t≤T 0 0
1 X
ã = (xi − xi−1 )2 ,
Nh i
PN
i=1 xi−1 (xi − xi−1 )
θ̃ = .
h N 2
P
i=1 xi−1
R ih
(a) D'après le schéma de discrétisation Xi h−X(i−1)h = θ (i−1)h
Xs ds+σ(Wih −W(i−1)h ).
Donc au carré :
Z ih Z ih
2 2 2
(Xih −X(i−1)h ) = θ ( Xs ds) +2σθ(Wih −W(i−1)h ) Xs ds+σ 2 (Wih −W(i−1)h )2 .
(i−1)h (i−1)h
2 2 ∗ 2
Le premier terme est majoré par θ h (XT ) , de moyenne de i = 1 à N majorée par
1
Nh
N θ h (XT ) , qui est un O(h) (on note XT∗ = sup0≤s≤T |Xs | qui est presque sûrement
2 2 ∗ 2
ih
1 √ 2 ∗ √
Z s
1 X X
| σθ(Wih −W(i−1)h ) Xs ds| ≤ N θ hXT σ 2 (Wih − W(i−1)h )2 = O( h).
Nh i (i−1)h Nh i
√
N (ã − σ 2 ) converge en loi vers N (0, 2σ 2 )
R
(b) On montre que θ̃N converge presque sûrement vers θ̂T = R
T
0 Xs dXs
T 2
.
0 Xs ds
28
3.6.4 T tend vers l'inni et h = NT tend vers 0
Lorsque T tend vers l'inni, on peut étudier le comportement de l'estimateur θ̃. On
R
suppose pour simplier que X0 = 0 et σ = 1.
R
T
Xs dXs
L'estimateur θ̂T = 0 T 2 a quelques bonnes propriétés, mais diciles à montrer.
0 Xs ds
On étudie la diérence :
RT RT
Xs (dX s − θX s ds) Xs dWs
θ̂T − θ = 0 RT = R0 T .
0
Xs2 ds 0
Xs2 ds
√
(i) Si θ < 0, on peut montrer que T (θ̂T − θ) converge en loi vers une gaussienne
N (0, −2θ).
(référence : un article de 1985, Mishra et Prakasa-Rao ; on utilise TCL et martingales)
.. On peut montrer (mais c'est long et dicile : 3-4 pages...) que le couple
Z t Z t
− 21 −1
(mt (θ) Xs dWs , mt (θ) Xs2 ds)
0 0
√
converge en loi vers (U Zθ , Zθ ), où U et Zθ sont indépendantes et U gaussienne, centrée,
réduite.
Ce dernier point implique la convergence cherchée
29
3.7 Extensions
pour tout (t, θ) ∈ R+ ×Θ, ce qui assure l'existence d'une unique solution forte de l'équation
diérentielle stochastique (7).
On peut faire la même étude que précédemment ; toutefois, les calculs et les expressions
obtenues sont plus complexes.
C'est une simple vérication par la formule de Itô (l'unicité obtenue grâce aux hy-
pothèses sur (a, b, σ)).
Soit
Z ti
αi = exp( as ds),
ti−1
Z ti Z ti R
s
mi = exp( as ds) × [ bs e− 0 au du
ds],
0 ti−1
Z ti Z ti R s
σi2 = exp(2 as ds) × [ σs2 e−2 0 au du
ds].
0 ti−1
30
Calculer les estimateur de maximum de vraisemblance du paramètre (θ, σ2 )
fondés sur l'observation du vecteur (Xt , i = 1, · · · , N ) lorsque ti = ih, i = 1, · · · , N.
i
On pose F telle que F0 = f ; on a
Et la log-vraisemblance s'écrit :
1 1 (xi − αi xi−1 )2
Πi p exp[− .
2πσi2 2 σi2
Là encore, pour mener les calculs à bout, on peut supposer la discrétisation assez ne
pour remplacer les exponentielles de petit exposant par 1 plus l'exposant petit.
3.8 Conclusion
On peut ajouter que ce qui vient d'être fait pour ces deux classes d'exemples ne peut être
reproduit pour d'autres modèles. En eet, le trait particulier commun aux deux exemples
est que la loi jointe du vecteur (Xti , i = 1, · · · , N ) est connue de façon explicite, ce qui
n'est pas le cas pour des modèles généraux de diusion. D'où la nécessité d'introduire un
nouvel outil : le contraste.
31
4 Schéma d'Euler et fonction de contraste
Dans des cas plus généraux que les deux modèles précédemment traités, la vraisemblance
exacte n'est pas explicite. Une alternative est de discrétiser le modèle par un schéma
d'Euler. On substitue à la vraisemblance du modèle celle du schéma discrétisé (qui est
un processus de Markov) appelée alors contraste.
4.1.1 Le modèle
dXt = b(θ, t, Xt )dt + σ(θ, t, Xt )dWt , X0 = η, θ ∈ Θ ⊂ Rp . (9)
N
Y 1 (yi − yi−1 − hb(c, yi−1 ))2
L(θ; y1 , · · · , yN ) = √ exp[− ]
i=1 2πσ 2 h 2σ 2 h
32
On pose a = σ2. L'étude des estimateurs de minimum de contraste (EMC) donne
N
X
c̃N = arg inf (yi − yi−1 − hb(c, yi−1 ))2 , (11)
i=1
N
1 X
ãN = (yi − yi−1 − hb(c̃, yi−1 ))2 , (12)
T i=1
ce qui réalise bien le maximum de C par une étude analogue à celle déjà vue, utilisant
N
P N
i=1 (yi −yi−1 −hb(c̃,yi−1 ))
2
∂a l == − 2a + ,
P N
2a2 h
i=1 (yi −yi−1 −hb(c̃,yi−1 ))
2
∂a22 l == N
2a2
− a3 h
Pour l'optimisation de c 7→ C(a, c), (yi )), cela dépend de la fonction b ; on peut opérer
avec du calcul numérique. Il reste deux problèmes théoriques : l'existence d'un optimum
et la vitesse de convergence.
Les résultats ci-dessous ne sont pas vraiment rédigés quelque part, et l'étude de ces esti-
mateurs de minimum de contraste est assez délicate, suivant Valentine Genon-Catalot, il
faut distinguer deux cas
- d'abord h = T /N avec T xe et N tendant vers l'inni ; dans ce cas, on estime les
paramètres du coecient de diusion. Les estimateurs sont consistants, leur loi est asymp-
totiquement un mélange de gaussiennes (ce sont des théorèmes limites très diciles) ;
- cas où h tend vers 0 et TN = hN tend vers l'inni : là, il faut avoir des hypothèses
d'ergodicité sur le modèle qui dépendent de l'étude du processus X et ensuite, il faut
des théorèmes spéciques, pas simples, qui sont l'objet de thèses et d'articles références
à chercher
Proposition 4.1. Si a = σ2 est connu, on a la convergence en loi lorsque N tend vers
l'inni : √ L
N (c̃N − c) −−−−→ N (0, Vh (c)).
N →+∞
33
Par ailleurs, pour la variance, si l'on suppose h petit et b bornée, on peut prendre
plutôt l'estimateur dit naturel :
N
1X
ã1N = (Yi − Yi−1 )2
T i=1
et on peut prouver
Preuve : ã1N = T1
PN 2 1 1
PN 2 2
i=1 (Y i −Y i−1 ) est d'espérance E[ã N ] = T i=1 h E[b (c̃, Yi−1 )]+a
qui converge vers a par exemple si b est bornée et l'estimateur est asymptotiquement sans
biais.
Par ailleurs, cette variable aléatoire vérie :
N
√ √ 1 X
N (ã1N − a) = N[ ((Yi − Yi−1 )2 − ha)]
N h i=1
d'où il vient
√ N N N
√ N 2X 2 X X
N (ã1N − a) = [h b (c, Yi−1 ) + a( 2
∆i W − T ) + 2hσ b(c, Yi−1 )∆i W ]
hN i=1 i=1 i=1
√
Si b est borné, par le théorème de la limite centrale, le premier terme est un O( h), le
deuxième converge en loi vers une loi normale :
2
P
i (∆i W ) −T L
√ −−−−→ N (0, 1),
h 2N N →+∞
et le troisième est analogue à celui d'une précédente étude : il ne peut être brutalement
majoré par la racine du produit des somme des carrés qui est un O(1). On opère de
façon plus subtile. Le coecient de 2hσ est une somme qui, par dénition de l'intégrale
stochastique, converge en probabilité vers une intégrale :
N
X Z T
b(c, xi−1 )∆i W → b(c, Xs )dWs .
i=1 0
√
N
Ce terme multiplié alors par
hN
2hσ = 2σ √1N converge donc en probabilité, donc en loi,
vers 0.
34
4.2 Modèle de Brennan-Schwartz ou Cox-Ingersol-Ross
C'est un modèle utilisé principalement pour la courbe des taux ([9] page 188) :
p
dXt = α(β − Xt )dt + σ
Xt dWt , t ∈ [0, T ], X0 > 0.
2 + √
Ici, θ = (α, β, σ) ∈ R × R , et b(θ, x) = α(β − x), σ(θ, x) = σ x. Cette EDS admet une
solution forte pour toutes les valeurs du paramètres car b et σ sont localement lipschitzi-
ennes. De fait, le calcul stochastique montre que l'on peut choisir les paramètres α et β
tels que Xt et Yi sont presque sûrement strictement positifs. La discrétisation donne la
chaîne de Markov :
√
Yi+1 = Yi + α(β − Yi )h + σ Y i ∆i W, Y0 > O.
N
Y 1 (yi − yi−1 − hα(β − yi−1 ))2
p exp[− ], y0 > 0,
i=1 2πσ 2 hyi−1 2σ 2 hyi−1
et le contraste :
N
1 1 X [yi − yi−1 − hα(β − yi−1 )]2
C(θ; y1 , · · · , yN ) = N log σ 2 + 2 .
2 2σ h i=1 yi−1
N
X h(β − yi−1 )(yi − yi−1 − hα(β − yi−1 ))
Fα0 = − (13)
i=1
yi−1
N
X h2 (β − yi−1 )2
Fα00 = ≥0 (14)
i=1
yi−1
N
X αh(yi − yi−1 − hα(β − yi−1 ))
Fβ0 = − (15)
i=1
yi−1
N
X 2 2 α h
Fβ00 = ≥0 (16)
i=1
yi−1
35
et sous réserve de vérier à l'aide de la matrice D2 F que le 0 du gradient réalise bien un
minimum de F, l'étude des estimateurs de minimum de contraste (EMC) donne à résoudre
le système :
N
X (yi − yi−1 )(β − yi−1 ) − αh(β − yi−1 )2
= 0, (17)
i=1
yi−1
N
X (yi − yi−1 ) − αh(β − yi−1 )
= 0, (18)
i=1
yi−1
(yN − y0 )BN − N AN
α̃N = , (19)
h(N 2 − DN BN
N (yN − y0 ) − DN AN )
b̃N = . (20)
BN (yN − y0 ) − N AN
en ayant posé :
N N N
X yi − yi−1 X 1 X
AN = ; BN = ; DN = yi .
i=1
yi−1 y
i=1 i−1 i=1
P yi −yi−1
i y AN
α= P 1i−1 =
h[β i yi−1 − N) h(βBN − N )
et de la première
P yi −yi−1 P
β iy
− − yi−1 )
i (yi βAN − (yN − y0 )
α= P i−11 P = .
h(β 2
i yi−1 − 2βN + i yi ) h(β 2 BN − 2N β + DN )
On égalise les deux expressions dont on tire la valeur de β̃ que l'on reporte dans l'une des
expressions de α pour avoir α̃. Ceci se fait sans connaissance de la variance.
Le contraste en fonction de cette variance est de même nature que les précédents dont
le minimum est atteint pour:
N
1 X [(yi − yi−1 ) − α̃h(β̃ − yi−1 )]2
ãN = .
T i=1 yi−1
36
4.3 Résultats généraux pour l'asymptotique
Dénition 4.3. Si fθ (x) est la densité du modèle paramétré par rapport à la mesure
dominante, et si α et θ sont deux éléments de l'ensemble Θ tels que log ffαθ ∈ L1 (Pθ ), alors
l'information de KULLBACK K(Pθ , Pα ) = Eθ (log ffαθ ).
Remarquons que Eθ (log ffαθ ) = Eα ( ffaθ log ffαθ + 1 − ffαθ ) ≥ 0 puisqu'une étude rapide
de la fonction x 7→ x log x + 1 − x montre qu'elle est positive ; de plus elle atteint son
minimum en x = 1 soit, pour ce qui concerne l'information de KULLBACK, si θ est le
vrai paramètre, a 7→ K(Pθ , Pa ) est minimum en a = θ et vaut alors 0.
Un résultat asymptotique intéressant est le suivant :
n
1X fα fα
log (Xi ) → Eθ (log ) = −K(Pθ , Pα ) ≤ 0
n i=1 fθ fθ
1 x̃Tn (f )−1 x
Pf (x1 , · · · , xn ) = p exp(− )
(2π)n |Tn (f )| 2
où Tn (f ) est la matrice de covariance (γ(i − j) = cov(Xi , Xj ), 1 ≤ i, j ≤ n) et |Tn (f )| son
déterminant. Dans ce cas, deux résultats de séries chronologiques montre la convergence
(1.3.23 et 24,[7] page 30) : ∀α,
Z 2π
1 1
log |Tn (fα )| → log |2πfα (λ)|dλ.
n 2π 0
1 1
X̃n ((Tn (fα ))−1 − (Tn (fθ ))−1 )Xn − Eθ [ X̃n ((Tn (fα ))−1 − (Tn (fθ ))−1 )Xn ] → 0
n n
37
Or cette espérance vaut
1
n
trace(Tn (fα )(Tn (fθ ))−1 − I) de limite quand n tend vers l'inni
Z 2π
1 fα
(λ)dλ − 1
2π 0 fθ
1 Pθ
log (x1 , · · · , xn ) → −K(fθ , fα )
n Pα
R 2π
mais qui est ici
1
4π 0
(log ffαθ + fα
fθ
− 1)(λ)dλ. dans L2 (Pθ ) ([7] page 91, ex. 3).
4.3.1 Contrastes
De façon plus générale que dans le schéma d'Euler, on a la dénition suivante ([7] page
92) :
Dénition 4.6. Lorsque les expériences sont décrites sur une espace (Ω, A, (Ft , t ∈ T ), P),
un contraste relatif à un couple (paramètre θ, fonction K ) est une application U (in-
dépendante de θ) de Θ × T × Ω dans R+ telle que
(i) ∀(α, t) ∈ Θ × T, U (α, t, .) est Ft -mesurable.
(ii) U (α, t, .) converge en Pθ probabilité vers K(θ, α) lorsque t tend vers l'inni.
Alors, θ̂t = arg min(U (α, t), α ∈ Θ) s'appelle un estimateur de minimum de con-
traste (EMC, noté C(θ, K)).
Dans l'exemple des suites stationnaires gaussiennes centrées de densité spectrale f, la
ltration est discrète, (X1 , · · · , Xn ) est de densité spectrale fα , on propose
Z π
1 In (λ)
U (α, n, .) = − [log fα (λ) + ]dλ
4π −π fα (λ)
Pn
où In (λ) = 1
2πn
| p=1 Xp e−ipλ |2 est le spectrogramme, estimateur de la densité spectrale.
ou bien
L
v(t)[θ̂t − θ] −
→ Gθ
en loi, avec Gθ de loi connue ce qui permet d'obtenir des régions de conance. Par exemple,
on recherche des normalités asymptotiques.
39
4.3.4 Lois limites
Une autre notion importante est celle-ci :
n
1 1 X
c 7→ C(c; y1 , · · · , yn ) = − n log σ 2 − 2 [yi − yi−1 − hb(c, yi−1 )]2 .
2 2σ h i=1
40
Proposition 4.12. Si c̃n est l'estimateur de maximum de contraste, alors on a la con-
vergence en loi lorsque nh3n tend vers 0 :
p
nhn (c̃n − c) → N (0, I −1 (θ0 ))
n N
1X 2
X [yi − yi−1 − hb(c, yi−1 )]2
C(θ; y1 , · · · , yn ) = − [ log a (σ, yi−1 ) + .
2 i=1 i=1
2a(σ, yi−1 )
L'EMC obtenu pour θ n'est pas explicite. La méthode proposée est d'eectuer des
développements limités au voisinage de hn = 0.
N
1X
ãN = (Xih − X(i−1)h )2
T i=1
dont on sait que c'est une variable aléatoire de loi a fois un chi-deux à N degrés de liberté ;
donc c'est un estimateur sans biais et de plus par le théorème de la limite centrale, on a
la convergence en loi lorsque N tend vers l'inni :
√ L
N (ãN − a) −−−→ N (0, 2a2 ).
N →∞
Lorsque le paramètre θ est réel, on peut montrer (Genon-Catalot et Jacod 1993, Donahl
1998, Gobet 2000) :
41
Proposition 4.13. Lorsque N tend vers l'inni, on a la convergence en loi
√ L Z
N (θ̃N − θ) −−−→ p
N →∞ I(θ)
N
X
lN (c) = ph (Xih , X(i−1)h , c)
i=1
42
4.5 Diusion élastique
Il s'agit du modèle
N
Y 1 (xi − α(β − xi−1 )h)2
L(θ; xi ) = exp[−
2σ 2 hx2ψ
q
i=1 2πσ 2 x2ψ
i−1
i−1
et le contraste
N
N 1 X (xi − α(β − xi−1 )h)2
C(θ; xi ) = − log σ 2 − 2 .
2 2σ h i=1 x2ψ
i−1
N
X (yi − yi−1 )(b − yi−1 ) − αh(b − yi−1 )2
2ψ
= 0, (21)
i=1 yi−1
N
X (yi − yi−1 ) − αh(b − yi−1 )
2ψ
= 0, (22)
i=1 yi−1
43
References
[4] B.M. BIBBY and M. S∅RENSEN : Martingale estimations functions for discretely
observed diusion processes" : Bernoulli,1, 17-39, 1995.
[5] F. BLACK and M. SCHOLES : The pricing of options and corporate liabilities",
Journal of Political Economy, 3, 637-654,1973.
[6] J.C. COX and S.A. ROSS : The valuation of options for alternative stochastics
processes", Journal of Financial Economics, 7, 229-263, 1979.
[9] Rose Ann DANA et Monique JEANBLANC, Marchés nanciers en temps continu,
valorisation et équilibre, Economica, deuxième édition, Paris, 1998.
[10] G. DEMANGE et J.C. ROCHET : Méthodes mathématiques de la nance", Eco-
nomica.
[11] M.U. DOTHAN : Prices in nancial Markets", Oxford University Press, Oxford,
1990.
[12] FOUQUE J.P., PAPANICOLAOU G., RONNIE K.R., Derivatives in Financial Mar-
kets with Stochastic Volatility, Cambridge University Press (2000).
[13] V. GENON-CATALOT and J. JACOD : On the estimation of the diusion coecient
for multidimensional diusion processes", Annales de l'IHP, Proba-Stat, 29, 119-151,
1993.
44
[16] D. GOYEAU et A. TARAZI, La Bourse, collection Repères, ed. La découverte, paris,
2001.
[17] J.M. HARRISON and D.M.KREPS : Martingales and arbitrage in multiperiod se-
curities markets", Journal of Economic Theory, 20, 381-408, 1979.
[18] J.M. HARRISON and S. PLISKA : Martingales and stochastic integrals in the theory
of continuous trading", Stochastics Processes and their Applications, 11,215-260,
1981.
[19] C. HUANG, Information structure and equilibrium asset prices", Journal of Eco-
nomic Theory, 35, 33-71, 1985.
[21] I. KARATZAS and S.E. SHREVE : Brownian Motion and Stochastic calculus",
Springer-Verlag, New York, 1988.
[23] M. KESSLER, Simple and explicit estimating functions for a discretely observed
diusion process", Research Report 336, Dept theor. Statis., University of Aarhus,
1996.
45