Explorer les Livres électroniques
Catégories
Explorer les Livres audio
Catégories
Explorer les Magazines
Catégories
Explorer les Documents
Catégories
1.1 Dénition
Soit (Ω, F, P) un espace probabilisé et soit (E, E) un espace mesurable. Soit T un ensemble, T =
N, R, Rd par exemple.
Soit
X : T×Ω→E
(t, ω) 7→ X(t, ω)
une application. Pour tout t ∈ T, la coordonnée Xt (ω) est une application de Ω dans E qui à ω associe
Xt (ω) = X(t, ω).
Dénition 1.1
On dit que X est un processus aléatoire déni sur Ω indexé par T et à valeurs dans E si toutes ses
coordonnées sont des variables aléatoires, i.e ∀t ∈ T, ω 7→ Xt (ω) est mesurable de (Ω, F) dans (E, E).
En particulier, T = {1, · · · , n}, X est un vecteur, T = N, X est une suite aléatoire, T = R, R+ ou un
intervalle de R, X est une fonction aléatoire, T = Rd , Zd , X champ aléatoire.
Exemples
a Soit (ξi )i≥1 une suite de v.a. réelles sur Ω et soit T = N. Pour tout t ∈ N, on pose X(t, ω) = i≤t ξi .
P
X est une processus stochastique.
b Modèle en théorie du signal :
X
X (t, ω) = λk Ak (ω) sin (2πfk t + φk (ω)) , t ∈ R
k≥1
où les fk sont des fréquences, les λk sont des amplitudes et les ((Ak , φk ))k sont des va indépendantes
à valeurs dans ]0, 1]×] − π, π] (amplitude et phase aléatoire)
c Exemple en nance, (Stα )t suite des cours des actifs nanciers α à la date t ≥ 0. (S0α ) est le cours
déterministe à la date présente et pour tout t > 0, (Stα ) est une v.a sur R∗+ .
t∈T E est engendrée par les cylindres de dimension nie qui est stable par intersection
N
Démonstration :
nie et donc par le théorème de la classe monotone, PX est caractérisée par ses valeurs sur les cylindres
Dénition 1.4
Deux processus X et Y dénis sur le même espace probabilisé et indexés par T et T respectivement
0
Démonstration : (Non faite en cours) Soit t ∈ T, la projection qui a x ∈ C (T, R) associe x(t) ∈ est continue
car lipschitzienne pour la norme uniforme donc borélienne. La tribu produit est la plus petite tribu rendant
mesurable les projections donc ⊗B(R) ∩ C ⊂ B(C). Comme C est séparable, la tribu B(C) engendrée par
les boules fermées ∩n ∩t∈T∩Q {x ∈ C : |x(t) − y(t)| ≤ + n1 } ∈ ⊗B(R)
2 Mouvement brownien
2.1 Mouvement brownien et bruit blanc
Dénition 2.1
On appelle mouvement brownien une fonction aléatoire réelle (Bt )t≥0 à trajectoires (p.s.) continues
et à accroissements indépendants gaussiens tels que Bt − Bs ∼ N (0, t − s) pour tout 0 ≤ s ≤ t et
B0 = 0 p.s.
Remarque
Dans la dénition, on peut remplacer l'hypothèse accroissement gaussiens par accroissements sta-
tionnaires centrés de variance t − s. On pose (en admettant que les accroissements admettent une
variance)
Bt − Bs = Bt − Bt− n1 + Bt− n1 − Bt− n2 + · · · + Bt− k − Bs
n
où k est n (t − s) + 1. C'est une somme de v.a.i. de même loi de carré intégrable. On applique
le théorème limite central après normalisation.
2
On xe t ≥ 0 et on note Ft la tribu engendrée par {Bu , u ≤ t}, alors pour tout h > 0, on a
Bt+h − Bt indépendant de Ft .
Remarque : Lien bruit blanc-Mouvement brownien : Un bruit blanc N (t, ω) avec ω ∈ Ω et t ≥ 0 devrait
être une généralisation au temps continu des suites de v.a. (gaussiennes) centrée réduites indépendantes.
Cependant, on peut montrer que avec une probabilité 1, l'application t R7→ N (t) n'est pas mesurable.
Si jamais une telle application mesurable existant, le processus Bt = 0 N (s) ds a toute les propriétés
t
Démonstration : Exercice TD
Proposition 2.2
Soit B un mouvement brownien. Alors les processus suivants le sont également :
1. Xt = a−1 Ba2 t pour a 6= 0 et t ≥ 0 (scaling diusif) ;
2. Xt = t.B 1t pour t > 0 (et limt→0+ Xt = 0) invariance en loi ;
3. Xt = Bt+t0 − Bt0 pour t ≥ 0 et t0 > 0 xé (propriété de Markov) ;
4. Xt = BT −t − BT pour t ∈ [0, T ], T > 0 (réversibilité).
Démonstration : Exercice TD
3
vers Bt1 − Bt0 , . . . , Btm − Btm−1 quand n → +∞.
On a X n (tk ) = ξi . Alors
Pbntk c
Démonstration : √1
n i=1
bntk c
1 X
X n (tk ) − X n (tk−1 ) = √ ξi
n
i=bntk−1 c+1
loi vers une Nm (0, diag (t1 − t0 , . . . , tm − tm−1 )). Ce qui est la loi des accroissements du brownien. Par
transformation linéaire, on en déduit la convergence en loi de (Xtn1 , . . . , Xtnm )n≥1 vers (Bt1 , . . . , Btm ).
Theorem 2. Principe de Donsker. Soit X̃ n une suite d'interpolation ane par morceaux et continue
n
de la marche aléatoire ci dessus, alors X̃ n converge en loi vers le mouvement brownien, ie
n
h i
∀ϕ : C (R+ , R) → R, lim E ϕ X̃ n = E [ϕ (B)]
n→+∞
quand h → 0. En eet, ∀x ∈ R,
!
Xh x
P Xth ≤ x = P p t ≤p
1/h 1/h
h
où √Xt ∼ N (0, 1) de fonction de répartition φ. Or φ √x → 1
2 qui n'est pas une fonction de
1/h 1/h
répartition. Il n'y a donc pas de convergence en loi ni alors de convergence presque sure. On a montré
que pour tout t, le brownien n'est pas dérivable en t p.s. On peut montrer que
Theorem 3. Presque surement, les trajectoires sont nulle part diérentiables.
Proposition 2.4
Les trajectoires du mouvement brownien sont presque sûrement holderiennes d'exposant α ∈ 0, 12
i.e ;
1 α
∀α ∈ 0, p.s. |Bt − Bs | ≤ C (α, ·, T ) |t − s| , ∀t, s, T /0 ≤ s, t ≤ T
2 | {z }
Cste
Proposition 2.5
Soit (Πn )n une suite de subdivisions de [0, T ] dont la suite des pas (∆n )n tend vers 0 quand n → +∞.
Alors (V2 (Πn ))n converge vers T dans L2 (Ω, F, P). C'est cette limite que l'on appelle la variation
quadratique.
Démonstration : Soit Π = (t0 , . . . , tk ) une subdivision de [0, T ] de pas ∆. Alors
2
!
k k
X 2 X 2
E
B ti − B ti−1 − T
= V ar Bti − Bti−1
i=1 i=1
| {z }
E(·)=0
k h
X 2 i
= V ar Bti − Bti−1
i=1
donc si X ∼ N 0, σ 2
=⇒ V ar X 2 = 2σ 4 donc
2
Xk k
2 X
Bti − Bti−1 − T = 2 (ti − ti−1 )2
E
i=1 i=1
≤ 2∆T
Proposition 2.6
Si n≥0 ∆n < +∞ alors la convergence est p.s. De plus, on en déduit pour ces suites que V1 (Πn ) →
P
+∞, p.s et la variation totale du brownien est presque surement innie.
5
Remarque En fait, si f est une fonction continûment diérentiable,
X 0
0
V1 (Π) ≤ f (ti−1 ) (ti − ti−1 ) + o (∆) ≤
f
T + o (1)
i
et X 0
2 2
V2 (Π) ≤ f (ti−1 ) (ti − ti−1 ) + ∆o (∆) ≤ o (∆)
i
6
Chapitre 2-Martingales
11 octobre 2017
1 Filtrations et martingales
1.1 Filtration
Dénition 1.1
Une ltration de Ω est une suite croissante de sous tribu de F ie F = (Ft )t∈T est une ltration de
Ω si ∀t, s ∈ T s < t alors A ∈ Fs =⇒ A ∈ Ft . Ft représente l'information disponible au temps t.
(Ω, F, F) s'appelle une espace mesurable ltré.
Dénition 1.2
Soit F une ltration. On dit qu'un processus (Xt )t∈T est adapté à la ltration F si pour tout t ∈ T,
Xt est Ft - mesurable.
Proposition 1.1
Étant donné (Xt )t∈T un processus déni sur Ω, on peut dénir la plus petite ltration à laquelle
(Xt )t∈T est adaptée,
par ∀t ∈ T, Ft = σ {Xµ , µ ≤ t}. Elle s'appelle la ltration naturelle du processus
(notée FX = FtX t∈T .
Soit P une probabilité sur (Ω, F), on introduit deux notions supplémentaires sur les ltrations.
Dénition 1.3
Soit F une ltration. On pose pour tout t ≥ 0, Ft+ = ∩>0 Ft+ .
On dit que la ltration est complète , si ∀t ≥ 0, Ft contient tous les négligeables de P.
(Ft+ )t≥0 est une ltration. La ltration (Ft )t≥0 est continue à droite si Ft = Ft+ , t ≥ 0.
Remarque : Si la ltration n'est pas complète, on peut toujours la compléter en considérant la ltration
(Ft0 )t≥0 dénie par Ft0 = σ(Ft ∨N ) où N est l'ensemble des négligeables de P. Dans la suite on considérera
toujours que la ltration est complète et continue à droite.
1.2 Martingales
Dénition 1.4
Étant donné P une probabilité sur (Ω, F) et (Ft )t≥0 une ltration de F , on dit que le processus (la
fonction) aléatoire réel(le) (Mt )t≥0 est une (Ft )t≥0 - martingale si
1. (Mt )t≥0 est (Ft )t≥0 - adapté ;
2. pour tout t ≥ 0, Mt est intégrable ;
3. et pour tout t ≥ s ≥ 0, E [Mt |Fs ] = Ms p.s.
1
Démonstration : A faire en exercice avec les propriétés de bases des espérances conditionnelles.
Example : Brownien : (Bt )t≥0 avec (Ft )t≥0 la ltration naturelle est une martingale. De même pour (Bt2 −t)t≥0 ,
σ t) t≥0 .
1 2
On utilise que ∀t ≥ 0, h > 0 car Bt+h − Bt est indépendant de FtB .
exp(σBt − 2
Dénition 1.5
On dénit de même les sous martingales (resp. les sur martingales) avec Ms ≤ E [Mt |Fs ] pour
0 ≤ s ≤ t , (resp. Ms ≥ E [Mt |Fs ]).
Proposition 1.2
Soit M une F-martingale et φ une fonction convexe telle que φ (M ) soit intégrable. Alors (φ (Mt ))t≥0
est une sous martingale.
Démonstration : D'après l'inégalité de Jensen. E [φ (Mt ) |Fs ] ≥ φ (E [Mt |Fs ]) = φ (Ms ), ∀0 ≤ s ≤ t, d'où le
résultat. p.s.
2 Théorème d'arrêt
C'est une catégorie naturelle de temps aléatoires liés à une ltration et non-anticipatif.
Dénition 2.1
Soit Ω, F, (Ft )t∈T , P un espace probabilisé ltré. La variable aléatoire τ : Ω → T ∪ {+∞} est un
2
Dénition 2.2
Soit (Xt )t≥0 un processus F- adapté et soit τ un F- temps d'arrêt.
1. Sur {τ < +∞}, le processus au temps τ , noté Xτ 1{τ <+∞} , est la fonction dénie par Xτ (ω) (ω) 1{τ (ω)<+∞} .
2. Le processus arrêté au temps τ < +∞ p.s. est le processus (Xt∧τ )t≥0 .
Dénition 2.3
Soit τ un temps d'arrêt. On dénit la tribu des évènements antérieurs à τ par
Fτ = {A ∈ F|∀t ≥ 0, A ∩ [τ ≤ t] ∈ Ft }
Proposition 2.1
C'est une tribu.
Si τ = t0 p.s. alors Fτ = Ft0 .
Si τ ≤ σ p.s. alors Fτ ⊂ Fσ (où σ est un autre temps d'arrêt).
Proposition 2.2
Soit (Xt )t≥0 un processus presque surement à trajectoires continues à droite, F-adapté et soit τ un
F-temps d'arrêt. Alors Xτ 1{τ <+∞} est Fτ mesurable et (Xt∧τ )t≥0 est (Ft∧τ )t≥0 adapté.
Remarque Le résultat existe aussi pour les sous-martingales et sur-martingales. Ce théorème se dé-
montre en approchant le temps d'arrêt continu par des temps d'arrêts discrets.
Corollaire 2.1
Soit (Mt )t≥0 une F martingale et soit τ un F temps d'arrêt. Alors (Mt∧τ )t≥0 est une (Ft )t≥0 martin-
gale.
Or E Mt∧τ 1[τ ≤s] |Fs = E Ms∧τ 1[τ ≤s] |Fs = Ms∧τ 1[τ ≤s] car Ms∧τ 1[τ ≤s] est Fs mesurable. Pour le second
3
Lemme 2.1
et alors E Mt∧τ 1[τ >s] |Fs = 1[τ >s] E [Mt∧τ |Fs∧τ ] = 1[τ >s] Ms∧τ d'après le théorème d'arrêt. En remettant
Lemme 2.2
Pour tout A ∈ Fs , A ∩ [τ > s] ∈ Fs∧τ . Et en particulier pour A = Ω, cela donne [τ > s] ∈ Fs∧τ et
[τ ≤ s] ∈ Fs∧τ .
or Z Z
E [Z|Fs∧τ ] dP = ZdP
A∩[τ >s] A∩[τ >s]
Proposition 2.3
Soit τ un temps d'arrêt pour la ltration d'un brownien. Alors le processus (Wt )t≥0 déni par Wt =
Bt+τ − Bτ pour t ≥ 0 est un mouvement brownien indépendant de FτB .
2.3 Exemple
Distribution du temps de sortie d'un intervalle par un mouvement brownien (cf exercice feuille 2).
sup Xs ≤ x ⇔ ∀0 ≤ s ≤ t, Xs ≤ x
0≤s≤t
⇔ Xt ≤ x et ∀s ∈ Q, 0 ≤ s ≤ t, Xs ≤ x
cela venant de la densité de Q dans R pour la valeur absolue et de la continuité à droite de (Xt )t .
T
Et alors sup0≤s≤t Xs ≤ x = [Xt ≤ x] ∩ s∈Q∩[0,t] [Xs ≤ x] qui est bien dans Ft .
Théorème 3.1
Inégalité Maximale de Doob.
4
Soit M une martingale de carré intégrable continue à droite sur R+ . Pour tout t > 0 et pour tout
λ > 0,
1
P sup |Ms | ≥ λ ≤ 2 E Mt2
0≤s≤t λ
et alors
E [Sσ ] ≥ λP σ 0 ≤ t
Proposition 3.3
Loi des grands nombres pour un mouvement brownien. Si B brownien, alors limt→+∞ Bt
t = 0 p.s.
Corollaire 3.1
On a
lim tB 1t = 0
t→0+
Théorème 4.1
Pour toute martingale (Mt )t≥0 de carré intégrable, il existe un processus aléatoire V adapté croissant
et nul en 0 tq Mt2 − Vt t≥0 soit une martingale. V s'appelle le crochet de M et se note soit hM i ou
hM, M i.
Théorème 4.2
Cas des martingales continues.
5
Soit M une martingale continue de carré intégrable. Alors ∀t ≥ 0, ∀ (Πn )n suites de subdivision de
[0, t] dont le pas tend vers 0, (V2 (Πn ))n≥1 converge dans L2 et en probabilité vers une variation qua-
dratique hM i, la variation quadratique de M sur [0, t]. Le processus (hM it )t≥0 est l'unique processus
croissant nul en 0 tq M 2 − hM i soit une martingale.
Dénition 4.1
Crochet de 2 martingale. Soient M et N deux martingales de carré intégrable. On dénit le
crochet de M et N par
hM + N it − hM it − hN it
hM, N it =
2
Proposition 4.1
M N − hM, N i est une martingale. Le processus hM, N i est l'unique processus continu à variation
bornée et nul en 0 tq M N − hM, N i est une martingale).
Démonstration : ∀t > s,
1
E[Mt Nt − hM, N it |Fs ] = E[ ((Mt + Nt )2 − Mt2 − Nt2 ) − hM, N it |Fs ]
2
= Ms Ns − hM, N is
6
Chapitre 3-Intégrale Stochastique
28 novembre 2017
alors que B n'est pas à variations bornées. L'idée est due à Wiener (1934) pour les fonctions φ détermi-
nistes, puis à Ito dans le cas général.
1 Intégrale d'Itô
où n ≥ 1, (t0 , . . . , tn ) est une subdivision de R+ et où les X i sont Fti mesurables. Alors X est progressi-
vement mesurable.
ii) Toute fonction aléatoire adaptée et à trajectoires presque sûrement continues est progressivement mesu-
rable.
Démonstration : i) Soit t ≥ 0 et soit B ∈ B(R),
n−1
X −1 (B) = {(ω, s) ∈ Ω × [0, t]/X i (ω) ∈ B et s ∈]ti , ti+1 ]} =
[
]tt , ti+1 ] × (X i )−1 (B)
i=0,ti ≤t
| {z } | {z }
∈B([0,t]) ∈Fti ⊂Ft
Z Z T
E Xt2 dt < +∞ ( resp. E Xt2 dt < +∞ )
R+ 0
1
Remarque Ces deux espaces munis des produits scalaires Xt Yt dt sont des espaces de
R
hX, Y i = E
Hilbert.
Remarque Les fonctions eni escalier telles que Xi ∈ L2 (Ω, Fti , P) , ∀i appartiennent à M 2 R+ car
h
(ti+1 − ti ) < +∞.
2
Xt2 dt = n−1 Xi
R P
E R+ i=1 E
Dénition 1.3
On appelle F mouvement brownien un mouvement brownien F adapté et tel que pour tout t > s, Bt − Bs est
indépendant de Fs .
Proposition 1.1
L'intégrale est linéaire sur l'espace des fonctions en escalier de M 2 R+ , à valeurs dans L2 (Ω, F, P) et satisfait
"Z 2 # Z
E Xt dBt =E Xt2 dt . (2)
R+ R+
Démonstration : de la proposition : On a
"Z 2 # n−1
X 2 2
i
E Xt dBt = E X Bti+1 − Bti
R+ i=0
X h i
E X i X j Bti+1 − Bti Btj+1 − Btj
+2
i<j
n−1 2 h
X 2 i
= E Xi E Bti+1 − Bti
i=0
X h i
E X i X j Bti+1 − Bti E Btj+1 − Btj
+2
i<j
n−1
X 2
= E Xi (ti+1 − ti ) + 0
i=0
car Bti+1 − Bti est indépendants de Fti et Btj+1 − Btj est indépendants de Ftj , j ≥ i + 1, d'où le
résultat attendu.
Remarque L'application qui a (Xt ) 7→ Xt dBt est une isométrie de l'espace des fonctions en escalier
R
R+
de M 2 (R+ ) dans L2 (Ω, F, P) On peut alors la prolonger à M 2 (R+ ) tout entier.
2
Théorème 1.1
(et dénition) Le prolongement de l'isométrie à l'adhérence des fonctions en escalier pour la norme de M 2 (R+ )
est encore une isométrie, appelée intégrale stochastique.
Cette adhérence est M 2 (R+ ) tout entier ie pour tout Xt ∈ M 2 (R+ ), il existe (Xtn )n une suite de fonctions
en escalier qui tend vers Xt dans M 2 (R+ ) ie tq
kX n − XkM 2 (R+ ) → 0
Théorème 1.2
Soient X, Y ∈ M 2 (R+ ). Alors
hR i
1. E Xt dBt = 0 ;
+∞
0
2 hR i
2. E ;
R +∞ +∞ 2
0
X t dB t = E 0
X t dt
hR i hR R i
3. E 0+∞ Xt Yt dt = E +∞
0
Xt dBt
+∞
0
Yt dBt .
Démonstration : Exercices
Proposition 1.2
Soit X ∈ M 2 (R+ ). On a
1.
2 i
!
n Z Z
n
h i
Xt dBt dans L2 (Ω, F, P)
X
n Xt dt B i+1 − B i →
i−1 n n
i=1 n
R+
i
Démonstration : Pour le 1), on approche X par
Pn2
Xt dt1] i , i+1 ] .
R n
i=1 n i−1
n n n
Dénition 1.5
hR i
On note M 2 l'ensemble des processus X progressivement mesurables tels que E t
0
Xs2 ds < +∞, ∀t ∈ R+ .
Remarque On a M 2 = M 2 ([0, T ]) ⊃ M 2 R+ .
T
T >0
Dénition 1.6
Si X ∈ M 2 , alors 1]0,t] X ∈ M 2 (R+ ), ∀t ∈ R∗+ et on dénit
Zt Z
Xs dBs = 1]0,t] Xs dBs
0 R+
Proposition 1.3
Soit X ∈ M 2 . Alors t 7→ 0t Xs dBs est continue de R+ dans L2 (Ω, F, P).
R
En outre, il existe Y tel que Yt = 0t Xs dBs p.s. ∀t ≥ 0 et tq Y est à trajectoire presque sûrement continues
R
3
Démonstration : 1. Soit t0 ∈ R+ , on a
"Z 2 # "Z 2 #
t Z t0 t0 ∨t
E Xs dBs − Xs dBs = E Xs dBs
0 0 t0 ∧t
Z t0 ∨t
= E Xs2 ds .
t0 ∧t
Proposition 1.4
Soit X ∈ M 2 . On pose ∀t ∈ R+ , Mt = Xs dBs , alors (Mt )t≥0 est une F-martingale de carrée intégrable et
Rt
0
de crochet hM, M it = 0t Xs2 ds.
R
2 Formule d'Itô
2
et 2 n−1
i=0 Bti+1 − Bti Bti → 2 0 Bs dBs et comme V2 (Π) → t dans L et alors en faisant
L t 2
P R
4
2.1 Formule d'Itô pour φ (Bt ), φ ∈ Cb2 (R)
Cb2 (R) est l'ensemble des fonctions deux fois continûment dérivables, bornées et à déri-
vées bornées.
Proposition 2.1
Soit φ ∈ Cb2 (R). Alors ∀t ∈ R+ , on a p.s. :
Zt Zt
0 1
φ (Bt ) = φ (0) + φ (Bs ) dBs + φ00 (Bs ) ds
2
0 0
n−1 2
X
Un = φ00 B θin Btni+1 − Btni
i=0
n−1 2
X
Vn = φ00 B tni Btni+1 − Btni
i=0
n−1
X
Wn φ00 B tni (tn n
= i+1 − ti )
i=0
1. U n − V n : En appliquant Cauchy-Schwartz
"n−1 #
X 00 2
n n 00
E [|U − V |] ≤ E φ Bθin − φ Btni Btni+1 − Btni
i=0
" #
n−1
X 2
E sup φ00 Bθin − φ00 Btni ∗
≤ Btni+1 − Btni
i
i=0
! 1/2
1/2 n−1 2 2
2
X
E sup φ Bθin − φ00 Btni
00
≤ E Btni+1 − Btni .
i
i=0
tend vers 0.
3. W n → 0t φ00 (Bs ) ds dans L1 par convergence dominée
R
On a donc convergence dans L1 donc ps (à une sous-suite près) et donc égalité p.s
à la limite. Comme les trajectoires sont continues, on a égalité presque sûrement
pour tout t.
5
2.2 Processus d'Itô
Dénition 2.1
On appelle processus d'Itô une fonction de la forme
Zt Zt
Xt = X0 + Hs dBs + Ks ds
0 0
où H, K ∈ M 2 et X0 ∈ L2 (Ω, F, P).
ou encore
1 00
dφ (Xt ) = φ0 (Xt ) dXt + φ (Xt ) d hX, Xit (3)
2
où hX, Xi = Hs2 ds est le crochet de X déni comme celui de sa partie martingale.
Rt
0
Dénition 2.2
On note Mloc
2
l'ensemble des fonctions progressivement mesurables X tq ∀T > 0,
ZT
Xt2 dt < ∞ p.s.
0
Dénition 2.3
R
Pour X ∈ Mloc , on dénit Xs dBs comme limite presque sûre de .
2
Rt t
0 0
1[0,τn ] (s) Xs dBs
n≥1
Proposition 2.4
On suppose que X ∈ Mloc alors t 7→ Mt = Xs dBs est une martingale locale. Elle est presque surement à
2
Rt
0
hR i 2 hR i
trajectoire continues. De plus quand E t
< ∞, alors E = E 0 Xs2 ds .
Rt t
0
Xs2 ds 0
Xs dB s
Proposition 2.5
Formule d'intégration par parties.
Soient X, Y deux processus d'Itô réels dénis par dXt = Kt dt + Ht dBt et Yt = K̃t dt + H̃t dBt où (Bt )t≥0
est un brownien réel. On a
d (Xt Yt ) = Xt dYt + Yt dXt + d hX, Y it
= Xt dYt + Yt dXt + Ht H̃t dt
Remarque On a alors
Z t Z t Z t
Xt Yt − X0 Y0 = Ys dXs + Xs dYs + Hs H̃s ds
0 0 0
7
Chapitre 4-Equations Diérentielles Stochastiques
Ecole Centrale de Lyon-Université Lyon 1 Processus stochastiques et applications
4 décembre 2017
1 Exemples
1.1 Equations de Langevin (Processus d'Ornstein-Uhlenbeck)
On modélise un mouvement d'une particule sur la droite réelle, soumise à une force de friction (coe
−b) et à une force extérieure F . On néglige de plus l'énergie potentielle. On a dans le cas déterministe
00 0
mx = −bx + F (t)
LA masse de la particule est xée à m = 1. On suppose que F est un bruit blanc. On pose V = x et on 0
pour tout t ≥ 0.
Proposition 1.1
La solution de l'équation de Langevin issue de V ∈ L2 (Ω, F0 , P) indépendant ( de B) est donnée
par le processus d'Ornstein Uhlenbeck déni par
0
Z t
Vt = e−bt V0 + e−b(t−s) σdBs
0
0
Yt = −b (Yt + σBt )
donc Z t
Yt = Y0 e−bt − e−b(t−s) bσBs ds
(1)
Z t
Vt − σBt = V0 e−bt − e−b(t−s) bσBs ds
or
0
d ebt Bt = bebt Bt dt + ebt dBt + 0
et alors Z t Z t
Bt = b e−b(t−s) Bs ds + e−b(t−s) dBs
1
1.2 Mouvement brownien géométrique (EDS linéaires)
Dénition 1.1
Soient σ > 0 et µ ∈ R. Le processus Z déni par Z = e est appelé mouvement brownien σBt +µt
géométrique.
t
σ2
dZt = σZt dBt + µ + Zt dt
2
(Z ) est l'unique solution de cette équation. Pour le montrer, on utilise souvent l'euristique suivante :
soit (Z ) une solution. On suppose Z > 0 et alors on calcule par Itô d log (Z ). On trouve Z = Z e
t t
µt+σBt
et en exercice, résoudre dZ = µZ dt + σZ dB .
t t t t 0
t t t t
dX = b (X ) dt + σ (X ) dB , X
t t =X t t (2)
|t=0 0
est appelé équation diérentielle stochastique. Les coecients b et σ s'appellent la dérive et la diusion.
La solution d'une telle équation s'appelle un processus de diusion.
Dénition 2.1
On appelle solution forte de l'équation diérentielle (2) toute fonction aléatoire (X ) dénie sur
où F est la ltration complétée continue à droite engendré par le mouvement brownien
t t
(Ω, F, F, P)
Bet tq :
X0
1. X soit F−adapté;R h
2. pour tout t ≥ 0, b (X ) + σ (X ) ds < ∞ P−p.s.;
i
t 2 2
0 s s
Remarque :
2+3 =⇒ X est un processus d'Itô.
X est à trajectoires continues;
2 est equivalent à P−p.s, pour tout t ≥ 0, R b (X ) + σ (X ) ds < ∞. On peut prendre
h i
t 2 2
b (X ) + σ (X ) ds.
R ht 2 2
t→ 0 s s
Lemme 2.2
Inégalité de Doob. Soit (X ) une martingale continue à droite. Alors pour tout t > 0 et pour tout
p > 1.
t t≤0
p
p
E sup |Xs |p ≤ E [|Xt |p ]
0≤s≤t p−1
,
Unicité : 0 0
t≥0 Z t Z t
Xt − Yt = (b (Xs ) − b (Ys )) ds + (σ (Xs ) − σ (Xs )) dBs .
Comme ,
0 0
(a + b)2 ≤ 2 a2 + b2
t 2 "Z
Z t 2 #
2
E (Xt − Yt ) ≤ 2E (b (Xs ) − b (Ys )) ds + 2E (σ (Xs ) − σ (Ys )) dBs
0
0
Z t Z t
≤ 2tE |b (Xs ) − b (Ys )|2 ds + 2E |σ (Xs ) − σ (Ys )|2 ds
0 0
t
Z Z t
2K 2 (t + 1) E (Xs − Ys )2 ds = 2K 2 (t + 1) E (Xs − Ys )2 ds.
≤
0
0
Le lemme de Gronwall pour t ≤ T xé implique E (X − Y ) = 0 donc par régularité des trajectoire,
2
Y = X p.s ∀t.
s s
(itérations de Picard) Soit (X ) la suite de processus dénie par X (t) = X pour tout
t t
t et pour tout n,
Existence : n n 0 0
(3)
Z Z t t
X (t) = X + b (X (s)) ds +
n+1 σ (X (s)) dB
0 n n s
alors
n n
" #
Z s 2
sup |Xn+1 (s) − Xn (s)|2
E ≤ 2E sup σ(Xn (u)) − σ(Xn−1 (u))dBu
0≤s≤t 0≤s≤t 0
" Z s 2 #
+ 2E sup b(Xn (u)) − b(Xn−1 (u))du
0≤s≤t 0
Inégalité de Doob
" Z 2 #
t
≤ 2.4E σ(Xn (u)) − σ(Xn−1 (u))dBu
0
"Z 2 #
t
+2E |b(Xn (u) − b(Xn−1 (u))| du
0
Z t
2
≤ 8E |σ(Xn (u)) − σ(Xn−1 (u))| du
0
Z t
+2T E |b(Xn (u)) − b(Xn−1 (u))|2 du
0
Z t
2 2
≤ K (8 + 2T )E |Xn (u) − Xn−1 (u)| du
0
Z t Z t
≤ CT E sup |Xn (s) − Xn−1 (s)|2 du = CT E sup |Xn (s) − Xn−1 (s)|2 du.
0 0≤s≤u 0 0≤s≤u
3
Comme E sup |X1 (s) − X0 |2 < ∞
.
Il vient alors que, 0≤s≤t
p
(CT t)k
X
E sup |Xp (s) − Xn (s)|2 ≤ C
0≤s≤t k!
k=n
Donc (X ) est une suite de Cauchy pour la norme du sup dans L . Donc (X ) converge vers un 2
processus X continue sur [0, T ] dans L , donc p.s. X ∈ M . On montre ensuite que
n n
2
R 2 t
σ(X (s))dB
converge dans L vers R σ(X(s))dB . En eet
0 n s
2 t
0 s
Z t Z t Z t
2 2
E | σ(Xn (s))dBs − σ(X(s))dBs | ≤ E | σ(Xn (s)) − σ(X(s))| ds
0 0 0
≤ CT E sup |Xn (s) − X(s)|2
0≤s≤T
Z t Z t
X(t) = X0 + b(X(s))ds + σ(X(s))dBs
0 0
Soit b : R × R → R et σ : R
d d
× Rd → Md×k (R) B . un mouvement brownien k dimensionnel. On
considère l'équation
+ +
Zt Zt
Xt = X0 + b (s, Xs ) ds + σ (s, Xs ) dBs ∀t ≥ 0 (4)
0 0
Alors pour tout X0 ∈ L2 (Ω, F0 , P), l'équation (4) admet une unique solution X ∈ M 2
Exemple en déterministe : Considérons x avec x > 0. Une solution est alors x (t) = .
0
x0
= x2
Elle existe jusqu'au temps .
0 1−tx0
1
dBt 1
dXt = 2 + 3 dt = Xt2 dBt + Xt3 dt
(1 − Bt ) (1 − Bt )
On peut rendre rigoureux en approchant φ par une suite de fonctions lipschitziennes coïncidant avec φ
sur ] − ∞, t − ]. Soit τ le 1er temps d'atteinte de 1 − . On a τ ↑ τ . On a
1
n n
1
n n
Zt Zt
0 1 00
φn (Bt ) = 1 + φn (Bs ) dBs + φ (Bs ) ds
2
0 0
4
Dénition 2.2
Soit (Ω, F, F, P) où F est la ltration complétée continue à droite engendré par le mouvement brownien
B et X . On dit que (X, τ ) est une solution forte de l'équation
0
dX = b (X ) + σ (X ) dB
t t t t (5)
Xt=0 = X0 ∈ L2 (Ω, F, P)
si
1. X1 est F−adaptée;
[0,τ [
2.4 Exemples
3 Solutions faibles
Dénition 3.1
On appelle solution faible de (2) tout triplet (Ω, F, P), F, (B, X , X) où B est indépendant de X et
X est F−adapté tel que X vérie les conditions des solutions fortes.
0 0
Exemple L'équation diérentielle stochastique X = sgn (X ) dB a une solution faible unique mais
t
R
Pour les solutions faibles la ltration n'est pas forcément la ltration engendrée par le mouvement
brownien et X comme pour les olutions fortes. Elle peut contenir plus d'informations.
o
Dénition 4.1
Un noyau markovien de transition de E dans E est une application Q : E × E → [0, 1] qui vérie
Pour tout x ∈ E, A → Q(x, A) est une probabilité sur (E, E).
Pour tout A ∈ E , x → Q(x, A) est mesurable.
Remarque Si f : E → R est mesurable bornée (resp. positive), l'application Qf dénie sur E par
Z
Qf (x) = f (y)Q(x, dy)
E
Dénition 4.2
Une famille (Q(t, ., .)) de noyaux de transition sur E est un semi-groupe de transition si elle
satisfait les trois propriétés suivantes
t≥0
5
1. Pour tout x ∈ E, Q(0, x, dy) = δ (dy) ;
2. Pour tous s, t ≥ 0 et A ∈ E , Q(t + s, x, A) = R Q(s, y, A)Q(t, x, dy) (Propriété de Chapman-
x
Kolmogorov). E
Soit QR l'opérateur déni sur l'espace des fonctions boréliennes bornées par Q f = Q(t, ., .)f ie
f (y)Q(t, x, dy), ∀x ∈ E .
t t
Dans la suite, (Q ) est aussi appelé semi-groupe de transition. Soit (X ) un processus, on note
0
Dénition 4.3
Soit (Q ) un semi-groupe de transition sur E. Un processus de Markov relativement à (F ) de
semi-groupe (Q ) est un processus (F ) -adapté (X ) à valeurs dans E tq pour tous s, t ≥ 0
t t≥0 t t≥0
et f borélienne bornée
t t≥0 t t≥0 t t≥0
Remarques
Si la ltration n'est pas précisée, on prend la ltration naturelle de (X ) .
Pour f = 1 , on a P [X ∈ A|F ] = Q(t, X , A), ∀s, t ≥ 0, A ∈ E .
t t≥0
Si s = 0, on a
x t+s s x t+s s
Ex [f (Xt )] = Qt f (x)
et P [X ∈ A] = Q(t, x, A), ∀t ≥ 0, A ∈ E .
: Mouvement brownien : Q(t, B , A) = P [B R
x t
Exemple ∈ A|Fs ] = PR[Bt+s − Bs ∈ A − Bs |Fs ] =
g (r)dr où g est la densité d'une N (0, t). Q(t, x, A) = ie
R s t+s
g (r)dr = A gt (r−x)dr Q(t, x, dy) =
g (y − x)dy .
A−Bs t t A−x t
t
des fonctions continues de R dans R et la mesure de Wiener W qui est la loi de (B ) k-mouvement
+
k
brownien.
+ t t≥0
6
Theorem 5. Sous les hypothèses d'existence et unicité forte de (2), ∀x ∈ R , il existe une fonction
d
Fx : C(R+ , R ) → C(R+ , R ) mesurable pour la tribu borélienne (pour la norme uniforme) complétée par
k k
les négligeables de W tel que ∀x ∈ Rd , ∀(Ω, F, (Ft )t≥0 , P) et (Bt )t≥0 k-(Ft )t≥0 -mouvement brownien, le
processus déni, pour tout t ≥ 0 par Xt = Fx (B)t est l'unique solution de vériant X0 = x. Si U est (2)
une v.a F0 -mesurable t 7→ FU (B)t est l'unique solution de donnée initiale U .
du théorème 4. On montre que E [f (X x
= Qt f (Xsx ) . Soit X 0
,
= Xt+s Bt0 = Bt+s −
, , ∀t. (X ) est solution de
Démonstration : t+s )|Fs ] t
Bs Ft0 = Ft+s 0
t t≥0
Z t Z t
Xt0 = Xs + b(Xu0 )du + σ(Xu0 )dBu0 , t ≥ 0
0 0
E [f (X )] = f (F (ω)W (dω). D'où le résultat. Il faut vérier que Q est un semi-groupe de transition.
0 t+s s Xs t
x
Q(0, x, A) = P [X ∈ A] = P [x ∈ A] = δ (A)
x
Problème de Cauchy
On considère l'équation diérentielle stochastique
dXt = b(t, Xt )dt + σ(t, Xt )dBt , X0 donné
et l'opérateur L déni par
t
1 X ∂2 X ∂
Lt φ(x) = aij (t, x) φ(x) + bi (t, x) φ(x)
2 ∂xi ∂xj ∂xi
1≤i,j≤d 1≤i≤d
où a = σσ . t
Théorème 5.1
Sous ces hypothèses, l'équation (7) a une unique solution v à croissance polynomiale en x uniformé-
ment en temps donnée par
(8)
" #
RT
Z T Rs
k(s,Xst,x )ds t,x
v(t, x) = E f (XTt,x )e− t + g(s, Xst,x )e− t
k(u,Xu )du
ds
t
Rs t,x Rs t,x ∂v
d(v(s, Xst,x )e− t k(u,Xu )du
) = e− t k(u,Xu )du
( + Ls v − kv)(s, Xst,x )ds + dMs
∂t
7
où (M ) est une martingale centrée (car intégrable stochastique d'un processus dans M ). Donc 2
h RT t,x
i Z T Rs t,x
E v(T, XTt,x )e− t k(s,Xs )ds − v(t, x) = −E g(s, Xst,x )e− t k(u,Xu )du
ds .
t
Or v(T, X T) = f (XT ) .
8
Chapitre 5-Approximation et Simulation de diusion
Ecole Centrale de Lyon-Université Lyon 1 Processus stochastiques et applications
5 décembre 2017
1 Approximation de diusion
Dans le chapitre 1, nous avons vu que nous pouvions approcher le mouvement brownien (Principe
d'invariance de Donsker). Nous allons montrer ici que l'on peut approcher toute diusion.
h i h i
(n) (n) (n) (n) (n) (n)
P Yi+1 ∈ B|Y0 , . . . , Yi = P Yi+1 ∈ B|Yi = Π(n) Yi , B
pour tout B ∈ B Rd . Une notation usuelle est pour tout x, la chaîne P = Π(n) (x, ·) est une mesure de
(n)
on pose X (n) i
pour tout i ≥ 0 (on peut aussi avoir une renormalisation
Renormalisation : n = Yi
en espace comme pour Donsker).
(n) (n)
Interpolation en temps (continue) : X (n) (t) = Y[nt] + (nt − [nt]) Y[nt+1]
n
− Y[nt] pour tout t ≥ 0.
Théorème 1.1
On suppose qu'il existe a : Rd → Md×d , b : Rd → Rd continues telles que ∀R < +∞,
lim sup a(n) (x) − a (x) = lim sup b(n) (x) − b (x) = 0
n→+∞ |x|≤R n→+∞ |x|≤R
et
lim sup ∆(n)
ε (x) = 0
n→+∞ |x|≤R
1
Soit σ ∈ Md×k telle que σσ 0 = a B un k-mouvement brownien et on suppose que l'EDS
dXt = b (Xt ) dt + σ (Xt ) dBt , X0 = x
a une solution faible unique en loi pour tout x, alors pour tout Y0(n) suite de conditions initiales
n
convergeant en loi vers x, la suite X (n) n converge en loi vers la solution de l'EDS, ie
h i
lim E F X (n) = E [F (X)]
n→+∞
2n − k
Π̂(n) (k, k + 1) =
2n
et
k
Π(n) (k, k − 1) =
2n
Pour dénir les coecients, il faut renormaliser la chaine en ses états et donc avoir une idée de sa variance.
On cherche pour cela la mesure stationnaire (ou probabilité invariante ou ergodique). Ici l'unique mesure
invariante est B 2n, 21 et la
chaîne est ergodique donc on converge en loi quand i → +∞ vers cette loi
qui est à peu près N n, 2n4 . On peut alors dénir par exemple
(n)
(n) Zi −n
Yi = √
n
n o
C'est une chaîne de Markov à états k−n
√ ,k
n
= 0..2n et de matrice de transition
√
1 n∓x
Π(n) x, x ± √ = √ (à faire)
n 2 n
On dénit maintenant X (n) par renormalisation en temps comme dans la section précédente. L'équa-
tion limite :
dXt = −Xt + dBt
admet une solution forte unique, le processus d'Ornstein Uhlenbeck. Donc X (n) converge vers ce proces-
sus, en loi.
2
2 Simulation de diusion (expériences numériques)
Pourquoi a -t-on besion de simulations ?
pour faire une étude qualitative du comportement de la solution : existence en temps long ou
explosion en temps ni, convergence ou apparition d'une loi stationnaire.
Etude de la stabilité de l'estimation d'un paramètre par simulation de trajectoire avec des coe-
cients proches de la valeur estimée.
Espérance d'une fonction d'une diusion ou d'une mesure invariante par méthode de Monte-Carlo.
et alors √
B tn = B tn−1 + hXn
et alors il est clair que B t1 , . . . , B tn a la même loi que (Bt1 , . . . , Btn ) pour un brownien B quelconque.
Avec en plus une interpolation linéaire, B donne une approximation de B en loi. En multi-dimensionnel,
on simule des brownien réels indépendants.
et on suppose lipschitzien en espace, 21 holdérien en temps et |b (t, x)|+|σ (t, x)| ≤ K (1 + |x|). Un schéma
de discrétisation de l'EDS est donnée, ∀h > 0, pas de discrétisation, par une suite
h
X : Ω × {tn = nh/nh ≤ T } → Rd
h h h h
avec X0 = X0 et X adapté à la ltration du brownien. On note X n = X tn , le schéma d'Euler s'écrit
h h
h
h
X n = X n−1 + b tn−1 , X n−1 h + σ tn−1 , X n−1 ∆Bn
3
Théorème 2.1
Le schéma d'Euler est fortement convergent d'ordre γ = 21 . Plus précisément, il existe c < +∞ telle
que
h 2
sup E Xt − X t ≤ ch
t∈[0,T ]
√ √
Remarque : l'erreur de ce schéma est en général d'ordre h, mais peut-être parfois en o( h).
Exemple : Calculer l'erreur dans le théorème pour l'approximation du schéma d'Euler dans le cas
du mouvement brownien sur [0, T ]. On note h = N
T
. Pour le mouvement brownien, l'EDS est dXt = dBt .
Donc le schéma d'Euler est
h h
X n = X n−1 + ∆Bn
h PN h 2
D'où X T = i=1 ∆Bi = BT . Ainsi E BT − X T = 0. Donc le schéma d'Euler pour le mouvement
brownien est fortement convergent de tout ordre.
Remarque La convergence forte d'ordre γ entraîne la convergence faible d'ordre γ . En eet, f ∈ Cb∞
implique que f est lipschitzienne et donc
h h i h h i h i
h
E [f (XT )] − E f X T ≤ E |f (XT ) − f X T | ≤ kf 0 k∞ E XT − X T
Théorème 2.2
On suppose que b, σ ∈ Cb∞ et que l'équation est uniformément elliptique, ie que
σ (t, x) ξ 2 ≥ c |ξ|2
t
^pour une constante c > 0 indépendante de (t, x). Alors le schéma d'Euler est faiblement convergent
d'ordre 1.
L'extension du schéma d'Euler au cas vectoriel ne pose aucun problème et les résultats précédents se
généralisent.
4
qui est d'ordre 2. On ne peut l'adapter directement en stochastique car on obtient un schéma non
consistant. On considère le système dXt = σ(Xt )dBt et on pose
h h 1 h h h
X n = X n−1 + σ X n−1 + σ X n−1 + σ X n−1 ∆Bn ∆Bn
2
On voit que pour σ(x) = x, on obtient
h h 1 h h
X n = X n−1 + X n−1 (∆Bn )2 + X n−1 ∆Bn
2
Ce schéma se comporte comme le schéma d'Euler pour une diusion
1
dYt = Yt dt + Yt dBt
2
Donc il faut le corriger pour obtenir un schéma pour notre diusion.
Dénition 2.3 (Schéma de Milstein en dimension un. )
Pour l'équation usuelle en dimension un (uniquement), on pose
h h 1 ∂σ
h h
h
Xn = X n−1
+ − σ
b(tn−1 , X n−1 ) tn−1 , X n−1 h + σ tn−1 , X n−1 ∆Bn
2 ∂x
1 ∂σ h
+ σ tn−1 , X n−1 (∆Bn )2
2 ∂x
Théorème 2.3
Sous les mêmes hypothèses qu'à la section précédente et si σ ∈ C 0,1 , alors le schéma est fortement
convergent d'ordre γ = 1, il existe C < 0 telle que
h 2
sup E Xt − X t ≤ ch2
t∈[0,T ]
Exemple d = 1 , dXt = Xt dBt . On peut vérier que le schéma d'Euler est d'ordre 1/2 et celui de
Milstein d'ordre 1.(cf Exercice 1 feuille 5 et BE1).
5
Chapitre 6-Méthodes de Monte-Carlo par chaîne de Markov
11 décembre 2017
Dans des cours précédents, on a vu la simulation des lois usuelles. Ici on veut soit simuler des lois
invariantes pour des chaînes ou des processus de Markov, soit simuler des lois moins classiques dans des
conditions particulières.
On va s'intéresser dans ce chapitre aux méthodes de simulations par Monte-Carlo, plus particuliè-
rement nous décrirons l'algorithme de Métropolis-Hastings et l'échantillonneur de Gibbs, ainsi que que
leur utilisation en optimisation (recuit simulé). L'implémentation des ces méthodes sera vu en TP.
1 Simulation MCMC
1.1 Introduction
Le but de la méthode de Monte Carlo est de calculer des E [f (X)] (où X de loi Π) ou de décrire la
loi Π de X par
P (X ∈ A) = Π (A) = E [1A (X)]
ou
P (X ≤ t)
On connaît la méthode qui consiste à simuler une suite i.i.d de loi Π. Mais cette méthode peut se révéler
inecace lorsque les variables sont mal distribuées (faible concentration de la mesure, grande dimension)..
L'idée du MCMC est de considérer Π comme une mesure invariante d'une chaîne de Markov convergeant
en loi. On génère dans ce cas les pas d'une chaîne de Markov qui converge en loi vers son unique mesure
invariante. On présentera dans la suite deux algorithmes : Métropolis-Hasting et l'échantillonneur de
Gibbs (en dim >1).
1.2 Rappels : Chaine de Markov
Les chaînes de Markov permettent de sortir du cadre i.i.d de la loi des grands nombres.
On considère (X ) une chaîne de Markov à valeurs dans des espaces mesurables (X ∈ E ) dont les
mesures transitions de x dans E sont données par
n n n n
n−1 n
Théorème 1.1
Si (Xn )n est homogène (Mn = M ∀n) et susamment mélangeante sur E , alors il existe η mesure
1
invariante telle que Xn →L η et n1 Pnp=1 f (Xp ) →
ps R
f dη .
La mesure η est appelée mesure invariante pour la chaîne. Elle est dénie par l'équation ηM = η.
: Le cas i.i.d à µ est un cas particulier de M (x, dy) = µ(dy). En eet, η est invariante
pour cette chaîne ssi η = µ.
Remarque
η est donnée sur E . On cherche une chaîne de Markov de mesure invariante η . L'idée est, à partir
d'une état x, d'explorer E avec une proba de transition arbitraire mais ayant des bonnes propriétés
de mélange pour assurer la convergence vers la mesure invariante, puis d'accepter ou non le nouvel état
selon un calcul de probabilité dépendant de η. On sélectionne des états avec leur probabilité d'occupation
asymptotique qui correspond à son poids dans la mesure invariante. Les états les plus visités sont bien
ceux les plus probables pour la mesure invariante.
Exploration : avec la matrice de transition Q.
et
(η × Q) (d (x, y)) = η (dy) Q (y, dx) .
Dans le cas discret : Q (x, y) = Q (x, {y}) et alors (η × Q) (x, y) = η (x) Q (x, y) et (η × Q) (x, y) =
η (y) Q (y, x).
0 1
Dans le cas à densité : (η × Q) (d (x, y)) = η (x) Q (x, y) dxdy et (η × Q) (d (x, y)) = η (y) Q (y, x) dxdy
Hypothèses : on suppose ces mesures absolument continues l'une par rapport à l'autre ie
0 1
Partant de x, on choisit y avec probabilité Q (x, .). On accepte alors y avec probabilité h (x, y) =
min (1, g (x, y)) et on reste en x avec une probabilité 1 − h (x, y).
Cette transition est markovienne si on considère les deux transitions successives
x 7→ x, y 7→ x ou y
0 0
M = KH
Théorème 1.2
,
∀x, y ∈ E η(x)Q(x, y)h(x, y) = min(η(x)Q(x, y), η(y)Q(y, x))
Démonstration : On le démontre dans le cas discret qui présente les mêmes dicultés que dans le cas
général et qui est ce qu'on utilisera en BE. On calcule (probabilité totale)
X
M (x, z) = K(x, (y, y 0 ))H((y, y 0 , z)
(y,y 0 )∈E 2
X X
δx (y) Q x, y 0 h y, y 0 δy0 (z) + δx (y) Q x, y 0 1 − h y, y 0
= δy (z)
(y,y 0 )∈E 2 (y,y 0 )∈E 2
X
= Q(x, z)h(x, z) + Q(x, y 0 )(1 − h(x, y 0 ))δx (z)
y 0 ∈E
X
= Q(x, z)h(x, z) + δx (z) 1 − Q(x, y 0 )h(x, y 0 )
y 0 ∈E
On en déduit que
X
(ηM )(z) = η(x)M (x, z)
x∈E
X X
= η(x)Q(x, z)h(x, z) + η(z)(1 − Q(z, y 0 )h(z, y 0 )).
x∈E y 0 ∈E
On remarque que si η(z) = 0, comme h(x, z) = 0, alors (ηM )(z) = 0. On suppose donc η(z) 6= 0. On
veut montrer que P η(x)Q(x, z)h(x, z) = P η(z)Q(z, y )h(z, y ). On utilise le lemme 1.1
y 0 ∈E
0 0
Il vient que
x∈E
X X
η(x)Q(x, z)h(x, z) = min(η(x)Q(x, z), η(z)Q(z, x))
x∈E x∈E
et X X
η(z)Q(z, y 0 )h(z, y 0 ) = min(η(z)Q(z, y 0 ), η(y 0 )Q(y 0 , z))
y 0 ∈E y 0 ∈E
Pour tout p ∈ {1, . . . d}, on dénit une mesure de transition K sur S de la façon suivante. p
d
d
(u1 , . . . , up−1 , u, up+1 , . . . , ud ) ∈ S 7→ (u1 , . . . , up−1 , v, up+1 , . . . , ud )
Π (v)
Kp (u, v) = δup (v p )
Πp (up )
où Π est la probabilité marginale de U ie
p
p
X
Πp (U p = up ) = Π (U = (u1 , . . . , u˜p , . . . , ud ))
u˜p
3
Proposition 1.1
2 Application à l'optimisation
Minimiser une fonction non convexe. L'idée est d'explorer les états aléatoirement en se concentrant
sur les points de minimisation.
2.1 Mesure de Boltzamnn-Gibbs
Soit U : E → [0, +∞[ la fonction à minimiser. Soit λ une mesure de probabilité sur E. On
dénit β le paramètre de température inverse et (µ ) une famille de mesures se concentrant sur les
énergie
1
µβ (dx) = e−βU (x) λ (dx)
Zβ
où Z = R e dλ. µ est une mesure de probabilité.
−βU
On veut simuler une chaîne de mesure invariante η = µ et β = 1. Il faut choisir Q de sorte de λ soit
réversible pour Q : λ (x) Q (x, y) = λ (y) Q (y, x) pour tout x, y. Alors
β
η (y) Q (y, x)
g (x, y) = = e−(U (y)−U (x))
η (x) Q (x, y)
si η (x) Q (x, y) 6= 0 (ie si Q (x, y) 6= 0 car η charge tous les états) et 0 sinon.
h (x, y) = min (1, g (x, y)) = e quand Q (x, y) 6= 0.
−(U (y)−U (x))+
Acceptation en 2 étapes :
n n
Si U (Y ) ≤ U (X ) on accepte Y (X = Y )
Si U (Y ) > U (X ) on eectue le choix aléatoire
n n n n+1 n
n n
Y avec proba
( 1
− T (n) (U (Yn )−U (Xn ))
e
X avec la proba complémentaire
n
X = n+1
n
D'étapes en étapes, on diminue la température (on refroidit le système) et plus T (n) diminue,
plus la probabilité de changer l'état diminue.
4
Il ne faut pas diminuer trop vite car on risque d'être piégé dans un minimum local. On montre que
l'algorithme converge vers un minimum global si
C
T (n) =
log n
5
Chapitre 7 -Compléments Master
11 décembre 2017
Remarque Si f : E → R est mesurable bornée (resp. positive), l'application Qf dénie sur E par
Z
Qf (x) = f (y)Q(x, dy)
E
est mesurable bornée (resp. positive) Si A ∈ E ,
Z
Q1A (x) = 1A (y)Q(x, dy) = Q(x, A).
E
Dénition 1.2
Une famille (Q(t, ., .))t≥0 de noyaux de transition sur E est un semi-groupe de transition si elle
satisfait les trois propriétés suivantes
1. Pour tout x ∈ E , Q(0, x, dy) = δx (dy) ;
2. Pour tous s, t ≥ 0 et A ∈ E , Q(t + s, x, A) = Q(s, y, A)Q(t, x, dy) (Propriété de Chapman-
R
E
Kolmogorov).
3. Pour tout A ∈ E , (t, x) 7→ Q(t, x, A) est mesurable pour B(R+ ) ⊗ E .
Soit QRt l'opérateur déni sur l'espace des fonctions boréliennes bornées par Qt f = Q(t, ., .)f ie
Qt f (x) = E f (y)Q(t, x, dy), ∀x ∈ E .
Qt est une approximation linéaire contractante sur E car
Z
|Qt f (x)| ≤ kf k Q(t, x, dy) = kf k∞ ∀x ∈ E
E
La relation de Chapman-Kolmogorov s'écrit
Z
Qt+s 1A (x) = (Qs 1{A} )(y)Q(t, x, dy) = Qt Qs 1A (x), ∀x ∈ E
E
On montre que pour tout f borélienne bornée, Qt+s f = Qt (Qs f ). D'où Qt+s = Qt Qs
Remarque La propriété i) implique (Q0 1A )(x) = δx (A) = 1A (x), ce qui conduit à Q0 f = f, ∀f
borélienne bornée, soit Q0 = Id.
Dans la suite, (Qt )t≥0 est aussi appelé semi-groupe de transition. Soit (Xt )t≥0 un processus, on note
Px la loi du processus partant de X0 = x.
1
Dénition 1.3
Soit (Qt )t≥0 un semi-groupe de transition sur E . Un processus de Markov relativement à (Ft )t≥0 de
semi-groupe (Qt )t≥0 est un processus (Ft )t≥0 -adapté (Xt )t≥0 à valeurs dans E tq pour tous s, t ≥ 0
et f borélienne bornée
Ex [f (Xt+s ]|Fs ] = Qt f (Xs )
où Ex désigne l'espérance sous Px .
Remarques
Si la ltration n'est pas précisée, on prend la ltration naturelle de (Xt )t≥0 .
Pour f = 1{A} , on a Px [Xt+s ∈ A|Fs ] = Q(t, Xs , A), ∀s, t ≥ 0, A ∈ E .
Cette dénition est équivalente à dire que Px [Xt+s ∈ A|Fs ] = Px [Xt+s ∈ A|Xs ].
Si s = 0, on a
Ex [f (Xt )] = Qt f (x)
et Px [Xt ∈ A] = Q(t, x, A), ∀t ≥ 0, A ∈ E .
Exemple : Mouvement brownien : Q(t, Bs , A) = P [Bt+s R ∈ A|Fs ] = PR[Bt+s − Bs ∈ A − Bs |Fs ] =
où est la densité d'une . g (r)dr = A gt (r−x)dr ie Q(t, x, dy) =
R
A−Bs t
g (r)dr gt N (0, t) Q(t, x, A) = A−x t
gt (y − x)dy .
avec b, σ lipschitzienne.
Theorem 1. On suppose que (Xtx )t≥0 est une solution forte de (1). Alors c'est un processus de Markov
de semi-groupe (Qt )t≥0 déni, pour toute fonction f mesurable bornée sur Rd , par Qt f (x) = E [f (Xtx )].
La démonstration (non faite) repose sur le théorème suivant. On introduit l'espace canonique C(R+ , Rk )
des fonctions continues de R+ dans Rk et la mesure de Wiener W qui est la loi de (Bt )t≥0 k -mouvement
brownien.
Theorem 2. Sous les hypothèses d'existence et unicité forte de (??), ∀x ∈ Rd , il existe une fonction
Fx : C(R+ , R ) → C(R+ , R ) mesurable pour la tribu borélienne (pour la norme uniforme) complétée par
k k
les négligeables de W tel que ∀x ∈ Rd , ∀(Ω, F, (Ft )t≥0 , P) et (Bt )t≥0 k-(Ft )t≥0 -mouvement brownien, le
processus déni, pour tout t ≥ 0 par Xt = Fx (B)t est l'unique solution de (??) vériant X0 = x. Si U
est une v.a F0 -mesurable t 7→ FU (B)t est l'unique solution de donnée initiale U .
Démonstration : du théorème 1. On montre que E [f (Xt+s x
)|Fs ] = Qt f (Xsx ). Soit Xt0 = Xt+s , Bt0 = Bt+s −
Bs , Ft0 = Ft+s , ∀t. (Xt )t≥0 est solution de
0
Z t Z t
Xt0 = Xs + b(Xu0 )du + σ(Xu0 )dBu0 , t ≥ 0
0 0
2
1.3 Problème de Cauchy-Rappel Chapitre 4
On considère l'équation diérentielle stochastique
1 X ∂2 X ∂
Lt φ(x) = aij (t, x) φ(x) + bi (t, x) φ(x)
2 ∂xi ∂xj ∂xi
1≤i,j≤d 1≤i≤d
où a = σσ t .
Soit l'EDP avec donnée nale
∂
− ∂t v(t, x) = Lt v(t, x) − k(t, x)v(t, x) + g(t, x), t ∈ [0, T ], x ∈ Rd
{ (2)
v(T, .) = f
On suppose
σ, b lipschitzienne en x uniformément P sur [0, T ] × R et k ≥ 0P
d
.
σ uniformément elliptique (∃c > 0, 1≤i,j≤d aij (t, x)ξi ξj ≥ c 1≤i≤d ξi2 , ξ ∈ Rd , (t, x) ∈ [0, T ] × Rd
k, g Hölder continues uniformément sur [0, T ] × Rd , f continue sur Rd .
σ, b, k bornées dans [0, T ] × Rd , f, g à croissance polynomiale
Théorème 1.1
Sous ces hypothèses, l'équation (2) a une unique solution v à croissance polynomiale en x uniformé-
ment en temps donnée par
" Z T #
t,x − tT k(s,Xst,x )ds t,x − ts k(u,Xu
t,x
R R
v(t, x) = E f (XT )e + g(s, Xs )e )du
ds (3)
t
Démonstration : On montre seulement que si v , Cb1,2 est solution de l'EDP alors elle est nécessairement
donnée par la formule (3). On applique la formule d'Itô :
Rs t,x Rs t,x ∂v
d(v(s, Xst,x )e− t k(u,Xu )du
) = e− t k(u,Xu )du
( + Ls v − kv)(s, Xst,x )ds + dMs
∂t
où (Ms )s≥0 est une martingale centrée (car intégrable stochastique d'un processus dans M 2 ). Donc
E [MT − Mt ] = 0. En utilisant l'EDP et en intégrant entre t et T , il vient que
h RT i Z T
t,x Rs t,x
E v(T, XTt,x )e− t k(s,Xs )ds − v(t, x) = −E g(s, Xst,x )e− t k(u,Xu )du ds .
t
Or v(T, XT ) = f (XT ).
3
Remarques : La propriété (ii) peut-être remplacée par un qui semble plus faible :
∀f ∈ C0 (E), ∀x ∈ E, Qt f (x) − f (x) → 0, quandt → 0.
∀f ∈ C0 (E), t 7→ Qt f est uniformément continue sur R+ dans C0 (E). En eet kQt+s f − Qs f k =
kQs (Qt f − f )k ≤ k(Qt f − f )k → 0 quand t → 0.
Exemple feuille exercices 1 et 2.
Dénition 1.5
Soit (Qt )t≥0 un semi-groupe de Feller sur E . On dénit
Qt f − f
D(L) = {f ∈ C0 (E), converge dans C0 (E) quand t → 0+ }
t
et pour tout f ∈ D(L),
Qt f − f
Lf = lim+ .
t→0 t
Alors D(L) est un sous-espace vectoriel de C0 (E) et L : D(L) → C0 (E) est un opérateur linaire
appelé générateur innitésimal du semi-groupe (Qt )t≥0 . L'ensemble D(L) est appelé domaine de L.
Remarque : De même que E [φ(X)] pour une famille de φ assez riche caractérise la loi de la v.a. X ,
le semi-groupe caractérise la loi du processus de Markov.
Example : Le mouvement brownien B et le processus B sont des processus de Feller.
Théorème 1.2
(Hille-Yosida)
1. D(L) est dense dans C0 (E)
2. Qt (D(L)) ∈ D(L)
3. ∀f ∈ D(L), dt
d
(Qt f ) = Qt (Lf ) = L(Qt f ), (Qt f solution de d
dt u = Lu).
Démonstration : On suppose L déni par la quantité ci-dessus. D'après la formule d'Itô, pour tout
Φ ∈ Cc2 (Rd ),
Z t Z t
Φ(Xtx ) = Φ(x) + LΦ(Xsx )ds + DΦ(Xsx )σ(Xs )dBs .
0 0
hR i
t
Or Qt Φ(x) = E [Φ(Xtx )]. De plus E 0 DΦ(Xsx )σ(Xs )dBs = 0 car l'intégrale stochastique est une
h R i
Qt Φ(x)−Φ(x) 1 t
(F)t≥0 -martingale. Ainsi t = E t 0 LΦ(Xs
x
)ds . Le terme dans l'espérance converge p.s
vers LΦ(x) et comme LΦ est bornée. L'espérance converge vers LΦ(x) par convergence dominée. Par
conséquent Cc2 (Rd ) ⊂ D(L) et L = L sur Cc2 (Rd ).
4
Exemple : Mouvement Brownien : L = 12 ∆
Processus d'Orstein-Uhlenbeck : b(x) = −bx, σ constant, k = d = 1, Lφ = 21 σ 2 Φ00 − bxΦ0 .
soit Rd f (y) dt
d
Q(t, x, dy) = Rd f (y)Lx Q(t, x, dy), l'indice x indique la variable sur laquelle l'opérateur
R R
où
R L est
∗
l'adjoint
R de L, i.e l'opérateur déni, pour tout φ, Ψ : R → R, C à support compact, par
d ∞
Rd
ΦL Ψdy = Rd ΨLΦdy .
∗
1 ∂2
Example : Pour le mouvement brownien, L = L∗ = 2 ∂x2
et l'équation de Kolmogorov rétrograde est donnée
par
d 1 ∂2
Q(t, x, dy) = Lx Q(t, x, dy) = Q(t, x, dy)
dt 2 ∂x2
lim Q(t, x, .) = δx
t→0+
(y−x)2
−
On vérie que Q(t, x, dy) = e √2πt
2t
dy est solution. Exercice : Ecrire l'équation de Kolmogorov progressive.
On considère la solution de dXt = −bXt dt + σdBt , X0 = x ∈ R, l'opérateur L∗ ψ = (xψ)0 + 21 σ 2 ψ 00 .
autrement dit Z
µt (dy) = Q(t, x, dy)µ0 (dx)
Rd
5
On cherche une équation pour µt . Pour tout fonction régulière Φ,
Z Z Z
Φ(y)µt (dy) = Φ(y)Q(t, x, dy)µ0 (dx)
Rd Rd Rd
D'où
Z Z Z
d d
Φ(y) µt (dy) = Φ(y) Q(t, x, dy)µ0 (dx)
Rd dt Rd Rddt
Z Z
= Φ(y) L∗y Q(t, x, dy)µ0 (dx)
Rd Rd
Z Z
∗
= Φ(y)Ly Q(t, x, dy)µ0 (dx)
d Rd
ZR
= Φ(y)L∗y µt (dy)
Rd
Dans le cas d'une diusion si les coecients sont réguliers et si σσ t est une matrice dénie positive
(ellipticité uniforme) alors la probabilité de transition admet une densité q(t, s, t) pour tout t > 0 . Elle
est la solution classique de l'équation de Fokker-Planck. Dans ce cas, on montre qu'il y a au plus une
probabilité invariante, qui possède nécessairement une densité.
Lu − ku = − g dans D
(5)
u = f sur ∂D.
On suppose
σ, b lipschitzienne sur D̄ et k ≥ 0.
σ uniformément elliptique
k, g Hölder continues sur D̄, f continue sur ∂D.
Théorème 1.4
Sous ces hypothèses, l'équation (5) a une unique solution u donnée par
Z τ
x − 0τ k(Xs )ds − 0t k(Xs )ds
R R
u(x) = E f (Xτ )e + g(Xt )e dt
0
avec τ = inf {t > 0, Xtx / D}.
∈
6
Application : Temps de sortie d'un ouvert : Si σ, b lipschitzienne et si la diusion est uniformément
elliptique, le temps moyen de sortie
u(x) = Ex [τD ]
est ni et est solution de l'équation
Lu = −1 dans D, u = 0 au bord de D.
Démonstration : Pour simplier, on suppose que u se prolonge en une fonction C 2 sur Rd , notée encore
u et on ne montre que la partie unicité. On pose
Rt
Z t Rs
Yt = u(Xt )e− 0 k(Xs )ds + g(Xs )e− 0 k(Xu )du ds.
0
Donc (Yt )t≥0 est une martingale locale. On peut montrer qu'avec les hypothèses (Yt )t≥0 est une martin-
gale. Par conséquent (Yt∧τ )t≥0 aussi. Par conséquent E [Yt∧τ ] = E [Y0 ] pour tout t, i.e
Z t∧τ
− 0t∧τ
R Rs
− k(Xu )du
E u(Xt∧τ )e k(Xs )ds + g(Xs )e 0 ds = u(x).
0
On remarque que
|Yt∧τ | ≤
u1{D}
∞ + τ kgk∞
Comme la diusion est elliptique et D borné, E [τ ] ≤ ∞. Pour conclure, on fait tendre t vers +∞ et on
conclut par convergence dominée.
2 Le théorème de Girsanov
Dans Scette partie, on considère que la ltration (Ft )t≥0 est complète et continue à droite. On note
F∞ = σ( t∈R+ Ft ). L'objectif de cette section est d'étudier comment se transforment les notions de mar-
tingales et de processus d'Itô lorsqu'on change de probabilité. On admettre que l'intégrale stochastique
peut se dénir avec les mêmes propriétés pour une martingale locale continue.
λ2
E(λX)t = exp λ(Xt − X0 ) − < X, X >t .
2
Démonstration : Si F (x, r) est une fonction de classe C 2 sur R × R+ , la formule d'Itô implique que
t Z
∂F
F (Xt , < X, X >t ) = F (X0 , 0) + (Xs , < X, X >s )dXs (6)
0 ∂x
Z t
1 ∂2F
∂F
+ + (Xs , < X, X >s )d < X, X >s .
0 ∂r 2 ∂x2
7
Donc, F (Xt , < X, X >t ) est une martingale locale dès que F vérié l'équation
∂F 1 ∂2F
+ = 0.
∂r 2 ∂x2
2
Cette équation est vériée pour F (x, r) = exp(λx − λ2 r). De plus, pour cette fonction ∂F
∂x = λF .
On dit qu'un processus X est uniformément intégrable si
lim E |Xt |1|Xt |>a = 0
a→=∞
Si X est une martingale uniformément intégrale, il existe X∞ v.a cF∞ mesurable telle que Xt =
E [Xinf ty |cFt ].
FT = {A ∈ F∞ , A ∩ {T ≤ t} ∈ Ft }.
Alors,
dQ
Z∞ =
dP
est appelée la densité de Radon-Nikodym.
Dénition 2.1
Soient Q et P deux probabilités sur F∞ . On dit que Q localement absolument continue par rapport
à P si pour tout t ≥ 0, Q << P lorsque l'on considère leur restriction sur Ft . On note Zt la densité
de Radon-Nikodym sur Ft
Proposition 2.1
Soit Q localement absolument continue par rapport à P sur F∞ alors (Zt )t≥0 est une martingale
cadlag.
De plus, il y a équivalence entre (Zt )t≥0 est uniformément intégrable et Q absolument continue
par rapport à P sur F∞ . Dans ce cas Zt = E [Z∞ |Ft ].
Démonstration : On démontre unique ment le fait que (Zt )t≥0 est une P-martingale. L'intégrabilité
et la mesurabilité découlent de la dénition de la densité. Soit A ∈ Fs , alors Q[A) = E(Zs 1A ). D'autre
comme A ∈ Ft pour t ≥ s, on a Q[A) = E(Zt 1A ) en considérant la restriction de Q sur Ft . D'où le
résultat.
8
Exercice : Si T est un temps d'arrêt, montrer que ZT ∧t = dP |FT ∧t .
dQ
On suppose que t → Zt est
continue.
Lemme 2.2
Soit X continu, adapté. Si le processus XZ est une P-martingale locale, alors X est une Q-martingale
locale.
Démonstration : Soit Tn une suite qui réduit XZ , alors X Tn ∈ L1 (Q). Pour tout n, tout s ≤ t et
A ∈ Fs , on a A ∩ {Tn > s} ∈ Fs et
E 1{A∩{Tn >s}} XTn ∧t ZTn ∧t = E 1{A∩{Tn >s}} XTn ∧s ZTn ∧s
Or ZTn ∧t = dQ
dP |FTn ∧t et comme A ∩ {Tn > s} ∈ FTn ∧s ⊂ FTn ∧t , il vient
EQ 1{A∩{Tn >s}} XTn ∧t = EQ 1{A∩{Tn >s}} XTn ∧s
D'autre part, on a
EQ 1{A∩{Tn ≤s}} XTn ∧t = EQ 1{A∩{Tn ≤s}} XTn ∧s
D'où le résultat.
Théorème 2.3
Soit Q une mesure localement absolument continue par rapport à P sur F∞ . On suppose que (Zt )t≥0
est continue. Alors, si M est une P-martingale locale continue et si
Z t
0 1
Mt = Mt − d < M, Z >s , ∀t ≥ 0
0 Z s
alors M 0 est bien dénie sur (Ω, F, (Ft ), Q) et (Mt0 )t≥0 est une Q-martingale locale. De plus,
Démonstration : M 0 est bien dénie car 1/Z est Q-localement borné. On applique ensuite la formule
d'Itô au produit M Z et on conclut avec le Lemme 2.2
0
Alors, (B̃t )t∈R+ est un mouvement Brownien sur (Ω, F, (Ft ), Q).
Dans les applications du théorème de Girsanov on construit la probabilité Q comme suit. On part
d'une martingale locale L telle que L0 = 0. Alors E(L) est une martingale locale. Si on a E(L) qui est
une martingale, on peut dénir Q = E(L)t · P sur Ft pour tout t ≥ 0. Le résultat suivant donne des
conditions pour que E(L) soit une martingale.
9
Corollaire 2.2
Soit L une martingale locale continue sur (Ω, F, (Ft ), P) telle que L0 = 0.
Si
1
E exp( < L, L >∞ ) < ∞, critère de Novikov
2
ou que L est une martingale uniformément intégrable, et
1
E exp( L∞ ) < ∞, critère de Kamazaki,
2
martingale.
Remarque : On applique souvent le théorème de Girsanov en horizon ni. Pour T > 0 xé, on se
donne une ltration (Ft )t∈[0,T ] . Si Q est équivalente à P, on peut dénir Z et L comme précédemment
sur [0, T ].
Application : Loi du temps d'atteinte pour un mouvement brownien géométrique.
10