Vous êtes sur la page 1sur 47

1 Généralités sur les processus stochastiques

1.1 Dénition
Soit (Ω, F, P) un espace probabilisé et soit (E, E) un espace mesurable. Soit T un ensemble, T =
N, R, Rd par exemple.
Soit
X : T×Ω→E
(t, ω) 7→ X(t, ω)
une application. Pour tout t ∈ T, la coordonnée Xt (ω) est une application de Ω dans E qui à ω associe
Xt (ω) = X(t, ω).
Dénition 1.1
On dit que X est un processus aléatoire déni sur Ω indexé par T et à valeurs dans E si toutes ses
coordonnées sont des variables aléatoires, i.e ∀t ∈ T, ω 7→ Xt (ω) est mesurable de (Ω, F) dans (E, E).
En particulier, T = {1, · · · , n}, X est un vecteur, T = N, X est une suite aléatoire, T = R, R+ ou un
intervalle de R, X est une fonction aléatoire, T = Rd , Zd , X champ aléatoire.
Exemples
a Soit (ξi )i≥1 une suite de v.a. réelles sur Ω et soit T = N. Pour tout t ∈ N, on pose X(t, ω) = i≤t ξi .
P
X est une processus stochastique.
b Modèle en théorie du signal :
X
X (t, ω) = λk Ak (ω) sin (2πfk t + φk (ω)) , t ∈ R
k≥1

où les fk sont des fréquences, les λk sont des amplitudes et les ((Ak , φk ))k sont des va indépendantes
à valeurs dans ]0, 1]×] − π, π] (amplitude et phase aléatoire)
c Exemple en nance, (Stα )t suite des cours des actifs nanciers α à la date t ≥ 0. (S0α ) est le cours
déterministe à la date présente et pour tout t > 0, (Stα ) est une v.a sur R∗+ .

1.2 Loi des processus stochastiques


On peut aussi considérer X comme une fonction de Ω dans E T qui est par dénition l'ensemble des
applications de T dans E . (Xt (ω))t∈T s'appelle une trajectoire du processus.
Dénition 1.2
La tribu produit ⊗t∈T E est la tribu engendrée par les cylindres mesurables de dimension nie, i.e.
par les sous ensembles de E T de la forme At1 × · · · × Atn où Ati ∈ E pour (t1 , . . . , tn ) ∈ Tn où n ≥ 1.
Proposition 1.1
Si X est un processus aléatoire alors l'application X dénie comme ci-dessus est mesurable de (Ω, F)
dans E T muni de la tribu ⊗t∈T E .
Dénition 1.3
Soit X un processus déni sur Ω à valeurs dans E , indexé par T, on appelle loi de X la mesure image
de P par X dénie par PX (A) = P (X ∈ A) ∀A ∈ ⊗t∈T E .
Proposition 1.2
PX est entièrement déterminé par la donnée de ses lois de dimension nie, i.e. les lois des vecteurs
(Xt1 , . . . , Xtn ), pour tout n ≥ 1 et tout (t1 , . . . , tn ) ∈ Tn .

t∈T E est engendrée par les cylindres de dimension nie qui est stable par intersection
N
Démonstration :
nie et donc par le théorème de la classe monotone, PX est caractérisée par ses valeurs sur les cylindres

Dénition 1.4
Deux processus X et Y dénis sur le même espace probabilisé et indexés par T et T respectivement
0

sont dit indépendants si P(X,Y ) = PX ⊗ PY .


1
Proposition 1.3
X et Y sont indépendants si et seulement si ∀n, m ∈ N∗ , ∀t1 , . . . , tn ∈ T et s1 , . . . , sm ∈ T ,
0

(Xt1 , . . . , Xtn ) et (Ys1 , . . . , Ysm ) sont indépendants.

1.3 Continuité des processus stochastiques


Nous ne présentons ici qu'une notion particulière de continuité. D'autres existent. On suppose que T
est un intervalle de R. Un processus aléatoire est alors appelé fonction aléatoire réelle.
Dénition 1.5
Une fonction aléatoire réelle est dite continue si ∀ω ∈ Ω, t 7→ Xt (ω) est continue.
Remarque On considérera aussi dans ce cadre les processus presque sûrement continus ; i.e dont presque
toutes les trajectoires sont continues i.e. elles sont continues sauf pour un ensemble P - négligeable de Ω.
On note C (T, R) l'espace des fonctions continues réelles et dénies sur T. On munit cet espace de la
topologie de la norme uniforme si T est borné ou de la topologie de la convergence uniforme sur tout
compact sinon. On dénit B (C) la tribu borélienne pour cette topologie sur C (T, R).
Proposition 1.4
Soit X un processus aléatoire réel à trajectoires continues, alors X est mesurable de (Ω, F) dans
(C (T, R) , B (C)) et sa loi est la loi image de P par X sur B (C).

Démonstration : (Non faite en cours) Soit t ∈ T, la projection qui a x ∈ C (T, R) associe x(t) ∈ est continue
car lipschitzienne pour la norme uniforme donc borélienne. La tribu produit est la plus petite tribu rendant
mesurable les projections donc ⊗B(R) ∩ C ⊂ B(C). Comme C est séparable, la tribu B(C) engendrée par
les boules fermées ∩n ∩t∈T∩Q {x ∈ C : |x(t) − y(t)| ≤  + n1 } ∈ ⊗B(R)

1.4 Processus gaussiens


Dénition 1.6
Un processus aléatoire réel (Xt )t∈T est dit gaussien si tout vecteur de dimension nie (Xt1 , . . . , Xtn )
est un vecteur gaussien pour tout (t1 , . . . , tn ) ∈ Tn où n ≥ 1.
Remarque La loi d'un processus gaussien est déterminée par la donnée de son espérance t 7→ m (t) =
E [X (t)] et par sa covariance (s, t) 7→ Γ (s, t) = Cov (Xs , Xt ).
Theorem 1. Soient m : T → R et Γ : T × T → R symétrique positive. Alors il existe un processus
gaussien X indexé par T, de moyenne m et de variance Γ. Ce processus est unique en loi.

2 Mouvement brownien
2.1 Mouvement brownien et bruit blanc
Dénition 2.1
On appelle mouvement brownien une fonction aléatoire réelle (Bt )t≥0 à trajectoires (p.s.) continues
et à accroissements indépendants gaussiens tels que Bt − Bs ∼ N (0, t − s) pour tout 0 ≤ s ≤ t et
B0 = 0 p.s.

Remarque
 Dans la dénition, on peut remplacer l'hypothèse accroissement gaussiens par accroissements sta-
tionnaires centrés de variance t − s. On pose (en admettant que les accroissements admettent une
variance)    
Bt − Bs = Bt − Bt− n1 + Bt− n1 − Bt− n2 + · · · + Bt− k − Bs
n

où k  est  n (t − s) + 1. C'est une somme de v.a.i. de même loi de carré intégrable. On applique
le théorème limite central après normalisation.

2
 On xe t ≥ 0 et on note Ft la tribu engendrée par {Bu , u ≤ t}, alors pour tout h > 0, on a
Bt+h − Bt indépendant de Ft .
Remarque : Lien bruit blanc-Mouvement brownien : Un bruit blanc N (t, ω) avec ω ∈ Ω et t ≥ 0 devrait
être une généralisation au temps continu des suites de v.a. (gaussiennes) centrée réduites indépendantes.
Cependant, on peut montrer que avec une probabilité 1, l'application t R7→ N (t) n'est pas mesurable.
Si jamais une telle application mesurable existant, le processus Bt = 0 N (s) ds a toute les propriétés
t

du brownien (accroissements Bt − Bs , t ≥ s indépendants et stationnaires et à trajectoires continues, de


moyenne nulle et de variance t − s).
Ainsi la bonne dénition du bruit blanc est de dénir le bruit blanc comme la dérivée d'un brownien
au sens des distributions.

2.2 Premières propriétés


Proposition 2.1
B est un mouvement brownien ssi B est un processus gaussien à trajectoires (p.s.) continues de
moyenne nulle pour tout t et tq E [Bt Bs ] = min (t, s).

Démonstration : Exercice TD

Proposition 2.2
Soit B un mouvement brownien. Alors les processus suivants le sont également :
1. Xt = a−1 Ba2 t pour a 6= 0 et t ≥ 0 (scaling diusif) ;
2. Xt = t.B 1t pour t > 0 (et limt→0+ Xt = 0) invariance en loi ;
3. Xt = Bt+t0 − Bt0 pour t ≥ 0 et t0 > 0 xé (propriété de Markov) ;
4. Xt = BT −t − BT pour t ∈ [0, T ], T > 0 (réversibilité).

Démonstration : Exercice TD

2.3 Approximations du brownien


Le Principe de Donsker dit que l'on peut approcher un brownien par une marche aléatoire. On ne
démontre pas tout à fait ce résultat mais un résultat plus faible qui permet tout de même d'apprécier la
vitesse de variation des trajectoires browniennes.
Idée : Soit (ξi )≥1 une suite de v.a.iid centrée réduites. On construit les processus à trajectoires
continues à droite et constants par morceaux (X n )n≥1 satisfaisant

X 1 (0) = 0, X 1 (1) = α1 ξ1 , X 1 (2) = α1 (ξ1 + ξ2 ) , . . . , X 1 (k) = α1 (ξ1 + · · · + ξk )


   
2 2 1 2 2 k
X (0) = 0, X = α2 ξ1 , X (1) = α2 (ξ1 + ξ2 ) , . . . , X = α2 (ξ1 + · · · + ξk )
2 2
..
.
   
n 1 n n k
X (0) = 0, X = αn ξ1 , . . . , X = αn (ξ1 + · · · + ξk )
n n
et      
k k
E Xn = 0 et V ar X n = kαn2
n n
par construction des (ξi )i≥1 . Les coecients (αn )n sont déterminés pour que X n ( nk ) soit proche d'une
N (0, nk ), on doit donc avoir αn2 k = nk d'où αn = √1n .
Proposition 2.3
 
Soit (t0 , t1 , . . . tm ) une subdivision de R+ . Alors Xtn1 − Xtn0 , . . . , Xtnm − Xtnm−1 converge en loi
n≥1

3
vers Bt1 − Bt0 , . . . , Btm − Btm−1 quand n → +∞.


On a X n (tk ) = ξi . Alors
Pbntk c
Démonstration : √1
n i=1

bntk c
1 X
X n (tk ) − X n (tk−1 ) = √ ξi
n
i=bntk−1 c+1

et alors les accroissements sont indépendants. On a de plus


bn.tk c
→ tk
n
donc le TLC (multidimensionnel) nous donne le fait que Xtn1 − Xtn0 , . . . , Xtnm − Xtnm−1 converge en


loi vers une Nm (0, diag (t1 − t0 , . . . , tm − tm−1 )). Ce qui est la loi des accroissements du brownien. Par
transformation linéaire, on en déduit la convergence en loi de (Xtn1 , . . . , Xtnm )n≥1 vers (Bt1 , . . . , Btm ).

Theorem 2. Principe de Donsker. Soit X̃ n une suite d'interpolation ane par morceaux et continue
 
  n
de la marche aléatoire ci dessus, alors X̃ n converge en loi vers le mouvement brownien, ie
n
h  i
∀ϕ : C (R+ , R) → R, lim E ϕ X̃ n = E [ϕ (B)]
n→+∞

Ce théorème a des conséquences sur l'approximation du max du brownien ou de sa norme L2 sur


[0, T ] par ses analogues en discrets. On admet que l'on peut construire un mouvement brownien sur un
(Ω, F, P) quelconque (cf p.18-19 du Comets-Meyre). Cela se fait en construisant une approximation dans
L2 : on combine des v.a. N (0, 1) indépendantes avec des coecients dans L2 (R+) (base de Haar).
Exercice Faire un programme matlab pour simuler les processus (X̃ n )n et faire une représentation
graphique. (On pourra choisir plusieurs lois pour (ξi )i cf BE1.)

2.4 Propriétés des trajectoires


2.4.1 Régularité Hölder
Soient t ≥ 0, h > 0, Xth := Bt+hh−Bt N 0, hh2 = N 0, h1 La suite (Xth )h ne converge pas en loi
 

quand h → 0. En eet, ∀x ∈ R,
!
Xh x
P Xth ≤ x = P p t ≤p

1/h 1/h
 
h
où √Xt ∼ N (0, 1) de fonction de répartition φ. Or φ √x → 1
2 qui n'est pas une fonction de
1/h 1/h
répartition. Il n'y a donc pas de convergence en loi ni alors de convergence presque sure. On a montré
que pour tout t, le brownien n'est pas dérivable en t p.s. On peut montrer que
Theorem 3. Presque surement, les trajectoires sont nulle part diérentiables.
Proposition 2.4
Les trajectoires du mouvement brownien sont presque sûrement holderiennes d'exposant α ∈ 0, 12
 

i.e ;  
1 α
∀α ∈ 0, p.s. |Bt − Bs | ≤ C (α, ·, T ) |t − s| , ∀t, s, T /0 ≤ s, t ≤ T
2 | {z }
Cste

2.4.2 Variations du mouvement brownien


Dénition 2.2
Soit T > 0 et soit Π = (t0 , . . . , tk ) une subdivision de [0, T ]. On appelle pas de la subdivision la
4
quantité ∆ = maxi=1..k (ti − ti−1 ).
Pour toute subdivision Π, on note
k k
X 2 X
V2 (Π) = Bti − Bti−1 , V1 (Π) = Bti − Bti−1
i=1 i=1

Proposition 2.5
Soit (Πn )n une suite de subdivisions de [0, T ] dont la suite des pas (∆n )n tend vers 0 quand n → +∞.
Alors (V2 (Πn ))n converge vers T dans L2 (Ω, F, P). C'est cette limite que l'on appelle la variation
quadratique.
Démonstration : Soit Π = (t0 , . . . , tk ) une subdivision de [0, T ] de pas ∆. Alors
 2 

!
 k  k
 X 2  X 2
E

B ti − B ti−1 − T 
 = V ar Bti − Bti−1
 i=1  i=1
| {z }

E(·)=0
k h
X 2 i
= V ar Bti − Bti−1
i=1

donc si X ∼ N 0, σ 2
=⇒ V ar X 2 = 2σ 4 donc
  

 2 
Xk k
2 X
Bti − Bti−1 − T  = 2 (ti − ti−1 )2

E 

i=1 i=1

≤ 2∆T

et alors on a montré que


E |V2 (Πn ) − T |2 ≤ 2∆n T → 0
 

Proposition 2.6
Si n≥0 ∆n < +∞ alors la convergence est p.s. De plus, on en déduit pour ces suites que V1 (Πn ) →
P
+∞, p.s et la variation totale du brownien est presque surement innie.

Démonstration : Par Bienaymé-Tchebychev,


V ar (V2 (Πn )) 2∆n T
P (|V2 (Πn ) − T | > ε) ≤ ≤
ε2 ε2
et alors ∀ε > 0,
X 2T X
P (|V2 (Πn ) − T | > ε) ≤ ∆n < +∞
n
ε2 n
et alors par le lemme de Borel-Cantelli, V2 (Πn ) → T p.s.
Par ailleurs, pour toute subdivision de pas ∆,
k k
X 2 X
V2 (Π) = Bti − Bti−1 ≤ sup |Bu − Bv | Bt − Bt
i i−1
i=1 |u−v|≤∆ i=1
| {z }
=V1 (Π)

presque surement et (Bt ) est uniformément continue.


Si n ∆n < ∞, on a V2 (Π) → T et sup|u−v|≤∆ |Bu − Bv | → 0 (unif. continuité des traj. sur [0, T ])
P
donc nécessairement,
V1 (Πn ) → +∞
et
sup V1 (Πn ) = +∞

5
Remarque En fait, si f est une fonction continûment diérentiable,
X 0
 0
V1 (Π) ≤ f (ti−1 ) (ti − ti−1 ) + o (∆) ≤ f T + o (1)

i

et X 0

2 2
V2 (Π) ≤ f (ti−1 ) (ti − ti−1 ) + ∆o (∆) ≤ o (∆)
i

6
Chapitre 2-Martingales

Ecole Centrale de Lyon-Université Lyon 1 Processus stochastiques et applications

11 octobre 2017

1 Filtrations et martingales

Soit (Ω, F) un espace mesurable.

1.1 Filtration
Dénition 1.1
Une ltration de Ω est une suite croissante de sous tribu de F ie F = (Ft )t∈T est une ltration de
Ω si ∀t, s ∈ T s < t alors A ∈ Fs =⇒ A ∈ Ft . Ft représente l'information disponible au temps t.
(Ω, F, F) s'appelle une espace mesurable ltré.

Dénition 1.2
Soit F une ltration. On dit qu'un processus (Xt )t∈T est adapté à la ltration F si pour tout t ∈ T,
Xt est Ft - mesurable.

Proposition 1.1
Étant donné (Xt )t∈T un processus déni sur Ω, on peut dénir la plus petite ltration à laquelle
(Xt )t∈T est adaptée,
 par ∀t ∈ T, Ft = σ {Xµ , µ ≤ t}. Elle s'appelle la ltration naturelle du processus
(notée FX = FtX t∈T .

Soit P une probabilité sur (Ω, F), on introduit deux notions supplémentaires sur les ltrations.

Dénition 1.3
Soit F une ltration. On pose pour tout t ≥ 0, Ft+ = ∩>0 Ft+ .
 On dit que la ltration est complète , si ∀t ≥ 0, Ft contient tous les négligeables de P.
 (Ft+ )t≥0 est une ltration. La ltration (Ft )t≥0 est continue à droite si Ft = Ft+ , t ≥ 0.

Remarque : Si la ltration n'est pas complète, on peut toujours la compléter en considérant la ltration
(Ft0 )t≥0 dénie par Ft0 = σ(Ft ∨N ) où N est l'ensemble des négligeables de P. Dans la suite on considérera
toujours que la ltration est complète et continue à droite.

1.2 Martingales

Dénition 1.4
Étant donné P une probabilité sur (Ω, F) et (Ft )t≥0 une ltration de F , on dit que le processus (la
fonction) aléatoire réel(le) (Mt )t≥0 est une (Ft )t≥0 - martingale si
1. (Mt )t≥0 est (Ft )t≥0 - adapté ;
2. pour tout t ≥ 0, Mt est intégrable ;
3. et pour tout t ≥ s ≥ 0, E [Mt |Fs ] = Ms p.s.

Remarque Si (Mt )t≥0 est une martingale, alors E [Mt ] = E [M0 ].


Example : Martingales régulières.Soit X une variable aléatoire réelle intégrable sur (Ω, F, F, P). Alors le proces-
sus déni pour tout t ≥ 0 par Mt = E [X|Ft ] est une martingale.

1
Démonstration : A faire en exercice avec les propriétés de bases des espérances conditionnelles.

Example : Brownien : (Bt )t≥0 avec (Ft )t≥0 la ltration naturelle est une martingale. De même pour (Bt2 −t)t≥0 ,
σ t) t≥0 .
1 2
On utilise que ∀t ≥ 0, h > 0 car Bt+h − Bt est indépendant de FtB .

exp(σBt − 2

Dénition 1.5
On dénit de même les sous martingales (resp. les sur martingales) avec Ms ≤ E [Mt |Fs ] pour
0 ≤ s ≤ t , (resp. Ms ≥ E [Mt |Fs ]).

Proposition 1.2
Soit M une F-martingale et φ une fonction convexe telle que φ (M ) soit intégrable. Alors (φ (Mt ))t≥0
est une sous martingale.

Démonstration : D'après l'inégalité de Jensen. E [φ (Mt ) |Fs ] ≥ φ (E [Mt |Fs ]) = φ (Ms ), ∀0 ≤ s ≤ t, d'où le
résultat. p.s.

2 Théorème d'arrêt

2.1 Temps d'arrêt

C'est une catégorie naturelle de temps aléatoires liés à une ltration et non-anticipatif.

Dénition 2.1
Soit Ω, F, (Ft )t∈T , P un espace probabilisé ltré. La variable aléatoire τ : Ω → T ∪ {+∞} est un


F- temps d'arrêt si ∀t ∈ T, [τ ≤ t] = {ω ∈ Ω/τ (ω) ≤ t} ∈ Ft .

Example : Plusieurs exemples :


1. τ = t0 constante ou τ = t0 p.s.
2. τ1 ∧ τ2 , τ1 ∨ τ2 , inf τn (besoin de la cont. à droite) et sup τn sont des temps d'arrêt.
3. Le temps d'entrée dans un fermé par les processus continus (ou c.a.d) et adaptés sont des temps d'arrêt.
4. Le temps d'entrée dans un ouvert par les processus c.a.d et adaptés sont des temps d'arrêt (besoin de
la cont. à droite).
Démonstration : 1.et 2. en Exercice
3. Temps d'entrée dans F fermé pour un processus continu. τ : ω 7→ inf {t ≥ 0/Xt (ω) ∈ F }. Mq que τ est
un(Ft )- temps d'arrêt (pour la ltration naturelle par exemple).
On remarque que si τ < ∞ alors Xτ ∈ F . En eet, si τ < +∞, alors pour tout n ∈ N, il existe sn ≥ 0
tq Xsn ∈ F et τ ≤ sn < τ + n1 . Comme X est continu (à droite) et sn → τ + , Xsn → Xτ . F est fermé et
Xsn ∈ F, ∀n, alors Xτ ∈ F .
Soit alors t ≥ 0, [τ ≤ t] = ([τ ≤ t] ∩ [Xt ∈ F ]) ∪ ([τ ≤ t] ∩ [Xt ∈
/ F ]). Si Xt ∈ F alors τ ≤ t donc
[τ ≤ t] ∩ [Xt ∈ F ] = [Xt ∈ F ] ∈ Ft . Si Xt ∈ / F alors τ < t (car Xτ ∈ F ) alors [τ ≤ t] ∩ [Xt ∈/ F] =
/ F ].On montre alors que
[τ < t] ∩ [Xt ∈
 
[ \ [ 1
[τ < t] = d(Xs , F ) ≤
1
n
k≥1 n≥1 s∈Q∩[0,t− k ]

ce qui permettra de conclure car cet ensemble est dans Ft .


En eet, supposons τ < t. il existe k ≥ 1 tq τ < t − k2 et s ≤ 1 − k2 t.q Xs ∈ F . Comme les trajectoires
sont continues, ∀n ≥ 0, il existe sn ∈ Q ∩ [0, t − k1 ] tel que |Xsn − Xs | ≤ n1 et donc d(Xsn , F ) ≤ n1 ; d'où
l'inclusion.
Réciproquement, on suppose qu'il existe k ≥ 1 tq ∀n, ∃sn ∈ Q ∩ [0, t − k1 ] tel que d(Xsn , F ) ≤ n1 . alors
il existe s̄ limite d'une sous-suite convergente de (sn )n tq d(Xs̄ , F ) ≤ 0 par continuité, i.e. Xs̄ ∈ F car F
est fermé et s̄ ≤ t − k1 donc τ < t.
Le cas c.a.d est plus compliqué. on doit utiliser le fait que la ltration est complète.

2
Dénition 2.2
Soit (Xt )t≥0 un processus F- adapté et soit τ un F- temps d'arrêt.
1. Sur {τ < +∞}, le processus au temps τ , noté Xτ 1{τ <+∞} , est la fonction dénie par Xτ (ω) (ω) 1{τ (ω)<+∞} .
2. Le processus arrêté au temps τ < +∞ p.s. est le processus (Xt∧τ )t≥0 .

On associe à un temps d'arrêt τ la tribu passée avant τ dénie comme suit.

Dénition 2.3
Soit τ un temps d'arrêt. On dénit la tribu des évènements antérieurs à τ par

Fτ = {A ∈ F|∀t ≥ 0, A ∩ [τ ≤ t] ∈ Ft }

Proposition 2.1
 C'est une tribu.
 Si τ = t0 p.s. alors Fτ = Ft0 .
 Si τ ≤ σ p.s. alors Fτ ⊂ Fσ (où σ est un autre temps d'arrêt).

Démonstration : Point par point :


 Déjà, Ω ∩ [τ ≤ t] = [τ ≤ t] ∈ Ft et ceci pour tout t. Ensuite soit A ∈ Fτ . Soit t ≥S0. On sait que
AC ∩ [τ ≤ t] =(A ∩ [τ ≤ t])C ∩ [τ ≤ t]. Donc AC ∈ Fτ . Enn, si (An )n ⊂ Fτ alors n An ∈ Fτ (en
l'écrivant).
 Soit A ∈ Ft0 . On a 2 cas : soit t < t0 : A ∩ [τ ≤ t] est négligeable donc appartient à Ft .
Soit t ≥ t0 : A ∩ [τ ≤ t] est A à un négligeable près. Donc ∈ Ft0 ⊂ Ft .
Réciproquement : si A ∈ Fτ . On a A ∩ [τ ≤ t0 ] ∈ Ft0 qui est A à un négligeable près. Donc A ∈ Ft0 .
 Soit A ∈ Fτ . Soit t ≥ 0.
   

A ∩ [σ ≤ t] = A ∩ [τ ≤ t] ∩ [σ ≤ t] ∪ A ∩ [τ > t] ∩ [σ ≤ t] ∈ Ft


   
| {z } | {z } | {z }
∈Ft ⊂[τ ≤t] negligeable

Proposition 2.2
Soit (Xt )t≥0 un processus presque surement à trajectoires continues à droite, F-adapté et soit τ un
F-temps d'arrêt. Alors Xτ 1{τ <+∞} est Fτ mesurable et (Xt∧τ )t≥0 est (Ft∧τ )t≥0 adapté.

2.2 Théorème d'arrêt


Théorème 2.1
Soit (Mt )t≥0 une F-martingale continue à droite et soient τ et σ 2 temps d'arrêt bornés avec 0 ≤ σ ≤
τ ≤ cste < +∞ p.s. Alors
E [Mτ |Fσ ] = Mσ p.s.

Remarque Le résultat existe aussi pour les sous-martingales et sur-martingales. Ce théorème se dé-
montre en approchant le temps d'arrêt continu par des temps d'arrêts discrets.

Corollaire 2.1
Soit (Mt )t≥0 une F martingale et soit τ un F temps d'arrêt. Alors (Mt∧τ )t≥0 est une (Ft )t≥0 martin-
gale.

Démonstration : On doit montrer que E [Mt∧τ |Fs ] = Ms∧τ pour tout t ≥ s. Or


 
E [Mt∧τ |Fs ] = E Mt∧τ 1[τ ≤s] + Mt∧τ 1[τ >s] |Fs
   
= E Mt∧τ 1[τ ≤s] |Fs + E Ms∧τ 1[τ >s] |Fs

Or E Mt∧τ 1[τ ≤s] |Fs = E Ms∧τ 1[τ ≤s] |Fs = Ms∧τ 1[τ ≤s] car Ms∧τ 1[τ ≤s] est Fs mesurable. Pour le second
   

terme, on a besoin du lemme suivant

3
Lemme 2.1

Pour tout Z intégrable, 1[τ >s] E [Z|Fs ] = 1[τ >s] E [Z|Fs∧τ ].

et alors E Mt∧τ 1[τ >s] |Fs = 1[τ >s] E [Mt∧τ |Fs∧τ ] = 1[τ >s] Ms∧τ d'après le théorème d'arrêt. En remettant
 

les deux morceaux ensemble, on a le résultat.

Lemme 2.2
Pour tout A ∈ Fs , A ∩ [τ > s] ∈ Fs∧τ . Et en particulier pour A = Ω, cela donne [τ > s] ∈ Fs∧τ et
[τ ≤ s] ∈ Fs∧τ .

Démonstration : (du lemme 2.) Soit A ∈ Fs et s, t ≥ 0.


 Si s ≤ t, alors [τ > s] ∩ [s ∧ τ ≤ t] = [τ > s] car τ > s =⇒ s ∧ τ ≤ t. Maintenant, A ∩ [τ > s] ∩
[s ∧ τ ≤ t] = A ∩ [τ > s] ∈ Fs ⊂ Ft .
 Si s > t. [τ > s] ∩ [s ∧ τ ≤ t] = ∅ et alors ∩A on obtient ∅ donc dans Ft .

Démonstration : (du lemme 1) Il sut de montrer que ∀A ∈ Fs


Z Z
 
E 1[τ >s] Z|Fs∧τ dP = 1[τ >s] ZdP
A A

or Z Z
E [Z|Fs∧τ ] dP = ZdP
A∩[τ >s] A∩[τ >s]

car A ∩ [τ > s] ∈ Fs∧τ .

On admet le résultat suivant qui généralise une propriété du mouvement brownien.

Proposition 2.3
Soit τ un temps d'arrêt pour la ltration d'un brownien. Alors le processus (Wt )t≥0 déni par Wt =
Bt+τ − Bτ pour t ≥ 0 est un mouvement brownien indépendant de FτB .

2.3 Exemple

Distribution du temps de sortie d'un intervalle par un mouvement brownien (cf exercice feuille 2).

3 Une inégalité de martingales

On commence par donner un sens au sup0≤s≤t Xs .


Proposition 3.1
Soit (Xt )t≥0 un processus F-adapté et continu à droite. Alors ∀t ≥ 0, sup0≤s≤t Xs est Ft -mesurable.

Soit t ≥ 0, on doit montrer que sup0≤s≤t Xs ∈ ]−∞, x] ∈ Ft pour tout x. Or


 
Démonstration :

sup Xs ≤ x ⇔ ∀0 ≤ s ≤ t, Xs ≤ x
0≤s≤t

⇔ Xt ≤ x et ∀s ∈ Q, 0 ≤ s ≤ t, Xs ≤ x

cela venant de la densité de Q dans R pour la valeur absolue et de la continuité à droite de (Xt )t .
T 
Et alors sup0≤s≤t Xs ≤ x = [Xt ≤ x] ∩ s∈Q∩[0,t] [Xs ≤ x] qui est bien dans Ft .
 

Théorème 3.1
Inégalité Maximale de Doob.

4
Soit M une martingale de carré intégrable continue à droite sur R+ . Pour tout t > 0 et pour tout
λ > 0,  
1 
P sup |Ms | ≥ λ ≤ 2 E Mt2

0≤s≤t λ

Pour démontrer le théorème dans le cas continu, on applique la proposition suivante à M 2.


Proposition 3.2
Soit S une sous martingale positive continue sur R+ . Alors ∀t > 0 et ∀λ > 0,
 
1
P sup Ss ≥ λ ≤ E [St ]
0≤s≤t λ

Démonstration : Théorème d'arrêt appliqué à S (sous-martingale), σ = σ 0 ∧ t où σ 0 est le premier temps


d'atteinte de [S ≥ λ] ie
σ 0 = inf {s ≥ 0, Ss ≥ λ}
et τ = t ≥ σ . On obtient E [St |Fσ ] ≥ Sσ p.s. ce qui implique E [St ] ≥ E [Sσ ]. Comme

Sσ = Sσ 1[σ0 ≤t] + Sσ 1[σ0 >t]


≥ λ1[σ0 ≤t] + 0

et alors
E [Sσ ] ≥ λP σ 0 ≤ t


Comme S est continue, σ 0 ≤ t si et seulement si ∃s ∈ [0, t] tel que Ss ≥ λ, i.e. si et seulement si


max0≤s≤t Ss ≥ λ.

Proposition 3.3
Loi des grands nombres pour un mouvement brownien. Si B brownien, alors limt→+∞ Bt
t = 0 p.s.

Démonstration : cf exercice feuille 2.

Corollaire 3.1
On a
lim tB 1t = 0
t→0+

Démonstration : La proposition fournit alors le résultat.

4 Martingales de carré intégrable



On sait que Bt2 − t t≥0 est une martingale et t est la variation quadratique de (Bs )0≤s≤t . Pour
2
toute martingale (Mt )t de carré intégrable (Mt )t est une sous-martingale. On a un résultat similaire au
brownien pour toutes les martingales continues bornées, qui se généralise à toute martingale ainsi qu'au
produit de martingales.

Théorème 4.1
Pour toute martingale (Mt )t≥0 de carré intégrable, il existe un processus aléatoire V adapté croissant
et nul en 0 tq Mt2 − Vt t≥0 soit une martingale. V s'appelle le crochet de M et se note soit hM i ou


hM, M i.

Théorème 4.2
Cas des martingales continues.

5
Soit M une martingale continue de carré intégrable. Alors ∀t ≥ 0, ∀ (Πn )n suites de subdivision de
[0, t] dont le pas tend vers 0, (V2 (Πn ))n≥1 converge dans L2 et en probabilité vers une variation qua-
dratique hM i, la variation quadratique de M sur [0, t]. Le processus (hM it )t≥0 est l'unique processus
croissant nul en 0 tq M 2 − hM i soit une martingale.

Dénition 4.1
Crochet de 2 martingale. Soient M et N deux martingales de carré intégrable. On dénit le
crochet de M et N par
hM + N it − hM it − hN it
hM, N it =
2

Proposition 4.1
M N − hM, N i est une martingale. Le processus hM, N i est l'unique processus continu à variation
bornée et nul en 0 tq M N − hM, N i est une martingale).

Démonstration : ∀t > s,
1
E[Mt Nt − hM, N it |Fs ] = E[ ((Mt + Nt )2 − Mt2 − Nt2 ) − hM, N it |Fs ]
2
= Ms Ns − hM, N is

Rappel : Un processus (Xt )t≥0 est dit :


 à variations bornées si ∀T , ∀Π subdivision nie de [0, T ],
n
X
VT = sup |Xti − Xti−1 | ≤ C
Π subd. nie de [0,T ] i=1

pour une constante C > 0, indépendante de T.


 à variation nie si ∀T ,
n
X
VT = sup |Xti − Xti−1 | ≤ +∞.
Π subd. nie de [0,T ] i=1

6
Chapitre 3-Intégrale Stochastique

Ecole Centrale de Lyon-Université Lyon 1 Processus stochastiques et applications

28 novembre 2017

L'objectif consiste à dénir l'intégrale


Zt
φ (s, ω) dB0 (ω)
0

alors que B n'est pas à variations bornées. L'idée est due à Wiener (1934) pour les fonctions φ détermi-
nistes, puis à Ito dans le cas général.

1 Intégrale d'Itô

1.1 Fonctions progressivement mesurables

Soit (Ω, F, P) un espace probabilisé et F une ltration de F complète, c.a.d.


Dénition 1.1
On dit que σ : R+ × Ω → R est progressivement mesurable si ∀t ≥ 0, elle est mesurable de

([0, t] × Ω, B ([0, t]) ⊗ Ft ) → (R, B (R)).

Example : i) Fonctions en escalier : soit X une fonction aléatoire sur R+ de la forme :


n−1
(1)
X
X= X i 1]ti ,ti+1 ]
i=0

où n ≥ 1, (t0 , . . . , tn ) est une subdivision de R+ et où les X i sont Fti mesurables. Alors X est progressi-
vement mesurable.
ii) Toute fonction aléatoire adaptée et à trajectoires presque sûrement continues est progressivement mesu-
rable.
Démonstration : i) Soit t ≥ 0 et soit B ∈ B(R),
n−1
X −1 (B) = {(ω, s) ∈ Ω × [0, t]/X i (ω) ∈ B et s ∈]ti , ti+1 ]} =
[
]tt , ti+1 ] × (X i )−1 (B)
i=0,ti ≤t
| {z } | {z }
∈B([0,t]) ∈Fti ⊂Ft

qui est un élément de B ([0, t]) ⊗ Ft


ii) Soit t ≥ 0. On dénit X 1 = X0 et pour tout n ≥ 2, pour tout k ≥ 0 et pour tout s ∈
] kt
n
, (k+1)t
n
], Xsn = X kt . X n est en escalier sur [0, t] donc X n est progressivement mesurable. De
n
plus X n → X sur ]0, t] p.s sur Ω car X est continue. On en déduit que X est progressivement
mesurable
Dénition 1.2
On note M 2 R+ (resp. M 2 ([0, T ]), T>0 ) l'espace des fonctions progressivement mesurables tels que


Z  Z T 
E Xt2 dt < +∞ ( resp. E Xt2 dt < +∞ )
R+ 0

X étant dénie à un négligeable près de R × Ω. +

1
Remarque Ces deux espaces munis des produits scalaires Xt Yt dt sont des espaces de
R 
hX, Y i = E
Hilbert.
Remarque Les fonctions eni escalier telles que Xi ∈ L2 (Ω, Fti , P) , ∀i appartiennent à M 2 R+ car

h
(ti+1 − ti ) < +∞.
2
Xt2 dt = n−1 Xi
R  P
E R+ i=1 E

1.2 Intégrale des fonctions en escalier.

Dénition 1.3
On appelle F mouvement brownien un mouvement brownien F adapté et tel que pour tout t > s, Bt − Bs est
indépendant de Fs .

Dans la suite, on considère que B est un F-Brownien.


Dénition 1.4
L'intégrale stochastique d'un processus en escalier X déni par (1) par rapport à Bt par
Z n−1
X
X i Bti+1 − Bti

Xt dBt =
R+ i=0

Proposition 1.1
L'intégrale est linéaire sur l'espace des fonctions en escalier de M 2 R+ , à valeurs dans L2 (Ω, F, P) et satisfait


"Z 2 # Z 
E Xt dBt =E Xt2 dt . (2)
R+ R+

Pour démontrer la proposition ci-dessus nous utilisons le lemme suivant


Lemme 1.1
Soit G une sous tribu de F . On suppose que les v.a. X G - mesurable et Y indépendante de G , alors E [XY ] =
E [X] E [Y ].

Démonstration : E [XY ] = E[E [XY |G]] = E [XE [Y |G]] = E [Y ] E [X].

Démonstration : de la proposition : On a
"Z 2 # n−1  
X 2 2
i
E Xt dBt = E X Bti+1 − Bti
R+ i=0
X h i
E X i X j Bti+1 − Bti Btj+1 − Btj

+2
i<j
n−1  2  h
X 2 i
= E Xi E Bti+1 − Bti
i=0
X h i 
E X i X j Bti+1 − Bti E Btj+1 − Btj

+2
i<j
n−1
X  2 
= E Xi (ti+1 − ti ) + 0
i=0

car Bti+1 − Bti est indépendants de Fti et Btj+1 − Btj est indépendants de Ftj , j ≥ i + 1, d'où le
résultat attendu.

Remarque L'application qui a (Xt ) 7→ Xt dBt est une isométrie de l'espace des fonctions en escalier
R
R+
de M 2 (R+ ) dans L2 (Ω, F, P) On peut alors la prolonger à M 2 (R+ ) tout entier.

1.3 Intégrale stochastique des processus de M 2 (R+ )

2
Théorème 1.1
(et dénition) Le prolongement de l'isométrie à l'adhérence des fonctions en escalier pour la norme de M 2 (R+ )
est encore une isométrie, appelée intégrale stochastique.
Cette adhérence est M 2 (R+ ) tout entier ie pour tout Xt ∈ M 2 (R+ ), il existe (Xtn )n une suite de fonctions
en escalier qui tend vers Xt dans M 2 (R+ ) ie tq
kX n − XkM 2 (R+ ) → 0

Théorème 1.2
Soient X, Y ∈ M 2 (R+ ). Alors
hR i
1. E Xt dBt = 0 ;
+∞
0
 2  hR i
2. E ;
R +∞ +∞ 2
0
X t dB t = E 0
X t dt
hR i hR  R i
3. E 0+∞ Xt Yt dt = E +∞
0
Xt dBt
+∞
0
Yt dBt .

Démonstration : Exercices
Proposition 1.2
Soit X ∈ M 2 (R+ ). On a
1.
2 i
!
n Z Z
n
h i
Xt dBt dans L2 (Ω, F, P)
X
n Xt dt B i+1 − B i →
i−1 n n
i=1 n
R+

2. Si de plus X est p.s. à trajectoires continues, alors


2
n   Z
Xt dBt dans L2 (Ω, F, P)
X
Xi B i+1 − B i →
n n n
i=1 R+

i
Démonstration : Pour le 1), on approche X par
Pn2
Xt dt1] i , i+1 ] .
R n
i=1 n i−1
n n n

1.4 Propriétés de l'intégrale stochastique

Dénition 1.5
hR i
On note M 2 l'ensemble des processus X progressivement mesurables tels que E t
0
Xs2 ds < +∞, ∀t ∈ R+ .

Remarque On a M 2 = M 2 ([0, T ]) ⊃ M 2 R+ .
T 
T >0

Dénition 1.6
Si X ∈ M 2 , alors 1]0,t] X ∈ M 2 (R+ ), ∀t ∈ R∗+ et on dénit
Zt Z
Xs dBs = 1]0,t] Xs dBs
0 R+

Proposition 1.3
Soit X ∈ M 2 . Alors t 7→ 0t Xs dBs est continue de R+ dans L2 (Ω, F, P).
R

En outre, il existe Y tel que Yt = 0t Xs dBs p.s. ∀t ≥ 0 et tq Y est à trajectoire presque sûrement continues
R

( Y est une version continue de X )

3
Démonstration : 1. Soit t0 ∈ R+ , on a
"Z 2 # "Z 2 #
t Z t0 t0 ∨t
E Xs dBs − Xs dBs = E Xs dBs
0 0 t0 ∧t
Z t0 ∨t 
= E Xs2 ds .
t0 ∧t

On remarque pour |t − t0 | ≤ 1, on a p.s.


Z t0 ∨t Z t0 +1
Xs2 ds ≤ Xs2 ds
t0 ∧t 0
R 
Or E 0
t0 +1
Xs2 ds < +∞, d'où par convergence dominée,
Z t0 ∨t 
E Xs2 ds → 0,
t0 ∧t

quand t → t0 . D'où la continuité dans L2


2. Cette démonstration est plus technique et utilise les approximations en escalier
et la Proposition 1.2, l'inégalité de Doob pour passer de la convergence L2 à la
convergence uniforme presque-sure (cf exercice feuille 3).

Proposition 1.4
Soit X ∈ M 2 . On pose ∀t ∈ R+ , Mt = Xs dBs , alors (Mt )t≥0 est une F-martingale de carrée intégrable et
Rt
0
de crochet hM, M it = 0t Xs2 ds.
R

Démonstration : Par approximation


Corollaire 1.1
Si X, Y ∈ M 2 , alors Z t Z t Z t 
Xs dBs Ys dBs − Xs Ys ds
0 0 0 t≥0

est une martingale.

Remarque : Si h est déterministe dans M 2 , alors h2s ds).


Rt Rt
0
hs dBs N (0, 0

2 Formule d'Itô

La motivation de cette section est de faire du calcul diérentiel.


Rappel : si X est à variations
R 0 bornées et déterministe, et si f est une fonction régulière,
alors f (Xt ) = f (X0 ) + 0t f (Xs ) dXs .
Example Calcul de Bt2 : f (x) = x2 , Xt = Bt et soit Π = (t0 = 0, t1 , . . . , tn = t)
on a
n−1
X
Bt2 Bt2i+1 − Bt2i

=
i=0
n−1
Xh i
2 
= Bti+1 − Bti + 2 Bti+1 − Bti Bti
i=0

2
et 2 n−1
i=0 Bti+1 − Bti Bti → 2 0 Bs dBs et comme V2 (Π) → t dans L et alors en faisant
L t 2
P  R

tendre le pas de la subdivision vers 0, on a


Zt
Bt2 =t+ 2Bs dBs p.s.
0

4
2.1 Formule d'Itô pour φ (Bt ), φ ∈ Cb2 (R)
Cb2 (R) est l'ensemble des fonctions deux fois continûment dérivables, bornées et à déri-
vées bornées.
Proposition 2.1
Soit φ ∈ Cb2 (R). Alors ∀t ∈ R+ , on a p.s. :
Zt Zt
0 1
φ (Bt ) = φ (0) + φ (Bs ) dBs + φ00 (Bs ) ds
2
0 0

Démonstration : Pour tout t, n, i ∈ {0, . . . , n − 1}, la formule de Taylor implique


qu'il existe θin ∈ ]tni , tni+1 [ où tni = it
n
tel que
n−1  1 2
X  
φ (Bt ) = φ (B0 ) + φ0 B tni Btni+1 − Btni + φ00 Bθin Btni+1 − Btni .
i=0
2

Le deuxième terme converge dans L2 vers φ0 (Bs )dBs . 0n note


Rt
0

n−1 2
X 
Un = φ00 B θin Btni+1 − Btni
i=0
n−1 2
X 
Vn = φ00 B tni Btni+1 − Btni
i=0
n−1
X
Wn φ00 B tni (tn n

= i+1 − ti )
i=0

On a U = U − V + V − W n + W n et on étudie chaque terme séparément :


n n n n

1. U n − V n : En appliquant Cauchy-Schwartz
"n−1 #
X 00   2
n n  00
E [|U − V |] ≤ E φ Bθin − φ Btni Btni+1 − Btni
i=0
" #
 n−1
X 2
E sup φ00 Bθin − φ00 Btni ∗

≤ Btni+1 − Btni
i
i=0
 ! 1/2
 1/2 n−1  2 2
2
X
E sup φ Bθin − φ00 Btni
00  
≤ E Btni+1 − Btni  .
i
i=0

Le premier terme tend vers 0 par convergence dominée et uniforme continuité de


s 7→ φ00 (Bs ) sur [0, t]. Après calcul, le second terme vaut (2n + n2 )t2 /n2 → t2 .
Donc E [|U n − V n |] tends vers 0.
2. En développant
n−1
"   2 #
h i X   2
E |V n − W n |2 E φ00 Btni − (tn n

= Btni+1 − Btni i+1 − t i )

i=0
n−1
"  2 #
X 2
00 2 n n
≤ sup(φ ) E Btni+1 − Btni − (ti+1 − ti )
i=0
n−1
X
= sup(φ00 )2 ∗ 2 (tn n 2
i+1 − ti )
i=0

tend vers 0.
3. W n → 0t φ00 (Bs ) ds dans L1 par convergence dominée
R

On a donc convergence dans L1 donc ps (à une sous-suite près) et donc égalité p.s
à la limite. Comme les trajectoires sont continues, on a égalité presque sûrement
pour tout t.

5
2.2 Processus d'Itô
Dénition 2.1
On appelle processus d'Itô une fonction de la forme
Zt Zt
Xt = X0 + Hs dBs + Ks ds
0 0

où H, K ∈ M 2 et X0 ∈ L2 (Ω, F, P).

Remarque La décomposition est unique. La notation, en formulation diérentielle est


dXt = Ht dBt + Kt dt.
Proposition 2.2
La formule d'Ito devient alors ∀φ ∈ Cb2 (R),
Z t Z t Z t
1
φ (Xt ) = φ (X0 ) + φ0 (Xs ) Hs dBs + φ0 (Xs ) Ks ds + φ00 (Xs ) Hs2 ds
0 0 2 0

ou encore
1 00
dφ (Xt ) = φ0 (Xt ) dXt + φ (Xt ) d hX, Xit (3)
2
où hX, Xi = Hs2 ds est le crochet de X déni comme celui de sa partie martingale.
Rt
0

2.3 Martingales locales

on a travaillé dans M 2 (R+ ) , M 2 ([0, T ]) , M 2 = M 2 ([0, T ]).


T
Rappels : T >0

Dénition 2.2
On note Mloc
2
l'ensemble des fonctions progressivement mesurables X tq ∀T > 0,
ZT
Xt2 dt < ∞ p.s.
0

Remarque : Si le processus X est continue, alors X ∈ Mloc


2
.
Proposition 2.3
n o
Si pour tout n on note τn = inf t ≥ 0/ 0t Xs2 ds ≥ n ∈ [0, +∞]. τn est un temps d'arrêt et τn ↑ +∞ quand
R

n → +∞. De plus 1[0,τn ] X ∈ M 2 pour tout n > 0.

Dénition 2.3
R 
Pour X ∈ Mloc , on dénit Xs dBs comme limite presque sûre de .
2
Rt t
0 0
1[0,τn ] (s) Xs dBs
n≥1

Démonstration : La limite existe et si X ∈ M 2 , les dénitions coïncident.


Dénition 2.4
On dit que M fonction aléatoire est une martingale locale s'il existe une suite de temps d'arrêt (τn )n≥1 tq
τs ↑ +∞ quand n → +∞ et tq (M n )n dénie par Mtn = Mt∧τn soit une martingale.

Proposition 2.4
On suppose que X ∈ Mloc alors t 7→ Mt = Xs dBs est une martingale locale. Elle est presque surement à
2
Rt
0 
hR i 2  hR i
trajectoire continues. De plus quand E t
< ∞, alors E = E 0 Xs2 ds .
Rt t
0
Xs2 ds 0
Xs dB s

Théorème 2.1 (Formule d'Itô. )


Soit X un processus d'Itô avec K, H ∈ Mloc
2
. Alors p.s. on a
Z t Z t
0 1 00
∀t, φ (Xt ) = φ (X0 ) + φ (Xs ) dXs + φ (Xs ) d hX, Xis
0 2 0
6
et ceci pour tout φ ∈ C 2 (R).

2.4 Extensions de la formule d'Itô


Dénition 2.5
Un F−mouvement brownien de dimension k ≥ 2 est une collection de k mouvements brownien indépendants.
Théorème 2.2 (Formule d'Itô multidimensionnelle et en temps. )
Soit B un F−mouvement brownien de dimension k ≥ 1 et soit X un processus d'Itô déni par
Zt Zt
Xt = X0 + Hs dBs + Ks ds
0 0

pour tout t ≥ 0, avec K, H ∈ Mloc 2


valeurs dans Rd et dans Md×k (R)respectivement (on a X ∈ Rd ). Alors
pour toute fonction φ ∈ C 1,2 sur R+ × Rd , on a p.s. pour tout t ≥ 0
Z t d Z t
∂φ X ∂φ
φ (t, Xt ) = φ (0, X0 ) + (s, Xs ) ds + (s, Xs ) , dXs
0 ∂t i=1 0 ∂xi
d Z
1 X t ∂2φ D E
+ (s, Xs ) d X i , X j
2 i,j=1 0 ∂xi ∂xj s

où d X i , X j Hi,l Hj,l ds = H H̃i,j ds.



Pk
s
= l=1

Proposition 2.5
Formule d'intégration par parties.
Soient X, Y deux processus d'Itô réels dénis par dXt = Kt dt + Ht dBt et Yt = K̃t dt + H̃t dBt où (Bt )t≥0
est un brownien réel. On a
d (Xt Yt ) = Xt dYt + Yt dXt + d hX, Y it
= Xt dYt + Yt dXt + Ht H̃t dt

Démonstration : On introduit la fonction φ : (x, y) 7→ xy. Et on écrit Itô bidimen-


sionnel.

Remarque On a alors
Z t Z t Z t
Xt Yt − X0 Y0 = Ys dXs + Xs dYs + Hs H̃s ds
0 0 0

7
Chapitre 4-Equations Diérentielles Stochastiques
Ecole Centrale de Lyon-Université Lyon 1 Processus stochastiques et applications

4 décembre 2017

1 Exemples
1.1 Equations de Langevin (Processus d'Ornstein-Uhlenbeck)

On modélise un mouvement d'une particule sur la droite réelle, soumise à une force de friction (coe
−b) et à une force extérieure F . On néglige de plus l'énergie potentielle. On a dans le cas déterministe
00 0
mx = −bx + F (t)

LA masse de la particule est xée à m = 1. On suppose que F est un bruit blanc. On pose V = x et on 0

va résoudre l'équation en V . On a dV = −bV + σdB où σ est l'amplitude du bruit et alors


t t t
Z t
Vt − V0 + bVs ds = σBt
0

pour tout t ≥ 0.
Proposition 1.1
La solution de l'équation de Langevin issue de V ∈ L2 (Ω, F0 , P) indépendant ( de B) est donnée
par le processus d'Ornstein Uhlenbeck déni par
0

Z t
Vt = e−bt V0 + e−b(t−s) σdBs
0

Démonstration : Soit Yt = Vt − σBt où V est solution de l'équation. On a


t
Z t
Yt = Y0 − b (Ys + σBs ) ds
0

et alors on a une équation en Y qui est


t

0
Yt = −b (Yt + σBt )

donc Z t
Yt = Y0 e−bt − e−b(t−s) bσBs ds

On a alors une équation en V :


0

(1)
Z t
Vt − σBt = V0 e−bt − e−b(t−s) bσBs ds

or
0

 
d ebt Bt = bebt Bt dt + ebt dBt + 0
et alors Z t Z t
Bt = b e−b(t−s) Bs ds + e−b(t−s) dBs

et alors on a le résultat en remplaçant dans (1).


0 0

1
1.2 Mouvement brownien géométrique (EDS linéaires)

Dénition 1.1
Soient σ > 0 et µ ∈ R. Le processus Z déni par Z = e est appelé mouvement brownien σBt +µt

géométrique.
t

En appliquant Itô à ψ (x) = e et à X tq dX = µdt + σdB , avec Z = e on obtient


x
t t t t
Xt

σ2
 
dZt = σZt dBt + µ + Zt dt
2

(Z ) est l'unique solution de cette équation. Pour le montrer, on utilise souvent l'euristique suivante :
soit (Z ) une solution. On suppose Z > 0 et alors on calcule par Itô d log (Z ). On trouve Z = Z e
t t
µt+σBt

et en exercice, résoudre dZ = µZ dt + σZ dB .
t t t t 0
t t t t

2 Existence et unicité forte


2.1 Cas réel homogène

Soient σ : R → R et b : R → R deux fonctions déterministes. Soit B un mouvement brownien et X


une variable aléatoire dénie sur un même espace probabilisé (Ω, F, P) indépendants. L'équation
+ 0

dX = b (X ) dt + σ (X ) dB , X
t t =X t t (2)
|t=0 0

est appelé équation diérentielle stochastique. Les coecients b et σ s'appellent la dérive et la diusion.
La solution d'une telle équation s'appelle un processus de diusion.
Dénition 2.1
On appelle solution forte de l'équation diérentielle (2) toute fonction aléatoire (X ) dénie sur
où F est la ltration complétée continue à droite engendré par le mouvement brownien
t t
(Ω, F, F, P)
Bet tq :
X0
1. X soit F−adapté;R h
2. pour tout t ≥ 0, b (X ) + σ (X ) ds < ∞ P−p.s.;
i
t 2 2
0 s s

3. P−p.s. X = X + R b (X ) ds + R σ (X ) dB pour tout t ≥ 0.


t 0
t
0 s
t
0 s s

Remarque :
 2+3 =⇒ X est un processus d'Itô.
 X est à trajectoires continues;
 2 est equivalent à P−p.s, pour tout t ≥ 0, R b (X ) + σ (X ) ds < ∞. On peut prendre
h i
t 2 2

cpomme négligeable commun


i la réunion des négligeables sur les entiers et utiliser la croissance de
0 s s

b (X ) + σ (X ) ds.
R ht 2 2
t→ 0 s s

Theorem 1. On suppose que X0 ∈ L2 (Ω, F, P) et σ, b lipschitzienne ie ∃K > 0 tq |b (x) − b (y)| ≤


K |x − y| et |σ (x) − σ (y)| ≤ K |x − y| pour tout x, y; ∈ R2 . Alors (2) admet une unique solution forte
X ∈ M 2.
Nous commençons par rappeler un lemme de Gronwall et donner une inégalité de Doob
Lemme 2.1
Soit x une fonction positive localement intégrable dénie sur R tel que +
Z t
∀t ≥ 0, xt ≤ a + b xs ds
0

avec a et b constantes positives. Alors x t ≤ aebt .


2
Démonstration : (e−bt
Rt
xs ds)0 = e−bt xt − be−bt
Rt
xs ds ≤ e−bt a . D'où e −bt
Rt
xs ds ≤ a
Rt
e−bs ds =
. Par conséquent x
0 0 0 0
−bt
1−e
b
a t ≤ a bb a(ebt − 1) = aebt

Lemme 2.2
Inégalité de Doob. Soit (X ) une martingale continue à droite. Alors pour tout t > 0 et pour tout
p > 1.
t t≤0

    p
p
E sup |Xs |p ≤ E [|Xt |p ]
0≤s≤t p−1

Démonstration : du théorème. On montre tout d'abord l'unicité, puis l'existence.


 supposons qu'il existe 2 solutions X, Y ∈ M de (2). Alors si X = Y , P−p.s. et pour tout
2

,
Unicité : 0 0
t≥0 Z t Z t
Xt − Yt = (b (Xs ) − b (Ys )) ds + (σ (Xs ) − σ (Xs )) dBs .

Comme ,
0 0
(a + b)2 ≤ 2 a2 + b2


 t 2  "Z
Z t 2 #
 2
E (Xt − Yt ) ≤ 2E  (b (Xs ) − b (Ys )) ds  + 2E (σ (Xs ) − σ (Ys )) dBs
0
0
Z t   Z t
≤ 2tE |b (Xs ) − b (Ys )|2 ds + 2E |σ (Xs ) − σ (Ys )|2 ds
0 0
 t 
Z Z t
2K 2 (t + 1) E  (Xs − Ys )2 ds = 2K 2 (t + 1) E (Xs − Ys )2 ds.
 

0
0

Le lemme de Gronwall pour t ≤ T xé implique E (X − Y ) = 0 donc par régularité des trajectoire,
 2

Y = X p.s ∀t.
s s

 (itérations de Picard) Soit (X ) la suite de processus dénie par X (t) = X pour tout
t t

t et pour tout n,
Existence : n n 0 0

(3)
Z Z t t
X (t) = X + b (X (s)) ds +
n+1 σ (X (s)) dB
0 n n s

X ∈ M , ∀n ∈ N X est adapté, à trajectoires continues+ condition d'intégrabilité. Soit T > 0 On a


0 0
2

alors
n n

 "  #
Z s 2
sup |Xn+1 (s) − Xn (s)|2

E ≤ 2E sup σ(Xn (u)) − σ(Xn−1 (u))dBu
0≤s≤t 0≤s≤t 0
" Z s 2 #

+ 2E sup b(Xn (u)) − b(Xn−1 (u))du
0≤s≤t 0

Inégalité de Doob
" Z 2 #
t
≤ 2.4E σ(Xn (u)) − σ(Xn−1 (u))dBu
0
"Z 2 #
t
+2E |b(Xn (u) − b(Xn−1 (u))| du
0
Z t 
2
≤ 8E |σ(Xn (u)) − σ(Xn−1 (u))| du
0
Z t 
+2T E |b(Xn (u)) − b(Xn−1 (u))|2 du
0
Z t 
2 2
≤ K (8 + 2T )E |Xn (u) − Xn−1 (u)| du
0
Z t  Z t  
≤ CT E sup |Xn (s) − Xn−1 (s)|2 du = CT E sup |Xn (s) − Xn−1 (s)|2 du.
0 0≤s≤u 0 0≤s≤u

Par itération, on obtient


tn
   
E sup |Xn+1 (s) − Xn (s)|2 ≤ CTn E sup |X1 (s) − X0 |2
0≤s≤t n! 0≤s≤t

3
Comme E sup |X1 (s) − X0 |2 < ∞

.
Il vient alors que, 0≤s≤t

p
(CT t)k
  X
E sup |Xp (s) − Xn (s)|2 ≤ C
0≤s≤t k!
k=n

Donc (X ) est une suite de Cauchy pour la norme du sup dans L . Donc (X ) converge vers un 2

processus X continue sur [0, T ] dans L , donc p.s. X ∈ M . On montre ensuite que
n n
2
R 2 t
σ(X (s))dB
converge dans L vers R σ(X(s))dB . En eet
0 n s
2 t
0 s

 Z t Z t   Z t 
2 2
E | σ(Xn (s))dBs − σ(X(s))dBs | ≤ E | σ(Xn (s)) − σ(X(s))| ds
0 0 0
 
≤ CT E sup |Xn (s) − X(s)|2
0≤s≤T

On a un résultat similaire pour b(X (s))ds. De la convergence L , on obtient la convergence p.s (à


Rt 2

une sous-suite près) et on passe à la limite dans (3). On a P.p.s


0 n

Z t Z t
X(t) = X0 + b(X(s))ds + σ(X(s))dBs
0 0

Comme E sup 0≤s≤T ,


|Xs |2 < +∞ X ∈ M 2 [0, T ]

.

2.2 Cas inhomogène vectoriel

Soit b : R × R → R et σ : R
d d
× Rd → Md×k (R) B . un mouvement brownien k dimensionnel. On
considère l'équation
+ +

Zt Zt
Xt = X0 + b (s, Xs ) ds + σ (s, Xs ) dBs ∀t ≥ 0 (4)
0 0

Theorem 2. On suppose σ, b globalement lipschitziennes et à croissance au plus linéaire en espace, i.e


∃K > 0 tel que

|b(t, x) − b(t, y)| + |σ(t, x) − σ(t, y)| ≤ K|x − y|, ∀t ≥ 0, ∀x, y ∈ Rd


|b(t, x)|2 + |σ(t, x)|2 ≤ K 2 (1 + |x|2 ), ∀t ≥ 0, ∀x ∈ Rd

Alors pour tout X0 ∈ L2 (Ω, F0 , P), l'équation (4) admet une unique solution X ∈ M 2

2.3 Cas localement lipschitzien

Exemple en déterministe : Considérons x avec x > 0. Une solution est alors x (t) = .
0
x0
= x2
Elle existe jusqu'au temps .
0 1−tx0
1

Exemple en stochastique : avec la même équation.


x0

Considérons X = pour t < τ où τ = inf {s ≥ 0, B = 1}. ∀t < τ , dX = dφ(B ) où φ (x) = .


1 1

On a φ (x) = , φ (x) = et alors la formule d'Itô nous donne


t 1−Bt s t t 1−x
0 00
1 2
(1−x)2 (1−x)3

dBt 1
dXt = 2 + 3 dt = Xt2 dBt + Xt3 dt
(1 − Bt ) (1 − Bt )
On peut rendre rigoureux en approchant φ par une suite de fonctions lipschitziennes coïncidant avec φ
sur ] − ∞, t − ]. Soit τ le 1er temps d'atteinte de 1 − . On a τ ↑ τ . On a
1
n n
1
n n

Zt Zt
0 1 00
φn (Bt ) = 1 + φn (Bs ) dBs + φ (Bs ) ds
2
0 0

pour tout t < τ . et quand n → +∞ on obtient l'équation pour t < τ .


n

4
Dénition 2.2
Soit (Ω, F, F, P) où F est la ltration complétée continue à droite engendré par le mouvement brownien
B et X . On dit que (X, τ ) est une solution forte de l'équation
0

dX = b (X ) + σ (X ) dB
t t t t (5)
Xt=0 = X0 ∈ L2 (Ω, F, P)

si
1. X1 est F−adaptée; 
[0,τ [

2. P-p.s., pour tout t < τ R b (X ) + σ (X ) ds < ∞



t 2 2
0 s s

3. X = X + R b (X ) ds + R σ (X ) dB pour tout t < τ ;


t t

4. lim |X | = +∞ sur [τ < +∞] quand t ↑ τ .


t 0 0 s 0 s s

Theorem 3. On suppose que σ : Rd → Md,k et b : Rd → Rd localement lipschitziennes (ie lipschitziennes


sur tout compact). Alors il y a unicité de la solution solution forte (X, τ ) de l'équation (cf théorème (5)
2.5 P 287 Karatzas-Shreeve pour l'unicité et existence théorème 3.1 chap 4 Ikeda-Watanabe).

2.4 Exemples

3 Solutions faibles
Dénition 3.1
On appelle solution faible de (2) tout triplet (Ω, F, P), F, (B, X , X) où B est indépendant de X et
X est F−adapté tel que X vérie les conditions des solutions fortes.
0 0

Exemple L'équation diérentielle stochastique X = sgn (X ) dB a une solution faible unique mais
t
R

pas de solution forte. (cf Feuille exercices)


t 0 s s

Pour les solutions faibles la ltration n'est pas forcément la ltration engendrée par le mouvement
brownien et X comme pour les olutions fortes. Elle peut contenir plus d'informations.
o

4 Processus de Markov et diusion


4.1 Processus de Markov

Soit (E, E) un espace mesurable. La plupart du temps (E, E) = (R , B(R )). d d

Dénition 4.1
Un noyau markovien de transition de E dans E est une application Q : E × E → [0, 1] qui vérie
 Pour tout x ∈ E, A → Q(x, A) est une probabilité sur (E, E).
 Pour tout A ∈ E , x → Q(x, A) est mesurable.
Remarque Si f : E → R est mesurable bornée (resp. positive), l'application Qf dénie sur E par
Z
Qf (x) = f (y)Q(x, dy)
E

est mesurable bornée (resp. positive) Si A ∈ E ,


Z
Q1A (x) = 1A (y)Q(x, dy) = Q(x, A).
E

Dénition 4.2
Une famille (Q(t, ., .)) de noyaux de transition sur E est un semi-groupe de transition si elle
satisfait les trois propriétés suivantes
t≥0

5
1. Pour tout x ∈ E, Q(0, x, dy) = δ (dy) ;
2. Pour tous s, t ≥ 0 et A ∈ E , Q(t + s, x, A) = R Q(s, y, A)Q(t, x, dy) (Propriété de Chapman-
x

Kolmogorov). E

3. Pour tout A ∈ E, (t, x) 7→ Q(t, x, A) est mesurable pour B(R ) ⊗ E . +

Soit QR l'opérateur déni sur l'espace des fonctions boréliennes bornées par Q f = Q(t, ., .)f ie
f (y)Q(t, x, dy), ∀x ∈ E .
t t

Q est une approximation linéaire contractante sur E car


Q f (x) =
t E
t
Z
|Qt f (x)| ≤ kf k Q(t, x, dy) = kf k∞ ∀x ∈ E
E

La relation de Chapman-Kolmogorov s'écrit


Z
Qt+s 1A (x) = (Qs 1{A} )(y)Q(t, x, dy) = Qt Qs 1A (x), ∀x ∈ E
E

On montre que pour tout f borélienne bornée, Q f = Q (Q f ). D'où Q = Q Q


Remarque La propriété i) implique (Q 1 )(x) = δ (A) = 1 (x), ce qui conduit à Q f = f, ∀f
t+s t s t+s t s

borélienne bornée, soit Q = Id.


0 A x A 0

Dans la suite, (Q ) est aussi appelé semi-groupe de transition. Soit (X ) un processus, on note
0

P la loi du processus partant de X = x.


t t≥0 t t≥0
x 0

Dénition 4.3
Soit (Q ) un semi-groupe de transition sur E. Un processus de Markov relativement à (F ) de
semi-groupe (Q ) est un processus (F ) -adapté (X ) à valeurs dans E tq pour tous s, t ≥ 0
t t≥0 t t≥0

et f borélienne bornée
t t≥0 t t≥0 t t≥0

Ex [f (Xt+s ]|Fs ] = Qt f (Xs )


où E désigne l'espérance sous P .
x x

Remarques
 Si la ltration n'est pas précisée, on prend la ltration naturelle de (X ) .
 Pour f = 1 , on a P [X ∈ A|F ] = Q(t, X , A), ∀s, t ≥ 0, A ∈ E .
t t≥0

 Cette dénition est équivalente à dire que P [X ∈ A|F ] = P [X ∈ A|X ].


{A} x t+s s s

 Si s = 0, on a
x t+s s x t+s s

Ex [f (Xt )] = Qt f (x)
et P [X ∈ A] = Q(t, x, A), ∀t ≥ 0, A ∈ E .
: Mouvement brownien : Q(t, B , A) = P [B R
x t
Exemple ∈ A|Fs ] = PR[Bt+s − Bs ∈ A − Bs |Fs ] =
g (r)dr où g est la densité d'une N (0, t). Q(t, x, A) = ie
R s t+s
g (r)dr = A gt (r−x)dr Q(t, x, dy) =
g (y − x)dy .
A−Bs t t A−x t
t

5 Les solutions d'EDS comme des processus markoviens


Pour x ∈ R , on note X la solution satisfaisant X
d x
0 =x de l'EDS
dXt = b(Xt )dt + σ(Xt )dBt (6)
avec b, σ lipschitzienne.
Theorem 4. On suppose que (Xtx )t≥0 est une solution forte de . Alors c'est un processus de Markov (6)
de semi-groupe (Qt )t≥0 déni, pour toute fonction f mesurable bornée sur Rd , par Qt f (x) = E [f (Xtx )].
La démonstration (non faite) repose sur le théorème suivant. On introduit l'espace canonique C(R , R ) k

des fonctions continues de R dans R et la mesure de Wiener W qui est la loi de (B ) k-mouvement
+
k

brownien.
+ t t≥0

6
Theorem 5. Sous les hypothèses d'existence et unicité forte de (2), ∀x ∈ R , il existe une fonction
d

Fx : C(R+ , R ) → C(R+ , R ) mesurable pour la tribu borélienne (pour la norme uniforme) complétée par
k k

les négligeables de W tel que ∀x ∈ Rd , ∀(Ω, F, (Ft )t≥0 , P) et (Bt )t≥0 k-(Ft )t≥0 -mouvement brownien, le
processus déni, pour tout t ≥ 0 par Xt = Fx (B)t est l'unique solution de vériant X0 = x. Si U est (2)
une v.a F0 -mesurable t 7→ FU (B)t est l'unique solution de donnée initiale U .
du théorème 4. On montre que E [f (X x
= Qt f (Xsx ) . Soit X 0
,
= Xt+s Bt0 = Bt+s −
, , ∀t. (X ) est solution de
Démonstration : t+s )|Fs ] t
Bs Ft0 = Ft+s 0
t t≥0
Z t Z t
Xt0 = Xs + b(Xu0 )du + σ(Xu0 )dBu0 , t ≥ 0
0 0

dans (Ω, F, (F ) , P). Donc X = F (B ) et donc E [f (X )|F ]R= E [F (B ) |F ]. Or X est F -


0 0 0 x 0 0 0

mesurable et RB indépendant de F . Par conséquent E [[f (X |F ] = f (F )(ω)W (dω). Mais Q f (x) =


t t≥0 Xs t+s s Xs t 0 s 0
0 0 x

E [f (X )] = f (F (ω)W (dω). D'où le résultat. Il faut vérier que Q est un semi-groupe de transition.
0 t+s s Xs t
x

 Q(t, x, A) = Q 1 (t) = E 1 (X ) = P [X ∈ A] famille de probabilité.


t x t
x x

 La mesurabilité découle du théorème 5


t {A} {A} t t

 Q(0, x, A) = P [X ∈ A] = P [x ∈ A] = δ (A)
x

 Q f (x) = E [f (X )] = E [E [f (X )|F ]] = E [Q f (X )] = R Q f (y)Q(s, x, dy) = Q Q f (x).


0 x
x x x
t+s t+s t s t s t s t

5.1 Equations aux dérivées partielles et Formule de Feymann-Kac

Problème de Cauchy
On considère l'équation diérentielle stochastique
dXt = b(t, Xt )dt + σ(t, Xt )dBt , X0 donné
et l'opérateur L déni par
t

1 X ∂2 X ∂
Lt φ(x) = aij (t, x) φ(x) + bi (t, x) φ(x)
2 ∂xi ∂xj ∂xi
1≤i,j≤d 1≤i≤d

où a = σσ . t

Soit l'EDP avec donnée nale


{

− ∂t v(t, x) = Lt v(t, x) − k(t, x)v(t, x) + g(t, x), t ∈ [0, T ], x ∈ Rd
v(T, .) = f
(7)
On suppose
 σ, b lipschitzienne en x uniformément sur [0, T ] × R et k ≥ P
0. d

 σ uniformément elliptique (∃c > 0, P a (t, x)ξ ξ ≥ c ξ , ξ ∈ R , (t, x) ∈ [0, T ]×R 2 d d

 k, g Hölder continues uniformément sur [0, T ] × R , f continue sur R .


1≤i,j≤d ij i j 1≤i≤d i
d d

 σ, b, k bornées dans [0, T ] × R , f, g à croissance polynomiale


d

Théorème 5.1
Sous ces hypothèses, l'équation (7) a une unique solution v à croissance polynomiale en x uniformé-
ment en temps donnée par
(8)
" #
RT
Z T Rs
k(s,Xst,x )ds t,x
v(t, x) = E f (XTt,x )e− t + g(s, Xst,x )e− t
k(u,Xu )du
ds
t

C'est la formule de Feyman-Kac.


On montre seulement que si v, C est solution de l'EDP alors elle est nécessairement
1,2

donnée par la formule (8). On applique la formule d'Itô :


Démonstration : b

Rs t,x Rs t,x ∂v
d(v(s, Xst,x )e− t k(u,Xu )du
) = e− t k(u,Xu )du
( + Ls v − kv)(s, Xst,x )ds + dMs
∂t

7
où (M ) est une martingale centrée (car intégrable stochastique d'un processus dans M ). Donc 2

E [M − M ] = 0. En utilisant l'EDP et en intégrant entre t et T , il vient que


s s≥0
T t

h RT t,x
i Z T Rs t,x

E v(T, XTt,x )e− t k(s,Xs )ds − v(t, x) = −E g(s, Xst,x )e− t k(u,Xu )du
ds .
t

Or v(T, X T) = f (XT ) .

8
Chapitre 5-Approximation et Simulation de diusion
Ecole Centrale de Lyon-Université Lyon 1 Processus stochastiques et applications

5 décembre 2017

1 Approximation de diusion
Dans le chapitre 1, nous avons vu que nous pouvions approcher le mouvement brownien (Principe
d'invariance de Donsker). Nous allons montrer ici que l'on peut approcher toute diusion.

1.1 Approximation en loi par une chaîne de Markov


 
(n)
Pour chaque entier n ≥ 1, on se donne une chaîne de Markov homogène Yi dans Rd de
i∈N
probabilité de transition Π(n) n ie pour tout n, on a P−p.s.


h i h i  
(n) (n) (n) (n) (n) (n)
P Yi+1 ∈ B|Y0 , . . . , Yi = P Yi+1 ∈ B|Yi = Π(n) Yi , B

pour tout B ∈ B Rd . Une notation usuelle est pour tout x, la chaîne P = Π(n) (x, ·) est une mesure de


proba. On note Π(n) (x, dy) = dΠ(n) (x, ·) ie


Z
1B (y) Π(n) (x, dy) = Π(n) (x, B)
Rd

On dénit pour tout x ∈ Rd ,


Z
b(n) (x) = n (y − x) Π(n) (x, dy)
Rd
Z
(n) 0
a (x) = n (y − x) (y − x) Π(n) (x, dy)
Rd
Z
3
K (n) (x) = n |y − x| Π(n) (x, dy)
Rd
 
C
∆(n)
ε (x) = nΠ(n) x, B (x, ε) ∀ε > 0

(n)
on pose X (n) i
pour tout i ≥ 0 (on peut aussi avoir une renormalisation

Renormalisation : n = Yi
en espace comme pour Donsker).  
(n) (n)
Interpolation en temps (continue) : X (n) (t) = Y[nt] + (nt − [nt]) Y[nt+1]
n
− Y[nt] pour tout t ≥ 0.

Théorème 1.1
On suppose qu'il existe a : Rd → Md×d , b : Rd → Rd continues telles que ∀R < +∞,

lim sup a(n) (x) − a (x) = lim sup b(n) (x) − b (x) = 0

n→+∞ |x|≤R n→+∞ |x|≤R

et
lim sup ∆(n)
ε (x) = 0
n→+∞ |x|≤R

pour tout ε > 0 et enn que


sup K (n) (x) < +∞
|x|≤R

1
Soit σ ∈ Md×k telle que σσ 0 = a B un k-mouvement brownien et on suppose que l'EDS
dXt = b (Xt ) dt + σ (Xt ) dBt , X0 = x
 
a une solution faible unique en loi pour tout x, alors pour tout Y0(n) suite de conditions initiales
n
convergeant en loi vers x, la suite X (n) n converge en loi vers la solution de l'EDS, ie


h  i
lim E F X (n) = E [F (X)]
n→+∞

pour tout F : C R, R → R continue bornée.


d


1.2 Exemple, modèle de diusion gazeuse d'Ehrenfest


Deux enceintes, une paroi poreuse les sépare, 2n molécules de gaz réparties entre les 2 urnes. A chaque
temps, une molécule passe d'une enceinte à l'autre (choisie uniformément). Pour tout n, on note Z (n) le
nb de molécules au temps i dans l'enceinte de gauche. C'est une chaîne de Markov d'états {0, . . . , 2n} et
de transition Π̂(n) dénie pour tout k ∈ {0, . . . , 2n} par

2n − k
Π̂(n) (k, k + 1) =
2n
et
k
Π(n) (k, k − 1) =
2n
Pour dénir les coecients, il faut renormaliser la chaine en ses états et donc avoir une idée de sa variance.
On cherche pour cela la mesure stationnaire (ou probabilité invariante ou ergodique). Ici l'unique mesure
invariante est B 2n, 21 et la
 chaîne est ergodique donc on converge en loi quand i → +∞ vers cette loi
qui est à peu près N n, 2n4 . On peut alors dénir par exemple

(n)
(n) Zi −n
Yi = √
n
n o
C'est une chaîne de Markov à états k−n
√ ,k
n
= 0..2n et de matrice de transition
  √
1 n∓x
Π(n) x, x ± √ = √ (à faire)
n 2 n

On calcule maintenant les quantités du théorème.


 √ √ 
(n) 1 n−x 1 n+x
b (x) = n √ . √ −√ . √ = −x = b (x)
n 2 n n 2 n
a(n) (x) =
1 = a (x)
x
K (x) = − dont le sup → 0
(n)
n

C
 1
∆ε (x) = nΠ(n) x, B (x, ε)
(n)
= 0 si √ < , 0 sinon
n

On dénit maintenant X (n) par renormalisation en temps comme dans la section précédente. L'équa-
tion limite :
dXt = −Xt + dBt
admet une solution forte unique, le processus d'Ornstein Uhlenbeck. Donc X (n) converge vers ce proces-
sus, en loi.

2
2 Simulation de diusion (expériences numériques)
Pourquoi a -t-on besion de simulations ?
 pour faire une étude qualitative du comportement de la solution : existence en temps long ou
explosion en temps ni, convergence ou apparition d'une loi stationnaire.
 Etude de la stabilité de l'estimation d'un paramètre par simulation de trajectoire avec des coe-
cients proches de la valeur estimée.
 Espérance d'une fonction d'une diusion ou d'une mesure invariante par méthode de Monte-Carlo.

2.1 Simulation du mouvement Brownien


On simule des gaussiennes par exemples avec Box-Muller. On simule à diérents temps discret.
Exemple Sur [0, 1], on note h = Tn in pas de discrétisation. On simule une suite (Xk )k≥0 de v.a.
N (0, 1) suite indépendante. On pose tk = kh = kT
n et alors :

B t1 = hX1 N (0, h)

et alors √
B tn = B tn−1 + hXn
et alors il est clair que B t1 , . . . , B tn a la même loi que (Bt1 , . . . , Btn ) pour un brownien B quelconque.


Avec en plus une interpolation linéaire, B donne une approximation de B en loi. En multi-dimensionnel,
on simule des brownien réels indépendants.

2.2 Schéma d'Euler


On veut faire la simulation de la solution d'une EDS sur [0, T ],
Z t Z t
Xt = X0 + b (s, Xs ) ds + σ (s, Xs ) dBs
0 0

et on suppose lipschitzien en espace, 21 holdérien en temps et |b (t, x)|+|σ (t, x)| ≤ K (1 + |x|). Un schéma
de discrétisation de l'EDS est donnée, ∀h > 0, pas de discrétisation, par une suite
h
X : Ω × {tn = nh/nh ≤ T } → Rd
h h h h
avec X0 = X0 et X adapté à la ltration du brownien. On note X n = X tn , le schéma d'Euler s'écrit
h h
 h
  h

X n = X n−1 + b tn−1 , X n−1 h + σ tn−1 , X n−1 ∆Bn

où ∆Bn = Btn − Btn−1 .

2.3 Approximation forte (au sens L2 )



h
On va estimer X T − XT l'erreur globale du schéma ou quelquefois l'erreur en un pas, i.e la

L12
h h
norme de Xn − Xtn conditionnellement à X n−1 = Xtn−1 .
Dénition 2.1
 h

On dit que le schéma X est fortement convergent d'ordre γ > 0 si pour tout T , il existe
n≥0
C = CT tq ∀h ∈]0, 1],
h
εT = X T − XT ≤ Chγ

2

Plus γ est grand, plus le schéma est précis.


Calcul de l'ordre de convergence d'un schéma. On interpole X h .

3
Théorème 2.1
Le schéma d'Euler est fortement convergent d'ordre γ = 21 . Plus précisément, il existe c < +∞ telle
que  
h 2
sup E Xt − X t ≤ ch

t∈[0,T ]

√ √
Remarque : l'erreur de ce schéma est en général d'ordre h, mais peut-être parfois en o( h).
Exemple : Calculer l'erreur dans le théorème pour l'approximation du schéma d'Euler dans le cas
du mouvement brownien sur [0, T ]. On note h = N
T
. Pour le mouvement brownien, l'EDS est dXt = dBt .
Donc le schéma d'Euler est
h h
X n = X n−1 + ∆Bn
  
h PN h 2
D'où X T = i=1 ∆Bi = BT . Ainsi E BT − X T = 0. Donc le schéma d'Euler pour le mouvement
brownien est fortement convergent de tout ordre.

2.4 Approximation faible (en loi)


Si on a seulement besoin de calculer E [F (X)], seule la loi du processus compte. On peut utiliser
n'importe quel brownien pour le calcul.
Dénition 2.2
Un schéma est faiblement convergent d'ordre β > 0 si pour tout T > 0 et pour tout f ∈ Cb∞ , il existe
C < ∞ tq h  i
h
E f (XT ) − f X T ≤ chβ

Remarque La convergence forte d'ordre γ entraîne la convergence faible d'ordre γ . En eet, f ∈ Cb∞
implique que f est lipschitzienne et donc
h  h i h  h i h i
h
E [f (XT )] − E f X T ≤ E |f (XT ) − f X T | ≤ kf 0 k∞ E XT − X T

Théorème 2.2
On suppose que b, σ ∈ Cb∞ et que l'équation est uniformément elliptique, ie que
σ (t, x) ξ 2 ≥ c |ξ|2
t

^pour une constante c > 0 indépendante de (t, x). Alors le schéma d'Euler est faiblement convergent
d'ordre 1.
L'extension du schéma d'Euler au cas vectoriel ne pose aucun problème et les résultats précédents se
généralisent.

2.5 Schéma de Milstein


Le schéma de Milstein est une approximation du schéma d'Euler à rapprocher de la méthode de
Runge-Kutta pour les systèmes déterministes. Pour l'équation

dx (t) = b (x (t)) dt,

au lieu du schéma d'Euler,


xn+1 = xn + b (xn ) ∆tn
on prend alors :
1
xn+1 = xn + (b (xn ) + b (xn + b (xn ) ∆tn )) ∆tn
2

4
qui est d'ordre 2. On ne peut l'adapter directement en stochastique car on obtient un schéma non
consistant. On considère le système dXt = σ(Xt )dBt et on pose

h h 1  h   h  h  
X n = X n−1 + σ X n−1 + σ X n−1 + σ X n−1 ∆Bn ∆Bn
2
On voit que pour σ(x) = x, on obtient

h h 1 h h
X n = X n−1 + X n−1 (∆Bn )2 + X n−1 ∆Bn
2
Ce schéma se comporte comme le schéma d'Euler pour une diusion
1
dYt = Yt dt + Yt dBt
2
Donc il faut le corriger pour obtenir un schéma pour notre diusion.
Dénition 2.3 (Schéma de Milstein en dimension un. )
Pour l'équation usuelle en dimension un (uniquement), on pose
 
h h 1 ∂σ 
h h
 h

Xn = X n−1
+ − σ
b(tn−1 , X n−1 ) tn−1 , X n−1 h + σ tn−1 , X n−1 ∆Bn
2 ∂x
 
1 ∂σ  h

+ σ tn−1 , X n−1 (∆Bn )2
2 ∂x

Théorème 2.3
Sous les mêmes hypothèses qu'à la section précédente et si σ ∈ C 0,1 , alors le schéma est fortement
convergent d'ordre γ = 1, il existe C < 0 telle que
 
h 2
sup E Xt − X t ≤ ch2

t∈[0,T ]

Exemple d = 1 , dXt = Xt dBt . On peut vérier que le schéma d'Euler est d'ordre 1/2 et celui de
Milstein d'ordre 1.(cf Exercice 1 feuille 5 et BE1).

5
Chapitre 6-Méthodes de Monte-Carlo par chaîne de Markov

pour la simulation et l'optimisation

Ecole Centrale de Lyon-Université Lyon 1 Processus stochastiques et applications

11 décembre 2017

Dans des cours précédents, on a vu la simulation des lois usuelles. Ici on veut soit simuler des lois
invariantes pour des chaînes ou des processus de Markov, soit simuler des lois moins classiques dans des
conditions particulières.
On va s'intéresser dans ce chapitre aux méthodes de simulations par Monte-Carlo, plus particuliè-
rement nous décrirons l'algorithme de Métropolis-Hastings et l'échantillonneur de Gibbs, ainsi que que
leur utilisation en optimisation (recuit simulé). L'implémentation des ces méthodes sera vu en TP.
1 Simulation MCMC

1.1 Introduction

Le but de la méthode de Monte Carlo est de calculer des E [f (X)] (où X de loi Π) ou de décrire la
loi Π de X par
P (X ∈ A) = Π (A) = E [1A (X)]
ou
P (X ≤ t)
On connaît la méthode qui consiste à simuler une suite i.i.d de loi Π. Mais cette méthode peut se révéler
inecace lorsque les variables sont mal distribuées (faible concentration de la mesure, grande dimension)..
L'idée du MCMC est de considérer Π comme une mesure invariante d'une chaîne de Markov convergeant
en loi. On génère dans ce cas les pas d'une chaîne de Markov qui converge en loi vers son unique mesure
invariante. On présentera dans la suite deux algorithmes : Métropolis-Hasting et l'échantillonneur de
Gibbs (en dim >1).
1.2 Rappels : Chaine de Markov

Soit X une v.a de Ω dans E de loi η sur (E, E). On note


η(f ) = ηf = E [f (X)]

Les chaînes de Markov permettent de sortir du cadre i.i.d de la loi des grands nombres.
On considère (X ) une chaîne de Markov à valeurs dans des espaces mesurables (X ∈ E ) dont les
mesures transitions de x dans E sont données par
n n n n
n−1 n

Mn (xn−1 , dxn ) = P (Xn ∈ dxn |Xn−1 = xn−1 ) .

Loi de la chaîne Si X a pour loi η, alors X a pour loi ηM dénie par ∀B ∈ C,


n−1 n n

M (y, B)η(dy) où (ηM )(dx) =


Z Z
(ηM )(B) =
n n M (y, dx)η(dy)
n n
E E

Théorème 1.1

Si (Xn )n est homogène (Mn = M ∀n) et susamment mélangeante sur E , alors il existe η mesure

1
invariante telle que Xn →L η et n1 Pnp=1 f (Xp ) →
ps R
f dη .

La mesure η est appelée mesure invariante pour la chaîne. Elle est dénie par l'équation ηM = η.
: Le cas i.i.d à µ est un cas particulier de M (x, dy) = µ(dy). En eet, η est invariante
pour cette chaîne ssi η = µ.
Remarque

1.3 Algorithme de Metropolis-Hastings

η est donnée sur E . On cherche une chaîne de Markov de mesure invariante η . L'idée est, à partir
d'une état x, d'explorer E avec une proba de transition arbitraire mais ayant des bonnes propriétés
de mélange pour assurer la convergence vers la mesure invariante, puis d'accepter ou non le nouvel état
selon un calcul de probabilité dépendant de η. On sélectionne des états avec leur probabilité d'occupation
asymptotique qui correspond à son poids dans la mesure invariante. Les états les plus visités sont bien
ceux les plus probables pour la mesure invariante.
Exploration : avec la matrice de transition Q.

Acceptation/rejet : dépend de Q et η. On dénit sur E × E les proba (η × Q) et (η × Q) par 0 1

(η × Q)0 (d (x, y)) = η (dx) Q (x, dy)

et
(η × Q) (d (x, y)) = η (dy) Q (y, dx) .
 Dans le cas discret : Q (x, y) = Q (x, {y}) et alors (η × Q) (x, y) = η (x) Q (x, y) et (η × Q) (x, y) =
η (y) Q (y, x).
0 1

 Dans le cas à densité : (η × Q) (d (x, y)) = η (x) Q (x, y) dxdy et (η × Q) (d (x, y)) = η (y) Q (y, x) dxdy
 Hypothèses : on suppose ces mesures absolument continues l'une par rapport à l'autre ie
0 1

η (x) Q (x, y) = 0 ⇔ η (y) Q (y, x) = 0

Alors il existe une dérivée de Radon-Nikodym g (x, y) = = si η (y) Q (y, x) 6= 0


d(η×Q)1 η(y)Q(y,x)

et 0 sinon. d(η×Q)0 η(x)Q(x,y)

Partant de x, on choisit y avec probabilité Q (x, .). On accepte alors y avec probabilité h (x, y) =
min (1, g (x, y)) et on reste en x avec une probabilité 1 − h (x, y).
Cette transition est markovienne si on considère les deux transitions successives
x 7→ x, y 7→ x ou y
  0 0

et on construit la chaîne de Markov correspondante


X → (X , Y ) → Xn = X ou Y
n n n+1 n n

et le passage de X à (X , Y ) se fait avec la probabilité


n n n

K (x, d (y, y 0 )) = δx (dy) Q (x, dy 0 )

et le passage de (X , Y ) à X se fait avec la probabilité


n n n+1
 0
   0   0 
H y, y , dz = h y, y δy0 (dz) + 1 − h y, y δy (dz)

et nalement, la chaîne (X ) a pour proba de transition


n

M = KH
Théorème 1.2

η est invariante pour M .


Dasn la preuve , on utilise le lemme suivant
2
Lemme 1.1

,
∀x, y ∈ E η(x)Q(x, y)h(x, y) = min(η(x)Q(x, y), η(y)Q(y, x))

Démonstration : du lemme Si η(x) 6= 0 et Q(x, y) 6= 0 (sinon c'est trivial)


η(x)Q(x, y)h(x, y) = min(η(x)Q(x, y), η(x)Q(x, y)g(x, y))
= min(η(x)Q(x, y), η(y)Q(y, x))

Démonstration : On le démontre dans le cas discret qui présente les mêmes dicultés que dans le cas
général et qui est ce qu'on utilisera en BE. On calcule (probabilité totale)
X
M (x, z) = K(x, (y, y 0 ))H((y, y 0 , z)
(y,y 0 )∈E 2
X X
δx (y) Q x, y 0 h y, y 0 δy0 (z) + δx (y) Q x, y 0 1 − h y, y 0
   
= δy (z)
(y,y 0 )∈E 2 (y,y 0 )∈E 2
X
= Q(x, z)h(x, z) + Q(x, y 0 )(1 − h(x, y 0 ))δx (z)
y 0 ∈E
 
X
= Q(x, z)h(x, z) + δx (z) 1 − Q(x, y 0 )h(x, y 0 )
y 0 ∈E

On en déduit que
X
(ηM )(z) = η(x)M (x, z)
x∈E
X X
= η(x)Q(x, z)h(x, z) + η(z)(1 − Q(z, y 0 )h(z, y 0 )).
x∈E y 0 ∈E

On remarque que si η(z) = 0, comme h(x, z) = 0, alors (ηM )(z) = 0. On suppose donc η(z) 6= 0. On
veut montrer que P η(x)Q(x, z)h(x, z) = P η(z)Q(z, y )h(z, y ). On utilise le lemme 1.1
y 0 ∈E
0 0

Il vient que
x∈E

X X
η(x)Q(x, z)h(x, z) = min(η(x)Q(x, z), η(z)Q(z, x))
x∈E x∈E
et X X
η(z)Q(z, y 0 )h(z, y 0 ) = min(η(z)Q(z, y 0 ), η(y 0 )Q(y 0 , z))
y 0 ∈E y 0 ∈E

et donc ces quantités sont égales, ce qui conclut la preuve.


Sous de bonnes hypothèses (choix de Q) la chaîne converge en loi vers η (ex : η charge tous les états,
Q irréductible, apériodique)
1.4 Échantillonneur de Gibbs

Dans un cas multidimensionnel, on combine alors l'étape d'exploration et de sélection. Soit E = S . d

Pour tout p ∈ {1, . . . d}, on dénit une mesure de transition K sur S de la façon suivante. p
d

d
(u1 , . . . , up−1 , u, up+1 , . . . , ud ) ∈ S 7→ (u1 , . . . , up−1 , v, up+1 , . . . , ud )

avec la probabilité d'être dans l'état nal sachant qu'on a xé u p


. Plus
précisément K : S × S → [0, 1] où
= (u1 , . . . , up−1 , up+1 , . . . , ud )
p d d

Π (v)
Kp (u, v) = δup (v p )
Πp (up )
où Π est la probabilité marginale de U ie
p
p

X
Πp (U p = up ) = Π (U = (u1 , . . . , u˜p , . . . , ud ))
u˜p

3
Proposition 1.1

Π est invariante pour Kp .


Démonstration : On montre que Π = ΠK ie ∀v ∈ S , (ΠK ) (v) = Π (v) or (ΠK ) (v) = P
p
d
p p Π (u) Kp (u, v) .
Or on remarque que ∀u, v ∈ E ,
u∈E

δup (v p )Π (u) Π (v) δvp (up ) Π (u) Π (v)


Π (u) Kp (u, v) = =
Πp (up ) Πp (v p )
= Π (v) Kp (v, u)

et alors on a bien ce qu'on voulait.


La chaîne K n'est pas mélangeante (on ne touche qu'à une seule coordonnée), elle ne converge alors pas
vers la mesure invariante. L'idée est donc d'utiliser M = K . . . K dont Π est une mesure invariante.
p
1 d

2 Application à l'optimisation

Minimiser une fonction non convexe. L'idée est d'explorer les états aléatoirement en se concentrant
sur les points de minimisation.
2.1 Mesure de Boltzamnn-Gibbs

Soit U : E → [0, +∞[ la fonction à minimiser. Soit λ une mesure de probabilité sur E. On
dénit β le paramètre de température inverse et (µ ) une famille de mesures se concentrant sur les
énergie

régions à faible énergie par


β β>0

1
µβ (dx) = e−βU (x) λ (dx)

où Z = R e dλ. µ est une mesure de probabilité.
−βU

L'idée est que plus U est petite, plus µ est grande.


β E β
β

2.2 Algorithme de Metropolis-Hastings

On veut simuler une chaîne de mesure invariante η = µ et β = 1. Il faut choisir Q de sorte de λ soit
réversible pour Q : λ (x) Q (x, y) = λ (y) Q (y, x) pour tout x, y. Alors
β

η (y) Q (y, x)
g (x, y) = = e−(U (y)−U (x))
η (x) Q (x, y)
si η (x) Q (x, y) 6= 0 (ie si Q (x, y) 6= 0 car η charge tous les états) et 0 sinon.
h (x, y) = min (1, g (x, y)) = e quand Q (x, y) 6= 0.
−(U (y)−U (x))+

2.3 Recuit simulé

On fait une recherche aléatoire d'extrema globaux de U : E → R bornée.


A chaque étape n, on utilise une température T (n) ∈ R .
+
+

A n = 0, on simule X selon une loi η .


A l'étape n, la transition X 7→ X se fait via exploration + acceptation.
0 0

 Exploration selon la loi Q (X , .) → Y avec une transition Q réversible par rapport à λ.


n n+1

 Acceptation en 2 étapes :
n n

 Si U (Y ) ≤ U (X ) on accepte Y (X = Y )
 Si U (Y ) > U (X ) on eectue le choix aléatoire
n n n n+1 n
n n

Y avec proba
( 1
− T (n) (U (Yn )−U (Xn ))
e
X avec la proba complémentaire
n
X = n+1
n

 D'étapes en étapes, on diminue la température (on refroidit le système) et plus T (n) diminue,
plus la probabilité de changer l'état diminue.
4
Il ne faut pas diminuer trop vite car on risque d'être piégé dans un minimum local. On montre que
l'algorithme converge vers un minimum global si
C
T (n) =
log n

avec C ≥ osc (U ) = max(U ) − min(U ).

5
Chapitre 7 -Compléments Master

Ecole Centrale de Lyon-Université Lyon 1 Processus stochastiques et applications

11 décembre 2017

1 Compléments sur les processus de Markov


Dans le chapitre 4, nous avons introduit la notion de processus markovien associé à un semi-groupe de
transition. Nous allons donner dans cette partie quelques compléments sur ces processus. Soit (Ω, F, (Ft )t≥0 , P)
un espace probabilisé ltré.

1.1 Processus de Markov-Rappel Chapitre 4


Soit (E, E) un espace mesurable. La plupart du temps (E, E) = (Rd , B(Rd )).
Dénition 1.1
Un noyau markovien de transition de E dans E est une application Q : E × E → [0, 1] qui vérie
 Pour tout x ∈ E , A → Q(x, A) est une probabilité sur (E, E).
 Pour tout A ∈ E , x → Q(x, A) est mesurable.

Remarque Si f : E → R est mesurable bornée (resp. positive), l'application Qf dénie sur E par
Z
Qf (x) = f (y)Q(x, dy)
E
est mesurable bornée (resp. positive) Si A ∈ E ,
Z
Q1A (x) = 1A (y)Q(x, dy) = Q(x, A).
E
Dénition 1.2
Une famille (Q(t, ., .))t≥0 de noyaux de transition sur E est un semi-groupe de transition si elle
satisfait les trois propriétés suivantes
1. Pour tout x ∈ E , Q(0, x, dy) = δx (dy) ;
2. Pour tous s, t ≥ 0 et A ∈ E , Q(t + s, x, A) = Q(s, y, A)Q(t, x, dy) (Propriété de Chapman-
R
E
Kolmogorov).
3. Pour tout A ∈ E , (t, x) 7→ Q(t, x, A) est mesurable pour B(R+ ) ⊗ E .

Soit QRt l'opérateur déni sur l'espace des fonctions boréliennes bornées par Qt f = Q(t, ., .)f ie
Qt f (x) = E f (y)Q(t, x, dy), ∀x ∈ E .
Qt est une approximation linéaire contractante sur E car
Z
|Qt f (x)| ≤ kf k Q(t, x, dy) = kf k∞ ∀x ∈ E
E
La relation de Chapman-Kolmogorov s'écrit
Z
Qt+s 1A (x) = (Qs 1{A} )(y)Q(t, x, dy) = Qt Qs 1A (x), ∀x ∈ E
E
On montre que pour tout f borélienne bornée, Qt+s f = Qt (Qs f ). D'où Qt+s = Qt Qs
Remarque La propriété i) implique (Q0 1A )(x) = δx (A) = 1A (x), ce qui conduit à Q0 f = f, ∀f
borélienne bornée, soit Q0 = Id.
Dans la suite, (Qt )t≥0 est aussi appelé semi-groupe de transition. Soit (Xt )t≥0 un processus, on note
Px la loi du processus partant de X0 = x.

1
Dénition 1.3
Soit (Qt )t≥0 un semi-groupe de transition sur E . Un processus de Markov relativement à (Ft )t≥0 de
semi-groupe (Qt )t≥0 est un processus (Ft )t≥0 -adapté (Xt )t≥0 à valeurs dans E tq pour tous s, t ≥ 0
et f borélienne bornée
Ex [f (Xt+s ]|Fs ] = Qt f (Xs )
où Ex désigne l'espérance sous Px .

Remarques
 Si la ltration n'est pas précisée, on prend la ltration naturelle de (Xt )t≥0 .
 Pour f = 1{A} , on a Px [Xt+s ∈ A|Fs ] = Q(t, Xs , A), ∀s, t ≥ 0, A ∈ E .
 Cette dénition est équivalente à dire que Px [Xt+s ∈ A|Fs ] = Px [Xt+s ∈ A|Xs ].
 Si s = 0, on a
Ex [f (Xt )] = Qt f (x)
et Px [Xt ∈ A] = Q(t, x, A), ∀t ≥ 0, A ∈ E .
Exemple : Mouvement brownien : Q(t, Bs , A) = P [Bt+s R ∈ A|Fs ] = PR[Bt+s − Bs ∈ A − Bs |Fs ] =
où est la densité d'une . g (r)dr = A gt (r−x)dr ie Q(t, x, dy) =
R
A−Bs t
g (r)dr gt N (0, t) Q(t, x, A) = A−x t
gt (y − x)dy .

1.2 Les solutions d'EDS comme des processus markoviens-Rappel Chapitre


4
Pour x ∈ Rd , on note X x la solution satisfaisant X0 = x de l'EDS

dXt = b(Xt )dt + σ(Xt )dBt (1)

avec b, σ lipschitzienne.

Theorem 1. On suppose que (Xtx )t≥0 est une solution forte de (1). Alors c'est un processus de Markov
de semi-groupe (Qt )t≥0 déni, pour toute fonction f mesurable bornée sur Rd , par Qt f (x) = E [f (Xtx )].
La démonstration (non faite) repose sur le théorème suivant. On introduit l'espace canonique C(R+ , Rk )
des fonctions continues de R+ dans Rk et la mesure de Wiener W qui est la loi de (Bt )t≥0 k -mouvement
brownien.

Theorem 2. Sous les hypothèses d'existence et unicité forte de (??), ∀x ∈ Rd , il existe une fonction
Fx : C(R+ , R ) → C(R+ , R ) mesurable pour la tribu borélienne (pour la norme uniforme) complétée par
k k

les négligeables de W tel que ∀x ∈ Rd , ∀(Ω, F, (Ft )t≥0 , P) et (Bt )t≥0 k-(Ft )t≥0 -mouvement brownien, le
processus déni, pour tout t ≥ 0 par Xt = Fx (B)t est l'unique solution de (??) vériant X0 = x. Si U
est une v.a F0 -mesurable t 7→ FU (B)t est l'unique solution de donnée initiale U .
Démonstration : du théorème 1. On montre que E [f (Xt+s x
)|Fs ] = Qt f (Xsx ). Soit Xt0 = Xt+s , Bt0 = Bt+s −
Bs , Ft0 = Ft+s , ∀t. (Xt )t≥0 est solution de
0

Z t Z t
Xt0 = Xs + b(Xu0 )du + σ(Xu0 )dBu0 , t ≥ 0
0 0

dans (Ω, F, (Ft0 )t≥0 , P). Donc X 0 = FXs (B 0 ) et donc E [f (Xt+s x


)|Fs ]R= E [FXs (B 0 )t |F00 ]. Or Xs est F00 -
mesurable et RB 0 indépendant de F00 . Par conséquent E [[f (Xt+s x
|Fs ] = f (FXs )(ω)W (dω). Mais Qt f (x) =
E [f (Xtx )] = f (Fx (ω)W (dω). D'où le résultat.
 Il faut vérier que Qt est un semi-groupe de transition.
 Q(t, x, A) = Qt 1{A} (t) = E 1{A} (Xtx ) = P [Xtx ∈ A] famille de probabilité.
 La mesurabilité découle du théorème 2
 Q(0, x, A) = P [X0x ∈ A] = P [x ∈ A] = δx (A)
 Qt+s f (x) = E [f (Xt+sx
)] = E [E [f (Xtx )|Fs ]] = E [Qt f (Xsx )] = Qt f (y)Q(s, x, dy) = Qs Qt f (x).
R

2
1.3 Problème de Cauchy-Rappel Chapitre 4
On considère l'équation diérentielle stochastique

dXt = b(t, Xt )dt + σ(t, Xt )dBt , X0 donné

et l'opérateur Lt déni par

1 X ∂2 X ∂
Lt φ(x) = aij (t, x) φ(x) + bi (t, x) φ(x)
2 ∂xi ∂xj ∂xi
1≤i,j≤d 1≤i≤d

où a = σσ t .
Soit l'EDP avec donnée nale

− ∂t v(t, x) = Lt v(t, x) − k(t, x)v(t, x) + g(t, x), t ∈ [0, T ], x ∈ Rd
{ (2)
v(T, .) = f

On suppose
 σ, b lipschitzienne en x uniformément P sur [0, T ] × R et k ≥ 0P
d
.
 σ uniformément elliptique (∃c > 0, 1≤i,j≤d aij (t, x)ξi ξj ≥ c 1≤i≤d ξi2 , ξ ∈ Rd , (t, x) ∈ [0, T ] × Rd
 k, g Hölder continues uniformément sur [0, T ] × Rd , f continue sur Rd .
 σ, b, k bornées dans [0, T ] × Rd , f, g à croissance polynomiale
Théorème 1.1
Sous ces hypothèses, l'équation (2) a une unique solution v à croissance polynomiale en x uniformé-
ment en temps donnée par
" Z T #
t,x − tT k(s,Xst,x )ds t,x − ts k(u,Xu
t,x
R R
v(t, x) = E f (XT )e + g(s, Xs )e )du
ds (3)
t

C'est la formule de Feyman-Kac.

Démonstration : On montre seulement que si v , Cb1,2 est solution de l'EDP alors elle est nécessairement
donnée par la formule (3). On applique la formule d'Itô :
Rs t,x Rs t,x ∂v
d(v(s, Xst,x )e− t k(u,Xu )du
) = e− t k(u,Xu )du
( + Ls v − kv)(s, Xst,x )ds + dMs
∂t
où (Ms )s≥0 est une martingale centrée (car intégrable stochastique d'un processus dans M 2 ). Donc
E [MT − Mt ] = 0. En utilisant l'EDP et en intégrant entre t et T , il vient que
h RT i Z T 
t,x Rs t,x
E v(T, XTt,x )e− t k(s,Xs )ds − v(t, x) = −E g(s, Xst,x )e− t k(u,Xu )du ds .
t

Or v(T, XT ) = f (XT ).

1.4 Semi-groupe de Feller et générateur innitésimal


On suppose que E est un espace polonais : c'est un espace topologique métrisable localement compact
et dénombrable à l'inni, i.e E est une réunion dénombrable de compacts). On munit E de sa tribu
borélienne.
On note C0 (E) l'espace des fonctions continues sur E à valeurs dans R qui tendent vers 0 à l'inni.
C0 (E) muni de la norme innie est un Banach.
Dénition 1.4
Soit (Qt )t≥0 un semi-groupe de transition sur E . On dit que (Qt )t≥0 est un semi-groupe de Feller si :
i ∀f ∈ C0 (E), Qt f ∈ C0 (E), ∀t ≥ 0,
ii ∀f ∈ C0 (E), kQt f − f k → 0 quand t → 0.

3
Remarques : La propriété (ii) peut-être remplacée par un qui semble plus faible :
∀f ∈ C0 (E), ∀x ∈ E, Qt f (x) − f (x) → 0, quandt → 0.
∀f ∈ C0 (E), t 7→ Qt f est uniformément continue sur R+ dans C0 (E). En eet kQt+s f − Qs f k =
kQs (Qt f − f )k ≤ k(Qt f − f )k → 0 quand t → 0.
Exemple feuille exercices 1 et 2.
Dénition 1.5
Soit (Qt )t≥0 un semi-groupe de Feller sur E . On dénit

Qt f − f
D(L) = {f ∈ C0 (E), converge dans C0 (E) quand t → 0+ }
t
et pour tout f ∈ D(L),
Qt f − f
Lf = lim+ .
t→0 t
Alors D(L) est un sous-espace vectoriel de C0 (E) et L : D(L) → C0 (E) est un opérateur linaire
appelé générateur innitésimal du semi-groupe (Qt )t≥0 . L'ensemble D(L) est appelé domaine de L.

Remarque : De même que E [φ(X)] pour une famille de φ assez riche caractérise la loi de la v.a. X ,
le semi-groupe caractérise la loi du processus de Markov.
Example : Le mouvement brownien B et le processus B sont des processus de Feller.
Théorème 1.2
(Hille-Yosida)
1. D(L) est dense dans C0 (E)
2. Qt (D(L)) ∈ D(L)
3. ∀f ∈ D(L), dt
d
(Qt f ) = Qt (Lf ) = L(Qt f ), (Qt f solution de d
dt u = Lu).

On note souvent Qt = etL .

1.5 Générateur innitésimal pour une diusion


Pour x ∈ Rd , on note X x la solution de l'EDS
dXt = b(Xt )dt + σ(Xt )dBt , X0 = x, (4)
où b et σ sont globalement lipschitzienne, B un k -mouvement brownien. On note a = σσ t .
Théorème 1.3
Pour toute fonction Φ ∈ Cc2 (Rd ), on dénit
d d
1 X ∂2 X ∂
LΦ(x) = aij (x) Φ(x) + bi (x) Φ(x)
2 i,j=1 ∂xi ∂xj i=1
∂x i

Alors L est le générateur innitésimal de la diusion X x .

Démonstration : On suppose L déni par la quantité ci-dessus. D'après la formule d'Itô, pour tout
Φ ∈ Cc2 (Rd ),
Z t Z t
Φ(Xtx ) = Φ(x) + LΦ(Xsx )ds + DΦ(Xsx )σ(Xs )dBs .
0 0
hR i
t
Or Qt Φ(x) = E [Φ(Xtx )]. De plus E 0 DΦ(Xsx )σ(Xs )dBs = 0 car l'intégrale stochastique est une
h R i
Qt Φ(x)−Φ(x) 1 t
(F)t≥0 -martingale. Ainsi t = E t 0 LΦ(Xs
x
)ds . Le terme dans l'espérance converge p.s
vers LΦ(x) et comme LΦ est bornée. L'espérance converge vers LΦ(x) par convergence dominée. Par
conséquent Cc2 (Rd ) ⊂ D(L) et L = L sur Cc2 (Rd ).

4
Exemple :  Mouvement Brownien : L = 12 ∆
 Processus d'Orstein-Uhlenbeck : b(x) = −bx, σ constant, k = d = 1, Lφ = 21 σ 2 Φ00 − bxΦ0 .

1.6 Equations de Kolmogorov


Soit f ∈ D(L). D'après le théorème de Hille-Yoside, dt d
(Qt f ) = L(Qt f ) soit
Z Z
d
f (y)Q(t, x, dy) = L f (y)Q(t, x, dy),
dt Rd Rd

soit Rd f (y) dt
d
Q(t, x, dy) = Rd f (y)Lx Q(t, x, dy), l'indice x indique la variable sur laquelle l'opérateur
R R

agit. On obtient l'équation de Kolmogorov rétrograde


d
Q(t, x, dy) = Lx Q(t, x, dy),
dt
lim+ Q(t, x, .) = δx
t→0

au sens des distributions.


De façon similaire , on a
Z Z
d
(Qt f ) = Qt (Lf ) = (Lf )Q(t, x, dy) = f (y)L∗y Q(t, x, dy)
dt Rd Rd


R L est

l'adjoint
R de L, i.e l'opérateur déni, pour tout φ, Ψ : R → R, C à support compact, par
d ∞

Rd
ΦL Ψdy = Rd ΨLΦdy .

Le semi-groupe satisfait donc l'équation de Kolmogorov progressive :


d
Q(t, x, dy) = L∗y Q(t, x, dy),
dt
lim+ Q(t, x, .) = δx
t→0

au sens des distributions.


Pour une diusion l'opérateur adjoint L∗ est déni par
d d
1 X ∂2 X ∂
L∗ Ψ(x) = (aij Ψ)(x) + (−bi Φ)(x)
2 i,j=1 ∂xi ∂xj i=1
∂x i

1 ∂2
Example : Pour le mouvement brownien, L = L∗ = 2 ∂x2
et l'équation de Kolmogorov rétrograde est donnée
par
d 1 ∂2
Q(t, x, dy) = Lx Q(t, x, dy) = Q(t, x, dy)
dt 2 ∂x2
lim Q(t, x, .) = δx
t→0+

(y−x)2

On vérie que Q(t, x, dy) = e √2πt
2t
dy est solution. Exercice : Ecrire l'équation de Kolmogorov progressive.
On considère la solution de dXt = −bXt dt + σdBt , X0 = x ∈ R, l'opérateur L∗ ψ = (xψ)0 + 21 σ 2 ψ 00 .

1.7 Equation de Fokker-Planck


On veut suivre l'évolution par le semi-groupe d'une diusion quelconque. On note µ0 la loi de X0 .
Au temps t, si µt est la loi de Xt alors pour tout borélien B ,
Z Z
 
µt (B) = P [Xt ∈ B] = E Qt 1{B} (X0 ) = Qt 1{B} (x)µ0 (dx) = Q(t, x, B)µ0 (dx)
Rd Rd

autrement dit Z
µt (dy) = Q(t, x, dy)µ0 (dx)
Rd

5
On cherche une équation pour µt . Pour tout fonction régulière Φ,
Z Z Z
Φ(y)µt (dy) = Φ(y)Q(t, x, dy)µ0 (dx)
Rd Rd Rd

D'où
Z Z Z
d d
Φ(y) µt (dy) = Φ(y) Q(t, x, dy)µ0 (dx)
Rd dt Rd Rddt
Z Z
= Φ(y) L∗y Q(t, x, dy)µ0 (dx)
Rd Rd
Z Z

= Φ(y)Ly Q(t, x, dy)µ0 (dx)
d Rd
ZR
= Φ(y)L∗y µt (dy)
Rd

Ainsi, (µt ) évolue selon l'équation de Fokker-Planck


d
µt = L∗ µt , lim µt = µ0
dt
Dénition 1.6
Une probabilité µ est dite invariante pour le processus de Markov homogène X si : X0 de loi µ alors
Xt est de loi µ pour tout t ; autrement dit si L∗ µ = 0.

Dans le cas d'une diusion si les coecients sont réguliers et si σσ t est une matrice dénie positive
(ellipticité uniforme) alors la probabilité de transition admet une densité q(t, s, t) pour tout t > 0 . Elle
est la solution classique de l'équation de Fokker-Planck. Dans ce cas, on montre qu'il y a au plus une
probabilité invariante, qui possède nécessairement une densité.

1.8 Le problème de Dirichlet


Dans le chapitre 4, nous avons vu que les solutions de certaines EDP (Problème de Cauchy) s'écrivaient
comme l'espérance d'une fonctionnelle d'une diusion. Dans ce paragraphe, nous généralisons ce résultat
dans le cas de l'équation homogène (4).
Dénition 1.7
Un ouvert borné connexe de Rd , D, est dit régulier si presque sûrement, un brownien issu d'un point
du bord sort de l'ouvert (Cela exclut les points du bord isolés dans l'ouvert par exemple. Les ouverts
dont le bord sont des variétés C 1 sont des ensembles réguliers).

Soit f : ∂D → R, soient k, g : D̄ → R. Le problème de Dirichlet (D, L, f, g, k) consiste à trouver


u : D̄ → R continue sur D̄ et de classe C 2 dans D telle que

Lu − ku = − g dans D

(5)
u = f sur ∂D.

On suppose
 σ, b lipschitzienne sur D̄ et k ≥ 0.
 σ uniformément elliptique
 k, g Hölder continues sur D̄, f continue sur ∂D.
Théorème 1.4
Sous ces hypothèses, l'équation (5) a une unique solution u donnée par
 Z τ 
x − 0τ k(Xs )ds − 0t k(Xs )ds
R R
u(x) = E f (Xτ )e + g(Xt )e dt
0
avec τ = inf {t > 0, Xtx / D}.

6
Application : Temps de sortie d'un ouvert : Si σ, b lipschitzienne et si la diusion est uniformément
elliptique, le temps moyen de sortie
u(x) = Ex [τD ]
est ni et est solution de l'équation

Lu = −1 dans D, u = 0 au bord de D.

Démonstration : Pour simplier, on suppose que u se prolonge en une fonction C 2 sur Rd , notée encore
u et on ne montre que la partie unicité. On pose
Rt
Z t Rs
Yt = u(Xt )e− 0 k(Xs )ds + g(Xs )e− 0 k(Xu )du ds.
0

En appliquant la formule d'Itô, on obtient que


Rt
dYt = e− 0
k(Xs )ds
(Lu − ku − g)(Xt )dt + dMt

Donc (Yt )t≥0 est une martingale locale. On peut montrer qu'avec les hypothèses (Yt )t≥0 est une martin-
gale. Par conséquent (Yt∧τ )t≥0 aussi. Par conséquent E [Yt∧τ ] = E [Y0 ] pour tout t, i.e
 Z t∧τ 
− 0t∧τ
R Rs
− k(Xu )du
E u(Xt∧τ )e k(Xs )ds + g(Xs )e 0 ds = u(x).
0

On remarque que
|Yt∧τ | ≤ u1{D} ∞ + τ kgk∞
Comme la diusion est elliptique et D borné, E [τ ] ≤ ∞. Pour conclure, on fait tendre t vers +∞ et on
conclut par convergence dominée.

2 Le théorème de Girsanov
Dans Scette partie, on considère que la ltration (Ft )t≥0 est complète et continue à droite. On note
F∞ = σ( t∈R+ Ft ). L'objectif de cette section est d'étudier comment se transforment les notions de mar-
tingales et de processus d'Itô lorsqu'on change de probabilité. On admettre que l'intégrale stochastique
peut se dénir avec les mêmes propriétés pour une martingale locale continue.

2.1 Exponentielle de martingale


Théorème 2.1
Soit X une martingale locale continue, λ un nombre complexe, et soit

λ2
 
E(λX)t = exp λ(Xt − X0 ) − < X, X >t .
2

Le processus E(λX) est une martingale locale et s'écrit


Z t
E(λX)t = 1 + E(λX)s λdXs .
0

Démonstration : Si F (x, r) est une fonction de classe C 2 sur R × R+ , la formule d'Itô implique que
t Z
∂F
F (Xt , < X, X >t ) = F (X0 , 0) + (Xs , < X, X >s )dXs (6)
0 ∂x
Z t
1 ∂2F

∂F
+ + (Xs , < X, X >s )d < X, X >s .
0 ∂r 2 ∂x2

7
Donc, F (Xt , < X, X >t ) est une martingale locale dès que F vérié l'équation
∂F 1 ∂2F
+ = 0.
∂r 2 ∂x2
2
Cette équation est vériée pour F (x, r) = exp(λx − λ2 r). De plus, pour cette fonction ∂F
∂x = λF .
On dit qu'un processus X est uniformément intégrable si
 
lim E |Xt |1|Xt |>a = 0
a→=∞

Si X est une martingale uniformément intégrale, il existe X∞ v.a cF∞ mesurable telle que Xt =
E [Xinf ty |cFt ].

2.2 Théorème de Girsanov


Dans toute cette section on dénira pour T un temps d'arrêt, on dénira

FT = {A ∈ F∞ , A ∩ {T ≤ t} ∈ Ft }.

On commence par rappeler le théorème de Radon-Nikodym


Théorème 2.2
Soit (Ω, F, (Ft ), P) un espace de probabilité ltré. Soit Q une mesure absolument continue par rapport
à P sur F∞ : Q << P (i.e. pour tout A ∈ F∞ , P [A] = 0 ⇒ Q(A) = 0). Alors, il existe une variable
aléatoire F∞ -mesurable, positive intégrable telle que pour tout A ∈ F∞ ,
Z
Q(A) = Z∞ dP
A

Alors,
dQ
Z∞ =
dP
est appelée la densité de Radon-Nikodym.

Dénition 2.1
Soient Q et P deux probabilités sur F∞ . On dit que Q localement absolument continue par rapport
à P si pour tout t ≥ 0, Q << P lorsque l'on considère leur restriction sur Ft . On note Zt la densité
de Radon-Nikodym sur Ft

Proposition 2.1
Soit Q localement absolument continue par rapport à P sur F∞ alors (Zt )t≥0 est une martingale
cadlag.
De plus, il y a équivalence entre (Zt )t≥0 est uniformément intégrable et Q absolument continue
par rapport à P sur F∞ . Dans ce cas Zt = E [Z∞ |Ft ].

Démonstration : On démontre unique ment le fait que (Zt )t≥0 est une P-martingale. L'intégrabilité
et la mesurabilité découlent de la dénition de la densité. Soit A ∈ Fs , alors Q[A) = E(Zs 1A ). D'autre
comme A ∈ Ft pour t ≥ s, on a Q[A) = E(Zt 1A ) en considérant la restriction de Q sur Ft . D'où le
résultat.

Plus précisément, on peut montrer les deux lemmes suivants.


Lemme 2.1
(Zt )t≥0 est Q-p.s. strictement positive.

Démonstration : On introduit le temps d'arrêt T = inf{t ≥ 0, Zt ≤ }. On en déduit que



!
\ 
Q T1/n < ∞ = 0.
n=1

8
Exercice : Si T est un temps d'arrêt, montrer que ZT ∧t = dP |FT ∧t .
dQ
On suppose que t → Zt est
continue.
Lemme 2.2
Soit X continu, adapté. Si le processus XZ est une P-martingale locale, alors X est une Q-martingale
locale.
Démonstration : Soit Tn une suite qui réduit XZ , alors X Tn ∈ L1 (Q). Pour tout n, tout s ≤ t et
A ∈ Fs , on a A ∩ {Tn > s} ∈ Fs et
   
E 1{A∩{Tn >s}} XTn ∧t ZTn ∧t = E 1{A∩{Tn >s}} XTn ∧s ZTn ∧s

Or ZTn ∧t = dQ
dP |FTn ∧t et comme A ∩ {Tn > s} ∈ FTn ∧s ⊂ FTn ∧t , il vient
   
EQ 1{A∩{Tn >s}} XTn ∧t = EQ 1{A∩{Tn >s}} XTn ∧s
D'autre part, on a
   
EQ 1{A∩{Tn ≤s}} XTn ∧t = EQ 1{A∩{Tn ≤s}} XTn ∧s

D'où le résultat.
Théorème 2.3
Soit Q une mesure localement absolument continue par rapport à P sur F∞ . On suppose que (Zt )t≥0
est continue. Alors, si M est une P-martingale locale continue et si
Z t
0 1
Mt = Mt − d < M, Z >s , ∀t ≥ 0
0 Z s

alors M 0 est bien dénie sur (Ω, F, (Ft ), Q) et (Mt0 )t≥0 est une Q-martingale locale. De plus,

< M 0 , M 0 >=< M, M >, Q − p.s.

Démonstration : M 0 est bien dénie car 1/Z est Q-localement borné. On applique ensuite la formule
d'Itô au produit M Z et on conclut avec le Lemme 2.2
0

Les deux corollaires suivants démontrent l'intérêt du théorème de Girsanov :


Corollaire 2.1
Soit (Bt )t∈R+ un (Ft )t∈R+ -mouvement Brownien standard sur (Ω, F, (Ft ), P). Pour tout t ∈ R+ , on
dénit Z t
1
B̃t = Bt − d < B, Z > s.
0 Z s

Alors, (B̃t )t∈R+ est un mouvement Brownien sur (Ω, F, (Ft ), Q).

Démonstration : Utiliser le théorème de Girsanov.


Dans de nombreux cas, Q est localement équivalent à P et donc (Zt )t≥0 est aussi P-p.s. strictement
positive et peut s'écrire sous forme exponentielle.
Proposition 2.2
Si (Zt )t≥0 est une martingale locale strictement positive et continue alors il existe une unique mar-
tingale locale tel que  
1
Zt = exp Lt − < L, L >t = E(L)t .
2

Dans les applications du théorème de Girsanov on construit la probabilité Q comme suit. On part
d'une martingale locale L telle que L0 = 0. Alors E(L) est une martingale locale. Si on a E(L) qui est
une martingale, on peut dénir Q = E(L)t · P sur Ft pour tout t ≥ 0. Le résultat suivant donne des
conditions pour que E(L) soit une martingale.

9
Corollaire 2.2
Soit L une martingale locale continue sur (Ω, F, (Ft ), P) telle que L0 = 0.
 Si  
1
E exp( < L, L >∞ ) < ∞, critère de Novikov
2
ou que L est une martingale uniformément intégrable, et
 
1
E exp( L∞ ) < ∞, critère de Kamazaki,
2

Alors, E(L) est une martingale uniformément intégrable.


 Si exp( 12 L) est une sous-martingale ou E exp( 12 < L, L >t ) < ∞ pour tout t, E(L) est une


martingale.

Remarque : On applique souvent le théorème de Girsanov en horizon ni. Pour T > 0 xé, on se
donne une ltration (Ft )t∈[0,T ] . Si Q est équivalente à P, on peut dénir Z et L comme précédemment
sur [0, T ].
Application : Loi du temps d'atteinte pour un mouvement brownien géométrique.

10

Vous aimerez peut-être aussi