Académique Documents
Professionnel Documents
Culture Documents
M2–Probabilités et Finance
Calcul Stochastique
des martingales continues
Philippe Bougerol
3 Décembre 2015
1
TABLE DES MATIÈRES
2. Intégration de Lebesgue. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
2.1. Mesures. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
2.2. Intégration. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
2.3. Espaces L1 , L1 , L2 , L2 .. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
2.4. Convergence en probabilité. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
2.5. Uniforme intégrabilité. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
2.6. Divers. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
2.7. Tribu engendrée. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
2.8. Loi d’une variable aléatoire. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
2.9. Mesure produit. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
2.10. Processus. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
2.11. Indépendance. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28
3. Mouvement Brownien. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
3.1. Loi gaussienne. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
3.2. Vecteur gaussien. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
3.3. Famille gaussienne. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
3.4. Définition du mouvement brownien. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
3.5. Filtrations et Brownien. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
3.6. Propriété de Markov forte du mouvement brownien. . . . . . . . . . . . . . . 37
4 TABLE DES MATIÈRES
INTRODUCTION AU CALCUL
STOCHASTIQUE
1.1. Modélisation
On cherche à modéliser (construire des modèles) et faire des calculs sur des
phénomènes évoluant dans le temps qui dépendent du hasard.
La valeur Xt du phénomène à l’instant t, peut être observée à cet instant,
mais pas prédite avant. Entre les instants t et t+h une part de hasard s’ajoute.
On s’intéresse dans ce cours au cas où la fonction t 7→ Xt est continue. Pour
faire simple supposons que Xt est à valeurs dans R. On va avoir, pour t, h ≥ 0,
Xt+h = Xt + ∆ht
où ∆ht est aléatoire. L’idée fondamentale est qu’au moins dans un premier
temps, pour h très très (infinitésimalement...) petit, ∆ht peut s’écrire
∆ht = Ht εht
où εht est une variable aléatoire indépendante de tout ce qui précède et de loi
ne dépendant que de h (et donc pas de t) et où Ht est une fonction continue
de t, ”observable à l’instant t”, par exemple une fonction de Xt . On va voir
que c’est très opérationnel.
C’est assez naturel. Dans le cas déterministe (c’est à dire sans hasard), et
si Xt est dérivable, on a bien ce type de modélisation en prenant pour Ht la
dérivée à l’instant t et en prenant εht = h.
2 CHAPITRE 1. INTRODUCTION AU CALCUL STOCHASTIQUE
1.2. Bruit
Le fait d’avoir pris h ≥ 0 (infinitésimalement) petit entraı̂ne des contraintes.
Si on remplace h par h = h1 + h2 , avec h1 , h2 ≥ 0, on a
Xt+h = Xt + Ht εht
= Xt+h1 +h2 = Xt+h1 + Ht+h1 εht+h
2
1
Nous avons supposé que εht est une variable aléatoire indépendante de tout ce
qui précède et de loi ne dépendant pas de t. On voit donc que nécessairement,
εht est la somme de n variables aléatoires indépendantes et de même loi. Une
variante du théorème de la limite centrale (qui utilise que les εht sont petits ...)
nous conduit à dire qu’alors εht a une loi gaussienne. Notons mh sa moyenne
et σh2 sa variance. La relation
εht = εht 1 + εht+h
2
1
entraı̂ne que
mh1 +h2 = mh1 + mh2 , σh21 +h2 = σh21 + σh22
donc (par exemple si ces coefficients sont continus), il existe a ∈ R et σ ≥ 0
tels que mh = ah et σh2 = σ 2 h.
On voit donc que l’on peut écrire
εht = ah + σ(Bt+h − Bt )
où Bt est un mouvement brownien sur un espace de probabilité (Ω, A, P),
c’est à dire un processus (=famille de variables aléatoires) continu formé de
v.a. gaussiennes telles que Bt ∼ N (0, t) et Bt+h − Bt est indépendant de
Br , 0 ≤ r ≤ t.
On était parti de
Xt+h = Xt + Ht εht
donc on a, au moins infinitésimalement,
Xt+h = Xt + Ht (ah + σ(Bt+h − Bt )).
1.3. UN ”PRIMER” SUR L’INTÉGRALE D’ITO 3
Z t
= E([ (Hs(n) − Hs(m) ) dBs ]2 )
0
Z t
= E( (Hs(n) − Hs(m) )2 ds)
0
Z t
= E((Hs(n) − Hs(m) )2 ) ds
0
par le lemme. L’espace 2
L (Ω, F, P) étant complet (Hilbert), cette suite
R t (n)
0 Hs dBs converge. On appelle
Z t
Hs dBs
0
sa limite. Elle vérifie, par passage à la limite, comme au dessus
Proposition 1.3.2. —
Z t
E( Hs dBs ) = 0,
0
Z t Z t
E(( Hs dBs )2 ) = E( Hs2 ds).
0 0
Rt
ce cas, par le paragraphe précédent, 0 f (s)dBs est la limite dans L2 (Ω) de
Rt
0 fn (s)dBs . Remarquons que
Z t kn
X
fn (s)dBs = ani (Bt∧tni+1 − Bt∧tni )
0 i=1
Rt
a une loi gaussienne d’espérance nulle et de variance 0 fn (s)2 ds, donc pour
tout λ ∈ R
Z t
1 2 t
Z
E(exp (iλ fn (s)dBs )) = exp (− λ fn (s)2 ds)
0 2 0
Rt 2
Rt 2
et quand n → +∞, puisque 0 fn (s) ds → 0 f (s) ds,
Z t
1 2 t
Z
E(exp (iλ f (s)dBs )) = exp (− λ f (s)2 ds).
0 2 0
On a donc montré,
Rt
Proposition 1.4.1. — Si f ∈ L2 ([0, T ], m), 0 f (s)dBs a une loi gaussienne
Rt
centrée de variance 0 f (s)2 ds
Preuve: !2
n−1
X
E( f (Btnk )[(Btnk+1 − Btnk )2 − (tnk+1 − tnk )] )
k=0
n−1
X n−1
X
= E( f (Btnk )f (Btnr )[(Btnk+1 −Btnk )2 −(tnk+1 −tnk )][(Btnr+1 −Btnr )2 −(tnr+1 −tnr )])
k=0 r=0
n−1
X
= E(f (Btnk )2 [(Btnk+1 − Btnk )2 − (tnk+1 − tnk )]2 )
k=0
X
+2 Ef (Btnk )f (Btnr )[(Btnk+1 −Btnk )2 −(tnk+1 −tnk )][(Btnr+1 −Btnr )2 −(tnr+1 −tnr )])
0≤k<r<n
On utilise l’indépendance des accroissements (espérance du produit est égal
au produit des espérances) :
n−1
X
= E(f (Btnk )2 )E[((Btnk+1 − Btnk )2 − (tnk+1 − tnk ))2 )
k=0
X
+2 E[f (Btnk )f (Btnr )((Btnk+1 −Btnk )2 −(tnk+1 −tnk ))]E[(Btnr+1 −Btnr )2 −(tnr+1 −tnr )].
0≤k<r<n
√
Or, puisque Bt+h − Bt a la même loi que hB1 ,
E[(Btnr+1 − Btnr )2 − (tnr+1 − tnr )] = 0
q
E[((Btnk+1 − Btnk )2 − (tnk+1 − tnk ))2 ) = E[(( tnk+1 − tnk )B1 )2 − (tnk+1 − tnk ))2 )
où
n−1
X
Ztn = f 0 (Btnk )1[tnk ,tnk+1 ] (t).
k=0
Donc,
n−1
X Z t
E([ f 0 (Btnk )(Btnk+1 − Btnk ) − f 0 (Bs ) dBs ]2 )
k=0 0
10 CHAPITRE 1. INTRODUCTION AU CALCUL STOCHASTIQUE
Z t
= E([ (Zsn − f 0 (Bs )) dBs ]2 )
0
Z t
= E( (Zsn − f 0 (Bs ))2 ds)
0
qui tend vers 0 par le théorème de convergence dominée usuel. Donc, dans L2 ,
n−1
X Z t
f 0 (Btnk )(Btnk+1 − Btnk ) → f 0 (Bs ) dBs .
k=0 0
INTÉGRATION DE LEBESGUE
2.1. Mesures
Un espace mesurable est la donnée (Ω, F) d’un ensemble Ω et d’une tribu
F sur cet ensemble :
Définition 2.1.1. — Une classe de parties F d’un ensemble Ω est une tribu
si
(i) elle est stable par complémentaire,
(ii) elle est stable par réunion dénombrable,
(iii) elle contient Ω.
Pour comparaison une topologie est une classe d’ouverts : c’est à dire, par
définition, une classe de parties de Ω stable par union quelconque, intersection
finie, contenant Ω et ∅
Définition 2.1.2. — Une mesure sur un espace mesurable (Ω, F) est une
application m : F → R+ ∪ {+∞} telle que
(i) m(∅) = 0.
(ii) m(A ∪ B) = m(A) + m(B) si A ∈ F, B ∈ F sont disjoints.
(iii) si (An ) est une suite croissante d’éléments de F, m(An ) → m(∪An ).
On dit que m est σ-finie si on peut écrire Ω comme une réunion dénombrable
d’ensembles de mesure finie ; m est une probabilité si m(Ω) = 1.
14 CHAPITRE 2. INTÉGRATION DE LEBESGUE
Définition 2.1.3. — On dit qu’une propriété est vraie p.p. (presque partout)
ou p.s. (presque surement) si elle est vraie en dehors d’un ensemble de mesure
nulle.
2.2. Intégration
Soit (Ω, F, m) un espace mesurable muni d’une mesure. Une fonction f :
Ω → R est étagée si on peut l’écrire sous la forme
n
X
f= rk 1Ak
k=1
positive par
Z n
X
f dm = rk m(Ak ).
k=1
(avec la convention ici que 0 · ∞ = 0). On vérifie que ça ne dépend pas de la
décomposition choisie et que, si f, g sont étagées positives et a, b ∈ R+ ,
Z Z Z
(af + bg) dm = a f dm + b g dm.
Si (fn ) est une suite de fonctions mesurables, pour la même raison, inf n∈N fn
et donc
lim sup fn := lim sup fk = inf sup fk
n→+∞ k≥n n∈N k≥n
où le sup est pris sur l’ensemble des fonctions étagées g qui vérifient 0 ≤ g ≤ f .
Si f est mesurable on dit que f est intégrable si f + := max(f, 0) et f − :=
− min(f, 0) sont d’intégrale finie et on pose alors
Z Z Z
f dm = f dm − f − dm.
+
Lemme 2.2.6 (de Fatou). — Soit (fn ) une suite de fonctions mesurables
positives, Z Z
lim inf fn dm ≤ lim inf fn dm.
2.3. Espaces L1 , L1 , L2 , L2 .
On note L1 l’ensemble des fonctions intégrables, L2 l’ensemble des fonctions
de carré intégrable, i.e. des fonctions mesurables f : Ω → R̄ telles que
Z
|f |2 dm < +∞,
est négatif.
18 CHAPITRE 2. INTÉGRATION DE LEBESGUE
lim kfn − f kp = 0.
n→+∞
Définition 2.3.3. — La suite (fn ) est de Cauchy dans Lp si pour tout ε > 0
il existe N > 0 tel que pour m, n ≥ N
kfn − fm k ≤ ε.
Théorème 2.3.4. — Soit (fn ) une suite de Cauchy dans Lp . Alors il existe
f ∈ Lp tel que fn → f dans Lp .
kfn − fm k ≤ 2−k .
Un espace vectoriel muni d’un produit scalaire dans lequel les suites de Cauchy
convergent est appelé un espace de Hilbert. Donc L2 (ou plutot L2 ) est un
espace de Hilbert. Une propriété fondamentale des espaces de Hilbert est le
théorème suivant.
20 CHAPITRE 2. INTÉGRATION DE LEBESGUE
quand n → +∞.
≤ P(|Xn | ≥ ε) + ε ≤ 2ε
2.6. Divers
Lemme 2.6.1 (de Borel Cantelli). — Soit (An ) une suite de sous en-
sembles mesurables de Ω telle que ∞
P
n=0 m(An ) < +∞. Alors
+∞
X
1An < +∞ p.s.
k=0
Autrement dit, presque tout ω ∈ Ω n’appartient qu’à un nombre fini de An .
Lemme 2.7.4. — Toute fonction mesurable de E dans R̄+ est la limite crois-
sante d’une suite de fonctions étagées.
En effet,
n2n −1
X k
f = lim n1{n≤f } + 1 k k+1
n→+∞ 2n { 2n ≤f < 2n }
k=0
(lorsque f est finie on peut se passer du premier terme).
Pour s’habituer aux notations, utilisons le vocabulaire des probabilités.
Donnons nous une famille (Ei , Ei ), i ∈ I, d’espaces mesurables.
2.7. TRIBU ENGENDRÉE 23
Intuitivement, la tribu σ{Xi , i ∈ I} est formée des ensembles que l’on peut
décrire à l’aide des Xi . Pour une seule application X : Ω → Rd , σ(X) est
exactement la classe des ensembles {X ∈ A}, où A est un borélien de Rd .
Donnons nous pour toute la suite un espace de probabilité (Ω, F, P). Une
variable aléatoire est la même chose qu’une application mesurable mais la
plupart du temps à valeurs dans E = R ou Rd . Le lemme suivant est très
utile.
Une façon agréable d’exprimer le lemme précédant est de dire qu’une va-
riable aléatoire Y est σ(X1 , X2 , · · · , Xn )-mesurable si et seulement si elle
s’écrit
Y = φ(X1 , X2 , · · · , Xn )
pour une application borélienne φ.
Le maniement des tribus engendrées est souvent délicat. Un outil sophis-
tiqué :
Définition 2.8.3. — Etant donné deux mesures µ et ν sur (Ω, F), et une
fonction mesurable positive φ : Ω → R, on dit que µ a la densité φ par
rapport à ν et on écrit
dµ = φ dν
si pour tout A ∈ F Z
µ(A) = φ(x) dν(x).
A
Souvent lorsqu’on dit qu’une v.a. réelle a la densité φ, on sous entend que sa
loi a la densité φ par rapport à la mesure de Lebesgue.
R
(à l’aide du thm de classe monotone, on vérifie que y 7→ 1C (x, y) dm1 (x) est
bien mesurable). On définit ainsi une mesure sur m1 ⊗ m2 sur E1 × E2 . De la
même façon, la formule
Z Z
ν(C) = { 1C (x, y) dm2 (y)} dm1 (x)}
On déduit donc du théorème de classe monotone que les deux mesures m1 ⊗m2
et ν coincident. Il en résulte assez facilement :
est mesurable et
Z Z Z Z
{ f (x, y) dm1 (x)}dm2 (y) = { f (x, y) dm2 (y)}dm1 (x)
sous l’une des deux hypothèses suivantes (i) f est à valeurs positives (ii) f est
intégrable
∂φj
où J(φ) est le déterminant de la matrice des ∂uk et m est le mesure de
Lebesgue.
2.10. PROCESSUS 27
2.10. Processus
Un processus (à temps continu) est une famille de variables aléatoires (Xt ) à
valeurs dans un espace E muni d’une tribu E, indexée par t ∈ R+ . En fait c’est
la même chose qu’une variable aléatoire à valeurs dans l’ensemble F (R+ , E)
des fonctions de R+ dans E muni de la tribu F(R+ , E) engendrée par les
applications φt : F (R+ , E) → E définies par φt (ω) = ω(t), ω ∈ F (R+ , E).
La loi du processus est par définition la loi de cette variable aléatoire.
Proposition 2.10.1. — La loi d’un processus est déterminée par les lois
finies dimensionnelles, c’est à dire les lois de
(Xt1 , · · · Xtn ), 0 ≤ t1 ≤ t2 ≤ · · · ≤ tn , n ∈ N.
2.11. Indépendance
La notion la plus importante en probabilité est sans conteste la notion
d’indépendance. Elle recouvre à la fois une notion intuitive (le résultat du
loto est indépendant de la température, etc ...) et une notion mathématique.
Il est nécessaire de bien posséder ces deux aspects et de comprendre qu’ils
signifient la même chose. Un bon utilisateur des probabilités est quelqu’un qui
sait exploiter l’indépendance, ou la non indépendance, dans les événements
de la vie courante. Même si le plus souvent on ne s’intéresse qu’à l’indépend-
ance d’événements ou de variables aléatoires, il s’avère plus efficace de définir
l’indépendance de tribus. Un espace de probabilité (Ω, A, P) est toujours fixé.
MOUVEMENT BROWNIEN
1. cf. Appendice
32 CHAPITRE 3. MOUVEMENT BROWNIEN
Pour λ ∈ Rd , notons
d
X
hλ, Xi = λi Xi
i=1
λt KX λ = varhλ, Xi ≥ 0.
(Bt1 − Bt , · · · , Btd − Bt )
est indépendant de Ft donc de Fs+ , qui est contenu dans Ft . Par continuité
(Bt1 − Bs , · · · , Btd − Bs )
Preuve: F0+ est indépendant de Bt pour tout t > 0 donc de Ft , donc de F0+ .
36 CHAPITRE 3. MOUVEMENT BROWNIEN
√
Preuve: La variable aléatoire R = lim supt→0+ Bt / t est F0+ –mesurable, où
Ft = σ(Bs , 0 ≤ s ≤ t), donc constante p.s.. Plus précisément, soit R = +∞,
soit il existe une constante α telle que R ≤ α, p.s. Ce dernier cas est impossible
Bt
car il entraı̂ne que P( √ t
≥ α + 1) → 0 quand t = 1/n avec n → +∞ alors
Bt
que P( √ t
≥ α + 1) = P(B1 ≥ α + 1) 6= 0. Le cas de la liminf s’obtient en
appliquant la limsup à (−Bt ) qui est aussi un brownien.
On voit donc que, bien que le brownien passe une infinité de fois par tout
les points, il met un temps d’espérance infinie pour atteindre un point donné.
La propriété suivante est assez étonnante !
Corollaire 3.6.10. — La loi de sup0≤s≤t Bs est la même que celle de |Bt |.
Preuve: P(sup0≤s≤t Bs ≥ a) = P(Ta ≤ t) = 2P(Bt ≥ a) = P(|Bt | ≥ a).
La seule chose non évidente est que ces deux v.a. sont indépendantes. Or leur
covariance est
Xn (2−n (k + 1)) − Xn (2−n k)
var( ) − var(2−(n+2)/2 Y2k+1,n+1 ) = 0.
2
Vu la construction de Xn+1 à partir de Xn ,
sup |Xn+1 (t) − Xn (t)| = sup 2−(n+2)/2 Y2k+1,n+1
0≤t≤1 0≤k≤2n −1
donc
P( sup |Xn+1 (t)−Xn (t)| ≥ 2−n/4 ) = P( sup 2−(n+2)/2 |Y2k+1,n+1 | ≥ 2−n/4 )
0≤t≤1 0≤k≤2n −1
n −1
2X
(n+4)/4
P( sup |Y2k+1,n+1 | ≥ 2 )≤ P(|Y2k+1,n+1 | ≥ 2(n+4)/4 )
0≤k≤2n −1 k=0
n (n+4)/4
= 2 P(|Y0,0 | ≥ 2 )
Utilisons la majoration, pour a > 0
Z +∞ Z +∞
1 −t2 /2 1 t −t2 /2 1 1 −a2 /2
√ e dt ≤ √ e dt ≤ √ e
2π a 2π a a 2π a
pour voir que
X∞
P( sup |Xn+1 (t) − Xn (t)| ≥ 2−n/4 ) < +∞
n=0 0≤t≤1
donc que Xn converge uniformément sur [0, 1]. La limite Xt est donc continue,
c’est un processus gaussien centré continu dont les covariances coı̈ncident avec
celles du brownien sur les dyadiques, donc partout.
3.9. Appendice 1
Donnons une excellente approximation de la fonction de repartition de la
loi normale sous la forme d’un programme C.
// standard normal density function
double ndf(double t)
{
return 0.398942280401433*exp(-t*t/2);
}
3.9. APPENDICE 1 43
MARTINGALES
Si M est une (ss)-martingale sur (Ω, (Ft )t∈T , P), ça l’est aussi pour la
filtration naturelle Ft0 = σ(Ms , s ≤ t).
Exemple. Soit X ∈ L1 . On pose Xt = E(X|Ft ). On a, pour s < t,
E(Xt |Fs ) = E(E(X|Ft )|Fs ) = E(X|Fs ) = Xs
et Xt est une martingale.
Proposition 4.1.2. — Soit B un (Ft )–mouvement brownien. Alors,
(i) Bt , t ∈ R+ ;
(ii) Bt2 − t, t ∈ R+ ;
λ2 t
(iii) pour λ ∈ R , exp(λBt − 2 ), t ∈ R+ ;
sont des (Ft )-martingales.
Proposition 4.1.3 (Inégalité de Jensen). — Soit M une martingale
(resp. sous martingale) et φ : R → R une fonction convexe (resp. convexe
croissante). Si φ(Mt ) est intégrable pour tout t ≥ 0, c’est une sous martingale.
46 CHAPITRE 4. MARTINGALES
Lemme 4.2.2. — Si σ est un temps d’arrêt et r un réel fixé, pour toute v.a.
X ≥ 0, p.s.,
1{σ=r} E(X|Fσ ) = 1{σ=r} E(X|Fr ),
Preuve: Si τ est borné par la constante r > 0, on peut écrire que, sur {σ = n},
E(Mτ | Fσ ) = E(Mrτ | Fn ) ≥ Mr∧n
τ
= Mτ ∧σ .
E((max0≤k≤n Mk )2 ) est fini car majoré par E( nk=0 Mk2 ) on peut donc sim-
P
où p−1 + q −1 = 1.
Puisque la valeur absolue d’une martingale est une sous martingale positive,
on en déduit le corollaire absolument fondamental pour la suite :
4.3. MARTINGALE CONTINUE À DROITE 49
Preuve: Remarquons d’abord que pour tout ε > 0, il existe α > 0 tel que, si
P(A) < α alors E(|X|1A ) ≤ ε. En effet, par Lebesgue dominé, E(|X|1{|X|≥M } )
tend vers 0 lorsque M → +∞. On choisit M pour lequel E(|X|1{|X|≥M } )) <
ε/2 et ensuite α > 0 tel que αM < ε/2. On a alors
E(|X|1A ) ≤ E(|X|1A 1{|X|≥M } ) + E(|X|1A 1{|X|≤M } )
≤ E(|X|1{|X|≥M } ) + M P(A) ≤ ε.
Soit R = α−1 E|X|.
On a, pour a > R, P(|E(X|F)| > a) ≤ a−1 E|E(X|F)| ≤
a−1 E|X| < α et
Z Z Z
|E(X|F)| dP ≤ E(|X||F) dP = |X| dP < ε.
{|E(X|F )|>a} {|E(X|F )|>a} {|E(X|F )|>a}
E(ZU ) = E(XU ).
On utilisera très souvent les inégalités suivantes qui montrent que l’applica-
tion T : Lp → Lp donnée par T (X) = E(X|F) est continue pour p = 1, 2, ∞.
= E(φ(T )Z)(ω).
CHAPITRE 5
CROCHET DE MARTINGALES
Preuve: Puisque H est borné, S(H, M )n est intégrable pour tout n. C’est une
martingale car
E(S(H, M )n+1 − S(H, M )n |Fn ) = E(Hn (Mn+1 − Mn )|Fn )
= Hn [E(Mn+1 |Fn ) − Mn ] = 0.
Supposons maintenant que |M | est bornée par c. Par le lemme d’orthogonalité,
puisque S(H, M )0 = 0, en posant Kp = supk≤p Hk2 ,
n−1
X n−1
X
E(S(H, M )2n ) = E(Hp2 (Mp+1 − Mp )2 ) ≤ E(Kp (Mp+1 − Mp )2 ).
p=0 p=0
n−1
X
2
≤ E(Kp+1 Mp+1 − Kp Mp2 )) = E(Kn Mn2 − K0 M02 )) ≤ E(Kn Mn2 )
p=0
donc, par Cauchy Schwarz,
E(S(H, M )2n ) ≤ k sup Hk2 k2 kMn2 k2 .
k≤p
où 0 ≤ t0 < t1 · · · < tn et où Hti est une v.a. Fti –mesurable bornée. On note
E l’ensemble de ces processus élémentaires.
5.3. CROCHET COMME VARIATION QUADRATIQUE 57
Preuve: Puisque M est une martingale, E(Mr |Fs ) = Mr∧s pour tous r, s, ≥ 0.
On en déduit que si 0 ≤ ti ≤ s ≤ t,
E(Hti (Mti+1 ∧t − Mti ∧t )|Fs ) = Hti E(Mti+1 ∧t − Mti ∧t )|Fs )
= Hti (Mti+1 ∧t∧s − Mti ∧t∧s )
= Hti (Mti+1 ∧s − Mti ∧s ).
En utilisant cette relation pour s = ti , on voit maintenant que si 0 ≤ r ≤ ti ≤ t,
E(Hti (Mti+1 ∧t − Mti ∧t )|Fr ) = E(E(Hti (Mti+1 ∧t − Mti ∧t )|Fti )|Fr ) = 0
donc encore
E(Hti (Mti+1 ∧t − Mti ∧t )|Fr ) = Hti (Mti+1 ∧r − Mti ∧r ).
Lorsque t ≤ ti , ceci est trivialement vrai. Donc H · M est une martingale.
Montrons (ii). On regarde la martingale à temps discret Nk = Mtk ∧T et le
processus à temps discret Gk = Htk . Alors
(H · M )T = S(G, N )n
donc par la Proposition 5.1.2, il existe c > 0 tel que
||(H · M )T ||22 ≤ c|| sup Ht2 ||2 .
t≤T
On applique alors l’inégalité de Doob à la martingale H · M .
pn−1
X
=2 Mtni (Mtni+1 ∧t − Mtni ∧t ).
i=0
Avec
n −1
pX
(n)
Mt = Mtni 1[tni ,tni+1 [ (t),
i=0
ceci se réécrit
pn−1 Z t
X
(5) Mt2 − M02 − (Mtni+1 ∧t − Mtni ∧t )2 = 2 Ms(n) dMs .
i=1 0
Posons
Z t
(n)
Xt = Ms(n) dMs .
0
(n)
On sait par la Proposition 5.2.1 que Xt est une martingale. En appliquant
(n) (m)
cette proposition à la martingale Xt − Xt on voit qu’il existe C > 0 telle
que
(n) (m) 2
E[ sup (Xt − Xt ) ] ≤ C|| sup (Ms(m) − Ms(n) )2 ||2
0≤t≤T 0≤s≤T
tend vers 0 quand m, n → +∞. Par récurrence construisons une suite d’entiers
nk vérifiant nk ≥ nk−1 et, pour tout ≥ nk
(nk )
E( sup (Xt − Xtm )2 ) ≤ 1/2k .
0≤t≤T
Alors,
+∞ +∞
(nk ) (nk+1 ) (n ) (n )
X X
E( sup |Xt − Xt |) ≤ E( sup |Xt k − Xt k+1 |2 )1/2 < +∞.
k=0 0≤t≤T k=0 0≤t≤T
Donc
+∞
(nk ) (nk+1 )
X
sup |Xt − Xt | < +∞, p.s.
k=0 0≤t≤T
(n )
On en déduit que, presque surement, Xt k converge uniformément sur [0, T ]
(n)
vers un processus Xt qui sera donc continu. Toute la suite Xt converge vers
Xt dans L2 . En particulier X est une martingale. Ceci montre (4) en utilisant
(5) et
hM, M it = Mt2 − M02 − 2Xt .
On a
pn−1
(n)
X
Mt2 − M02 − 2Xt = (Mtni+1 ∧t − Mtni ∧t )2
i=0
(n)
Donc la suite i 7→ Mt2n −M02 −2Xtn est croissante. Choisissons une subdivision
i i
(m)
qui se raffine, alors c’est encore vrai pour la suite i 7→ Mt2n − M02 − 2Xtn pour
i i
m ≥ n, donc par passage à la limite pour la suite
(m)
hM, M it(n) = lim Mt2ni − M02 − 2Xtn
i m→+∞ i
Théorème 5.4.3. — Une martingale locale arrêtée est une martingale locale.
Tn = inf{t ≥ 0; |Mt | = n}
Théorème 5.4.6. — Une martingale locale M telle que sup0≤s≤t |Ms | est
dans L1 pour tout t ≥ 0 est une martingale.
5.4. MARTINGALE LOCALE 61
En particulier
E(MT2n ∧t ) ≤ E(hM, M it )
ce qui assure que la suite MTn ∧t , n ∈ N, est uniformément intégrable. Donc
MtTn tend vers Mt dans L1 et Mt est une martingale comme limite dans L1
de martingales. Par Fatou
E(Mt2 ) ≤ lim inf E(MT2n ∧t ) ≤ lim inf E(hM, M iTn ∧t ) = E(hM, M it ) < +∞.
n→+∞ n→+∞
Donc Mt est de carré intégrable. Ce qui montre (ii). Dans ce cas, par Doob
sup0≤s≤t Ms2 est dans L1 . La martingale locale Mt2 − hM, M it est majorée en
valeur absolue pour t ∈ [0, T ] par hM, M iT + sup0≤t≤T Mt2 . C’est donc une
vraie martingale par le théorème 5.4.6.
Supposons maintenant (ii) donc que Mt est une martingale de carré
intégrable. Alors, par Doob,
E( sup Mt2 ) ≤ 4E(MT2 )
0≤t≤T
Preuve: Soit (τn ) une suite de temps d’arrêt bornant M . Par Doob, pour tout
T > 0,
E(sup(Mtτn )2 ) ≤ 4E((MTτn )2 ) = 4E(hM τn , M τn iT ) ≤ 4E(hM, M i∞ )
t≤T
On peut appliquer deux fois le théorème de convergence monotone, en faisant
tendre T puis n vers l’infini, pour obtenir
E(sup Mt2 ) ≤ 4E(hM, M i∞ ).
t≥0
5.5. PROCESSUS À VARIATION FINIE 63
Si cette quantité est finie, Mt est une martingale convergente p.s. par le
théorème de convergence 4.3.3. Par le théorème d’arrêt,
Si par contre M est seulement une martingale locale ceci peut être faux, comme
le montre le contre exemple de la fin de la section précédente Mt = 1/||Bt+1 ||
où B est le brownien de R3 (dans ce cas E(hM, M i∞ ) = +∞ car M n’est pas
une martingale).
Insistons, l’inégalité de Doob sous la forme
donc MT = 0.
On en déduit :
5.6. CROCHET DE DEUX MARTINGALES LOCALES 65
La somme du milieu ne comporte qu’un seul terme et tend donc vers 0, les
autres sont les mêmes si on remplace Ntni − Ntni−1 par Ntni ∧τ − Ntni−1 ∧τ . Le
résultat suivant serait aussi vrai pour des martingales (cf TD),
Le seul cas que l’on rencontrera souvent est celui où A est une primitive :
Rt
At = 0 Rs ds. Alors
Z t Z t
f (s) dA(s) = f (s)Rs ds.
0 0
Le lemme suivant sera considérablement renforcé au théorème 6.1.8.
Preuve: Par linéarité, il suffit de considérer le cas où Ht = Z1[a,b[ (t), avec
b ≤ T , où Z est Fa –mesurable, bornée. Par localisation, il suffit de considérer
le cas où M et N sont bornées. On a alors
E((H · M )T NT ) = E(Z(Mb − Ma )NT ),
or
E(Z(Mb − Ma )NT ) = E(ZMb Nb ) − E(ZMa Na )
= E(Z[(Mb Nb −hM, N ib )−(Ma Na −hM, N ia )])+E(ZhM, N ib )−E(ZhM, N ia )
= E(ZhM, N ib ) − E(ZhM, N ia )
car M N − hM, N i est une martingale, donc,
Z t
E((H · M )T NT ) = E(Z(hM, N ib − hM, N ia )) = E( Hs dhM, N is ).
0
Pour tout temps d’arrêt τ borné par T , en remplaçant M et N par M τ et N τ
on a encore Z τ
E((H · M )τ Nτ ) = E( Hs dhM, N is )
0
Rt
ce qui montre que (H · M )t Nt − 0 Hs dhM, N is est une martingale (par le
corollaire 4.3.8).
Le résultat suivant est déterministe.
)2
a2i )( b2i ) (Cauchy Schwarz) donc
P P P
Or ( ai bi ≤(
Z t n
X Z ti+1 ∧t Xn Z ti+1 ∧t
( Hs dhM, N is )2 ≤ [ Ht2i dhM, M is ][ dhN, N is ]
0 i=1 ti ∧t i=1 ti ∧t
c’est à dire
Z t Z t Z t
2 2
( Hs dhM, N is ) ≤ Hs dhM, M is dhN, N is .
0 0 0
En utilisant par exemple la proposition 6.1.7, on voit, en utilisant la densité
dans L2 (R, ddhM, M i) à fixé, que
Proposition 5.6.6 (Kunita Watanabe). — L’application qui à Ht =
Pn−1 Rt
Hs dhM, N is se prolonge par continuité à tout
i=0 Hti 1[ti ,ti+1 [ (t) associe 0 R
t
processus mesurable H tel que 0 Hs2 dhM, M iu < ∞ et si on note de la même
façon ce prolongement, il vérifie encore
Z t Z t
( Hs dhM, N is )2 ≤ hN, N it Hs2 dhM, M is .
0 0
CHAPITRE 6
INTÉGRALE STOCHASTIQUE
Mt2 − hM, M it
Définition 6.1.1. — On note HT2 l’espace des martingales dans L2 (Ω, (Ft ), P)
presque surement continues Mt , 0 ≤ t ≤ T , telles que M0 = 0, muni du produit
scalaire
(M, N )H2 = E(MT NT ) = E(hM, M iT ).
T
Preuve: Il faut montrer que HT2 est complet. Considérons une suite de Cauchy
(n)
M (n) . Alors MT est une suite de Cauchy dans L2 (Ω, F, P), qui est complet.
Il existe donc une variable aléatoire, que nous noterons MT , dans L2 (Ω, F, P)
telle que
(n)
E((MT − MT )2 ) → 0
70 CHAPITRE 6. INTÉGRALE STOCHASTIQUE
quand n → +∞. Posons, pour tout t ≤ T , Mt = E(MT |Ft ). Il est clair que
(Mt ) est une martingale, et par continuité dans L2 de l’espérance condition-
(n)
nelle, que Mt → Mt dans L2 . Par Doob
(n) (m)
E( sup (Ms(n) − Ms(m) )2 ) ≤ 4E((MT − MT )2 )
0≤t≤T
tend vers 0 quand n, m → +∞. On peut extraire une sous suite nk telle que
(n )
Mt k converge uniformément. La limite sera donc continue. Or cette limite
est nécessairement Mt . Ceci montre que Mt est une martingale continue. Donc
(n)
M ∈ HT2 et ||M (n) − M ||2H2 = E((MT − MT )2 ) → 0.
T
donc
Z T Z t
0 = E( Hr Kr dhM, M ir ) = E(Z Kr dhM, M ir ) = E(Z(Xt − Xs )).
0 s
Ceci entraı̂ne que X est une martingale. Comme elle est à variation finie, elle
est nulle par la Proposition 5.5.2. Donc, p.s.
Z t
Ks dhM, M is = 0
0
pour tout s > 0, ce qui entraı̂ne (par densité des combinaisons linéaires de
fonctions indicatrices 1[0,s] , ou classe monotone) que, pour presque tout ω ∈ Ω,
s 7→ Ks (ω) est nul dhM, M is (ω) presque partout, donc que K est nul dans
L2 (M )T .
P
Rappelons maintenant que lorsque H = Hti 1[ti ,ti+1 [ ∈ E et M est une
martingale, on a défini l’intégrale stochastique
X
(H · M )t = Hti (Mti+1 ∧t − Mti ∧t )
on voit que est une vraie martingale de HT2 et que H est dans L2 (M τn )T .
M τn
Considérons H · M τn . Pour m ≥ n,
(H · M τm )τn = H · (M τm )τn = H · M τm ∧τn = H · M τn .
On peut donc poser, sans ambiguı̈té,
(H · M )t = (H · M τn )t , pour tout n tel que τn ≥ t.
On utilisera aussi la notation
Z t
(H · M )t = Hs dMs .
0
Preuve: facile.
6.3. Semimartingales
On se fixe (Ω, F, (Ft ), P).
où X0 ∈ F0 , où φk et α sont des processus progressifs réels tels que, pour tout
RtP Rt
t > 0, 0 (φks )2 ds + 0 |αs | ds < +∞ p.s.
76 CHAPITRE 6. INTÉGRALE STOCHASTIQUE
Par exemple tout processus adapté continu par morceaux est dans L0 (X).
Pour U ∈ L0 (X), on définit :
Z t Z t Z t Z t
1
(U · X)t = Us dXs = Us dMs + Us dAs − Us dA2s .
0 0 0 0
et
n −1
pX Z t
sup | Utni (Xtni+1 ∧t − Xtni ∧t )2 − Us dhX, Xis | → 0
0≤t≤T i=0 0
en probabilité.
Ppn −1
Preuve: On pose Usn = i=0 Utni 1[tni ,tni+1 [ (s). On a
n −1
pX Z t
U (X
tn
i tn
i+1 ∧t
−X tn
i ∧t
)= Usn dXs .
i=0 0
78 CHAPITRE 6. INTÉGRALE STOCHASTIQUE
On a
n −1
pX n −1
pX
2
lim | (X tn
i
−X
tn
i−1
) − (Mtni − Mtni−1 )2 |
n→+∞
i=0 i=0
n −1
pX n −1
pX
≤ lim | (Atni − Atni−1 )2 + 2 (Mtni − Mtni−1 )(Atni − Atni−1 )|
i=0 i=0
n −1
pX
≤ ( sup |Atnj − Atnj−1 | + 2|Mtnj − Mtnj−1 |)| |Atni − Atni−1 | = 0
1≤j≤n i=0
en probabilité.
n −1
pX n −1
pX
(Xtni+1 − Xtni )2
= f 0 (Xtni )(Xtni+1 − Xtni ) + f 00 (θin )
2
i=0 i=0
où θin est entre Xtni+1 et Xtni . Le premier terme tend en probabilité vers
Rt 0
0 f (Xs ) dXs par la proposition 6.3.8. Pour le second, on a
n −1
pX
00 00
(Xtni+1 − Xtni )2
lim |f (θin ) − f (X )| tn
n→+∞ i
2
i=0
n −1
pX
00 00
(Xtni+1 − Xtni )2
≤ lim sup |f (θkn ) − f (X )| tn =0
n→+∞ k k
2
i=0
80 CHAPITRE 6. INTÉGRALE STOCHASTIQUE
Lemme 7.1.1. — Si τ est un temps d’arrêt tel que Wtτ ne s’annule jamais,
f (Wtτ ) est une martingale locale.
Preuve: Il suffit pour la partie directe d’appliquer la formule d’Ito aux fonc-
tions parties réelles et imaginaires de f (x) = ex et à la semimartingale
2
λM − λ2 hM, M i. Pour la réciproque on applique Ito à log(Nt ).
E(MT |Fs ) ≤ E(lim inf MTτn |Fs ) ≤ lim inf E(MTτn |Fs ) = lim inf Msτn = Ms
n→+∞ n→+∞ n→+∞
donc
E(MT ) ≤ E(Mt ) ≤ E(Ms ) ≤ E(M0 ) < +∞.
Si E(MT ) = E(M0 ) alors E(Mt ) = E(Ms ). Donc Ms − E(Mt |Fs ) ≥ 0 est
d’espérance nulle, donc nul p.s.
Preuve: Par le théorème précédent, pour tout λ réel, E(iλM ) est une martin-
λ2 T
gale locale bornée sur [0, T ] par e 2 donc une martingale : pour 0 < s < t,
autrement dit,
1 1
E[exp(iλMt − λ2 t)|Fs ] = exp(iλMs − λ2 s)
2 2
d’où
1
E[exp(iλ(Mt − Ms ))|Fs ] = exp(− λ2 (t − s))
2
et l’on conclut facilement.
7.2.3. Dubins-Schwarz. —
Preuve: Ne traitons que le cas plus simple où hM, M i est strictement croissant
et hM, M i∞ = ∞. Dans ce cas, pour chaque ω ∈ Ω, la fonction t ∈ R+ 7→
hM, M it (ω) ∈ R+ est bijective. Notons t ∈ R+ 7→ σt (ω) ∈ R+ l’inverse de
cette fonction (qui vérifie donc hM, M iσt = σhM,M it = t). Chaque σt est un
temps d’arrêt car
hM σn , M σn it ≤ hM, M iσn = n
et par Doob
Donc Mσt est une (Fσt )-martingale locale. On voit de la même façon que
est une martingale locale. On conclut donc avec le critère de Lévy que Bt =
Mσt est un mouvement brownien. On termine en remarquant que Mt =
BhM,M it .
et limt→+∞ Mt /hM, M it = 0.
b. Sur hM, M i∞ < +∞, Mt converge quand t → +∞.
par le vecteur (Bt1 − Bt0 , · · · , Btn − Btn−1 ). Ces deux probabilités ont la
même transformée de Fourier donc sont égales. Autrement dit pour tout
A ∈ σ(Btj − Btj−1 , j = 1, · · · , n), E(1A X) = 0. Par classe monotone, c’est
vrai pour tout A ∈ FT . Donc X = 0.
Notons H̃ l’ensemble des Z de L2 (FT ) admettant la représentation (16).
C’est un fermé car si Zn → Z dans L2 et
Z T
Zn = E(Zn ) + Ksn dBs
0
la suite Zn − E(Zn ) est de Cauchy donc K n est de Cauchy dans L2T (B), qui
est complet. Si Kn → K, alors
Z T
Z = E(Z) + Ks dBs .
0
Pn
Montrons que chaque v.a. U est dans H̃. Posons Gt = j=1 λj 1[tj−1 ,tj [ (t),
Rt Rt RT
i Gs dBs + 21 G2s ds − 12 G2s ds
Mt = e 0 0 et γ = e 0 . Remarquons que γ n’est pas
aléatoire et que dMt = iGt Mt dBt . On a
RT RT RT RT
Gs dBs + 12 G2s ds − 12 G2s ds
U = ei 0 Gs dBs
= ei 0 0 e 0 = γMt
donc Z T
U = γ[1 + iGt Mt dBt ]
0
7.3. THÉORÈMES DE REPRÉSENTATION 87
Z T
U = E(U ) + iγGt Mt dBt
0
ce qui montre que U est dans H̃. Finalement H̃ est fermé et contient un sous
ensemble dense dans L2T (B), il lui est donc égal. Ceci montre l’existence de
la représentation (16). Pour l’unicité, si (16) est vrai pour K et K 0 , alors
RT RT 0
0 Ks dBs = 0 Ks dBs donc
Z T Z T
0
E( 2
(Ks − Ks ) dBs ) = E(Ks − Ks0 )2 ds = 0
0 0
et Ks = Ks0 , p.s.
Corollaire 7.3.2. — Si Ft = σ(Bs , 0 ≤ s ≤ t), toutes les Ft -martingales
sont continues p.s.
Preuve: Soit M est une martingale arbitraire et T > 0. Considérons une suite
Zn de v.a. bornées qui tend vers MT dans L1 , on peut écrire
Z T
Zn = E(Zn ) + Ksn dBs
0
et alors, pour 0 ≤ t ≤ T ,
Z t
(n)
Mt = E(Xn |Ft ) = E(Zn ) + Ksn dBs
0
est continue. Par Doob
E(|Xn − Xm |)
P( sup |Ms(n) − Ms(m) | > ε) ≤
0≤s≤T ε
il en résulte qu’une sous suite de M (n) converge uniformeément sur [0, T ], p.s.,
vers M . Donc M est continue.
Corollaire 7.3.3 (Théorème de représentation L1 )
Si Z ∈ L1 (FT ), où FT = σ(Bs , 0 ≤ s ≤ T ), il existe un processus K dans
(0)
LT (B) tel que
Z T
(17) Z − E(Z) = Ks dBs .
0
Si m ≥ n
Z t
Mtτm = Ksm dBs
0
donc puisque τn ≤ τm ,
Z t∧τn Z t
Mtτn = Ksm dBs = Ksm 1{s≤τn } dBs
0 0
Par unicité
Ksm 1{s≤τn } = Ksn
On peut donc poser sans ambiguité, pour s ≤ τn
Ks = Ksn
7.4. Girsanov
Sur un espace probabilisable (Ω, F) on dit que deux probabilités P et Q
sont équivalentes si il existe une v.a. Z strictement positive telle que pour
tout A ∈ F Z
Q(A) = 1A Z dP.
Le crochet pouvant s’obtenir par une limite p.s. ne dépend que de la classe
d’équivalence des probabilités (puisqu’alors les ensembles négligeables sont les
mêmes).
a2 1 2 2 2
E(aM )T = eaMT − 2
hM,M iT
= (eMT − 2 hM,M iT )a ea(1−a)MT = E(M )aT X 1−a .
7.6. CAMERON-MARTIN 91
7.6. Cameron-Martin
Corollaire 7.6.1 (Cameron–Martin). — Soit B un brownien sur
RT RT
(Ω, (Ft ), P) et φs ∈ L0 (B). On suppose que ZT = exp[ 0 φs dBs − 12 0 φ2s ds]
Rt
vérifie E(ZT ) = 1. Alors, pour 0 ≤ t ≤ T , B̃t = Bt − 0 φs ds est un
mouvement brownien sur (Ω, (Ft )0≤t≤T , Q) où dQ = ZT dP sur FT .
Preuve: d’après le critère de Lévy, il suffit de voir que B̃t est une martingale
locale de processus croissant t ce qui est immédiat par le théorème.
EQUATIONS DIFFÉRENTIELLES
STOCHASTIQUES
8.1. Introduction
Notons Mp×d (R) l’ensemble des matrices p × d à coefficients dans R. Soient
σ : Rp → Mp×d (R) et b : Rp → Rp deux fonctions mesurables localement
bornées (i.e. bornées sur chaque boule) définies sur Rp . Pour x ∈ Rp , on
considère l’équation différentielle stochastique (E.D.S.)
(19) dXt = σ(Xt ) dBt + b(Xt ) dt, X0 = x ∈ R p ;
pour Bt ∈ Rd et Xt ∈ Rp . Etant donné un Ft -mouvement Brownien d dimen-
sionnel B sur (Ω, (Ft ), P), muni de sa filtration, on appelle solution (forte) de
cette équation un processus adapté continu Xt tel que, en coordonnées, pour
i = 1, · · · , p, pour tout t ≥ 0,
d Z t Z t
(i) (i)
X
Xt = X0 + σij (Xs ) dBs(j) + bi (Xs ) ds
j=1 0 0
Rt Rt
Preuve: On pose G(t) = a + b 0 g(s) ds et H(t) = a + b 0 G(s) ds. Alors
g(t) ≤ G(t) ≤ H(t)
Rt
et H(t) ≤ a + b 0 H(s) ds. Il suffit donc majorer H or H est dérivable et
(e−bt H(t))0 = −be−bt H(t) + e−bt H 0 (t) = −be−bt H(t) + be−bt G(t) ≤ 0
donc e−bt H(t) ≤ H(0) = a.
On a
Z t Z t
Xtn+1 − Xtn = (b(Xsn ) − b(Xsn−1 )) ds + (σ(Xsn ) − σ(Xsn−1 )) dBs
0 0
Posons
gn (u) = E(sup[Xtn+1 − Xtn ]2 ).
t≤u
Si 0 ≤ u ≤ T ,
Z t Z t
gn (u) ≤ 2E(sup[ (b(Xs ) − b(Xs )) ds] ) + 2E(sup[ (σ(Xsn ) − σ(Xsn−1 )) dBs ]2 )
n n−1 2
t≤u 0 t≤u 0
Z u Z u
≤ 2E(T (b(Xsn ) − b(Xsn−1 ))2 ds) + 8E([ (σ(Xsn ) − σ(Xsn−1 ))2 ds)
0 0
Z u
≤ 2(T + 4)K 2 E(|Xsn − Xsn−1 |2 ) ds
0
Z u Z u
2 n n−1 2
≤ 2(T + 4)K E(sup |Xs − Xs | ) dv = C gn−1 (v) dv
0 s≤v 0
C n tn−1
gn (t) ≤ g0 (t)
(n − 1)!
or
g0 (t) ≤ E(sup[Xs1 − x]2 ) ≤ E(sup(sb(x) + σ(x)Bs )2 )) ≤ Cte
s≤T s≤T
On a donc
∞
X ∞
X
E( sup[Xtn+1 − Xtn ]2 ) = gn (T ) < +∞.
n=0 t≤T n=0
8.3. Localisation
On dit que b et σ sont localement lipschitziennes si pour tout N > 0 il existe
0 > 0 tel que, si ||x|| ≤ N, ||y|| ≤ N ,
KN , KN
0
||b(x) − b(y)|| ≤ KN ||x − y||, ||σ(x) − σ(y)|| ≤ KN ||x − y||.
C’est le cas par exemple dans le cas fondamental où les fonctions b et σ sont
de classe C 1 , par le théorème des accroissements finis.
Lorsque ξ < +∞, lim supt→ξ− ||Xt || = +∞. Dans ce cas on dit qu’il y a
explosion.
Si, de plus il existe K > 0 tel que, pour tout x ∈ Rp ,
(n)
Xt = Xt
8.3. LOCALISATION 97
et par Gronwall,
2p
E(sup Xt∧τ ) ≤ γeβr .
t≤r
Comme les constantes ne dépendent pas de n (qui a défini τ ) on peut faire
tendre n vers l’infini pour obtenir que
E(sup Xt2p ) ≤ γeβr .
t≤r
En particulier Xt est fini p.s. donc ξ = +∞.
lorsque f est C 2 à support compact où a = σσ ∗ . On dit que X est une diffusion.
100 CHAPITRE 8. EQUATIONS DIFFÉRENTIELLES STOCHASTIQUES
∂f
Puisque f est à support compact , ∂x i
(Xs )σi,j (Xs ) est borné, donc l’intégrale
stochastique est une martingale, d’espérance nulle. On a alors
Z t Z t
Pt f (x) = f (x) + Ex ( Lf (Xs ) ds) = f (x) + Ps Lf (x) ds
0 0
Donc
t
Pt f (x) − f (x)
Z
1
Lf (x) = lim = lim Ps Lf (x) ds = P0 Lf (x) = Lf (x).
t→0 t t→0 t 0