Vous êtes sur la page 1sur 105

Université Pierre et Marie Curie, Paris 6

Master de Mathématiques 2015-2016

M2–Probabilités et Finance

Calcul Stochastique
des martingales continues

Philippe Bougerol

3 Décembre 2015

1
TABLE DES MATIÈRES

1. Introduction au calcul stochastique. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1


1.1. Modélisation. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
1.2. Bruit. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2
1.3. Un ”primer” sur l’intégrale d’Ito. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
1.4. Intégrale de Wiener et théorème de Cameron Martin . . . . . . . . . . . . . 5
1.5. Une formule d’Ito. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
1.6. Biliographie pour tout le cours. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11

2. Intégration de Lebesgue. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
2.1. Mesures. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
2.2. Intégration. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
2.3. Espaces L1 , L1 , L2 , L2 .. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
2.4. Convergence en probabilité. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
2.5. Uniforme intégrabilité. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
2.6. Divers. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
2.7. Tribu engendrée. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
2.8. Loi d’une variable aléatoire. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
2.9. Mesure produit. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
2.10. Processus. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
2.11. Indépendance. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28

3. Mouvement Brownien. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
3.1. Loi gaussienne. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
3.2. Vecteur gaussien. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
3.3. Famille gaussienne. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
3.4. Définition du mouvement brownien. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
3.5. Filtrations et Brownien. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
3.6. Propriété de Markov forte du mouvement brownien. . . . . . . . . . . . . . . 37
4 TABLE DES MATIÈRES

3.7. Existence et Simulation du Mouvement brownien. . . . . . . . . . . . . . . . . 40


3.8. Construction de P. Lévy du mouvement brownien . . . . . . . . . . . . . . . . 41
3.9. Appendice 1. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42
4. Martingales. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45
4.1. Martingales, définition. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45
4.2. Martingales à temps discret. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46
4.3. Martingale continue à droite. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48
4.4. Formulaire sur l’espérance conditionnelle. . . . . . . . . . . . . . . . . . . . . . . . . . 51
5. Crochet de martingales. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55
5.1. Cas discret. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55
5.2. Premiers pas, à temps continu. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 56
5.3. Crochet comme variation quadratique. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 57
5.4. Martingale locale. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 60
5.5. Processus à variation finie. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 63
5.6. Crochet de deux martingales locales. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 64
6. Intégrale stochastique. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 69
6.1. Cas d’une martingale de carré intégrable. . . . . . . . . . . . . . . . . . . . . . . . . . 69
6.2. Cas d’une martingale locale.. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 73
6.3. Semimartingales. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 75
6.4. Formule d’Itô. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 79
7. Applications de la formule d’Ito. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 81
7.1. Sur le Brownien multidimensionnel. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 81
7.2. Martingales exponentielles. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 83
7.3. Théorèmes de représentation. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 86
7.4. Girsanov. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 89
7.5. Critère de Novikov. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 90
7.6. Cameron-Martin. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 91
8. Equations différentielles stochastiques. . . . . . . . . . . . . . . . . . . . . . . . . . . 93
8.1. Introduction. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 93
8.2. Solutions fortes d’E.D.S.. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 94
8.3. Localisation. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 96
8.4. Propriété de Markov. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 98
8.5. Processus de Markov. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 99
8.6. EDS et EDP. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 100
CHAPITRE 1

INTRODUCTION AU CALCUL
STOCHASTIQUE

Introduction très très sommaire et volontairement caricaturale, sans toutes


les justifications mathématiques, pour l’instant.

1.1. Modélisation
On cherche à modéliser (construire des modèles) et faire des calculs sur des
phénomènes évoluant dans le temps qui dépendent du hasard.
La valeur Xt du phénomène à l’instant t, peut être observée à cet instant,
mais pas prédite avant. Entre les instants t et t+h une part de hasard s’ajoute.
On s’intéresse dans ce cours au cas où la fonction t 7→ Xt est continue. Pour
faire simple supposons que Xt est à valeurs dans R. On va avoir, pour t, h ≥ 0,

Xt+h = Xt + ∆ht

où ∆ht est aléatoire. L’idée fondamentale est qu’au moins dans un premier
temps, pour h très très (infinitésimalement...) petit, ∆ht peut s’écrire

∆ht = Ht εht

où εht est une variable aléatoire indépendante de tout ce qui précède et de loi
ne dépendant que de h (et donc pas de t) et où Ht est une fonction continue
de t, ”observable à l’instant t”, par exemple une fonction de Xt . On va voir
que c’est très opérationnel.

C’est assez naturel. Dans le cas déterministe (c’est à dire sans hasard), et
si Xt est dérivable, on a bien ce type de modélisation en prenant pour Ht la
dérivée à l’instant t et en prenant εht = h.
2 CHAPITRE 1. INTRODUCTION AU CALCUL STOCHASTIQUE

1.2. Bruit
Le fait d’avoir pris h ≥ 0 (infinitésimalement) petit entraı̂ne des contraintes.
Si on remplace h par h = h1 + h2 , avec h1 , h2 ≥ 0, on a
Xt+h = Xt + Ht εht
= Xt+h1 +h2 = Xt+h1 + Ht+h1 εht+h
2
1

= Xt + Ht εht 1 + Ht+h1 εht+h


2
1
.
Pour h1 très petit on a par continuité Ht+h1 ∼ Ht . On arrive donc à
εht ∼ εht 1 + εht+h
2
1
.
De proche en proche, pour h très petit,
h/n h/n h/n h/n
εht ∼ εt + εt+h/n + εt+2h/n + · · · + εt+(n−1)h/n .

Nous avons supposé que εht est une variable aléatoire indépendante de tout ce
qui précède et de loi ne dépendant pas de t. On voit donc que nécessairement,
εht est la somme de n variables aléatoires indépendantes et de même loi. Une
variante du théorème de la limite centrale (qui utilise que les εht sont petits ...)
nous conduit à dire qu’alors εht a une loi gaussienne. Notons mh sa moyenne
et σh2 sa variance. La relation
εht = εht 1 + εht+h
2
1

entraı̂ne que
mh1 +h2 = mh1 + mh2 , σh21 +h2 = σh21 + σh22
donc (par exemple si ces coefficients sont continus), il existe a ∈ R et σ ≥ 0
tels que mh = ah et σh2 = σ 2 h.
On voit donc que l’on peut écrire
εht = ah + σ(Bt+h − Bt )
où Bt est un mouvement brownien sur un espace de probabilité (Ω, A, P),
c’est à dire un processus (=famille de variables aléatoires) continu formé de
v.a. gaussiennes telles que Bt ∼ N (0, t) et Bt+h − Bt est indépendant de
Br , 0 ≤ r ≤ t.
On était parti de
Xt+h = Xt + Ht εht
donc on a, au moins infinitésimalement,
Xt+h = Xt + Ht (ah + σ(Bt+h − Bt )).
1.3. UN ”PRIMER” SUR L’INTÉGRALE D’ITO 3

Si σ = 0 cela s’interprète par l’équation différentielle


dXt
= aHt
dt
ce qui s’écrit aussi sous forme intégrale
Z t
Xt − X0 = aHs ds.
0
On va voir par contre que si σ > 0 alors Xt ne peut pas être dérivable. On
va donc plutot garder la forme intégrale en écrivant que
Z t Z t
Xt − X0 = aHs ds + σHs dBs
0 0
Rt
où il faut donner un sens à l’intégrale dite stochastique 0 σHs dBs . On verra
qu’il est aussi utile de généraliser en ne prenant pas le même facteur Hs dans
les deux termes, ce qui s’interprête en distinguant bien la partie aléatoire de
la partie déterministe de l’accroissement.

1.3. Un ”primer” sur l’intégrale d’Ito


Le mot ”primer” est anglais et signifie ”première couche” en métallurgie.
Pour un processus continu par morceaux Ht on veut donner un sens à
Z t
Hs dBs .
0
On va voir que c’est possible et naturel sous l’hypothèse que l’on a déja
évoquée, que Ht est observable à l’instant t. Il faudra donner un sens à ça (et
on dira adapté), mais disons que la propriété essentielle dont on va se servir
ici est que l’accroissement Bt+h − Bt , h ≥ 0 est indépendant de Hs , s ≤ t.
La définition simple ”naturelle” ressemble à l’intégrale de Riemann : si
n
X
Ht = Hti 1[ti ,ti+1 [ (t)
i=1
par analogie avec la formule qui se vérifie facilement
Z t X n
Hs ds = Hti (ti+1 ∧ t − ti ∧ t)
0 i=1
(où s ∧ t = min(s, t)), on pose
Z t n
X
Hs dBs = Hti (Bti+1 ∧t − Bti ∧t ).
0 i=1
4 CHAPITRE 1. INTRODUCTION AU CALCUL STOCHASTIQUE

Lemme 1.3.1. — Si Hs ∈ L2 pour tout s > 0, alors pour t > 0,


Z t
E( Hs dBs ) = 0,
0
Z t Z t
E(( Hs dBs ) ) = E( Hs2 ds).
2
0 0

Preuve: Montrons la seconde égalité :


n
Rt X
E(( 0 Hs dBs )2 ) = E(( Hti (Bti+1 ∧t − Bti ∧t ))2 )
i=1
n
X
= E(Hti Htj (Bti+1 ∧t − Bti ∧t )(Btj+1 ∧t − Btj ∧t ))
i,j=1
n
X
= E(Hti 2 (Bti+1 ∧t − Bti ∧t )2 ) +
i=1
X
+2 E(Hti Htj (Bti+1 ∧t − Bti ∧t )(Btj+1 ∧t − Btj ∧t ))
i<j
n
X
= E(Hti 2 )E((Bti+1 ∧t − Bti ∧t )2 ) +
i=1
X
+2 E(Hti Htj (Bti+1 ∧t − Bti ∧t ))E(Btj+1 ∧t − Btj ∧t )
i<j

en utilisant l’indépendance. Puisque E((Bti+1 ∧t − Bti ∧t )2 ) = ti+1 − ti et


E((Btj+1 ∧t − Btj ∧t )) = 0 on obtient que
Z t Xn Z t
2 2
E(( Hs dBs ) ) = E(Hti )(ti+1 ∧ t − ti ∧ t) = E(Hs 2 ) ds. 
0 i=1 0

On veut prolonger cette construction à d’autres processus H. On le fait de


(n)
la façon suivante : si Ht , t ≥ 0, est une suite de processus du type précédent
pour laquelle il y a un processus H tel que H (n) → H au sens où pour tout
t ≥ 0,
Z t
E(Hs(n) − Hs )2 ds → 0
0
Rt (n)
alors, la suite 0 Hs dBs est une suite de Cauchy dans l’espace L2 (Ω, F, P)
puisque
Z t Z t
(n)
E([ Hs dBs − Hs(m) dBs ]2 )
0 0
1.4. INTÉGRALE DE WIENER ET THÉORÈME DE CAMERON MARTIN 5

Z t
= E([ (Hs(n) − Hs(m) ) dBs ]2 )
0
Z t
= E( (Hs(n) − Hs(m) )2 ds)
0
Z t
= E((Hs(n) − Hs(m) )2 ) ds
0
par le lemme. L’espace 2
L (Ω, F, P) étant complet (Hilbert), cette suite
R t (n)
0 Hs dBs converge. On appelle
Z t
Hs dBs
0
sa limite. Elle vérifie, par passage à la limite, comme au dessus
Proposition 1.3.2. —
Z t
E( Hs dBs ) = 0,
0
Z t Z t
E(( Hs dBs )2 ) = E( Hs2 ds).
0 0

Supposons que Ht , t ≥ 0, est un processus continu borné tel que Ht est


σ(Bs , 0 ≤ s ≤ t) mesurable. Alors la suite de processus
n−1
(n)
X
Ht = H kT 1[ kT , (k+1)T [ (t)
n n n
k=0
approxime bien H au sens précédent sur l’intervalle [0, T ] (utiliser le théorème
de convergence dominée). On peut donc lui appliquer la construction
précédente. En fait on verra qu’au lieu d’être borné, il suffit que
Z T
E( Hs2 ds) < ∞.
0

1.4. Intégrale de Wiener et théorème de Cameron Martin


Considérons le cas très particulier d’un processus Ht (ω), t ≥ 0, ω ∈ Ω,
qui ne dépend pas de ω. Autrement dit il existe une fonction f : R+ → R
telle que Ht (ω) = f (t) pour tout t ≥ 0, ω ∈ Ω. Dans ce cas l’intégrale
stochastique a été introduite dès les années 30 par Wiener et porte parfois
le nom d’intégrale de Wiener. Si f ∈ L2 ([0, T ], m), où m est la mesure de
Lebesgue, il existe une suite de fonctions fn constantes par morceaux, donc
de la forme fn = ki=1
P n n
ai 1[tni ,tni+1 [ tels que fn → f dans L2 ([0, T ], m). Dans
6 CHAPITRE 1. INTRODUCTION AU CALCUL STOCHASTIQUE

Rt
ce cas, par le paragraphe précédent, 0 f (s)dBs est la limite dans L2 (Ω) de
Rt
0 fn (s)dBs . Remarquons que
Z t kn
X
fn (s)dBs = ani (Bt∧tni+1 − Bt∧tni )
0 i=1
Rt
a une loi gaussienne d’espérance nulle et de variance 0 fn (s)2 ds, donc pour
tout λ ∈ R
Z t
1 2 t
Z
E(exp (iλ fn (s)dBs )) = exp (− λ fn (s)2 ds)
0 2 0
Rt 2
Rt 2
et quand n → +∞, puisque 0 fn (s) ds → 0 f (s) ds,
Z t
1 2 t
Z
E(exp (iλ f (s)dBs )) = exp (− λ f (s)2 ds).
0 2 0

On a donc montré,
Rt
Proposition 1.4.1. — Si f ∈ L2 ([0, T ], m), 0 f (s)dBs a une loi gaussienne
Rt
centrée de variance 0 f (s)2 ds

Pour une fonction f ∈ L2 ([0, T ], m) posons


Z T
1 T
Z
Z = exp[ f (s)dBs − f (s)2 ds]
0 2 0

et sur l’espace de probabilité (Ω, A, P) définissons une probabilité Q par la


formule, pour tout A ∈ A
Z
Q(A) = 1A ZdP.

Si on note EQ l’espérance par rapport à Q et E l’espérance par rapport à P,


on a pour toute fonction mesurable positive X
Z Z
EQ (X) = XdQ = XZdP = E(XZ)

Théorème 1.4.2 (Cameron Martin). — Sur l’espace de probabilité


(Ω, A, Q),
Z t
Q
Bt = Bt − f (s)ds
0
est, pour 0 ≤ t ≤ T , un mouvement brownien.
1.5. UNE FORMULE D’ITO 7

Preuve: Soit g ∈ L2 ([0, T ], m). Calculons


Z T
EQ (exp[ g(t)dBtQ ]).
0
On a Z T Z T Z T
g(t)dBtQ = g(t)dBt − g(t)f (t)dt
0 0 0
donc Z T Z T
EQ (exp[ g(t)dBtQ ])
= E(exp[ g(t)dBtQ ]Z)
0 0
Z T Z T Z T
1 T
Z
= E(exp[ g(t)dBt − g(t)f (t)dt + f (t)dBt − f (t)2 dt])
0 0 0 2 0
Z T Z T
1
= exp[− (g(t)f (t) + f (t)2 )dt]E(exp[ [g(t) + f (t)]dBt ]).
0 2 0
RT
On sait par la proposition précédente que 0 [g(t) + f (t)]dBt a une loi normale
RT
centrée de variance 0 [g(t) + f (t)]2 dt donc
Z T
1 T
Z
E(exp[ [g(t) + f (t)]dBt ]) = exp[ [g(t) + f (t)]2 dt]
0 2 0
On obtient donc
Z T Z T
1 T
Z
1
EQ (exp[ g(t)dBtQ ]) = exp[− (g(t)f (t)+ f (t)2 )dt] exp[ [g(t)+f (t)]2 dt]
0 0 2 2 0
Z T
1
= exp[ g(t)2 dt]
2 0
Pn
Le théorème s’en déduit en prenant g(t) = k=1 λk 1[0,tk ] (t) on voit que le
Q Q
vecteur (Bt1 , · · · , Btn ) a sous Q la même transformée de Fourier, donc la même
loi que (Bt1 , · · · , Btn ) et est donc un mouvement brownien.

1.5. Une formule d’Ito


Commençons par un résultat fondamental, qui est tout à fait particulier au
mouvement brownien.
Théorème 1.5.1. — Si B est un mouvement brownien si tn0 = 0 < tn1 <
· · · < tnn−1 < tnn = t est une suite de subdivisions de [0, t] dont le pas
sup0≤k≤n−1 |tnk+1 − tnk | tend vers 0, alors, dans L2 ,
n−1
X
lim (Btnk+1 − Btnk )2 = t.
n→∞
k=0
8 CHAPITRE 1. INTRODUCTION AU CALCUL STOCHASTIQUE

En fait montrons le résultat plus général suivant :

Proposition 1.5.2. — Sous les memes hypothèses, si f est une fonction


mesurable bornée, alors dans L2 ,
n−1
X
lim f (Btnk )[(Btnk+1 − Btnk )2 − (tnk+1 − tnk )] = 0.
n→∞
k=0

Preuve: !2
n−1
X
E( f (Btnk )[(Btnk+1 − Btnk )2 − (tnk+1 − tnk )] )
k=0
n−1
X n−1
X
= E( f (Btnk )f (Btnr )[(Btnk+1 −Btnk )2 −(tnk+1 −tnk )][(Btnr+1 −Btnr )2 −(tnr+1 −tnr )])
k=0 r=0
n−1
X
= E(f (Btnk )2 [(Btnk+1 − Btnk )2 − (tnk+1 − tnk )]2 )
k=0
X
+2 Ef (Btnk )f (Btnr )[(Btnk+1 −Btnk )2 −(tnk+1 −tnk )][(Btnr+1 −Btnr )2 −(tnr+1 −tnr )])
0≤k<r<n
On utilise l’indépendance des accroissements (espérance du produit est égal
au produit des espérances) :
n−1
X
= E(f (Btnk )2 )E[((Btnk+1 − Btnk )2 − (tnk+1 − tnk ))2 )
k=0
X
+2 E[f (Btnk )f (Btnr )((Btnk+1 −Btnk )2 −(tnk+1 −tnk ))]E[(Btnr+1 −Btnr )2 −(tnr+1 −tnr )].
0≤k<r<n

Or, puisque Bt+h − Bt a la même loi que hB1 ,
E[(Btnr+1 − Btnr )2 − (tnr+1 − tnr )] = 0
q
E[((Btnk+1 − Btnk )2 − (tnk+1 − tnk ))2 ) = E[(( tnk+1 − tnk )B1 )2 − (tnk+1 − tnk ))2 )

= (tnk+1 − tnk )2 E[(B12 − 1)2 ].


Donc !2
n−1
X
2
E( f (Btnk )[(Btnk+1 − Btnk ) − (tnk+1 − tnk )] )
k=0
n−1
X
= (tnk+1 − tnk )2 E(f (Btnk )2 )E[(B12 − 1)2 ].
k=0
1.5. UNE FORMULE D’ITO 9

Or ceci se majore par, si C = E[(B12 − 1)2 ] max f 2 ,


n−1
X n−1
X
C (tnk+1 − tnk )2 ≤C sup |tnk+1 − tnk | (tnk+1 − tnk )
k=0 0≤k≤n−1 k=0
≤ Ct sup |tnk+1 − tnk |
0≤k≤n−1
qui tend vers 0.
Théorème 1.5.3 (Une formule d’Ito). — Si f : R → R est à dérivée
seconde continue,
Z t
1 t 00
Z
0
f (Bt ) = f (B0 ) + f (Bs ) dBs + f (Bs ) ds.
0 2 0

Preuve: On peut se ramener au cas f est à support compact. On va utiliser


la formule de Taylor (Taylor-Lagrange) : pour tout x, y il existe z entre x et y
tels que
1
f (y) − f (x) = f 0 (x)(y − x) + f 00 (z)(y − x)2 .
2
On prend une suite de subdivisions de [0, t], par exemple tnk = kt n.
n−1
X
f (Bt ) − f (B0 ) = (f (Btnk+1 ) − f (Btnk ))
k=0
n−1 n−1
X
0 1 X 00 k
= f (B )(B
tn tn −B )+ tn f (θn )(Btnk+1 − Btnk )2
k k+1
2k
k=0 k=0
où θnk
est entre B et Btn
k
. tn
k+1
Comme ça ne dépend pas de n c’est égal à sa limite quand n → +∞.
Prenons la limite de chacun des deux termes de la somme pour une sous suite
(en utilisant que la convergence L2 entraı̂ne la convergence p.s. pour une sous
suite). Pour le premier, on remarque d’abord que
n−1
X Z t
0
f (Btnk )(Btnk+1 − Btnk ) = Zsn dBs
k=0 0

où
n−1
X
Ztn = f 0 (Btnk )1[tnk ,tnk+1 ] (t).
k=0
Donc,
n−1
X Z t
E([ f 0 (Btnk )(Btnk+1 − Btnk ) − f 0 (Bs ) dBs ]2 )
k=0 0
10 CHAPITRE 1. INTRODUCTION AU CALCUL STOCHASTIQUE

Z t
= E([ (Zsn − f 0 (Bs )) dBs ]2 )
0
Z t
= E( (Zsn − f 0 (Bs ))2 ds)
0
qui tend vers 0 par le théorème de convergence dominée usuel. Donc, dans L2 ,
n−1
X Z t
f 0 (Btnk )(Btnk+1 − Btnk ) → f 0 (Bs ) dBs .
k=0 0

On regarde maintenant le dernier terme :


n−1
X
[f 00 (θkn ) − f 00 (Btnk )](Btnk+1 − Btnk )2
k=0
n−1
n
X
00 00
≤ sup |f (θrn ) − f (Btnr )| (Btnk+1 − B tk )2
1≤r≤n−1
k=0
tend vers 0, p.s. suivant une sous suite car f 00 est uniformément continue. Par
la proposition, dans L2 ,
n−1
X n−1
X
lim f 00 (Btnk )(Btnk+1 − Btnk )2 = lim f 00 (Btnk )(tnk+1 − tnk )
n→∞ n→∞
k=0 k=0
Z t
= f 00 (Bs ) ds
0
puisque f 00 est continue (approximation de l’intégrale de Riemann).

On laisse en exercice la généralisation suivante très utile, en utilisant la


formule de Taylor pour une fonction de deux variables.
Théorème 1.5.4 (Une formule d’Ito). — Si f : R+ × R → R, (t, x) 7→
f (t, x) est à dérivées secondes continues,
Z t Z t
1 t 00
Z
∂f ∂f
f (t, Bt ) = f (0, 0) + (s, Bs ) ds (s, Bs ) dBs + f (s, Bs ) ds
0 ∂t 0 ∂x 2 0

1.5.1. Deux calculs. —


Z t
Bt2 = 2 Bs dBs + t.
0
λ2 t2
Si Zt = exp(λBt − 2 ) alors
Z t
Zt = 1 + λZs dBs .
0
1.6. BILIOGRAPHIE POUR TOUT LE COURS 11

1.6. Biliographie pour tout le cours


R. Bass : Stochastic Processes, Cambridge University Press, 2011.
F. Baudoin : Diffusion Processes and Stochastic Calculus, EMS Textbooks
in mathematics, 2014.
R. Durrett : Stochastic calculus, A practical Introduction, 1996. CRC Press.
I. Karatzas, S. Shreve : Brownian motion and stochastic calculus, Second
Edition 1991. Springer.
F.C Klebaner : Introduction to Stochastic Calculus with Applications, Second
Edition 2005. Imperial College Press.
J.-F. Le Gall : Mouvement brownien, martingales et calcul stochas-
tiqueSpringer, Collection : Mathématiques et Applications, Vol. 71, 2013.
(Recommandé)
B. Oksendal : Stochastic differential equations, 6th edition, 2010. Springer.
(Beaucoup d’applications)
Ph. Protter : Stochastic Integration and Differential Equations, Second Edi-
tion Version 2.1, 2005. Springer (traite aussi le cas discontinu).
D. Revuz, M. Yor : Continuous martingales and Brownian motion, 2004.
Springer.
CHAPITRE 2

INTÉGRATION DE LEBESGUE

Le but de ce chapitre est de développer rapidement ce que l’on appelle la


théorie abstraite de l’intégration de Lebesgue.

2.1. Mesures
Un espace mesurable est la donnée (Ω, F) d’un ensemble Ω et d’une tribu
F sur cet ensemble :

Définition 2.1.1. — Une classe de parties F d’un ensemble Ω est une tribu
si
(i) elle est stable par complémentaire,
(ii) elle est stable par réunion dénombrable,
(iii) elle contient Ω.

Pour comparaison une topologie est une classe d’ouverts : c’est à dire, par
définition, une classe de parties de Ω stable par union quelconque, intersection
finie, contenant Ω et ∅

Définition 2.1.2. — Une mesure sur un espace mesurable (Ω, F) est une
application m : F → R+ ∪ {+∞} telle que
(i) m(∅) = 0.
(ii) m(A ∪ B) = m(A) + m(B) si A ∈ F, B ∈ F sont disjoints.
(iii) si (An ) est une suite croissante d’éléments de F, m(An ) → m(∪An ).

On dit que m est σ-finie si on peut écrire Ω comme une réunion dénombrable
d’ensembles de mesure finie ; m est une probabilité si m(Ω) = 1.
14 CHAPITRE 2. INTÉGRATION DE LEBESGUE

Exemple : Lorsque Ω est dénombrable (c’est à dire fini ou en bijection avec


N) , F = ensemble de toutes les parties de Ω est une tribu et m(A) = Card(A)
définit une mesure σ-finie (théorie des séries).
Il est difficile de décrire aussi explicitement des exemples très différents de
celui ci, comme par exemple la mesure de Lebesgue que nous verrons.

Définition 2.1.3. — On dit qu’une propriété est vraie p.p. (presque partout)
ou p.s. (presque surement) si elle est vraie en dehors d’un ensemble de mesure
nulle.

2.2. Intégration
Soit (Ω, F, m) un espace mesurable muni d’une mesure. Une fonction f :
Ω → R est étagée si on peut l’écrire sous la forme
n
X
f= rk 1Ak
k=1

où rk ∈ R, Ak ∈ F, k = 1, ..n. On définit l’intégrale de la fonction étagée f

positive par
Z n
X
f dm = rk m(Ak ).
k=1
(avec la convention ici que 0 · ∞ = 0). On vérifie que ça ne dépend pas de la
décomposition choisie et que, si f, g sont étagées positives et a, b ∈ R+ ,
Z Z Z
(af + bg) dm = a f dm + b g dm.

Pour l’instant, appelons fonction mesurable réelle une fonction f : Ω → R̄


telle que pour tout a ∈ R, {f > a} ∈ F. (On utilisera les notations {f > a} =
{ω ∈ Ω; f (ω) > a} et R̄ = R ∪ {+∞} ∪ {−∞}).

Lemme 2.2.1. — Si (fn ) est une suite de fonctions mesurables, alors


supn∈N fn est mesurable.

Preuve: En effet il suffit d’écrire que

{sup fn > a} = ∪n∈N {fn > a}.


n∈N
2.2. INTÉGRATION 15

Si (fn ) est une suite de fonctions mesurables, pour la même raison, inf n∈N fn
et donc
lim sup fn := lim sup fk = inf sup fk
n→+∞ k≥n n∈N k≥n

lim inf fn := lim inf fk = sup inf fk


n→+∞ k≥n n∈N k≥n
sont mesurables. En particulier une limite de fonctions mesurables est me-
surable (rappelons qu’une suite fn converge dans R̄ ssi f := lim sup fn =
lim inf fn et qu’alors f est la limite).
Si f : Ω → R est mesurable positive on pose
Z Z
f dm = sup g dm

où le sup est pris sur l’ensemble des fonctions étagées g qui vérifient 0 ≤ g ≤ f .
Si f est mesurable on dit que f est intégrable si f + := max(f, 0) et f − :=
− min(f, 0) sont d’intégrale finie et on pose alors
Z Z Z
f dm = f dm − f − dm.
+

On voit que f est intégrable ssi |f | l’est puisque |f | = f + + f − et on a


Z Z
| f dm| ≤ |f | dm

Lemme 2.2.2. — Une fonction intégrable est finie presque partout.

Preuve: Soit A = {|f | = +∞}. Si r > 0 et g = r1A , on a g ≤ |f | donc


Z Z
rm(A) = g dm ≤ |f |dm

ce qui n’est possible pour r > 0 que si m(A) = 0. 


Si f et g sont mesurables finies, −f et f + g sont aussi mesurables car
1
{−f > a}c = {f ≥ −a} = ∩n∈N {f > −a − }
n
et
{f + g > a} = ∪r∈Q {f > r, g > a − r}.
On en déduit

Proposition 2.2.3. — L’ensemble des fonctions intégrables est un espace


vectoriel.
16 CHAPITRE 2. INTÉGRATION DE LEBESGUE

Théorème 2.2.4 (de convergence monotone, ou de Beppo Levi)


Si fn est une suite croissante de fonctions mesurables positives,
Z Z
lim fn dm = lim fn dm.
n→+∞ n→+∞

Preuve: La fonction f := lim fn est mesurable. Puisque fn ≤ fn+1 ≤ f , il est


facile de voir que
Z Z Z
fn dm ≤ fn+1 dm ≤ f dm.
R R
Donc lim fn dm ≤ f dm. Pour montrer l’inégalité inverse, prenons une
fonction étagée g telle que 0 ≤ g ≤ f et un réel c tel que 0 < c < 1. Chaque
ensemble
En = {fn ≥ cg}
est mesurable, la suite En est croissante, de réunion Ω. On a
Z Z Z
fn dm ≥ fn 1En dm ≥ cg1En dm.
R
Comme g est étagée, on vérifie que le terme de droite tend vers c g dm. On
a donc Z Z
lim fn dm ≥ c g dm
d’où, par définition, Z Z
lim fn dm ≥ c f dm.
Il suffit alors de faire tendre c vers 1. 
Corollaire 2.2.5. — Si (fn )est une suite de fonctions mesurables positives
+∞ Z
X Z X+∞
fn dm = fn dm.
n=0 n=0

Lemme 2.2.6 (de Fatou). — Soit (fn ) une suite de fonctions mesurables
positives, Z Z
lim inf fn dm ≤ lim inf fn dm.

Théorème 2.2.7 (de convergence dominée). — Soit (fn ) une suite de


fonctions mesurables vérifiant |fn (x)| ≤ g(x) pour tout x de E, où g est une
fonction intégrable, alors si fn converge
Z Z
lim fn dm = lim fn dm.
n→+∞ n→+∞
2.3. ESPACES L1 , L1 , L2 , L2 . 17

Preuve: En remplacant fn par fn − lim fk on se ramène au cas où fn → 0.


Dans ce cas, par Fatou appliqué à g − |fn | ≥ 0,
Z Z Z Z Z
g dm ≤ lim inf g−|fn | dm ≤ lim inf g−|fn | dm = g dm−lim sup |fn | dm
R R
Donc lim sup |fn | dm = 0 ce qui assure que lim |fn | dm = 0. Donc
Z Z
| lim fn dm| ≤ lim |fn | dm = 0.

2.3. Espaces L1 , L1 , L2 , L2 .
On note L1 l’ensemble des fonctions intégrables, L2 l’ensemble des fonctions
de carré intégrable, i.e. des fonctions mesurables f : Ω → R̄ telles que
Z
|f |2 dm < +∞,

et L∞ l’ensemble des fonctions mesurables f pour lesquelles il existe une


constante M ≥ 0 telle que |f | ≤ M , p.p. On pose
Z
kf k1 = |f | dm
Z
kf k2 = ( f 2 dm)1/2 .

et kf k∞ = l’inf des M tels que |f | ≤ M , p.p. On définit ainsi des semi-normes


c’est à dire que la relation suivante est vraie pour p = 1, 2, ∞ :
kf + gkp ≤ kf kp + kgkp
Ceci est immédiat pour p = 1 et résulte pour p = 2 du lemme essentiel suivant :

Lemme 2.3.1 (inégalité de Cauchy Schwarz). — Pour f, g mesurables


Z Z Z
( f g dm) ≤ f dm g 2 dm.
2 2

Preuve: Pour tout λ ∈ R, le trinome en λ du second degré


Z Z Z Z
λ2 [ f 2 dm] + 2λ[ f g dm] + g 2 dm = (λf + g)2 dm

est positif, ce qui n’est possible que si son discriminant


Z Z Z
[ f g dm] − [ f dm][ g 2 dm]
2 2

est négatif. 
18 CHAPITRE 2. INTÉGRATION DE LEBESGUE

On dit qu’une suite de fonctions mesurables fn converge vers f dans Lp , si

lim kfn − f kp = 0.
n→+∞

Théorème 2.3.2. — Si une suite fn converge vers f dans Lp il existe une


sous suite d’entiers nk telle que, pour presque tout ω ∈ Ω

fnk (ω) → f (ω).

Preuve: Ecrivons la preuve pour p = 1. Par hypothèse pour ε = 1/2k il existe


nk tel que
1
kfnk − f k1 ≤ k .
2
Alors, par Beppo Levi,
Z X ∞ ∞ Z ∞ ∞
X X X 1
|fnk − f | dm = |fnk − f | dm = kfnk − f k ≤ < +∞
2k
k=0 k=0 k=0 k=0

Donc (cf Lemme 2.2.2) la série ∞


P
k=0 |fnk − f | converge p.p. ce qui entraı̂ne
que son terme général fnk − f tend vers 0, p.p. 

Définition 2.3.3. — La suite (fn ) est de Cauchy dans Lp si pour tout ε > 0
il existe N > 0 tel que pour m, n ≥ N

kfn − fm k ≤ ε.

Théorème 2.3.4. — Soit (fn ) une suite de Cauchy dans Lp . Alors il existe
f ∈ Lp tel que fn → f dans Lp .

Preuve: Ecrivons la preuve pour p = 1. Puisque la suite (fn ) est de Cauchy,


pour tout k ∈ N, il existe Nk tel que, pour n, m ≥ Nk ,

kfn − fm k ≤ 2−k .

Si on prend nk = max(N0 , · · · , Nk ) on voit que

kfnk+1 − fnk k ≤ 2−k .

Donc, un peu comme dans la preuve précédente,


Z X∞ ∞ ∞
X X 1
|fnk+1 − fnk | dm = kfnk+1 − fnk k ≤ < +∞.
2k
k=1 k=0 k=0
2.3. ESPACES L1 , L1 , L2 , L2 . 19

Donc (cf Lemme 2.2.2) ∞


P
P∞ k=0 |fnk − fnk+1 | est fini presque partout, et la série
k=0 (fnk − fnk+1 ) est donc convergente (car absolument convergente). On a
p−1
X
fnp = fn0 + (fnk+1 − fnk )
k=0
et on pose

X
f = fn0 + (fnk+1 − fnk ).
k=0
Pour tout n ≥ Nk , p ≥ k, kfn − fnp k ≤ 2−k donc, en appliquant le lemme de
Fatou, Z Z
|fn − f | dm ≤ lim inf |fn − fnp | dm ≤ 2−k
p→+∞
d’où kfn − f k tend vers 0. 

Par rapport à la topologie il y a une petite difficulté car


R
Lemme 2.3.5. — Si f est mesurable |f | dm = 0 si et seulement si f = 0
p.p.

Cela résulte immédiatement de la très importante inégalité suivante

Lemme 2.3.6 (Inégalité de Markov). — Si f est une fonction mesurable


positive et T > 0, R
f dm
m(f ≥ T ) ≤ .
T
Donc kf k = 0, n’entraı̂ne pas que f est nulle (partout). Donc k · k n’est pas
une norme, mais seulement une semi-norme, et d(f, g) = kf − gk pas vraiment
une distance. Ce n’est pas génant (et si on veut une norme on remplace Lp
par l’ensemble Lp des classes de fonctions égales presque partout).
Un role particulier est joué par L2 (ou L2 ) car il a une structure géométrique
plus riche que les autres. On peut y définir les angles et surtout l’orthogonalité,
à partir du produit scalaire : pour f, g ∈ L2
Z
hf, gi = f g dm.

Un espace vectoriel muni d’un produit scalaire dans lequel les suites de Cauchy
convergent est appelé un espace de Hilbert. Donc L2 (ou plutot L2 ) est un
espace de Hilbert. Une propriété fondamentale des espaces de Hilbert est le
théorème suivant.
20 CHAPITRE 2. INTÉGRATION DE LEBESGUE

Théorème 2.3.7 (Théorème de projection). — Soit V un sous espace


vectoriel fermé dans un espace de Hilbert H. Pour tout x ∈ H il existe un
unique élément v ∈ V appelé la projection de x sur V caractérisé par
— v∈V
— hx − v, wi = 0, pour tous w ∈ V .

Corollaire 2.3.8. — Soit W un sous espace vectoriel d’un Hilbert H. Si le


seul vecteur orthogonal à W est 0, alors W est dense dans H

Preuve: Appliquer le théorème à l’adhérence de W .

2.4. Convergence en probabilité


Définition 2.4.1. — Une suite de v.a. Xn tend vers X en probabilité si pour
tout ε > 0,
P(|Xn − X] ≥ ε) → 0

quand n → +∞.

Lemme 2.4.2. — Xn → 0 en probabilité si et seulement si min(|Xn |, 1) → 0


dans L1

Preuve: Si Xn → 0 en probabilité, pour tout ε > 0,

E(min(|Xn |, 1)) = E(min(|Xn |, 1)1{|Xn |≥ε} ) + E(min(|Xn |, 1)1{|Xn |<ε} )

≤ P(|Xn | ≥ ε) + ε ≤ 2ε

pour n assez grand. Réciproquement, par l’inégalité de Markov, pour 0 ≤ ε ≤ 1


min(1, |Xn |)
P(|Xn | ≥ ε) = P(min(1, |Xn |) ≥ ε) ≤
ε
qui tend vers 0.
On déduit donc du Théorème 2.3.2 que

Proposition 2.4.3. — Si Xn → 0 p.s., alors Xn → 0 en probabilité.. Si


Xn → X en probabilité il existe une sous suite nk telle que Xnk → X presque
surement.
2.5. UNIFORME INTÉGRABILITÉ 21

2.5. Uniforme intégrabilité


Limitons nous au cas des probabilités et utilisons les notations probabilistes :
on note P une probabilité sur (Ω, F). Une variable aléatoire réelle X : Ω → R
est la même chose qu’une fonction mesurable et on pose
Z
E(X) = X dP.

Définition 2.5.1. — Une famille L de v.a. est uniformément intégrable si


Z
sup |X| dP → 0, quand R → +∞.
X∈L {|X|>R}

Lemme 2.5.2. — Si {Xi , i ∈ I} et {Yi , i ∈ I} sont uniformément intégrables,


alors {Xi + Yi , i ∈ I} est uniformément intégrable.
Preuve: On a
E(|Xi |1{|Xi +Yi |≥M } ) = E(|Xi |1{|Xi +Yi |≥M } 1{|Xi |≥M/2 })+E(|Xi |1{|Xi +Yi |≥M } 1{|Xi |<M/2} )
≤ E(|Xi |1{|Xi |≥M/2} ) + E(|Xi |1{|Xi +Yi |≥M } 1{|Xi |<M/2 })
Le sup du premier terme tend vers 0 car (Xi ) est uniformément intégrable.
Pour le second on remarque qu’il est majoré par
E(|Yi |1|Yi |≥M/2 )
qui tend aussi vers 0.
Théorème 2.5.3. — Soit {Xn , n ∈ N} une suite uniformément intégrable de
v.a. qui converge en probabilité (donc a fortiori si elle converge p.s.) vers X.
Alors Xn → X dans L1 et en particulier, E(Xn ) → E(X).
Preuve: La suite Yn = |Xn − X| est aussi uniformément intégrable par le
lemme.. Ensuite
E(Yn ) = E(Yn 1{Yn <R} ) + E(Yn 1{Yn ≥R} )
Pour tout ε > 0, pour R assez grand, le second terme est inférieur à ε/2 par
unif. int. Un tel R étant choisi, le premier terme est inférieur à ε/2 pour n
assez grand, par convergence en probabilité. 
Proposition 2.5.4. — Une suite de v.a. Xn telle que supn E(Xn2 ) < +∞ est
uniformément intégrable.
|Xn |
Preuve: On utilise que 1{|Xn |>R} ≤ R donc
E[Xn2 ]
E[|Xn |1{|Xn |>R} ] ≤ .
R
22 CHAPITRE 2. INTÉGRATION DE LEBESGUE

2.6. Divers
Lemme 2.6.1 (de Borel Cantelli). — Soit (An ) une suite de sous en-
sembles mesurables de Ω telle que ∞
P
n=0 m(An ) < +∞. Alors
+∞
X
1An < +∞ p.s.
k=0
Autrement dit, presque tout ω ∈ Ω n’appartient qu’à un nombre fini de An .

Preuve: Par convergence monotone,


Z X+∞ +∞
X
1An dm = m(An ) < +∞
k=0 k=0
P+∞
donc k=0 1An < +∞ p.p. .

2.7. Tribu engendrée


Définition 2.7.1. — Soit C un ensemble de parties de Ω. On appelle tribu
engendrée par C et on note σ(C) la plus petite tribu contenant C.

Définition 2.7.2. — Soit E un espace muni d’une topologie, on appelle tribu


borélienne de E et on note B(E) la tribu engendrée par les ouverts.

Définition 2.7.3. — Soit (E, E) et (F, B) deux espaces mesurables, on dit


qu’une fonction f : E → F est mesurable si pour tout B ∈ B, f −1 (B) ∈ E.

Lorsque E ou F est un espace topologique, si on ne le précise pas, on le


munit de la tribu borélienne. On retrouve donc la notion introduite avant. Un
sup, un inf, une limite d’une suite de fonctions mesurables à valeurs réelles
sont mesurables. Les fonctions continues sont mesurables.

Lemme 2.7.4. — Toute fonction mesurable de E dans R̄+ est la limite crois-
sante d’une suite de fonctions étagées.

En effet,
n2n −1
X k
f = lim n1{n≤f } + 1 k k+1
n→+∞ 2n { 2n ≤f < 2n }
k=0
(lorsque f est finie on peut se passer du premier terme).
Pour s’habituer aux notations, utilisons le vocabulaire des probabilités.
Donnons nous une famille (Ei , Ei ), i ∈ I, d’espaces mesurables.
2.7. TRIBU ENGENDRÉE 23

Définition 2.7.5. — Soit Xi : Ω → Ei , i ∈ I, des v.a.. On appelle tribu


engendrée par cette famille et on note σ(Xi , i ∈ I) la tribu engendrée par
{Xi ∈ Ai }, Ai ∈ Ei et i ∈ I.

Intuitivement, la tribu σ{Xi , i ∈ I} est formée des ensembles que l’on peut
décrire à l’aide des Xi . Pour une seule application X : Ω → Rd , σ(X) est
exactement la classe des ensembles {X ∈ A}, où A est un borélien de Rd .
Donnons nous pour toute la suite un espace de probabilité (Ω, F, P). Une
variable aléatoire est la même chose qu’une application mesurable mais la
plupart du temps à valeurs dans E = R ou Rd . Le lemme suivant est très
utile.

Lemme 2.7.6. — Soit X une application de Ω dans un espace mesurable


(E, E) et σ(X). Une application Y : Ω → R est σ(X)-mesurable si et seulement
si il existe une application mesurable φ : E → R telle que Y = φ(X).

Preuve: Supposons d’abord que Y est étagée et σ(X)-mesurable. On peut par


définition l’écrire sous la forme Y = kn=1 αn 1An , où An ∈ σ(X). Il existe donc
P

pour tout n, un borélien Bn tel que An = {X ∈ Bn }. Posons φ = kn=1 αn 1Bn .


P

On vérifie qu’alors Y = φ(X). Ceci montre la partie directe du lemme lorsque


Y est étagée. Dans le cas général, si Y est σ(X)-mesurable, il existe une suite
de v.a. étagées Yn telle que Y = lim Yn . Par ce qui précède, on peut écrire
Yn = φn (X) et il suffit alors de poser φ = lim sup φn . La réciproque est facile.

Une façon agréable d’exprimer le lemme précédant est de dire qu’une va-
riable aléatoire Y est σ(X1 , X2 , · · · , Xn )-mesurable si et seulement si elle
s’écrit
Y = φ(X1 , X2 , · · · , Xn )
pour une application borélienne φ.
Le maniement des tribus engendrées est souvent délicat. Un outil sophis-
tiqué :

Théorème 2.7.7 (de la classe monotone). — Soient C et M des en-


sembles de parties de Ω tels que C ⊂ M. On suppose que
(i) C est stable par intersection finie (i.e. A, B ∈ C implique A ∩ B ∈ C).
(ii) M est stable par différence propre (i.e. A, B ∈ M et A ⊂ B implique
B \ A ∈ M).
(iii) M est stable par limite croissante (i.e. An ∈ M et An ⊂ An+1 implique
∪An ∈ M).
(iv) Ω est dans M.
24 CHAPITRE 2. INTÉGRATION DE LEBESGUE

Alors σ(C) est contenu dans M.


Preuve: Montrons que l’intersection N de toutes les classes M vérifiant
(ii), (iii), (iv) est une tribu donc contient σ(C). Stable par intersection finie :
Fixons un A de C, la classe
{B ∈ N ; A ∩ B ∈ N }
contient C par (i) et vérifie (ii, iii, iv), elle contient donc N . Maintenant, fixons
un B dans N , la classe
{C ∈ N ; C ∩ B ∈ N }
contient C par ce que l’on vient de montrer et vérifie (ii, iii, iv), elle contient
donc N . 
Le résultat fondamental de la théorie de l’intégration est le suivant :
Théorème 2.7.8. — Il existe une et une seule mesure m sur R, appelée
mesure de Lebesgue, vérifiant
m(]s, t]) = t − s
Plus généralement, pour toute fonction croissante continue à droite A il existe
une mesure et une seule mA vérifiant
mA (]s, t]) = A(t) − A(s)
pour tout s < t.
La preuve de l’existence est difficile, nous l’admettons. Par contre l’unicité
est conséquence du théorème de la classe monotone (appliqué à la classe des
intervalles de la forme [a, b], a, b ∈ R, qui engendre la tribu borélienne et est
stable par intersection finie.)
Il est facile de voir, en utilisant le théorème de convergence dominée que
R
pour toute fonction continue à support compact sur R, f dm n’est autre que
R
l’intégrale de Riemann de f . Nous utiliserons donc aussi la notation f (x) dx.

2.8. Loi d’une variable aléatoire


On se donne un espace de probabilité (Ω, F, P) et un ensemble E, muni
d’une tribu E.
Définition 2.8.1. — Soit X : Ω → E une variable aléatoire (= application
mesurable). On appelle loi de X et on note parfois P(X) la probabilité sur
(E, E) définie par P(X) (A) = P(X ∈ A), pour tout A de E.
2.9. MESURE PRODUIT 25

La règle de calcul suivante est d’un emploi constant : il faut absolument


savoir la manier. La première égalité est la définition de l’espérance.

Proposition 2.8.2. — Soit X une variable aléatoire à valeurs dans E. Pour


toute fonction mesurable f : E → R, à valeurs positives ou telle que f (X) soit
intégrable, on a
Z Z
E(f (X)) = f (X) dP = f dP(X) .
Ω E

Définition 2.8.3. — Etant donné deux mesures µ et ν sur (Ω, F), et une
fonction mesurable positive φ : Ω → R, on dit que µ a la densité φ par
rapport à ν et on écrit
dµ = φ dν
si pour tout A ∈ F Z
µ(A) = φ(x) dν(x).
A

Alors, pour toute fonction mesurable positive f


Z Z
f dµ = f φ dν.

Souvent lorsqu’on dit qu’une v.a. réelle a la densité φ, on sous entend que sa
loi a la densité φ par rapport à la mesure de Lebesgue.

Proposition 2.8.4. — Si une v.a. X a une loi de densité φ, alors


Z
E(f (X)) = f (x)φ(x) dm(x)

pour toute fonction mesurable positive f .

2.9. Mesure produit


Soient (E1 , E1 , m1 ) et (E2 , E2 , m2 ) deux espaces mesurés σ-finis. On munit
E1 × E2 de la tribu E1 ⊗ E2 sur E1 × E2 , appelée tribu produit, engendrée par
les ensembles de la classe
C = {A × B, A ∈ E1 , B ∈ E2 }
Cette classe est stable par intersection finie. On pose, pour tout C ∈ E1 ⊗ E2 ,
Z Z
(m1 ⊗ m2 )(C) = { 1C (x, y) dm1 (x)} dm2 (y)}
26 CHAPITRE 2. INTÉGRATION DE LEBESGUE

R
(à l’aide du thm de classe monotone, on vérifie que y 7→ 1C (x, y) dm1 (x) est
bien mesurable). On définit ainsi une mesure sur m1 ⊗ m2 sur E1 × E2 . De la
même façon, la formule
Z Z
ν(C) = { 1C (x, y) dm2 (y)} dm1 (x)}

définit aussi une mesure. Pour tout C = A × B de C,

(m1 ⊗ m2 )(C) = m1 (A)m2 (B) = ν(C)

On déduit donc du théorème de classe monotone que les deux mesures m1 ⊗m2
et ν coincident. Il en résulte assez facilement :

Théorème 2.9.1 (de Fubini). — Soit f : E1 × E2 → R une fonction me-


surable. Alors, pour tout x ∈ E1 , la fonction
Z
y ∈ E2 7→ f (x, y) dm1 (x)

est mesurable et
Z Z Z Z
{ f (x, y) dm1 (x)}dm2 (y) = { f (x, y) dm2 (y)}dm1 (x)

sous l’une des deux hypothèses suivantes (i) f est à valeurs positives (ii) f est
intégrable

Lorsque f n’est pas positive, on applique souvent ce thm à |f | pour montrer


que f est intégrable.

L’exemple fondamental est celui de la mesure de Lebesgue sur Rd = R ×


R × · · · × R, égale au produit, d fois, de la mesure de Lebesgue sur R. Pour la
manier on utilise parfois le

Théorème 2.9.2 (de changement de variables). — Si φ est un


difféomorphisme de l’ouvert U sur l’ouvert V , on a, pour toute f ∈ B + (Rd ),
Z Z
(1) f (v) dm(v) = f (φ(u))|J(φ)(u)| dm(u).
V U

∂φj
où J(φ) est le déterminant de la matrice des ∂uk et m est le mesure de
Lebesgue.
2.10. PROCESSUS 27

2.10. Processus
Un processus (à temps continu) est une famille de variables aléatoires (Xt ) à
valeurs dans un espace E muni d’une tribu E, indexée par t ∈ R+ . En fait c’est
la même chose qu’une variable aléatoire à valeurs dans l’ensemble F (R+ , E)
des fonctions de R+ dans E muni de la tribu F(R+ , E) engendrée par les
applications φt : F (R+ , E) → E définies par φt (ω) = ω(t), ω ∈ F (R+ , E).
La loi du processus est par définition la loi de cette variable aléatoire.
Proposition 2.10.1. — La loi d’un processus est déterminée par les lois
finies dimensionnelles, c’est à dire les lois de
(Xt1 , · · · Xtn ), 0 ≤ t1 ≤ t2 ≤ · · · ≤ tn , n ∈ N.

Preuve: Cela résulte du théorème de la classe monotone. En effet, la classe


des sous ensembles de F(R+ , E) qui s’écrivent
{ω ∈ F (R+ , E); ω(t1 ) ∈ E1 , · · · , ω(tn ) ∈ En }
où les Ek sont dans E est stable par intersection finie et engendre la tribu
F(R+ , E).
Soit (Ω, F, P) un espace de probabilité. On représente ce que l’on ”connait”
à l’instant t par une tribu Ft . Ceci amène à poser
Définition 2.10.2. — Une famille croissante (Ft , t ∈ R+ ) de sous-tribus de
F, c’est à dire vérifiant Fs ⊂ Ft ⊂ F, s’appelle une filtration et le terme
(Ω, F, Ft , P) un espace de probabilité filtré.
Un processus Xt est dit adapté à cette filtration si Xt est Ft -mesurable,
pour tout t ≥ 0.
L’exemple fondamental de filtration est donné par Ft = σ(Xs , s ≤ t) où
(Xt ) est un processus quelconque. Si Xt est un processus adapté sans régularité
particulière, on ne sait rien de sa dépendance en t. Elle n’est peut être même
pas borélienne. Ceci amène à poser :
Définition 2.10.3. — Un processus progressivement mesurable Xt , t ∈ R+ ,
est un processus tel que pour tout T ≥ 0, l’application
(t, ω) ∈ [0, T ] × Ω 7→ Xt (ω)
est mesurable de B([0, T ]) ⊗ FT dans B(R), où B([0, T ]) et B(R) sont les tribus
boréliennes.
En pratique tous les processus adaptés que nous rencontrerons seront pro-
gressifs. C’est par exemple le cas des processus continus et plus généralement,
28 CHAPITRE 2. INTÉGRATION DE LEBESGUE

Lemme 2.10.4. — Si X est un processus continu à droite (ou à gauche)


adapté à (Ft ), l’application (s, ω) 7→ Xs (ω) est progressivement mesurable.

Preuve: Pour continu à droite : pour tout n, posons


n−1
X
Xs(n) = X k+1 ∧t 1{ k ∧t≤s< k+1 ∧t}
n n n
k=0
(n)
Alors (s, ω) 7→ Xs (ω) est mesurable de ([0, t] × Ω, B([0, t]) ⊗ Ft ) dans E. Il
en est donc de même de la limite X de X (n) quand n → +∞.

2.11. Indépendance
La notion la plus importante en probabilité est sans conteste la notion
d’indépendance. Elle recouvre à la fois une notion intuitive (le résultat du
loto est indépendant de la température, etc ...) et une notion mathématique.
Il est nécessaire de bien posséder ces deux aspects et de comprendre qu’ils
signifient la même chose. Un bon utilisateur des probabilités est quelqu’un qui
sait exploiter l’indépendance, ou la non indépendance, dans les événements
de la vie courante. Même si le plus souvent on ne s’intéresse qu’à l’indépend-
ance d’événements ou de variables aléatoires, il s’avère plus efficace de définir
l’indépendance de tribus. Un espace de probabilité (Ω, A, P) est toujours fixé.

Définition 2.11.1. — On dit que des tribus A1 , · · · , An contenues dans A


sont indépendantes si, pour tout A1 ∈ A1 , · · · , An ∈ An ,
P(A1 ∩ A2 · · · ∩ An ) = P(A1 )P(A2 ) · · · P(An ).

Des variables aléatoires X1 , · · · , Xn sont dites indépendantes si les tribus


engendrées σ(X1 ), · · · , σ(Xn ) le sont. On dit qu’une famille infinie de sous
tribus (ou de variables aléatoires) est formée de tribus indépendantes lorsque
toute sous famille finie a cette propriété. Donnons quelques résultats utiles au
maniement de l’indépendance. Le premier est très important et son énoncé
est à bien comprendre, malgré son aspect compliqué. Nous en donnons deux
formes.

Proposition 2.11.2 (Lemme de regroupement). — (Forme 1). Soit I


un ensemble d’indices, et Ai , i ∈ I, des sous tribus indépendantes de A.
Alors, si I1 , I2 , · · · , In sont des parties disjointes de I, les tribus σ(Ai , i ∈
I1 ), σ(Ai , i ∈ I2 ), · · · , σ(Ai , i ∈ In ) sont indépendantes.
2.11. INDÉPENDANCE 29

(Forme 2). Soit X1 , X2 , · · · , Xn , · · · des variables aléatoires indép-


endantes. Alors si 0 < n1 < n2 < n3 < · · · les variables aléatoires
φ1 (X1 , · · · , Xn1 ), φ2 (Xn1 +1 , · · · , Xn2 ), · · · sont indépendantes, pour toute
application φ1 : Rn1 → R, φ2 : Rn2 −n1 → R, · · · , mesurable.
Donnons un exemple simple mais typique d’utilisation : si X, Y, U, V sont
quatre variables aléatoires réelles indépendantes, alors X + Y et U V sont ind-
épendantes.
Théorème 2.11.3. — Deux variables aléatoires X, Y sont indépendantes si
et seulement si P(X,Y ) = P(X) ⊗ P(Y ) .
Corollaire 2.11.4. — Si les variables aléatoires X, Y sont indépendantes,
alors pour toute fonction φ mesurable positive (ou telle que φ(X, Y ) soit
intégrable) on a
Z Z
E[φ(X, Y )] = φ(x, y) dP(X) (x)dP(Y ) (y).

On peut aussi écrire cette relation sous les formes


Z Z
E[φ(X, Y )] = φ(X(ω), Y (ω 0 )) dP(ω)dP(ω 0 ),
Ω Ω
ou encore Z
E[φ(X, Y )] = E[φ(X, Y (ω 0 ))] dP(ω 0 ),

qui nous seront utiles.
CHAPITRE 3

MOUVEMENT BROWNIEN

3.1. Loi gaussienne


La loi gaussienne N (m, σ 2 ) sur R est la masse de Dirac en m lorsque σ = 0
et la loi de densité
1 (x−m)2
√ e− 2σ2
2πσ 2
sinon. Il n’y a pas de primitive explicite mais une excellente approximation par
une fraction rationnelle (1) . Si X suit la N (m, σ 2 ), alors E(X) = m, var(X) =
σ 2 . Lorsque σ = 0, X = m p.s. La fonction caractéristique est E(eitX ) =
2 2
exp{− σ 2t + itm}.

Proposition 3.1.1. — Toute limite de v.a. gaussiennes, en loi, en probabi-


lité, ou p.s., ou dans L1 , ou dans L2 est gaussienne. De plus l’espérance et la
variance convergent vers l’espérance et la variance de la limite.

Preuve: Toutes les convergences considérées entraı̂nent la convergence en


loi. Supposons donc que Xn converge en loi vers X et que Xn suit une loi
2 2
N (mn , σn2 ). Alors E(eitXn ) = exp{− σn2t +itmn } et E(eitXn ) → g(t) := E(eitX ).
2 2
En prenant le module on voit que exp{− σn2t } → |g(t)| donc que σn2 converge
vers σ 2 = −(2 log |g(t)|)/t2 . On en déduit que eitmn converge vers h(t) =
2 2
exp{− σ 2t }g(t). Alors, si f est C 1 à support compact, tel que f (t)h(t)dt 6= 0,
R

par intégration par parties,


Z Z
0 itmn
f (t)e dt = −imn f (t)eitmn dt

1. cf. Appendice
32 CHAPITRE 3. MOUVEMENT BROWNIEN

donc, en pasant à la limite mn converge vers m := i( f 0 (t)h(t)dt)/( f (t)h(t)dt).


R R

On voit donc que


σ 2 t2
E(eitXn ) → exp{− + itm}
2
et la limite est donc gaussienne.

3.2. Vecteur gaussien


On identifie un vecteur à une matrice colonne. L’espérance d’un vecteur
aléatoire X = (X1 , · · · , Xd )t est le vecteur E(X) = (E(X1 ), · · · , E(Xd ))t et sa
matrice de covariance est,

KX = E[(X − E(X))(X − E(X))t ] = E(XX t ) − E(X)[E(X)]t .

ses composantes sont KX (i, j) = Cov(Xi , Xj ). Si les composantes X1 , . . . , Xd


sont indépendantes, K(X) est diagonale. Il est clair que

Lemme 3.2.1. — Si M est une matrice déterministe r × d, on a KM X =


M KX M t .

Pour λ ∈ Rd , notons
d
X
hλ, Xi = λi Xi
i=1

le produit scalaire. En appliquant le lemme à M = λt on voit que

λt KX λ = varhλ, Xi ≥ 0.

En particulier, KX est une matrice symétrique semi-définie positive, donc


diagonalisable de valeurs propres positive ou nulles.

Définition 3.2.2. — Un vecteur aléatoire X = (X1 , . . . , Xd )t est dit gaus-


sien si toute combinaison linéaire des composantes suit une loi normale.

Proposition 3.2.3. — Un vecteur X est gaussien si et seulement, il existe


un vecteur m ∈ Rd et une matrice de covariance K telle que pour tout λ ∈ Rd
λt Kλ
E(exp(ihλ, Xi) = exp(ihλ, mi − ).
2
Alors m = E(X) et K = KX .
3.4. DÉFINITION DU MOUVEMENT BROWNIEN 33

Un exemple typique de vecteur gaussien est donné par un vecteur de com-


posantes normales indépendantes. Par contre, en général, un vecteur à com-
posantes gaussiennes n’est pas nécéssairement gaussien. En appliquant la pro-
position précédente pour calculer la fonction caractéristique, on obtient le
théorème fondamental suivant :
Théorème 3.2.4. — Soit (X1 , . . . , Xp , Y1 , · · · , Yq )t un vecteur gaussien de
Rp+q . Alors les vecteurs (X1 , . . . , Xp ) et (Y1 , · · · , Yq ) sont indépendants ssi
cov(Xi , Yj ) = 0
lorsque 1 ≤ i ≤ p, 1 ≤ j ≤ q.

3.3. Famille gaussienne


Une famille, ou un processus, {Xi , i ∈ I} de variables aléatoires est dite
gaussienne si toute combinaison linéaire finie de ces v.a. suit une loi normale.
La loi globale de cette famille (c’est à dire par définition, la loi de toute sous
famille finie) est déterminée par les espérances E(Xi ), i ∈ I, et les covariances
Cov (Xi , Xj ), i, j ∈ I. Comme pour le thm. on a
Théorème 3.3.1. — Soit {Xi , i ∈ I} une famille gaussienne et I1 , I2 , · · · , In
des parties disjointes de I. Alors les familles
{Xi , i ∈ I1 }, {Xi , i ∈ I2 }, · · · , {Xi , i ∈ In }
sont indépendantes ssi
cov(Xi , Xj ) = 0
chaque fois que iet j sont dans des ensembles I1 , · · · , In différents.
Preuve: Il suffit de voir que {Xi , i ∈ I1 ∪ I2 ∪ · · · ∪ In−1 } est indépendant de
{Xi , i ∈ In }...

3.4. Définition du mouvement brownien


Définition 3.4.1. — On appelle mouvement brownien un processus gaussien
Bt , t ∈ R+ , presque sûrement à trajectoires continues, tel que B0 = 0 et
Bt+s − Bt est indépendant de σ(Bu , u ≤ t) de loi N (0, s), pour tout t, s ≥ 0.
Proposition 3.4.2. — Un processus gaussien continu {Bt , t ∈ R+ } est un
mouvement brownien si et seulement si
E(Bt ) = 0, E(Bt Bs ) = min(s, t), pour tout t, s ≥ 0.
34 CHAPITRE 3. MOUVEMENT BROWNIEN

Preuve: Supposons d’abord que Bt , t ∈ R+ , est un mouvement brownien.


Alors Bt est centré donc E(Bt ) = 0. De plus, si 0 ≤ s ≤ t, on sait que Bt − Bs
est indépendant de σ(Br , r ≤ s), donc en particulier de Bs . Il en résulte que
E(Bt Bs ) = E((Bt − Bs + Bs )Bs ) = E(Bt − Bs )E(Bs ) + E(Bs2 ) = s.
Réciproquement, supposons les relations vraies et montrons qu’alors Bt , t ∈
R+ , est un mouvement brownien. Il faut montrer d’abord que si 0 ≤ s ≤ t,
Bt − Bs est indépendant de σ(Br , r ≤ s). Puisque la famille des Bt , t ≥ 0, est
gaussienne, il suffit de vérifier que Cov(Bt − Bs , Br ) = 0, si r ≤ s ≤ t. Or
Cov(Bt − Bs , Br ) = E(Bt Br ) − E(Bs Br ) = min(t, r) − min(s, r) = 0.
Ensuite, il faut voir que, si 0 ≤ s ≤ t, loi de Bt − Bs ne dépend que de t − s :
cette loi est gaussienne centrée et sa variance est
E((Bt − Bs )2 ) = E(Bt2 ) + E(Bs2 ) − 2E(Bt Bs ) = t + s − 2s = t − s.
Enfin, Bt est bien centré de variance t.

Faisons une remarque importante sur la continuité. Dans l’énoncé précédent


ne supposons pas a priori la continuité. La construction de Paul Lévy donnée
plus bas construit un processus continu et le fait d’être uniformément continu
sur les rationnels de [0, T ] pour un T > 0 fixé est mesurable. On voit donc que
sous les autres hypothèses de la proposition, Bt est p.s. uniformément continu
sur les rationnels de [0, T ], pour tout T > 0, donc admet un prolongement par
continuité à R+ tout entier.

Corollaire 3.4.3. — Soit {Bt , t ∈ R+ } un mouvement brownien. Alors


1. pour tout a > 0, {Bt+a − Ba , t ∈ R+ },
2. (Scaling) pour tout α ∈ R, {αBα−2 t , t ∈ R+ },
3. {tB1/t , t ∈ R+ },
sont des mouvements browniens.

Preuve: Les trois assertions se montrent de la même façon. Traitons par


exemple la seconde. Posons Xt = αBα−2 t . Tout d’abord, toute combinaison
linéaire des v.a. Xt est une combinaison linéaire de certains Bs donc est
gaussienne. Ceci montre que le processus {Xt , t ≥ 0} est gaussien. Il est continu
comme Bt . Il est clair que E(Xt ) = 0, et
t s
E(Xt Xs ) = α2 E(Bα−2 t Bα−2 s ) = α2 min( , ) = min(s, t).
α2 α2
3.5. FILTRATIONS ET BROWNIEN 35

Par la proposition précédente, {Xt , t ≥ 0} est un brownien. Dans le troisième


cas, il faut aussi vérifier la continuité p.s. en 0. Puisque tB1/t , t > 0 a la même
loi que {Bt , t > 0}, Xn = sup0<s<1/n |sB1/s | et Yn = sup0<s<1/n |Bs | ont la
même loi. Donc P(Xn → 0) = P(Yn → 0) = 1 puisque B est continu en 0, ce
qui montre la continuité p.s.

3.5. Filtrations et Brownien


Considérons un espace de probabilité filtré (Ω, (Ft ), F, P). En général, on
note F∞ = σ(Ft , t ≥ 0). On pose

(2) Ft+ = ∩ε>0 Ft+ε .

On dit que la filtration Ft est continue à droite si Ft+ = Ft . La filtration Ft+


est elle même continue à droite.

Définition 3.5.1. — Un processus B adapté à (Ω, Ft , P) est un (Ft )–mouve-


ment brownien si B est un mouvement brownien et pour tout s ≥ 0, la famille
{Bt − Bs , t ≥ s} est indépendante de Fs .

Théorème 3.5.2. — Un (Ft )–mouvement brownien est aussi un (Ft+ )–mou-


vement brownien.

Preuve: Pour tout s < t < t1 < · · · < td le vecteur

(Bt1 − Bt , · · · , Btd − Bt )

est indépendant de Ft donc de Fs+ , qui est contenu dans Ft . Par continuité

(Bt1 − Bs , · · · , Btd − Bs )

est aussi indépendant de Fs+ .

Corollaire 3.5.3 (Loi 0–1 de Blumenthal). — Soit B un mouvement


brownien et Ft = σ(Bs , 0 ≤ s ≤ t). Pour tout A ∈ F0+ , P(A) = 0 ou 1.

Preuve: F0+ est indépendant de Bt pour tout t > 0 donc de Ft , donc de F0+ .
36 CHAPITRE 3. MOUVEMENT BROWNIEN

3.5.1. Quelques propriétés trajectorielles du brownien. — Le résultat


technique suivant va nous permettre de décrire quelques propriétés non tri-
viales du mouvement brownien.

Lemme 3.5.4. — Si {Bt , t ∈ R+ } est un mouvement brownien,


Bt Bt
lim sup √ = +∞, lim inf √ = −∞, p.s.
t→0+ t t→0 + t


Preuve: La variable aléatoire R = lim supt→0+ Bt / t est F0+ –mesurable, où
Ft = σ(Bs , 0 ≤ s ≤ t), donc constante p.s.. Plus précisément, soit R = +∞,
soit il existe une constante α telle que R ≤ α, p.s. Ce dernier cas est impossible
Bt
car il entraı̂ne que P( √ t
≥ α + 1) → 0 quand t = 1/n avec n → +∞ alors
Bt
que P( √ t
≥ α + 1) = P(B1 ≥ α + 1) 6= 0. Le cas de la liminf s’obtient en
appliquant la limsup à (−Bt ) qui est aussi un brownien.

Proposition 3.5.5. — Pour presque tout ω, la trajectoire t 7→ Bt (ω),


(i) n’est nulle part dérivable ;
(ii) passe une infinité de fois par chaque point de R.

Preuve: Le lemme assure que B n’est pas dérivable en 0, p.s., donc en


tout point t fixé, sur un ensemble de probabilité 1, qui peut dépendre de
t. Nous admettons qu’on peut choisir cet ensemble indépendant de t. Posons
Wt = tB1/t . Comme Wt , t ≥ 0, est un mouvement brownien, on peut lui
appliquer le lemme : presque sûrement,
Wt
lim sup √ = +∞.
t→0 t
Donc, en posant s = t−1 ,
1 √
lim sup √ Bs = lim sup sW1/s = +∞,
s→+∞ s s→∞

donc sup Bt = +∞. De même inf Bt = −∞ ; les trajectoires étant continues


elles doivent passer par tous les points, une infinité de fois, p.s.

La preuve précédente montre aussi que la trajectoire oscille énormément au


moment où elle part de 0, puisqu’elle arrive à traverser une infinité de fois
l’axe {x = 0} avant chaque instant fixé.
3.6. PROPRIÉTÉ DE MARKOV FORTE DU MOUVEMENT BROWNIEN 37

3.6. Propriété de Markov forte du mouvement brownien


3.6.1. Temps d’arrêt. — Soit (Ω, Ft , P) un espace de probabilité filtré et
F∞ = σ(Ft , t ≥ 0).
Définition 3.6.1. — Une application τ de Ω dans R̄+ est un temps d’arrêt
si, pour tout t ≥ 0, {τ ≤ t} ∈ Ft . La tribu
Fτ := {A ∈ F∞ , pour tout t ≥ 0, A ∩ {τ ≤ t} ∈ Ft }
s’appelle la tribu des événements antérieurs à τ .
Lemme 3.6.2. — Une application τ : Ω → R̄+ est un temps d’arrêt si et
seulement si le processus
Xt = 1[0,τ [ (t)
est adapté.
Proposition 3.6.3. — (i) Soient σ et τ des temps d’arrêt. Alors σ ∨ τ et
σ ∧ τ sont des temps d’arrêt et Fσ∧τ = Fσ ∩ Fτ . De plus {σ ≤ τ } et {σ = τ }
appartiennent à Fσ∧τ .
(ii) Soient τn des temps d’arrêt. Alors supn τn est un temps d’arrêt.
(iii) Supposons (Ft ) continue à droite. Alors τ est un temps d’arrêt dès que
{τ < t} ∈ Ft et un inf d’une suite de temps d’arrêt est un temps d’arrêt.
Preuve: (i) Soit A ∈ Fσ ∩ Fτ , alors A ∩ {σ ∧ τ ≤ t} = (A ∩ {σ ≤ t}) ∪
(A ∩ {τ ≤ t}) ∈ Ft et A ∈ Fσ∧τ . Si A ∈ Fσ∧τ , A ∩ {τ ≤ t} = A ∩ {σ ∧ τ ≤
t} ∩ {τ ≤ t} est dans Ft . Donc A ∈ Fτ de même A ∈ Fσ . Pour montrer
que {σ ≤ τ } ∈ Fσ∧τ , il suffit de montrer que {σ ≤ τ } ∈ Fσ ∩ Fτ . Mais
l’on a {σ ≤ τ } ∩ {τ ≤ t} = {σ ≤ t} ∩ {τ ≤ t} ∩ {σ ∧ t ≤ τ ∧ t} ∈ Ft et
{σ ≤ τ } ∩ {σ ≤ t} = {σ ∧ t ≤ τ ∧ t} ∩ {σ ≤ t} ∈ Ft . On procède de même
pour {σ = τ }.
(ii) On a {supn τn ≤ t} = ∩n {τn ≤ t} ∈ Ft .
(iii) Si {τ < t} ∈ Ft , pour tout t ≥ 0, {τ ≤ t} = ∩ε>0 {τ < t + ε} ∈ Ft+ = Ft .
Si τn est une suite de temps d’arrêt et τ = inf τn , {τ < t} = ∪n {τn < t} ∈ Ft ,
donc τ est un temps d’arrêt.
Soit (Xt ) un processus adapté à (Ω, (F t )) à valeurs dans un espace métrique
(E, d), par exemple Rk avec la norme usuelle. La distance d définit une topo-
logie et on munit E de la tribu borélienne. On associe à un sous ensemble A
de E,
(3) τA (ω) = inf(t ≥ 0, Xt (ω) ∈ A),
τA est appelé le temps d’entrée dans A.
38 CHAPITRE 3. MOUVEMENT BROWNIEN

Proposition 3.6.4. — Si A est fermé et X à trajectoires continues, τA est


un temps d’arrêt.
Preuve: Posons d(x, A) = inf a∈A d(x, a). Cette fonction est continue car, pour
tout x, y ∈ E et a ∈ A
d(x, a) ≤ d(x, y) + d(y, a)
donc d(x, A) ≤ d(x, y) + d(y, A) ce qui assure que |d(x, A) − d(y, A)| ≤ d(x, y).
On utilise alors que
1
{τA ≤ t} = ∩n ∪s≤t,s∈Q+ {d(Xs , A) ≤ } ∈ Ft .
n
(détail : si τA ≤ t, puisque A est fermé, il existe s ≤ t tel que Xs ∈ A. Par
continuité de x 7→ d(x, A), on a alors d(Xs , A) = 0. Il existe donc sn ∈ Q
tel que sn → s et sn < s pour lequel d(Xsn , A) ≤ 1/n. Donc l’inclusion de
{τA ≤ t} dans le terme de droite. Réciproquement, si pour tout n ∈ N, il existe
sn ≤ t tel que d(Xsn , A) ≤ 1/n, pour toute valeur d’adhérence s de la suite sn
on a s ≤ t et d(Xs , A) = 0 donc Xs ∈ A.) 
Proposition 3.6.5. — Si A est ouvert et X à trajectoires continues à droite,
τA est un temps d’arrêt de Ft+ .
Preuve: En effet
{τA < t} = ∪s<t,s∈Q+ {Xs ∈ A}
Proposition 3.6.6. — Si X est un processus adapté progressivement mesu-
rable (cf. 2.10.3) et si τ est un temps d’arrêt, Xτ 1τ <∞ est Fτ -mesurable.
Preuve: Soit Γ un borélien de E. Il s’agit de montrer que pour tout t ≥ 0,
{Xτ ∈ Γ} ∩ {τ ≤ t} ∈ Ft . Remarquons que
{Xτ ∈ A} ∩ {τ ≤ t} = {Xτ ∧t ∈ A} ∩ {τ ≤ t}.
Soit Ωt = {τ ≤ t}. L’application ω 7→ (τ (ω), ω) est mesurable de (Ωt , Ft )
dans ([0, t] × Ω, B([0, t]) ⊗ Ft ), l’application (s, ω) 7→ Xs (ω) est mesurable de
(([0, t] × Ω, B([0, t]) ⊗ Ft ) dans E. Donc l’application composée ω 7→ Xτ (ω) (ω)
de (Ωt , Ft ) dans E est mesurable i.e. {τ ≤ t, Xτ ∈ Γ} ∈ Ft .

3.6.2. La propriété de Markov forte du brownien. —


Lemme 3.6.7. — Soit τ un temps d’arrêt. Il existe une suite décroissante
{τn , n ∈ N} de temps d’arrêt convergeant vers τ telle que τn est à valeurs dans
{k/2n , k ∈ N} ∪ {+∞}.
[2n τ ]+1
Preuve: On peut prendre τn = 2n .
3.6. PROPRIÉTÉ DE MARKOV FORTE DU MOUVEMENT BROWNIEN 39

Théorème 3.6.8. — Soit {Bt , t ≥ 0} un (Ft )–mouvement brownien. Alors,


pour tout temps d’arrêt τ , conditionnellement à {τ < +∞}, le processus
{Bt+τ − Bτ , t ∈ R+ } est un brownien, indépendant de Fτ .

Preuve: Il faut montrer que pour toute v.a. Z, Fτ -mesurable bornée et


F : Rd → R, continue bornée,
E(Z1{τ <+∞} F (Bt1 +τ − Bτ , Bt2 +τ − Bτ , · · · , Btd +τ − Bτ )) =
= E(Z1{τ <+∞} )E(F (Bt1 , · · · , Btd ))
On considère d’abord le cas où τ prend toutes ses valeurs dans l’ensemble
dénombrable {sk = k2−n , k ∈ N}. Alors, puisque {τ < +∞} est la réunion
dénombrable des ensembles disjoints {τ = sk }, on peut écrire :
E(Z1{τ <+∞} F (Bt1 +τ − Bτ , · · · , Btd +τ − Bτ )) =
+∞
X
= E(ZF (Bt1 +τ − Bτ , · · · , Btd +τ − Bτ )1{τ =sk } )
k=0
+∞
X
= E(Z1{τ =sk } F (Bt1 +sk − Bsk , · · · , Btd +sk − Bsk ))
k=0
+∞
X
= E(Z1{τ =sk } )E(F (Bt1 , · · · , Btd ))
k=0
= E(Z1{τ <+∞} )E(F (Bt1 , · · · , Btd ))
où l’on a utilisé que Z1{τ =sk } est Fsk mesurable et que B est un Ft –brownien.
Dans le cas général, on approche τ par une suite décroissante τn de temps
d’arrêt à valeurs dénombrables, donnée par le lemme. Puisque Fτ est contenu
dans Fτn on a encore
E(Z1{τ <+∞} F (Bt1 +τn − Bτn , · · · , Btd +τn − Bτn )) =
E(Z1{τ <+∞} )E(F (Bt1 , · · · , Btd ))
et on fait tendre n vers l’infini pour conclure, en utilisant la continuité des
trajectoires.

Proposition 3.6.9 (Principe de réflexion). — Soit {Bt , t ≥ 0} un mou-


vement brownien. Pour a > 0, on pose Ta = inf{t ≥ 0; Bt = a}. Alors
P(Ta ≤ t) = 2P(Bt ≥ a).
2 /2s
La densité de Ta est f (s) = a(2πs3 )−1/2 e−a 1R+ (s). En particulier E(Ta ) =
+∞.
40 CHAPITRE 3. MOUVEMENT BROWNIEN

Preuve: En utilisant la propriété de Markov forte du brownien, on sait que


Wt = Bt+Ta − BTa est un brownien indépendant de FTa donc en particulier
de Ta . On peut donc écrire, puisque BTa = a et en utilisant à l’avant dernière
ligne l’important théorème 4.4.5 que
P(Bt ≥ a) = P(Ta ≤ t, Bt ≥ a)
= P(Ta ≤ t, (Bt − BTa ) + BTa ≥ a)
= P(Ta ≤ t, Wt−Ta ≥ 0)
Z
= 1{s≤t} P(Wt−s ≥ 0)dPTa (s)
1
= P(Ta ≤ t).
2
p
On en déduit, avec le changement de variable de x en s où x = a t/s,
Z ∞ Z t
−x2 /2t 2
dx = a (2πs3 )−1/2 e−a /2s ds.
p
P(Ta ≤ t) = 2P(Bt ≥ a) = 2/πt e
a 0
2
Donc la densité de Ta est f (s) = a(2πs3 )−1/2 e−a /2s , ce qui permet de calculer
l’espérance.

On voit donc que, bien que le brownien passe une infinité de fois par tout
les points, il met un temps d’espérance infinie pour atteindre un point donné.
La propriété suivante est assez étonnante !
Corollaire 3.6.10. — La loi de sup0≤s≤t Bs est la même que celle de |Bt |.
Preuve: P(sup0≤s≤t Bs ≥ a) = P(Ta ≤ t) = 2P(Bt ≥ a) = P(|Bt | ≥ a).

3.7. Existence et Simulation du Mouvement brownien


L’ordinateur simule une suite Un de v.a. i.i.d. uniformes sur [0, 1]. (Par
simulation on veut dire qu’il ”tente” de fabriquer ... ) On commence par simuler
des v.a. indépendantes X1 , X2 , · · · de loi gaussienne N (0, 1). Une façon de faire
est de poser p
Xn = −2 log U2n sin(2πU2n+1 ).
Un intervalle de temps [0, T ] étant donné, on choisit ensuite un pas de
discrétisation h = Tn , où n ∈ N. On simule la trajectoire brownienne aux
instants kT /n, k = 0, 1, · · · , n − 1 en posant B0 = 0 puis par récurrence,
r
T
B(k+1)T /n = BkT /n + Xk+1 .
n
3.8. CONSTRUCTION DE P. LÉVY DU MOUVEMENT BROWNIEN 41

Il y a une autre méthode de simulation, qui permet de faire éventuellement


un effet de loupe sur un morceau de trajectoire choisi. Expliquons le principe
de cette construction en simulant le mouvement brownien sur [0, 1] par raffine-
ments successifs : A l’étape n on construit le brownien au points 2kn , 0 ≤ k ≤ 2n .
A l’étape 0 on pose B0 = 0 et on choisit pour B1 une v.a. de loi N (0, 1). Une
fois l’étape n achevée, on procède ainsi : on se donne des v.a. ε0 , ε1 , · · · indép-
endantes entre elles et de ce qui précède, avec εn de loi N (0, 2−n ) et l’on pose,
pour k entier,
B kn + B k+1
2n
B 2k+1 = 2 + εk .
2n+1 2
On vérifie (cf. la construction de P. Lévy dans la section suivante) que l’on
construit bien ainsi un mouvement brownien sur [0, 1] en passant à la limite
sur l’approximation linéaire. Ceci montre en particulier son existence.

3.8. Construction de P. Lévy du mouvement brownien


Soit {Yk,n ; 0 ≤ k ≤ 2n , n ∈ N} des v.a. indépendantes, toutes de loi
N (0, 1). On construit par récurrence sur n une suite {Xn (t), 0 ≤ t ≤ 1}n∈N∗
de processus tels que :
Xn (t) est linéaire sur chaque intervalle dyadique [2−n k, 2−n (k + 1)],

X0 (0) = 0, X0 (1) = Y1,0 ,


Xn+1 (2−n k) = Xn (2−n k),
Xn+1 (2−(n+1) (2k + 1)) = Xn (2−(n+1) (2k + 1)) + 2−(n+2)/2 Y2k+1,n+1 .

Pour n fixé, toute combinaison linéaire des Xn (t), 0 ≤ t ≤ 1 est une


combinaison linéaire des Yk,m pour m ≤ n et est donc gaussienne. Montrons
par récurrence sur n que les v.a. Xn (2−n (k+1))−Xn (2−n k), k = 0, 1, · · · 2n −1,
sont indépendantes de loi N (0, 2−n ). Si c’est vrai au rang n, regardons
Xn+1 (2−n−1 (2k + 1)) − Xn+1 (2−n−1 (2k)) =
Xn (2−n (k + 1)) − Xn (2−n k)
+ 2−(n+2)/2 Y2k+1,n+1
2
et
Xn+1 (2−(n+1) (2k + 2)) − Xn+1 (2−(n+1) (2k + 1)) =
Xn (2−n (k + 1)) − Xn (2−n k)
− 2−(n+2)/2 Y2k+1,n+1
2
42 CHAPITRE 3. MOUVEMENT BROWNIEN

La seule chose non évidente est que ces deux v.a. sont indépendantes. Or leur
covariance est
Xn (2−n (k + 1)) − Xn (2−n k)
var( ) − var(2−(n+2)/2 Y2k+1,n+1 ) = 0.
2
Vu la construction de Xn+1 à partir de Xn ,
sup |Xn+1 (t) − Xn (t)| = sup 2−(n+2)/2 Y2k+1,n+1
0≤t≤1 0≤k≤2n −1
donc
P( sup |Xn+1 (t)−Xn (t)| ≥ 2−n/4 ) = P( sup 2−(n+2)/2 |Y2k+1,n+1 | ≥ 2−n/4 )
0≤t≤1 0≤k≤2n −1
n −1
2X
(n+4)/4
P( sup |Y2k+1,n+1 | ≥ 2 )≤ P(|Y2k+1,n+1 | ≥ 2(n+4)/4 )
0≤k≤2n −1 k=0
n (n+4)/4
= 2 P(|Y0,0 | ≥ 2 )
Utilisons la majoration, pour a > 0
Z +∞ Z +∞
1 −t2 /2 1 t −t2 /2 1 1 −a2 /2
√ e dt ≤ √ e dt ≤ √ e
2π a 2π a a 2π a
pour voir que
X∞
P( sup |Xn+1 (t) − Xn (t)| ≥ 2−n/4 ) < +∞
n=0 0≤t≤1

On en déduit, par Borel Cantelli, que, p.s., pour n assez grand,


sup |Xn+1 (t) − Xn (t)| ≤ 2−n/4
0≤t≤1

donc que Xn converge uniformément sur [0, 1]. La limite Xt est donc continue,
c’est un processus gaussien centré continu dont les covariances coı̈ncident avec
celles du brownien sur les dyadiques, donc partout.

3.9. Appendice 1
Donnons une excellente approximation de la fonction de repartition de la
loi normale sous la forme d’un programme C.
// standard normal density function
double ndf(double t)
{
return 0.398942280401433*exp(-t*t/2);
}
3.9. APPENDICE 1 43

// standard normal cumulative distribution function


double nc(double x)
{
double result;
if (x<-7.)
result = ndf(x)/sqrt(1.+x*x);
else if (x>7.)
result = 1. - nc(-x);
else
{
result = 0.2316419;
static double a[5] = {0.31938153,-0.356563782,1.781477937,
-1.821255978,1.330274429};
result=1./(1+result*fabs(x));
result=1-ndf(x)*(result*(a[0]+result*
(a[1]+result*(a[2]+result*(a[3]+result*a[4])))));
if (x<=0.) result=1.-result;
}
return result;
}
CHAPITRE 4

MARTINGALES

4.1. Martingales, définition


Pour T = R ou N on considère (Ω, (Ft )t∈T , P) un espace de probabilité filtré.
Définition 4.1.1. — Une famille de variables aléatoires réelles Mt , t ∈ T , est
une martingale si Mt ∈ L1 , (Mt ) est adapté et
E(Mt |Fs ) = Ms , pour tout 0 ≤ s ≤ t.
Une famille Mt , t ∈ T , est une sous-martingale si Mt ∈ L1 , (Mt ) est adapté et
E(Mt |Fs ) ≥ Ms , pour tout 0 ≤ s ≤ t.

Si M est une (ss)-martingale sur (Ω, (Ft )t∈T , P), ça l’est aussi pour la
filtration naturelle Ft0 = σ(Ms , s ≤ t).
Exemple. Soit X ∈ L1 . On pose Xt = E(X|Ft ). On a, pour s < t,
E(Xt |Fs ) = E(E(X|Ft )|Fs ) = E(X|Fs ) = Xs
et Xt est une martingale.
Proposition 4.1.2. — Soit B un (Ft )–mouvement brownien. Alors,
(i) Bt , t ∈ R+ ;
(ii) Bt2 − t, t ∈ R+ ;
λ2 t
(iii) pour λ ∈ R , exp(λBt − 2 ), t ∈ R+ ;
sont des (Ft )-martingales.
Proposition 4.1.3 (Inégalité de Jensen). — Soit M une martingale
(resp. sous martingale) et φ : R → R une fonction convexe (resp. convexe
croissante). Si φ(Mt ) est intégrable pour tout t ≥ 0, c’est une sous martingale.
46 CHAPITRE 4. MARTINGALES

Preuve: Une fonction convexe est l’enveloppe supérieure d’une famille de


droites : il existe une famille F de fonctions affines (du type x 7→ ax + b) telles
que
φ(x) = sup f (x)
f ∈F

avec de plus chaque f croissante si φ est croissante (c’est évident si ϕ(x) = x+ ,


ou |x| ou x2 , qui sont les cas principaux où on appliquera cette inégalité dans
la suite du cours). Pour tout f ∈ F
E(φ(Mt )|Fs ) ≥ E(f (Mt )|Fs ) = f (E(Mt |Fs )) ≥ f (Ms )
donc E(φ(Mt )|Fs ) ≥ supf ∈F f (Ms ) = φ(Ms ). 
Exemple : Si M est une martingale |M | est une sous martingale et si X est
une sous martingale, alors X + est une sous martingale.
(n)
Proposition 4.1.4. — Soit {Mt , t ∈ T }, n ∈ N, une suite de (Ft )– martin-
(n)
gales. Si pour tout t, Mt tend vers Mt dans L1 , ou afortiori dans L2 , alors
Mt , t ∈ T , est une martingale.

Preuve: On utilise que


(n) (n) (n)
E(|E(Mt |Fs ) − E(Mt |Fs )|) ≤ E(E(|Mt − Mt ||Fs )) = ||Mt − Mt ||1 .

4.2. Martingales à temps discret


Nous allons exposer deux résultats fondamentaux de Doob, indispensables
pour nous. Etant donné un processus M et un temps d’arrêt τ on note M τ le
processus arrété à l’instant τ , défini par :
Mtτ = Mτ ∧t .

Théorème 4.2.1 (d’arrêt). — Soit {Mn , n ∈ N} une (sous) martingale et


τ un temps d’arrêt. Alors M τ est encore une (sous)-martingale.

Preuve: Il suffit d’écrire


τ
Mn+1 − Mnτ = 1{τ >n} (Mn+1 − Mn ). 
Le lemme suivant n’est utile que pour les temps d’arrêt à valeurs
dénombrables, c’est à dire rarement dans le cas ”continu” car il n’a d’intérêt
que si P({σ = r}) > 0.
4.2. MARTINGALES À TEMPS DISCRET 47

Lemme 4.2.2. — Si σ est un temps d’arrêt et r un réel fixé, pour toute v.a.
X ≥ 0, p.s.,
1{σ=r} E(X|Fσ ) = 1{σ=r} E(X|Fr ),

Preuve: Puisque {σ = r} ∈ Fσ , il faut montrer que


1{σ=r} E(X|Fσ ) = 1{σ=r} E(X|Fr ),
On utilise la propriété caractéristique de l’espérance conditionnelle 4.4.1 : la
v.a. Z = 1{σ=r} E(X|Fr ) est Fσ -mesurable et pour toute v.a. U positive, Fσ -
mesurable, puisque U 1{σ=r} est Fr -mesurable,
E(U Z) = E(U 1{σ=r} E(X|Fr )) = E(U 1{σ=r} X)
donc Z = E(1{σ=r} X|Fσ ).

Corollaire 4.2.3. — Soient {Mn , n ∈ N} une (sous) martingale, σ et τ deux


temps d’arrêt à valeurs dans N̄. On suppose que τ est borné. Alors
E(Mτ | Fσ ) ≥ Mτ ∧σ
avec égalité dans le cas d’une martingale.

Preuve: Si τ est borné par la constante r > 0, on peut écrire que, sur {σ = n},
E(Mτ | Fσ ) = E(Mrτ | Fn ) ≥ Mr∧n
τ
= Mτ ∧σ .

Théorème 4.2.4. — Soit Mn , n ∈ N, une sous-martingale positive. Pour


tout a > 0,
1 1
P( max Mk ≥ a) ≤ E(Mn 1{max0≤k≤n Mk ≥a} ) ≤ E(Mn ).
0≤k≤n a a
De plus
E( max Mk2 ) ≤ 4E(Mn2 ).
0≤k≤n

Preuve: L’inégalité de droite est évidente car Mn ≥ 0. Pour celle de gauche,


posons σ = inf{k ≥ 0; Mk ≥ a}. On a {σ ≤ n} = {max0≤k≤n Mk ≥ a} donc
E(Mn 1{max0≤k≤n Mk ≥a} ) = E(Mn 1{σ≤n} ) = E(E(Mn |Fσ )1{σ≤n} )
≥ E(Mn∧σ 1{σ≤n} ) ≥ aP(σ ≤ n) = aP( max Mk ≥ a)
0≤k≤n
en appliquant le corollaire. Ensuite
Z ∞ Z ∞
aP( max Mk ≥ a) da ≤ E(Mn ; max Mk ≥ a) da.
0 0≤k≤n 0 0≤k≤n
48 CHAPITRE 4. MARTINGALES

Avec Fubini ceci s’écrit,


Z max0≤k≤n Mk Z max0≤k≤n Mk
E( a da) ≤ E(Mn da)
0 0
donc
1
E(( max Mk )2 ) ≤ E(Mn max Mk ).
2 0≤k≤n 0≤k≤n
En appliquant Cauchy Schwarz on obtient
1
E(( max Mk )2 ) ≤ E(Mn2 )1/2 E(( max Mk )2 )1/2 ,
2 0≤k≤n 0≤k≤n

E((max0≤k≤n Mk )2 ) est fini car majoré par E( nk=0 Mk2 ) on peut donc sim-
P

plifier par E((max0≤k≤n Mk )2 )1/2 dans l’inégalité précédente, ce qui donne le


résultat. 
Dans la preuve précédente, en multipliant par ap−2 et en appliquant
l’inégalité de Hölder (c.f. ??) on obtient pour p > 1,
|| max Mk ||p ≤ q||Mn ||p
0≤k≤n

où p−1 + q −1 = 1.

4.3. Martingale continue à droite


Si Mt , t ∈ R+ , est un processus à trajectoires continues à droite, on a
sup Mt = lim sup M kTn .
0≤t≤T n→+∞ 0≤k≤2n 2

En appliquant le Théorème 4.2.4 à la sous martingale Xk = M kTn et l’égalité


2

{ sup Mt > a} = ∪n∈N { sup M kTn > a}


0≤t≤T 0≤k≤2n 2

on obtient, en passant par P(sup0≤t≤T Mt > a),


Théorème 4.3.1 (Inégalités de Doob). — Soit Mt , t ∈ R+ , une sous-
martingale continue à droite positive. Pour tout a > 0,
1 1
P( sup Mt ≥ a) ≤ E(MT 1{sup0≤t≤T Mt ≥a} ) ≤ E(MT )
0≤t≤T a a
De plus
E( sup Mt2 ) ≤ 4E(MT2 ).
0≤t≤T

Puisque la valeur absolue d’une martingale est une sous martingale positive,
on en déduit le corollaire absolument fondamental pour la suite :
4.3. MARTINGALE CONTINUE À DROITE 49

Corollaire 4.3.2. — Si M est une martingale continue à droite,


E(|MT |)
P( sup |Mt | ≥ a) ≤
0≤t≤T a
et
E( sup Mt2 ) ≤ 4E(MT2 ).
0≤t≤T

Déduisons un convergence de théorème de martingales (il en existe d’autres,


par exemple pour les martingales positives).
Théorème 4.3.3. — Une martingale continue à droite (Mt ) telle que
sup E(Mt2 ) < +∞
t≥0

converge p.s. et dans L2 lorsque t → +∞.


Preuve: Puisque Mt2 est une sous martingale, E(Mt2 ) est une fonction crois-
sante. Par hypothèse, elle est bornée. Donc elle converge lorsque t → +∞. On
en déduit que, pour tout ε > 0, il existe N tel que, si s, t ≥ N
E((Mt − Ms )2 ) = E(Mt2 ) − E(Ms2 ) < ε
lorsque s, t → +∞. La suite Mn est donc de Cauchy dans L2 , elle converge
vers une v.a. M∞ . En faisant tendre t → +∞ suivant les entiers on voit, par
Fatou, que
E((M∞ − Ms )2 ) < ε
donc Ms → M∞ dans L2 . Si on applique l’inégalité de Doob à la martingale
Nt = Ms+t − Ms on obtient, pour s > N ,
E(sup(Mt+s − Ms )2 ) ≤ 4E((MT +s − Ms )2 ) ≤ 4ε
t≤T
pour tout T ≥ 0, donc
E(sup(Mt+s − Ms )2 ) ≤ 4ε.
t≥0
Il en résulte en écrivant que
(Mt+s − M∞ )2 ≤ 2(Mt+s − Ms )2 + 2(Ms − M∞ )2
que
E(sup(Mt+s − M∞ )2 ) ≤ 16ε.
t≥0
Il existe donc une sous suite ni telle que, p.s., supt≥0 (Mt+ni − M∞ ) → 0, ce
qui entraı̂ne que Mt → M∞ , p.s. 
Pour montrer le théorème d’arrêt, nous allons utiliser :
50 CHAPITRE 4. MARTINGALES

Lemme 4.3.4. — Si X ∈ L1 (Ω, A, P), la famille {E(X|F), F sous tribu de A}


est uniformément intégrable.

Preuve: Remarquons d’abord que pour tout ε > 0, il existe α > 0 tel que, si
P(A) < α alors E(|X|1A ) ≤ ε. En effet, par Lebesgue dominé, E(|X|1{|X|≥M } )
tend vers 0 lorsque M → +∞. On choisit M pour lequel E(|X|1{|X|≥M } )) <
ε/2 et ensuite α > 0 tel que αM < ε/2. On a alors
E(|X|1A ) ≤ E(|X|1A 1{|X|≥M } ) + E(|X|1A 1{|X|≤M } )
≤ E(|X|1{|X|≥M } ) + M P(A) ≤ ε.
Soit R = α−1 E|X|.
On a, pour a > R, P(|E(X|F)| > a) ≤ a−1 E|E(X|F)| ≤
a−1 E|X| < α et
Z Z Z
|E(X|F)| dP ≤ E(|X||F) dP = |X| dP < ε.
{|E(X|F )|>a} {|E(X|F )|>a} {|E(X|F )|>a}

Théorème 4.3.5 (d’arrêt). — Soient (Xt , t ∈ R+ ) une sous-martingale


continue à droite, et σ et τ deux temps d’arrêt avec τ borné. Alors Xτ ∈ L1
et Xσ∧τ ≤ E(Xτ | Fσ ), avec égalité si X est une martingale.

Preuve: (a) La suite de temps d’arrêt τn = 2−n ([2n τ ] + 1) décroit vers


τ et Xτn tend vers Xτ , quand n → +∞. Si τ est bornée par K, τn est
borné par K + 1. D’après le corollaire 4.2.3, X +k étant une sous-martingale,
2n
+
Xτ+n ≤ E(XK+1 | Fτn ). On a alors
+
E|Xτn | = 2E(Xτ+n ) − E(Xτn ) ≤ 2E(XK+1 ) − E(X0 )
d’où, par le lemme de Fatou, E|Xτ | ≤ lim inf n E|Xτn | < +∞ donc Xτ ∈ L1 .
(b) Soit σn = 2−n ([2n σ] + 1). On suppose d’abord que Xt ≥ 0 pour tout
t ≥ 0. Soit A ∈ Fσ ⊂ Fσn . On a alors, en appliquant le corollaire 4.2.3 à la
sous-martingale X kn , k ∈ N,
2

Xσn ∧τn ≤ E(Xτn |Fσn )


donc
E(1A Xσn ∧τn ) ≤ E(1A Xτn ).
Puisque Xt ≥ 0, |Xσn ∧τn | ≤ E(Xτn |Fσn ) et le lemme montre que les suites
Xσn ∧τn et Xτn sont uniformémént intégrables. Donc Xσn ∧τn et Xτn convergent
vers Xσ∧τ et Xτ dans L1 et E(1A Xσ∧τ ) ≤ E(1A Xτ ).
(c) On revient au cas général. Pour tout a > 0, a + Xt ∨ (−a) est une sous-
martingale positive donc, pour tout A ∈ Fσ , E(1A (Xσ∧τ ∨(−a))) ≤ E(1A (Xτ ∨
4.4. FORMULAIRE SUR L’ESPÉRANCE CONDITIONNELLE 51

(−a))). On conclut facilement puisque, lorsque a → +∞, Xτ ∨ (−a) → Xτ et


Xσ∧τ ∨ (−a) → Xσ dans L1 puisque |Xτ ∨ (−a)| ≤ |Xτ .

Corollaire 4.3.6. — Soient (Mt , t ∈ R+ ) une sous-martingale continue à


droite, telle que E(sup0≤t<+∞ |Mt |) < +∞. Pour tous temps d’arrêt σ et τ
E(Mτ |Fσ ) ≥ Mτ ∧σ ,
avec égalité si X est une martingale.

Preuve: En utilisant le théoréme précédent aux temps d’arrêts bornés τ ∧ t


et σ ∧ t, pour tout A ∈ Fσ
E(1A 1{σ≤t} Mτ ∧t ) = E(1A 1{σ≤t} Mσ∧τ ∧t )
car A∩{σ ≤ t} ∈ Fσ∧t . Il suffit alors de faire tendre t vers l’infini en appliquant
le théorème de convergence dominée.

Corollaire 4.3.7. — Soient (Xt , t ∈ R+ ) une (sous) martingale continue à


droite et τ un temps d’arrêt. Alors Xtτ := Xt∧τ est une (sous) martingale.

Preuve: Vu le corollaire précédent, on a, pour s < t, E(Xt∧τ | Fs ) ≥ Xt∧τ ∧s =


Xτ ∧s p.s. 

Corollaire 4.3.8. — Soit (Xt , t ∈ R+ ) un processus intégrable continu à


droite. Alors Xt est une martingale si et seulement si, pour tout temps d’arrêt
borné τ on a E(Xτ ) = E(X0 ).

Preuve: La nécessité résulte du théorème 4.3.5. Montrons que la condition


est suffisante. Soient s < t et A ∈ Fs . τ = s1A + t1Ac est un temps d’arrêt
borné et l’on E(X0 ) = E(Xτ ) = E(1A Xs ) + E(1Ac Xt ). Mais τ = t est aussi
un temps d’arrêt borné d’où E(X0 ) = E(Xt ) = E(1A Xt ) + E(1Ac Xt ). On en
déduit E(1A Xs ) = E(1A Xt ) i.e. Xt est une martingale. 

4.4. Formulaire sur l’espérance conditionnelle


Soit (Ω, A, P) un espace de probabilité et F une sous-tribu de A. L’espérance
conditionnelle E(X|F) d’une variable aléatoire X positive (ou intégrable) n’est
définie que presque surement, on ommetra d’écrire ”p.s.” dans une égalité où
elle apparait.

Théorème 4.4.1 (Propriété caractéristique de l’espérance condition-


nelle)
52 CHAPITRE 4. MARTINGALES

Soit X une v.a.r. positive ou intégrable. L’espérance conditionnelle E(X|F)


est la seule (classe de) v.a. Z ayant les deux propriétés suivantes :
(i) Z est F-mesurable ;
(ii) pour toute v.a.r. U , F-mesurable bornée positive,

E(ZU ) = E(XU ).

On utilisera très souvent les inégalités suivantes qui montrent que l’applica-
tion T : Lp → Lp donnée par T (X) = E(X|F) est continue pour p = 1, 2, ∞.

Proposition 4.4.2 (Continuité de l’espérance conditionelle)

kE(X|F)kL1 ≤ kXkL1 ; kE(X|F)kL2 ≤ kXkL2 ;

Les propriétés suivantes sont faciles à démontrer et essentielles :

Proposition 4.4.3. — Si les expressions ont un sens :


1. E(E(X|F)) = E(X);
2. |E(X|F)| ≤ E(|X||F).
3. Si X est F-mesurable, E(XY |F) = XE(Y |F);
4. Si G est une sous-tribu de F, E(X|G) = E(E(X|F)|G);
5. E(1|F) = 1;
6. E(aX + bY |F) = aE(X|F) + bE(Y |F);
7. Si X ≤ Y , E(X|F) ≤ E(Y |F);
8. |E(XY |F)|2 ≤ E(X 2 |F)E(Y 2 |F).

On a l’analogue des théorèmes de convergence de Beppo Levi, de Fatou, de


Lebesgue :

Proposition 4.4.4. — Soit (Xn ) une suite de v.a.

(Beppo Levi conditionnel) Si 0 ≤ Xn ↑ X, E(Xn |F) → E(X|F), p.s.

(Fatou conditionnel) Si 0 ≤ Xn , E(lim inf Xn |F) ≤ lim inf E(Xn |F),

(Lebesgue conditionnel) Si |Xn | ≤ V où V ∈ L1 et si Xn → X , E(Xn |F) →


E(X|F), p.s. et dans L1 .
4.4. FORMULAIRE SUR L’ESPÉRANCE CONDITIONNELLE 53

Preuve: On commence par montrer Beppo Levi : si 0 ≤ Xn ↑ X la suite


E(Xn |F) est croissante donc a une limite, que nous notons Z. Comme limite
de fonctions F-mesurables Z est F-mesurable. Et pour toute v.a. U positive
et F-mesurable, par le théorème de Beppo Levi classique, appliqué deux fois,
E(U Z) = lim E(U E(Xn |F)) = lim E(U Xn ) = E(U X).
n→+∞ n→+∞
Donc Z = E(X|F) par la propriété caractéristique de l’espérance condition-
nelle (Thm 4.4.1). Les autres énoncés s’en déduisent comme dans le cas non
conditionnel et par le fait que
||E(Xn |F) − E(X|F)||1 ≤ ||Xn − X||1
pour la convergence dans L1 . 
Très souvent les calculs explicites d’espérance conditionnelle utilisent le
théorème suivant :
Théorème 4.4.5. — Soit (T, X) une variable aléatoire à valeurs dans un
espace produit E × F et h : E × F → R mesurable, positive ou bornée. On
suppose que T est B-mesurable et que X est indépendante de B. Alors,
E(h(T, X)|B) = φ(T ) où φ(t) = E(h(t, X)).

On peut encore écrire cette égalité comme


Z
E(h(T, X)|B)(ω) = h(T (ω), X(ω 0 )) dP(ω 0 ).

Preuve: On utilise la caractérisation de l’espérance conditionnelle pour mon-
trer que E(h(T, X)|B) est bien la variable aléatoire φ(T ). D’abord, il résulte
du théorème de Fubini que l’application t 7→ E(h(t, X)) est mesurable. Il en
résulte que φ(T ) est σ(T ) mesurable, donc B-mesurable. Ensuite, pour toute
v.a. Z B-mesurable, bornée et positive, p.s.,
Z Z
E(h(T, X)Z)(ω) = h(T (ω), X(ω 0 ))Z(ω)dP(ω)dP(ω 0 )

d’après le corollaire 2.11.4. Ceci est égal, par Fubini, à


Z Z Z
h(T (ω), X(ω ))dP(ω ) Z(ω)dP(ω ) = φ(T (ω))Z(ω)dP(ω 0 ) =
0 0 0


= E(φ(T )Z)(ω).
CHAPITRE 5

CROCHET DE MARTINGALES

Afin d’introduire le crochet de martingales, nous allons débuter la construc-


tion de l’intégrale stochastique. La construction est naturelle mais il y a pas
mal d’inégalités à contrôler ! Après ce début, et à l’aide du crochet, on pourra
dans le chapitre suivant construire l’intégrale stochastique en toute généralité.

5.1. Cas discret


Soit (Mn , n ∈ N) une (Fn )–martingale sur (Ω, (Fn )n∈N , P). Si Hn , n ∈ N,
est un processus adapté on pose S(H, M )0 = 0 et
n
X
S(H, M )n = Hk−1 (Mk − Mk−1 ).
k=1
Le lemme simple suivant est la clé des calculs que nous ferons.

Lemme 5.1.1 (Lemme d’orthogonalité). — Si Mn , n ∈ N, est une mar-


tingale dans L2 ,
n
X
E(Mn2 ) − E(M02 ) = E((Mk − Mk−1 )2 ).
k=1

Montrons maintenant un résultat technique (dont la courte démonstration


est due à M.M Belkhiria, étudiant du master),

Proposition 5.1.2. — Soit Mn , n ∈ N, une martingale et Hn , n ∈ N, un


processus adapté borné. Alors S(H, M ) est une martingale et pour tout n ≥ 0,
E(S(H, M )2n ) ≤ k sup Hk2 k2 kMn2 k2 .
k≤p
56 CHAPITRE 5. CROCHET DE MARTINGALES

Preuve: Puisque H est borné, S(H, M )n est intégrable pour tout n. C’est une
martingale car
E(S(H, M )n+1 − S(H, M )n |Fn ) = E(Hn (Mn+1 − Mn )|Fn )

= Hn [E(Mn+1 |Fn ) − Mn ] = 0.
Supposons maintenant que |M | est bornée par c. Par le lemme d’orthogonalité,
puisque S(H, M )0 = 0, en posant Kp = supk≤p Hk2 ,
n−1
X n−1
X
E(S(H, M )2n ) = E(Hp2 (Mp+1 − Mp )2 ) ≤ E(Kp (Mp+1 − Mp )2 ).
p=0 p=0

Puisque Kp est Fp mesurable on a


E(Kp Mp Mp+1 )) = E(Kp Mp E(Mp+1 |Fp )) = E(Kp Mp2 )
donc en développant,
E(Kp (Mp+1 − Mp )2 ) = E(Kp (Mp+1
2
− Mp2 )).
On obtient (puisque Kp ≤ Kp+1 )
n−1
X
E(S(H, M )2n ) ≤ 2
E(Kp (Mp+1 − Mp2 ))
p=0

n−1
X
2
≤ E(Kp+1 Mp+1 − Kp Mp2 )) = E(Kn Mn2 − K0 M02 )) ≤ E(Kn Mn2 )
p=0
donc, par Cauchy Schwarz,
E(S(H, M )2n ) ≤ k sup Hk2 k2 kMn2 k2 .
k≤p

5.2. Premiers pas, à temps continu


On considère une martingale continue Mt , t ∈ R+ , sur (Ω, (Ft ), P). On
appelle processus (adapté) élémentaire un processus H s’écrivant
n−1
X
Ht = Hti 1[ti ,ti+1 [ (t)
i=0

où 0 ≤ t0 < t1 · · · < tn et où Hti est une v.a. Fti –mesurable bornée. On note
E l’ensemble de ces processus élémentaires.
5.3. CROCHET COMME VARIATION QUADRATIQUE 57

Proposition 5.2.1. — Pour H ∈ E on pose


Z t n−1
X
Hs dMs = (H · M )t = Hti (Mti+1 ∧t − Mti ∧t ).
0 i=0
Alors
(i) H · M est une (Ft )-martingale continue, nulle en 0.
(ii) Si M est bornée par C > 0, pour tout T > 0,
|| sup (H · M )t ||22 ≤ C 2 || sup Ht2 ||2
0≤t≤T t≤T

Preuve: Puisque M est une martingale, E(Mr |Fs ) = Mr∧s pour tous r, s, ≥ 0.
On en déduit que si 0 ≤ ti ≤ s ≤ t,
E(Hti (Mti+1 ∧t − Mti ∧t )|Fs ) = Hti E(Mti+1 ∧t − Mti ∧t )|Fs )
= Hti (Mti+1 ∧t∧s − Mti ∧t∧s )
= Hti (Mti+1 ∧s − Mti ∧s ).
En utilisant cette relation pour s = ti , on voit maintenant que si 0 ≤ r ≤ ti ≤ t,
E(Hti (Mti+1 ∧t − Mti ∧t )|Fr ) = E(E(Hti (Mti+1 ∧t − Mti ∧t )|Fti )|Fr ) = 0
donc encore
E(Hti (Mti+1 ∧t − Mti ∧t )|Fr ) = Hti (Mti+1 ∧r − Mti ∧r ).
Lorsque t ≤ ti , ceci est trivialement vrai. Donc H · M est une martingale.
Montrons (ii). On regarde la martingale à temps discret Nk = Mtk ∧T et le
processus à temps discret Gk = Htk . Alors
(H · M )T = S(G, N )n
donc par la Proposition 5.1.2, il existe c > 0 tel que
||(H · M )T ||22 ≤ c|| sup Ht2 ||2 .
t≤T
On applique alors l’inégalité de Doob à la martingale H · M .

5.3. Crochet comme variation quadratique


Théorème 5.3.1. — Soit M une martingale continue bornée et 0 = tn0 ≤
tn1 ≤ · · · ≤ tnpn = T une suite de subdivisions de [0, T ] dont le pas tend vers 0.
Alors, la limite
n −1
pX
(4) lim (Mtni+1 ∧t − Mtni ∧t )2
n→+∞
i=0
58 CHAPITRE 5. CROCHET DE MARTINGALES

existe dans L2 et définit, pour t ≤ T , un processus croissant continu adapté


noté hM, M it . Il existe une sous suite qui, presque surement, converge uni-
fomément en t ∈ [0, T ]. De plus
Mt2 − hM, M it
est une martingale.

Preuve: L’idée de la preuve est d’anticiper la formule


Z t
Mt2 − M02 − hM, M it = 2 Ms dMs
0

(que l’on ne connait pas encore) en écrivant que


pn−1 pn−1
X X
Mt2 − M02 − (Mtni+1 ∧t − Mtni ∧t )2 = 2 Mtni ∧t (Mtni+1 ∧t − Mtni ∧t )
i=0 i=0

pn−1
X
=2 Mtni (Mtni+1 ∧t − Mtni ∧t ).
i=0
Avec
n −1
pX
(n)
Mt = Mtni 1[tni ,tni+1 [ (t),
i=0
ceci se réécrit
pn−1 Z t
X
(5) Mt2 − M02 − (Mtni+1 ∧t − Mtni ∧t )2 = 2 Ms(n) dMs .
i=1 0

Posons
Z t
(n)
Xt = Ms(n) dMs .
0
(n)
On sait par la Proposition 5.2.1 que Xt est une martingale. En appliquant
(n) (m)
cette proposition à la martingale Xt − Xt on voit qu’il existe C > 0 telle
que
(n) (m) 2
E[ sup (Xt − Xt ) ] ≤ C|| sup (Ms(m) − Ms(n) )2 ||2
0≤t≤T 0≤s≤T

≤ 2C|| sup (Ms(m) − Ms )2 ||2 + 2C|| sup (Ms(n) − Ms )2 ||2


0≤s≤T 0≤s≤T

(en utilisant (a + b)2 ≤ 2(a2 + b2 )). Par continuité de t 7→ Mt (ω) et donc


uniforme continuité sur [0, T ], et le théorème de convergence dominée, ceci
5.3. CROCHET COMME VARIATION QUADRATIQUE 59

tend vers 0 quand m, n → +∞. Par récurrence construisons une suite d’entiers
nk vérifiant nk ≥ nk−1 et, pour tout ≥ nk
(nk )
E( sup (Xt − Xtm )2 ) ≤ 1/2k .
0≤t≤T

Alors,
+∞ +∞
(nk ) (nk+1 ) (n ) (n )
X X
E( sup |Xt − Xt |) ≤ E( sup |Xt k − Xt k+1 |2 )1/2 < +∞.
k=0 0≤t≤T k=0 0≤t≤T

Donc
+∞
(nk ) (nk+1 )
X
sup |Xt − Xt | < +∞, p.s.
k=0 0≤t≤T
(n )
On en déduit que, presque surement, Xt k converge uniformément sur [0, T ]
(n)
vers un processus Xt qui sera donc continu. Toute la suite Xt converge vers
Xt dans L2 . En particulier X est une martingale. Ceci montre (4) en utilisant
(5) et
hM, M it = Mt2 − M02 − 2Xt .
On a
pn−1
(n)
X
Mt2 − M02 − 2Xt = (Mtni+1 ∧t − Mtni ∧t )2
i=0
(n)
Donc la suite i 7→ Mt2n −M02 −2Xtn est croissante. Choisissons une subdivision
i i
(m)
qui se raffine, alors c’est encore vrai pour la suite i 7→ Mt2n − M02 − 2Xtn pour
i i
m ≥ n, donc par passage à la limite pour la suite
(m)
hM, M it(n) = lim Mt2ni − M02 − 2Xtn
i m→+∞ i

La fonction hM, M it est donc croissante. 

Remarque : La preuve montre que


n −1
pX
(6) lim E[sup( (Mtni+1 ∧t − Mtni ∧t )2 − hM, M it )2 ] = 0
n→+∞ t≤T i=0
Le corollaire suivant résulte de la formule (4) et de la convergence p.s. pour
une sous suite.

Lemme 5.3.2. — Si M est une martingale bornée et τ un temps d’arrêt,


hM τ , M τ it = hM, M it∧τ .
60 CHAPITRE 5. CROCHET DE MARTINGALES

5.4. Martingale locale


Dans ce cours, on se concentre sur les processus continus. C’est pourquoi
on pose :

Définition 5.4.1. — Un processus adapté M tel que M0 = 0 est une mar-


tingale locale si il est continu et si il existe une suite croissante τn , n ∈ N, de
temps d’arrêt tendant vers +∞ telle que M τn soit une martingale. On dit que
(τn ) réduit M .
Si M est un processus adapté non nul en 0, on dit que c’est une martingale
locale si Mt − M0 l’est.

Lemme 5.4.2. — Il y a équivalence entre


(i) M est une martingale locale et M0 est intégrable ;
(ii) Il existe une suite croissante (τn ) de temps d’arrêt tendant vers +∞
telle que M τn soit une martingale continue.

Il résulte du théorème d’arrêt que :

Théorème 5.4.3. — Une martingale locale arrêtée est une martingale locale.

Lemme 5.4.4. — La somme de deux martingales locales est une martingale


locale.

Preuve: Si (τn ) réduit la martingale locale M et (σn ) réduit la martingale


locale N , alors σn ∧ τn réduit M + N .

Très souvent on utilisera :

Proposition 5.4.5. — Si M est une martingale locale nulle en 0, et si

Tn = inf{t ≥ 0; |Mt | = n}

alors M Tn est une martingale bornée.

Preuve: Si (τk ) réduit M , M τk est une martingale donc par le théorème


d’arrêt, M τk ∧Tn est une martingale. Pour tout t ≥ 0, quand k → +∞, Mtτk ∧Tn
tend vers MtTn dans L1 par convergence dominée (puisque |Mtτk ∧Tn | ≤ n).
Donc M Tn est une martingale.

Théorème 5.4.6. — Une martingale locale M telle que sup0≤s≤t |Ms | est
dans L1 pour tout t ≥ 0 est une martingale.
5.4. MARTINGALE LOCALE 61

Preuve: Il suffit d’utiliser qu’une limite dans L1 de martingales est une


martingale (Proposition 4.1.4) et le théorème de convergence dominée.
Par contre l’uniforme intégrabilité ne suffit pas. L’exemple classique est
Mt = 1/||Bt+1 || où B est le brownien dans R3 : on verra que c’est une
martingale locale avec la formule d’Ito, par calcul E(Mt2 ) est uniformément
5/2
borné (et même E(Mt ) ) et pourtant
1
E(Mt ) = E(1/||Bt+1 ||) = √ E(1/||B1 ||)
t+1
n’est pas constant.

5.4.1. Crochet d’une martingale locale. — Considérons une martingale


locale M , nulle en 0, et Tn = inf{t ≥ 0; |Mt | = n}. Il résulte du corollaire 5.3.2
que si n ≤ m alors
hM Tn , M Tn it = hM Tm , M Tm it
si t ≤ Tn . On peut donc définir sans ambiguité hM, M i en posant
hM, M it = hM Tn , M Tn it , pour tout n tel que Tn ≥ t.
On aura
hM τ , M τ it = hM, M it∧τ
2
On remarque que, puisque Mt∧τ − hM, M it∧τn est une martingale,
n

Proposition 5.4.7. — Si M est une martingale locale, le processus hM, M it


est continu, adapté et
Mt2 − hM, M it , t ≥ 0,
est une martingale locale.
Le théorème suivant est très important.
Théorème 5.4.8. — Soit M une martingale locale nulle en 0. Alors les
conditions suivantes sont équivalentes :
(i) pour tout t ≥ 0, hM, M it ∈ L1 ;
(ii) M est une martingale de carré intégrable.
Sous ces conditions, Mt2 − hM, M it est une martingale.
Preuve: Supposons (i). On peut réduire M avec Tn = inf{t; |Mt | = n}. Alors
(n)
Nt = (MtTn )2 − hM Tn , M Tn it
(n)
est une martingale (cf. Théorème 5.3.1). Donc E(Nt ) = 0 c’est à dire
(7) E(MT2n ∧t ) = E(hM, M iTn ∧t ).
62 CHAPITRE 5. CROCHET DE MARTINGALES

En particulier
E(MT2n ∧t ) ≤ E(hM, M it )
ce qui assure que la suite MTn ∧t , n ∈ N, est uniformément intégrable. Donc
MtTn tend vers Mt dans L1 et Mt est une martingale comme limite dans L1
de martingales. Par Fatou
E(Mt2 ) ≤ lim inf E(MT2n ∧t ) ≤ lim inf E(hM, M iTn ∧t ) = E(hM, M it ) < +∞.
n→+∞ n→+∞
Donc Mt est de carré intégrable. Ce qui montre (ii). Dans ce cas, par Doob
sup0≤s≤t Ms2 est dans L1 . La martingale locale Mt2 − hM, M it est majorée en
valeur absolue pour t ∈ [0, T ] par hM, M iT + sup0≤t≤T Mt2 . C’est donc une
vraie martingale par le théorème 5.4.6.
Supposons maintenant (ii) donc que Mt est une martingale de carré
intégrable. Alors, par Doob,
E( sup Mt2 ) ≤ 4E(MT2 )
0≤t≤T

donc, puisque M Tn est bornée,


E(hM Tn , M Tn iT ) = E(MT2n ∧T ) ≤ 4E(MT2 )
et
E(hM, M iT ) ≤ 4E(MT2 ) < +∞. 

Proposition 5.4.9. — Soit Mt une martingale locale nulle en 0 et


hM, M i∞ = lim hM, M it .
t→+∞
Alors
E(sup Mt2 ) ≤ 4E(hM, M i∞ ).
t≥0
Si ces quantités sont finies, Mt est une martingale, elle converge p.s. et dans
L2 vers une v.a. M∞ quand t → +∞ et pour tous temps d’arrêts σ, τ
E(Mτ |Fσ ) = Mτ ∧σ .

Preuve: Soit (τn ) une suite de temps d’arrêt bornant M . Par Doob, pour tout
T > 0,
E(sup(Mtτn )2 ) ≤ 4E((MTτn )2 ) = 4E(hM τn , M τn iT ) ≤ 4E(hM, M i∞ )
t≤T
On peut appliquer deux fois le théorème de convergence monotone, en faisant
tendre T puis n vers l’infini, pour obtenir
E(sup Mt2 ) ≤ 4E(hM, M i∞ ).
t≥0
5.5. PROCESSUS À VARIATION FINIE 63

Si cette quantité est finie, Mt est une martingale convergente p.s. par le
théorème de convergence 4.3.3. Par le théorème d’arrêt,

E(Mτ ∧n |Fσ ) = Mτ ∧n∧σ .

et on peut appliquer le théorème de convergence dominée pour l’espérance


conditionnelle (ou la continuité dans L2 ) pour faire tendre n vers l’infini. 

Attention : si M est une vraie martingale, E(Mt2 ) = E(hM, M it ), donc

sup E(Mt2 ) = E(hM, M i∞ ).


t≥0

Si par contre M est seulement une martingale locale ceci peut être faux, comme
le montre le contre exemple de la fin de la section précédente Mt = 1/||Bt+1 ||
où B est le brownien de R3 (dans ce cas E(hM, M i∞ ) = +∞ car M n’est pas
une martingale).
Insistons, l’inégalité de Doob sous la forme

E(sup Mt2 ) ≤ 4E(MT2 )


t≤T

est fausse pour la martingale locale Mt = 1/||Bt+1 ||.

5.5. Processus à variation finie


Définition 5.5.1. — On appelle processus (sous entendu adapté continu) à
variation finie la différence de deux processus croissants continus adaptés.

Si At = Ut − Vt est à variation finie avec U et V croissants, pour toute


subdivision 0 = t0 < t1 < · · · < tn = T ,
n
X n
X n
X
(8) |Ati − Ati−1 | ≤ |Uti − Uti−1 | + |Vti − Vti−1 | ≤ UT − U0 + VT − V0 .
i=1 i=1 i=1

Il y a une réciproque à cette propriété, mais nous ne l’utiliserons pas.


L’exemple typique de processus à variation finie est donné par la primitive
Rt
At = 0 Rs ds d’un processus Rt localement intégrable progressif (par exemple
Rt Rt
continu adapté) : en effet il suffit de prendre Ut = 0 Rs+ ds et Vs = 0 Rs− ds.
Si A est nul en 0 on prendra U et V nuls en 0.

Proposition 5.5.2. — Une martingale locale (continue) nulle en 0 à varia-


tion finie est nulle.
64 CHAPITRE 5. CROCHET DE MARTINGALES

Preuve: Ecrivons Mt = Ut − Vt avec U, V croissants continus adaptés. Soit


τk = inf{t ≥ 0; Ut + Vt ≥ k} et 0 = tn0 < tn1 < · · · < tnpn = T une suite de
subdivisions de [0, T ] dont le pas tend vers 0. Alors, en appliquant le lemme
d’orthogonalité 5.1.1 à la martingale N = M τk ,
pn
X
E(MT2 ∧τk ) = E( (Ntni − Ntni−1 )2 )
i=1
pn
X
≤ E(sup |N tn
j
−Ntn
j−1
| |Ntni − Ntni−1 |)
j i=1
≤ E(sup |Ntnj − Ntnj−1 |(UT ∧τk + VT ∧τk ))
j
≤ kE(sup |Ntnj − Ntnj−1 ]) → 0,
j

donc MT = 0.

Corollaire 5.5.3. — Si M est une martingale locale, hM, M i est l’unique


processus croissant adapté At nul en 0 tel que Mt2 − At soit une martingale
locale.

5.6. Crochet de deux martingales locales


Considérons deux martingales locales M et N . Le ”crochet” de M et N est
défini par
1
hM, N it = [hM + N, M + N it − hM − N, M − N it ]
4
Exactement comme au dessus on voit que

Proposition 5.6.1. — hM, N i est le seul processus (continu adapté) à va-


riation finie, nul en 0, tel que M N − hM, N i soit une martingale locale.

Si M et N sont bornés, il résulte de la formule (4) du théorème 5.3.1 que


si 0 = tn0 < tn1 < · · · < tnpn = T sont des subdivisions dont le pas tend vers 0.
Alors
pn
X
(9) hM, N iT = lim (Mtni − Mtni−1 )(Ntni − Ntni−1 )
n→+∞
i=1

On en déduit :
5.6. CROCHET DE DEUX MARTINGALES LOCALES 65

Théorème 5.6.2. — Si M et N sont deux martingales locales, et τ un temps


d’arrêt, alors
hM τ , N i = hM, N τ i = hM τ , N τ i = hM, N iτ .

Preuve: Ecrire (après avoir borné par localisation) que


pn
X
hM τ , N iT = lim (Mtni ∧τ − Mtni−1 ∧τ )(Ntni − Ntni−1 )
n→+∞
i=1
et que
X X X X
= + + .
i=1 i;tn
i ≤τ i;tn n
i−1 ≤τ ≤ti i;tn
i−1 ≥τ

La somme du milieu ne comporte qu’un seul terme et tend donc vers 0, les
autres sont les mêmes si on remplace Ntni − Ntni−1 par Ntni ∧τ − Ntni−1 ∧τ .  Le
résultat suivant serait aussi vrai pour des martingales (cf TD),

Proposition 5.6.3. — Si Bt , t ≥ 0, et Bt0 , t ≥ 0, sont deux Ft -browniens


indépendants, alors hB, B 0 it = 0.
Bt +Bt0
Preuve: En appliquant la proposition 3.4.2, on voit que Wt = √
2
est un
mouvement brownien. On en déduit que
1
t = hW, W it = (hB, Bit + 2hB, B 0 it + hB 0 , B 0 it ) = t + hB, B 0 it
2
donc hB, B 0 i = 0. 
Considérons un processus croissant continu A sur R+ . Pour chaque ω ∈ Ω,
définissons une mesure mA(ω) sur R+ on posant
mA(ω) ([s, t]) = At (ω) − As (ω).
Pour simplifier, on notera
Z t Z t
f (s) dmA(ω) (s) = f (s) dAs (ω)
0 0
si f est borélienne positive ou bornée, et la plupart du temps on n’écrit pas ω.
Si A maintenant est un processus à variation finie, donc s’écrivant At = Ut −Vt
où U et V sont des processus croissants, on posera
Z t Z t Z t
f (s) dAs = f (s) dUs − f (s) dVs .
0 0 0
66 CHAPITRE 5. CROCHET DE MARTINGALES

Le seul cas que l’on rencontrera souvent est celui où A est une primitive :
Rt
At = 0 Rs ds. Alors
Z t Z t
f (s) dA(s) = f (s)Rs ds.
0 0
Le lemme suivant sera considérablement renforcé au théorème 6.1.8.

Lemme 5.6.4. — Pour H ∈ E, si M et N sont des martingales locales,


Z T
hH · M, N iT = Hs dhM, N is .
0

Preuve: Par linéarité, il suffit de considérer le cas où Ht = Z1[a,b[ (t), avec
b ≤ T , où Z est Fa –mesurable, bornée. Par localisation, il suffit de considérer
le cas où M et N sont bornées. On a alors
E((H · M )T NT ) = E(Z(Mb − Ma )NT ),
or
E(Z(Mb − Ma )NT ) = E(ZMb Nb ) − E(ZMa Na )
= E(Z[(Mb Nb −hM, N ib )−(Ma Na −hM, N ia )])+E(ZhM, N ib )−E(ZhM, N ia )
= E(ZhM, N ib ) − E(ZhM, N ia )
car M N − hM, N i est une martingale, donc,
Z t
E((H · M )T NT ) = E(Z(hM, N ib − hM, N ia )) = E( Hs dhM, N is ).
0
Pour tout temps d’arrêt τ borné par T , en remplaçant M et N par M τ et N τ
on a encore Z τ
E((H · M )τ Nτ ) = E( Hs dhM, N is )
0
Rt
ce qui montre que (H · M )t Nt − 0 Hs dhM, N is est une martingale (par le
corollaire 4.3.8). 
Le résultat suivant est déterministe.

Lemme 5.6.5. — Soit H une fonction qui s’écrit Ht = n−1


P
i=0 Hti 1[ti ,ti+1 [ (t)
où Hti est un réel. Alors
Z t Z t
2
( Hs dhM, N is ) ≤ hN, N it Hs2 dhM, M is .
0 0
5.6. CROCHET DE DEUX MARTINGALES LOCALES 67

Preuve: On écrit que hλM + N, λM + N it est une fonction croissante de t,


on en déduit que, si s ≤ t,
(hM, N it − hM, N is )2 ≤ (hM, M it − hM, M is )(hN, N it − hN, N is )
qui s’écrit aussi
Z t Z t Z t
( dhM, N iu )2 ≤ dhM, M iu dhN, N iu .
s s s
On en déduit que
Z t n Z
X ti+1 ∧t
| Hs dhM, N is | = | Hs dhM, N is |
0 i=1 ti ∧t
n
X Z ti+1 ∧t
≤ |Hti dhM, N is |
i=1 ti ∧t
n
X Z ti+1 ∧t Z ti+1 ∧t
1/2
≤ |Hti |[ dhM, M is ] [ dhN, N is ]1/2 .
i=1 ti ∧t ti ∧t

)2
a2i )( b2i ) (Cauchy Schwarz) donc
P P P
Or ( ai bi ≤(
Z t n
X Z ti+1 ∧t Xn Z ti+1 ∧t
( Hs dhM, N is )2 ≤ [ Ht2i dhM, M is ][ dhN, N is ]
0 i=1 ti ∧t i=1 ti ∧t

c’est à dire
Z t Z t Z t
2 2
( Hs dhM, N is ) ≤ Hs dhM, M is dhN, N is . 
0 0 0
En utilisant par exemple la proposition 6.1.7, on voit, en utilisant la densité
dans L2 (R, ddhM, M i) à fixé, que
Proposition 5.6.6 (Kunita Watanabe). — L’application qui à Ht =
Pn−1 Rt
Hs dhM, N is se prolonge par continuité à tout
i=0 Hti 1[ti ,ti+1 [ (t) associe 0 R
t
processus mesurable H tel que 0 Hs2 dhM, M iu < ∞ et si on note de la même
façon ce prolongement, il vérifie encore
Z t Z t
( Hs dhM, N is )2 ≤ hN, N it Hs2 dhM, M is .
0 0
CHAPITRE 6

INTÉGRALE STOCHASTIQUE

6.1. Cas d’une martingale de carré intégrable


Sur un espace (Ω, (Ft ), P) on considère une martingale continue Mt de
carré intégrable (c’est à dire telle que Mt ∈ L2 pour tout t ≥ 0). Rappelons
(Théorème 5.4.8) qu’alors hM, M it ∈ L1 et que

Mt2 − hM, M it

est une martingale. Dans la suite on fixe un T > 0.

Définition 6.1.1. — On note HT2 l’espace des martingales dans L2 (Ω, (Ft ), P)
presque surement continues Mt , 0 ≤ t ≤ T , telles que M0 = 0, muni du produit
scalaire
(M, N )H2 = E(MT NT ) = E(hM, M iT ).
T

Remarquons que si M, N ∈ HT2 , alors M + N et M − N sont dans HT2 et


que M N − hM, M i est une martingale.
On identifiera deux martingales égales p.s. dans la proposition suivante.

Proposition 6.1.2. — HT2 est un espace de Hilbert.

Preuve: Il faut montrer que HT2 est complet. Considérons une suite de Cauchy
(n)
M (n) . Alors MT est une suite de Cauchy dans L2 (Ω, F, P), qui est complet.
Il existe donc une variable aléatoire, que nous noterons MT , dans L2 (Ω, F, P)
telle que
(n)
E((MT − MT )2 ) → 0
70 CHAPITRE 6. INTÉGRALE STOCHASTIQUE

quand n → +∞. Posons, pour tout t ≤ T , Mt = E(MT |Ft ). Il est clair que
(Mt ) est une martingale, et par continuité dans L2 de l’espérance condition-
(n)
nelle, que Mt → Mt dans L2 . Par Doob
(n) (m)
E( sup (Ms(n) − Ms(m) )2 ) ≤ 4E((MT − MT )2 )
0≤t≤T

tend vers 0 quand n, m → +∞. On peut extraire une sous suite nk telle que
(n )
Mt k converge uniformément. La limite sera donc continue. Or cette limite
est nécessairement Mt . Ceci montre que Mt est une martingale continue. Donc
(n)
M ∈ HT2 et ||M (n) − M ||2H2 = E((MT − MT )2 ) → 0.
T

Définition 6.1.3. — Etant donnée une martingale M on note L2 (M )T l’en-


RT
semble des processus progressifs H tels que E( 0 Hs2 dhM, M is ) < ∞ muni du
produit scalaire
Z T
(H, K)L2 (M )T = E( Hs Ks dhM, M is ).
0

Proposition 6.1.4. — E est dense dans L2 (M )T .

Preuve: Remarquons que L2 (M )T est un sous espace fermé de l’espace L2 (Ω×


[0, T ], FT ⊗ B([0, T ]), m) où m est la mesure définie par, si A ∈ FT ⊗ B([0, T ]),
Z T
m(A) = E( 1A (ω, s)dhM, M is (ω))
0

C’est donc un espace de Hilbert. Il suffit donc de montrer que si K ∈ L2 (M )T


est orthogonal à E alors il est nul (cf. Corollaire 2.3.8). Posons, pour un tel K,
Z t
Xt = Ks dhM, M is .
0
Montrons que Xt est une martingale : Par l’inégalité de Kunita Watanabe
(Proposition 5.6.6),
Z t Z t
1/2
|Ks | dhM, M is ≤ hM, M it ( Ks2 dhM, M is )1/2
0 0
on voit, après avoir appliqué Cauchy Schwarz, que
Z t Z t
2
(10) [E( |Ks | dhM, M is )] ≤ E(hM, M it )E( Ks2 dhM, M is ) < +∞.
0 0

Donc Xt ∈ L1 . Soit Z une v.a. Fs –mesurable bornée. Pour 0 ≤ s ≤ t ≤ T ,


le processus Hr = Z1[s,t[ (r) est dans E donc, par hypothèse, orthogonal à K,
6.1. CAS D’UNE MARTINGALE DE CARRÉ INTÉGRABLE 71

donc
Z T Z t
0 = E( Hr Kr dhM, M ir ) = E(Z Kr dhM, M ir ) = E(Z(Xt − Xs )).
0 s
Ceci entraı̂ne que X est une martingale. Comme elle est à variation finie, elle
est nulle par la Proposition 5.5.2. Donc, p.s.
Z t
Ks dhM, M is = 0
0
pour tout s > 0, ce qui entraı̂ne (par densité des combinaisons linéaires de
fonctions indicatrices 1[0,s] , ou classe monotone) que, pour presque tout ω ∈ Ω,
s 7→ Ks (ω) est nul dhM, M is (ω) presque partout, donc que K est nul dans
L2 (M )T . 
P
Rappelons maintenant que lorsque H = Hti 1[ti ,ti+1 [ ∈ E et M est une
martingale, on a défini l’intégrale stochastique
X
(H · M )t = Hti (Mti+1 ∧t − Mti ∧t )

Lemme 6.1.5. — Si H ∈ E et M est une martingale de carré intégrable,


Z T
E(H · M )2T = E( Hs2 dhM, M is ).
0

Preuve: Il suffit d’appliquer deux fois le lemme 5.6.4 :


dhH · M, H · M i = HdhM, H · M i = H 2 dhM, M i.

Théorème 6.1.6. — L’intégrale stochastique par rapport à M se prolonge en


Rt
une isométrie de L2 (M )T dans HT2 . On note encore H · M ou 0 Hs dMs , 0 ≤
t ≤ T, l’image de H ∈ L2 (M )T .
Preuve: Considérons l’application
IM : E 7→ HT2
définie par IM (H) = H ·M . Le lemme précédent montre que c’est une isométrie
de E, considéré comme sous espace de L2 (M )T , dans HT2 . Comme E est dense
et HT2 complet, on peut prolonger cette isométrie à HT2 tout entier. En effet,
on a le résultat général suivant :
Proposition 6.1.7. — On considère deux espaces métriques (F1 , d1 ) et
(F2 , d2 ), D une partie dense de F1 et φ : D 7→ F2 une application pour laquelle
il existe c > 0 tel que
(11) d2 (φ(x), φ(y)) ≤ cd1 (x, y)
72 CHAPITRE 6. INTÉGRALE STOCHASTIQUE

pour tous x, y ∈ D. Si (F2 , d2 ) est complet, l’application φ se prolonge à F1


tout entier en une application vérifiant (11) partout.
Preuve: En effet, par densité, pour tout x ∈ F1 , il existe une suite xn ∈ D
tendant vers x. La suite (xn ) est de Cauchy pour d1 puisqu’elle converge.
L’inégalité (11) montre que φ(xn ) est une suite de Cauchy dans (F2 , d2 ).
Comme cet espace est complet, φ(xn ) converge. Il suffit de poser φ(x) =
lim φ(xn ). 
Le théorème suivant est fondamental.
Théorème 6.1.8 (Propriété caractéristique). — Pour H ∈ L2 (M )T ,
(H · M )t , t ≤ T, est la seule martingale de HT2 , nulle en 0, vérifiant
Z T
hH · M, N iT = Hs dhM, N is ,
0
pour tout N ∈ HT2 .
Preuve: Lorsque H ∈ E la relation est donnée par le lemme le lemme 5.6.4.
Pour traiter le cas général d’un H dans L2 (M )T , approchons le par une suite
H n ∈ E. Par construction de l’intégrale stochastique, Hn · M tend vers H · M
dans HT2 . L’application linéaire
M ∈ HT2 7→ hM, N iT ∈ L1
est continue par Kunita Watanabe (Proposition 5.6.6 appliquée à H = 1),
donc, dans L1 ,
Z T Z T
hH·M, N iT = lim hH n ·M, N iT = lim Hsn dhM, N is = Hs dhM, N is ,
n→+∞ n→+∞ 0 0
puisque en utilisant à nouveau Kunita Watanabe
Z T Z T
[E| (Hsn − Hs ) dhM, N is |]2 ≤ EhN, N iT E (Hsn − Hs )2 dhM, M is .
0 0
Reste l’unicité : si X est une martingale nulle en 0, telle que pour tout N ,
hX, N iT = hH · M, N iT ,
alors, en prenant N = X − H · M , on a hX − H · M, X − H · M i = 0 donc
X = H.M . 
Une autre façon d’écrire cette relation est
dhH · M, N it = Ht dhM, N it
c’est à dire que, pour chaque ω fixé, la mesure dhH · M, N it a la densité Ht
par rapport à la mesure dhM, N it .
6.2. CAS D’UNE MARTINGALE LOCALE. 73

Corollaire 6.1.9. — Pour toutes martingales M, N dans HT2 , H ∈ L2 (M )T


et K ∈ L2 (N )T
Z T
hH · M, K · N iT = Hs Ks dhM, N is .
0

Théorème 6.1.10. — Pour H ∈ L2 (M )T , pour tout temps d’arrêt τ ,


(H · M )τ = H · M τ = H1[0,τ [ · M.
De plus, K ∈ L2 (H · M )T si et seulement si KH ∈ L2 (M )T et alors (associa-
tivité de l’intégrale stochastique)
(KH) · M = K · (H · M ).

Preuve: Pour l’arrêt, on utilise la propriété caractéristique. Par le théorème


5.6.2 pour tout N ∈ HT2 , et
Z T
τ τ
h(H · M ) , N iT = h(H · M ), N iT = Hs dhM, N iτs
0
Z T
= Hs d hM τ , N is = hH · M τ , N iT
0
et Z T
τ
h(H · M ) , N iT = H1[0,τ [ dhM, N is = hH1[0,τ [ · M, N iT .
0
Pour l’associativité : d’abord
Z T Z T
2
E( Ks dh(H · M ), (H · M )is ) = E( Ks2 Hs2 dhM, M is ).
0 0
Par ailleurs
Z T Z T
h(KH)·M, N iT = Ks Hs d hM, N is = Ks hH·M, N is = hK·(H·M ), N iT .
0 0

6.2. Cas d’une martingale locale.


Soit M une martingale locale.

Définition 6.2.1. — On note L0 (M ) l’ensemble des processus progressifs H


tels que, pour tout t > 0,
Z t
Hs2 dhM, M is < +∞, p.s.
0
74 CHAPITRE 6. INTÉGRALE STOCHASTIQUE

Les processus adaptés ”raisonnables” sont dans L0 (M ), par exemple (en


utilisant le lemme 3.6.2)

Proposition 6.2.2. — Si Xt est un processus adapté continu et τ ≤ +∞ un


temps d’arrêt alors
Ht = Xt 1[0,τ [ (t)
est dans L0 (M ).

Tout processus adapté continu, et même seulement càd-làg, est dans L0 (M ).


Soit H ∈ L0 (M ). La suite
Z t
τn = inf{t ≥ 0; (1 + Hs2 )dhM, M is ≥ n}
0
est formée de temps d’arrêt et croı̂t vers +∞. Puisque
Z T
τn τn
hM , M it ≤ n et Hs2 dhM τn , M τn is ≤ n,
0

on voit que est une vraie martingale de HT2 et que H est dans L2 (M τn )T .
M τn
Considérons H · M τn . Pour m ≥ n,
(H · M τm )τn = H · (M τm )τn = H · M τm ∧τn = H · M τn .
On peut donc poser, sans ambiguı̈té,
(H · M )t = (H · M τn )t , pour tout n tel que τn ≥ t.
On utilisera aussi la notation
Z t
(H · M )t = Hs dMs .
0

Théorème 6.2.3 (Propriété caractéristique). — Pour H ∈ L0 (M ), H ·


M est l’unique martingale locale, nulle en 0, telle que, pour toute martingale
locale N Z T
hH · M, N iT = Hs dhM, N is ,
0

Preuve: facile.

Corollaire 6.2.4. — Pour H, K ∈ L0 (M ), pour tout temps d’arrêt τ ,


(H · M )τ = H · M τ = H1[0,τ [ · M et (HK) · M = H · (K · M ).
6.3. SEMIMARTINGALES 75

Corollaire 6.2.5 (Kunita Watanabe 2). — Pour H ∈ L0 (M ), K ∈


L0 (N ),
Z t Z t Z t
( Hs Ks dhM, N is )2 ≤ Hs2 dhM, M is Ks2 dhN, N is .
0 0 0

6.3. Semimartingales
On se fixe (Ω, F, (Ft ), P).

Définition 6.3.1. — On appelle semimartingale (sous entendu continue) un


processus adapté Xt s’écrivant
Xt = X0 + Mt + Vt
où M est une martingale locale et V un processus à variation finie, nuls en 0,
continus adaptés et X0 est F0 -mesurable.

Vu la Proposition 5.5.2, cette décomposition est unique. On l’appelle la


décomposition canonique.

Définition 6.3.2. — Le crochet de 2 semimartingales Xt = X0 + Mt +


Vt , Yt = Y0 + Nt + Ut où M et N sont les parties martingales locales, est
par définition
hX, Y i = hM, N i.

L’exemple fondamental de semimartingale (mais ce n’est pas le seul, penser


au sup du brownien St = max0≤s≤t Bs ) est donné par les processus d’Ito : on
considère un Ft –mouvement brownien B = (B (1) , · · · , B (d) ) à valeurs dans Rd
issu de 0 ; par définition,

Définition 6.3.3. — Un Ft –mouvement brownien B = (B (1) , · · · , B (d) ) à


valeurs dans Rd est un processus continu tel que Bt+s − Bt , s ≥ 0, est
indépendant de Ft et dont les composantes sont des browniens indépendants.

Définition 6.3.4. — On appelle processus d’Itô réel tout processus Xt de la


forme
Xd Z t Z t
k k
(12) Xt = X0 + φs dBs + αs ds
k=1 0 0

où X0 ∈ F0 , où φk et α sont des processus progressifs réels tels que, pour tout
RtP Rt
t > 0, 0 (φks )2 ds + 0 |αs | ds < +∞ p.s.
76 CHAPITRE 6. INTÉGRALE STOCHASTIQUE

Un processus d’Ito multidimensionnel est un processus dont les compo-


santes sont des processus d’Ito réels (par rapport au même Ft –brownien d-
PRt k Rt
dimensionnel B). Soient Xt = X0 + 0 φ dB k + 0 αs ds et Yt = Y0 +
PRt k k
Rt
0 ψ dB + 0 βs ds les composantes d’un processus d’Itô de dimension 2.
On a
Xd Z t
(13) hX, Y it = φks ψsk ds.
k=1 0

6.3.1. Intégration par rapport à une semimartingale. — Soit Xt =


X0 + Mt + A1t − A2t une semimartingale où A1 et A2 sont croissants. On note
L0 (X), l’ensemble des processus progressifs U tels que, pour tout t > 0,
Z t Z t
2
Us dhMs , Ms i + |Us | d(A1s + A2s ) < +∞, p.s.
0 0

Par exemple tout processus adapté continu par morceaux est dans L0 (X).
Pour U ∈ L0 (X), on définit :
Z t Z t Z t Z t
1
(U · X)t = Us dXs = Us dMs + Us dAs − Us dA2s .
0 0 0 0

On vérifie facilement que :

Proposition 6.3.5. — Si X, Y sont des semimartingales, pour H ∈ L0 (X),


pour tout temps d’arrêt τ ,
(H · X)τ = H · X τ ),
si K ∈ L0 (H.X),
(KH) · X = K · (H · X),
Z t
hH · X, K · Y it = Hs Ks dhX, Y is .
0

Théorème 6.3.6 (de convergence dominée pour l’I.S.)


Soit K, H ∈ L0 (X) et H (n) une suite de processus progressifs telle que ;
(n) (n)
pour tout t ≥ 0, Ht → Ht p.s. quand n → +∞ et |Ht | ≤ Kt . Alors, en
probabilité
Z t Z t
(n)
sup | Hs dXs − Hs dXs | → 0.
0≤t≤T 0 0
6.3. SEMIMARTINGALES 77

Preuve: Si Xt = X0 + Mt + At est la décomposition canonique de X.


L’intégrale par rapport à A se traite avec le théorème de Lebesgue classique.
Pour la partie M , appliquons la technique fondamentale : la localisation.
Etape 1 : Localisation et convergence L2 . Soit τk la suite croissante vers
+∞ de temps d’arrêt, définie par
τk = inf{t ≥ 0; |Mt | + hK · M, K · M it = k}
alors par Doob
Z t Z t Z T Z T
(n) τk τk 2
E[ sup ( Hs dMs − Hs dMs ) ] ≤ 4E[( Hs(n) dMsτk − Hs dMsτk )2 ]
0≤t≤T 0 0 0 0
Z τk ∧T
= 4E[( (Hs(n) − Hs )2 dhM, M is ].
0
(n) R τ ∧T (n)
Par Lebesgue dominé (puisque (Hs − Hs )2 ≤ 4Ks2 ) on voit que 0 k (Hs −
Hs )2 dhM, M i → 0 quand n → +∞, et puisque cette quantité est bornée (par
2k) son espérance tend vers 0 à nouveau par Lebesgue dominé.
Etape 2 : Convergence en probabilité :Soit ε > 0
Z t Z t
P( sup ( Hs(n) dMs − Hs dMs )2 > ε)
0≤t≤T 0 0
Z t Z t
≤ P( sup ( Hs(n) dMsτk − Hs dMsτk )2 > ε, τk > t) + P(τk ≤ t)
0≤t≤T 0 0
etc... tend vers 0.

Proposition 6.3.7. — Soit X une semimartingale et U un processus adapté


continu. Soit 0 = tn0 ≤ tn1 ≤ . . . ≤ tnpn = T, une suite de subdivisions dont le
pas tend vers 0. Alors
n −1
pX Z t
sup | Utni (Xtni+1 ∧t − Xtni ∧t ) − Us dXs | → 0
0≤t≤T i=0 0

et
n −1
pX Z t
sup | Utni (Xtni+1 ∧t − Xtni ∧t )2 − Us dhX, Xis | → 0
0≤t≤T i=0 0

en probabilité.
Ppn −1
Preuve: On pose Usn = i=0 Utni 1[tni ,tni+1 [ (s). On a
n −1
pX Z t
U (X
tn
i tn
i+1 ∧t
−X tn
i ∧t
)= Usn dXs .
i=0 0
78 CHAPITRE 6. INTÉGRALE STOCHASTIQUE

Vu la continuité, U n tend vers U en restant borné pour chaque ω puisque


|Usn | ≤ max0≤r≤t |Ur |. Il suffit d’appliquer le théorème précédent pour obtenir
la première limite.
Pour la seconde limite, pour simplifier les notations ne regardons que ce qui
se passe en T . Ecrivons X = X0 + M + A où M est une martingale et A à
variation finie. Commencons par montrer que
n −1
pX
(Xtni − Xtni−1 )2 → hX, XiT .
i=0

On a
n −1
pX n −1
pX
2
lim | (X tn
i
−X
tn
i−1
) − (Mtni − Mtni−1 )2 |
n→+∞
i=0 i=0

n −1
pX n −1
pX
≤ lim | (Atni − Atni−1 )2 + 2 (Mtni − Mtni−1 )(Atni − Atni−1 )|
i=0 i=0

n −1
pX
≤ ( sup |Atnj − Atnj−1 | + 2|Mtnj − Mtnj−1 |)| |Atni − Atni−1 | = 0
1≤j≤n i=0

par continuité de M et de A et en utilisant l’inégalité (8). Donc


n −1
pX n −1
pX
2
lim (Xtni − Xtni−1 ) = lim (Mtni − Mtni−1 )2
i=0 i=0

Posons τk = inf(s ≥ 0, |Ms | ≥ k). En écrivant


n −1
pX
P(| (Mtni − Mtni−1 )2 − hX, XiT | > ε)
i=0
n −1
pX
= P(| (Mtτnk − Mtτnk )2 − hX τk , X τk iT | > ε, t < τk ) + P(t ≥ τk )
i i−1
i=0
Ppn τk
on obtient la convergence en probabilité puisque i=1 (Mtn − Mtτnk )2 →
i i−1
hX τk , X τk iT par le théorème 5.3.1. Le cas avec supt≤T se traite avec (6).
Il est alors facile de traiter le cas d’un U continu : Il suffit de l’approcher
(pour ω fixé) uniformément sur [0, T ] par les fonctions en escalier du type
P
k Uk/n 1[k/n,(k+1)/n[ .
6.4. FORMULE D’ITÔ 79

Corollaire 6.3.8. — Si X, Y sont deux semimartingales et U un processus


adapté continu.
n −1
pX Z t
sup | Utni (Xtni+1 ∧t − Xtni ∧t )(Ytni+1 ∧t − Ytni ∧t ) − Us dhX, Y is | → 0
0≤t≤T i=0 0

en probabilité.

Preuve: Par découpage.

6.4. Formule d’Itô


Théorème 6.4.1. — (Formule d’Itô) Soit Xt = (Xt1 , . . . , Xtp ) une semimar-
tingale à valeurs dans un ouvert U de Rp , et f ∈ C 2 (U ). Alors f (Xt ) est une
semimartingale et
p Z t p Z
X ∂f j 1 X t ∂2f
f (Xt ) − f (X0 ) = (Xs ) dXs + (Xs ) dhX j , X k is .
0 ∂xj 2 0 ∂x j ∂x k
j=1 j,k=1

Preuve: Traitons le cas p = 1. Par continuité Xt reste à valeurs dans l’inter-


valle de U contenant X0 . La formule de Taylor à l’ordre 2 s’écrit
(y − x)2 00
f (y) − f (x) = f 0 (x)(y − x) + f (θ)
2
pour un θ ∈ [x, y]. Ecrivons donc, pour une suite de subdivisions 0 = tn0 <
tn1 < . . . < tnpn = t, de [0, t] dont le pas tend vers 0,
n −1
pX
f (Xt ) − f (X0 ) = (f (Xtni+1 ) − f (Xtni ))
i=0

n −1
pX n −1
pX
(Xtni+1 − Xtni )2
= f 0 (Xtni )(Xtni+1 − Xtni ) + f 00 (θin )
2
i=0 i=0
où θin est entre Xtni+1 et Xtni . Le premier terme tend en probabilité vers
Rt 0
0 f (Xs ) dXs par la proposition 6.3.8. Pour le second, on a
n −1
pX
00 00
(Xtni+1 − Xtni )2
lim |f (θin ) − f (X )| tn
n→+∞ i
2
i=0

n −1
pX
00 00
(Xtni+1 − Xtni )2
≤ lim sup |f (θkn ) − f (X )| tn =0
n→+∞ k k
2
i=0
80 CHAPITRE 6. INTÉGRALE STOCHASTIQUE

par uniforme continuité de f 00 sur les compacts. Il suffit donc d’appliquer la


proposition précédente pour conclure. Si p > 1, la preuve est la même lorsque
U est convexe. Sinon on utilise la formule de Taylor sous la forme, pour x, y
variant dans un compact de U , il existe une fonction o telle que
p p
X ∂f 1 X ∂2f
f (y)−f (x) = (x) (yj −xj )+ (x)(yj −xj )(yk −xk )+o(ky−xk2 ),
∂xj 2 ∂xj ∂xk
j=1 j,k=1

où o(h)/h → 0 quand h → 0. 

On écrit souvent de façon formelle,


p p
∂f 1 X ∂2f
(Xt ) dXtj +
X
(14) df (Xt ) = (Xt ) dhX j , X k it .
∂xj 2 ∂xj ∂xk
j=1 j,k=1

Corollaire 6.4.2. — Soit X une semimartingale à valeurs dans Rp et f ∈


C 1,2 (R+ × Rp ). Alors f (t, Xt ) est une semimartingale et
f (t, Xt ) − f (0, X0 ) =
t p Z t p Z t
∂2f
Z
∂f X ∂f j 1
X
(s, Xs ) ds+ (s, Xs ) dXs + (s, Xs ) dhX j , X k is .
0 ∂t 0 ∂xj 2 0 ∂xj ∂xk
j=1 j,k=1

Corollaire 6.4.3 (Intégration par parties). — Si X et Y sont deux se-


mimartingales,
d(Xt Yt ) = Xt dYt + Yt dXt + dhX, Y it
CHAPITRE 7

APPLICATIONS DE LA FORMULE D’ITO

7.1. Sur le Brownien multidimensionnel


Soit B le Brownien dans Rd partant de 0 et Wt = Bt + x0 , le mouvement
brownien partant de x0 ∈ Rd . Pour tout temps d’arrêt, τ , par Ito, si U est un
ouvert tel que Wt∧τ ∈ U pour tout t ≥ 0, pour toute fonction C 2 (U )
d Z t∧τ
1 t∧τ
Z
X ∂f
f (Wt∧τ ) = f (x0 ) + (Ws ) dWsi + ∆f (Ws ) ds
0 ∂xi 2 0
i=1
Pd ∂2f
où ∆ est le laplacien ∆f = i=1 ∂x2i . Considérons pour U = Rd − {0} la
fonction f : U → R égale à :
1
f (x) = log kxk, si d = 2 et f (x) = , si d ≥ 3.
kxkd−2
En dehors de 0, ∆f = 0 (on dit que f est harmonique). Donc

Lemme 7.1.1. — Si τ est un temps d’arrêt tel que Wtτ ne s’annule jamais,
f (Wtτ ) est une martingale locale.

Proposition 7.1.2 (Les points sont polaires en dimension ≥ 2)


Si d ≥ 2, pour tout x ∈ Rd
P(∃t > 0; Bt = x) = 0.

Preuve: Il suffit de traiter le cas d = 2. Supposons d’abord x0 6= 0. Montrons


que
P(∃t > 0; Wt = 0) = 0.
Choisissons r, R > 0 tels que r < ||x0 || < R, posons Tr = inf{t ≥ 0; ||Wt || =
r}, TR = inf{t ≥ 0; ||Wt || = R} et τ = Tr ∧ TR . Puisque ln(||Wtτ ||) est une
82 CHAPITRE 7. APPLICATIONS DE LA FORMULE D’ITO

martingale locale bornée,


E[ln(||Wtτ ||)] = E[ln(||W0τ ||)] = ln ||x0 ||
donc, en faisant t → +∞, par convergence dominée,
E[ln(||Wτ ||)] = ln ||x0 ||
c’est à dire
P(Tr < TR ) ln r + P(Tr > TR ) ln R = ln ||x0 ||
ce qui donne
ln R − ln ||x0 ||
(15) P(Tr < TR ) = .
ln R − ln r
En faisant tendre r vers 0 on obtient que
P(T0 ≤ TR ) = 0,
car {T0 ≤ TR } = ∪r<R {Tr < TR }. Puis en faisant tendre R vers +∞,
P(T0 < ∞) = 0.
Donc partant de x0 6= 0 on n’atteint pas 0. Ensuite, puisque pour tout ε > 0,
B̃t = Bt+ε − Bε , t ≥ 0, est un brownien indépendant de Bε et puisque Bε 6= 0,
p.s., on a (en prenant dans ce qui précède Wt = B̃t + Bε )
P(∃t > ε, Bt = 0) = P(∃t > 0, Bε+t = 0) = P(∃t > 0, B̃t = −Bε ) = 0
et, en faisant tendre ε vers 0, P(∃t > 0, Bt = 0) = 0.

Proposition 7.1.3. — En dimensions d = 1, 2, pour tout ouvert U de Rd


P(∃t > 0; Bt ∈ U ) = 1
et, p.s.,
lim inf ||Bt || = 0.
t→+∞
Si d ≥ 3, p.s.,
lim ||Bt || = +∞.
t→+∞

Preuve: Le cas d = 1 est clair. Pour d = 2 en reprenant la preuve précedente


on voit en commençant par faire tendre R vers l’infini dans (15), que pour
tout x0 , P(Tr < +∞) = 1 et donc que pour tout x ∈ R2 ,
P(∃t > 0; ||Bt − x|| < ε) = 1.
7.2. MARTINGALES EXPONENTIELLES 83

On conclut alors facilement. Par contre pour d ≥ 3, puisque ce n’est plus


ln ||x|| mais ||x||2−d qui est harmonique hors de 0, on obtient à la place de
l’équation (15),
R2−d − ||x0 ||2−d
P(Tr < TR ) = .
R2−d − r2−d
En faisant tendre R vers +∞, on obtient que, partant de x0 ,
||x0 ||2−d
P(Tr < +∞) = .
r2−d
On a donc, pour tout M > 0,
M 2−d
P(lim inf |Bt | ≥ r) ≥ P(kBt+TM k ≥ r, ∀t ≥ 0) ≥ 1 − →1
t→+∞ r2−d
quand M tend vers l’infini si d > 2.

Remarque : On peut maintenant justifier que Mt := 1/||Bt+1 || est bien une


martingale locale pour le brownien dans R3 .

7.2. Martingales exponentielles


7.2.1. Définition. —

Théorème 7.2.1. — Soit M une martingale locale. Alors, pour tout λ ∈ C,


1
E(λM ) = exp(λM − λ2 hM, M i)
2
est une martingale locale et

dE(λM ) = λE(λM ) dM.

Si N est une martingale locale strictement positive, il existe une martingale


locale M telle que N = E(M )

Preuve: Il suffit pour la partie directe d’appliquer la formule d’Ito aux fonc-
tions parties réelles et imaginaires de f (x) = ex et à la semimartingale
2
λM − λ2 hM, M i. Pour la réciproque on applique Ito à log(Nt ).

Proposition 7.2.2. — Soit M une martingale locale à valeurs positives ou


nulles telle que M0 est intégrable. Alors M est une surmartingale (i.e. −M est
une sous martingale). On a toujours E(MT ) ≤ E(M0 ). Si E(MT ) = E(M0 ),
alors M est une martingale.
84 CHAPITRE 7. APPLICATIONS DE LA FORMULE D’ITO

Preuve: Soit τn réduisant M . Par Fatou conditionnel

E(MT |Fs ) ≤ E(lim inf MTτn |Fs ) ≤ lim inf E(MTτn |Fs ) = lim inf Msτn = Ms
n→+∞ n→+∞ n→+∞

donc Mt est une surmartingale. Pour 0 ≤ s ≤ t ≤ T ,

E(MT |Fs ) ≤ E(Mt |Fs ) ≤ Ms

donc
E(MT ) ≤ E(Mt ) ≤ E(Ms ) ≤ E(M0 ) < +∞.
Si E(MT ) = E(M0 ) alors E(Mt ) = E(Ms ). Donc Ms − E(Mt |Fs ) ≥ 0 est
d’espérance nulle, donc nul p.s.

Corollaire 7.2.3. — Soit M une martingale locale nulle en 0 et E(M ) =


exp(M − 21 hM, M i). Alors E(E(M )T ) ≤ 1 et, si E(E(M )T ) = 1 pour un T > 0,
alors E(M )t , t ≤ T, est une (vraie) martingale.

7.2.2. Critère de Paul Lévy. —

Proposition 7.2.4. — Soit M une martingale locale (continue) nulle en 0


de crochet t. Alors M est un (Ft )–brownien.

Preuve: Par le théorème précédent, pour tout λ réel, E(iλM ) est une martin-
λ2 T
gale locale bornée sur [0, T ] par e 2 donc une martingale : pour 0 < s < t,

E[E(iλMt )|Fs ] = E(iλMs )

autrement dit,
1 1
E[exp(iλMt − λ2 t)|Fs ] = exp(iλMs − λ2 s)
2 2
d’où
1
E[exp(iλ(Mt − Ms ))|Fs ] = exp(− λ2 (t − s))
2
et l’on conclut facilement.

7.2.3. Dubins-Schwarz. —

Proposition 7.2.5. — Soit M une martingale locale nulle en 0. Alors il


existe un brownien B tel que Mt = BhM,M it .
7.2. MARTINGALES EXPONENTIELLES 85

Preuve: Ne traitons que le cas plus simple où hM, M i est strictement croissant
et hM, M i∞ = ∞. Dans ce cas, pour chaque ω ∈ Ω, la fonction t ∈ R+ 7→
hM, M it (ω) ∈ R+ est bijective. Notons t ∈ R+ 7→ σt (ω) ∈ R+ l’inverse de
cette fonction (qui vérifie donc hM, M iσt = σhM,M it = t). Chaque σt est un
temps d’arrêt car

{σt ≤ s} = {hM, M iσt ≤ hM, M is } = {t ≤ hM, M is }

est Fs –mesurable. Pour n ∈ N, M σn est une vraie martingale car

hM σn , M σn it ≤ hM, M iσn = n

et par Doob

E(sup(Mtσn )2 ) ≤ lim E(sup(Mtσn )2 ) ≤ 4E(hM, M iσn ) = n.


t≥0 T →+∞ t≤T

On n’a donc pas de mal à justifier l’application du théorème d’arrêt pour


obtenir que si s ≤ t,
E(Mσσtn |Fσs ) = Mσσsn .

Donc Mσt est une (Fσt )-martingale locale. On voit de la même façon que

(M 2 − hM, M i)σt = Mσ2t − t

est une martingale locale. On conclut donc avec le critère de Lévy que Bt =
Mσt est un mouvement brownien. On termine en remarquant que Mt =
BhM,M it .

Proposition 7.2.6. — Soit M une martingale locale. Presque sûrement,


a. Sur hM, M i∞ = +∞,

lim sup Mt = +∞, lim inf Mt = −∞


t→+∞ t→+∞

et limt→+∞ Mt /hM, M it = 0.
b. Sur hM, M i∞ < +∞, Mt converge quand t → +∞.

Corollaire 7.2.7. — Une martingale locale positive converge p.s.


86 CHAPITRE 7. APPLICATIONS DE LA FORMULE D’ITO

7.3. Théorèmes de représentation


Théorème 7.3.1 (Théorème de représentation L2 )
On suppose que (Ft ) est la filtration du brownien Ft = σ(Bs , 0 ≤ s ≤ t). Si
Z ∈ L2 (FT ), il existe un unique processus K dans L2T (B) tel que
Z T
(16) Z − E(Z) = Ks dBs .
0

Preuve: Les combinaisons linéaires des v.a.


Xn
U = exp(i λj (Btj − Btj−1 )),
j=1

n ∈ N, λ1 , · · · , λn ∈ R, t1 ≤ t2 ≤ · · · ≤ tn ≤ T, sont denses dans L2 (Ω, FT ). En


effet soit X ∈ L2 (Ω, FT ) tel que
Xn
E[X exp(i λj (Btj − Btj−1 ))] = 0.
j=1
X X + −
Notons µ+ et µ+ les probabilités sur Rn images de E(X + ) dP et E(X − ) dP

par le vecteur (Bt1 − Bt0 , · · · , Btn − Btn−1 ). Ces deux probabilités ont la
même transformée de Fourier donc sont égales. Autrement dit pour tout
A ∈ σ(Btj − Btj−1 , j = 1, · · · , n), E(1A X) = 0. Par classe monotone, c’est
vrai pour tout A ∈ FT . Donc X = 0.
Notons H̃ l’ensemble des Z de L2 (FT ) admettant la représentation (16).
C’est un fermé car si Zn → Z dans L2 et
Z T
Zn = E(Zn ) + Ksn dBs
0
la suite Zn − E(Zn ) est de Cauchy donc K n est de Cauchy dans L2T (B), qui
est complet. Si Kn → K, alors
Z T
Z = E(Z) + Ks dBs .
0
Pn
Montrons que chaque v.a. U est dans H̃. Posons Gt = j=1 λj 1[tj−1 ,tj [ (t),
Rt Rt RT
i Gs dBs + 21 G2s ds − 12 G2s ds
Mt = e 0 0 et γ = e 0 . Remarquons que γ n’est pas
aléatoire et que dMt = iGt Mt dBt . On a
RT RT RT RT
Gs dBs + 12 G2s ds − 12 G2s ds
U = ei 0 Gs dBs
= ei 0 0 e 0 = γMt
donc Z T
U = γ[1 + iGt Mt dBt ]
0
7.3. THÉORÈMES DE REPRÉSENTATION 87

Z T
U = E(U ) + iγGt Mt dBt
0
ce qui montre que U est dans H̃. Finalement H̃ est fermé et contient un sous
ensemble dense dans L2T (B), il lui est donc égal. Ceci montre l’existence de
la représentation (16). Pour l’unicité, si (16) est vrai pour K et K 0 , alors
RT RT 0
0 Ks dBs = 0 Ks dBs donc
Z T Z T
0
E( 2
(Ks − Ks ) dBs ) = E(Ks − Ks0 )2 ds = 0
0 0
et Ks = Ks0 , p.s.
Corollaire 7.3.2. — Si Ft = σ(Bs , 0 ≤ s ≤ t), toutes les Ft -martingales
sont continues p.s.
Preuve: Soit M est une martingale arbitraire et T > 0. Considérons une suite
Zn de v.a. bornées qui tend vers MT dans L1 , on peut écrire
Z T
Zn = E(Zn ) + Ksn dBs
0
et alors, pour 0 ≤ t ≤ T ,
Z t
(n)
Mt = E(Xn |Ft ) = E(Zn ) + Ksn dBs
0
est continue. Par Doob
E(|Xn − Xm |)
P( sup |Ms(n) − Ms(m) | > ε) ≤
0≤s≤T ε
il en résulte qu’une sous suite de M (n) converge uniformeément sur [0, T ], p.s.,
vers M . Donc M est continue.
Corollaire 7.3.3 (Théorème de représentation L1 )
Si Z ∈ L1 (FT ), où FT = σ(Bs , 0 ≤ s ≤ T ), il existe un processus K dans
(0)
LT (B) tel que
Z T
(17) Z − E(Z) = Ks dBs .
0

Preuve: Par la corollaire précédent Mt = E(Z|Ft ), 0 ≤ t ≤ T , est une


martingale continue. Elle s’écrit donc par le théorème de représentation des
martingales
Mt = M0 + intt0 Ks dBs
(0)
où K dans LT (B). Il suffit alors de remarquer que Z = MT .
88 CHAPITRE 7. APPLICATIONS DE LA FORMULE D’ITO

Théorème 7.3.4 (Théorème de représentation des martingales)


Si Mt est une Ft = σ(Bs , 0 ≤ s ≤ t)-martingale locale, il existe un processus
K ∈ L(0) (B) tel que
Z t
Mt = M0 + Ks dBs .
0

Preuve: On peut supposer que M0 = 0. Soit τn = inf{t ≥ 0; |Mt | ≥ n}.


Puisque MTτn est borné, il existe par le théorème précédent un unique processus
K n ∈ L2T (B) tel que
Z T
MTτn = Ksn dBs
0
Alors, pour tout 0 ≤ t ≤ T ,
Z t
Mtτn = E(MTτn |Ft ) = Ksn dBs
0

Si m ≥ n
Z t
Mtτm = Ksm dBs
0
donc puisque τn ≤ τm ,
Z t∧τn Z t
Mtτn = Ksm dBs = Ksm 1{s≤τn } dBs
0 0

Par unicité
Ksm 1{s≤τn } = Ksn
On peut donc poser sans ambiguité, pour s ≤ τn

Ks = Ksn

Alors on aura, pour tout n


Z t
Mtτn = Ks dBs
0

donc, puisque τn → +∞,


Z t
Mtτn = Ks dBs .
0
7.4. GIRSANOV 89

7.4. Girsanov
Sur un espace probabilisable (Ω, F) on dit que deux probabilités P et Q
sont équivalentes si il existe une v.a. Z strictement positive telle que pour
tout A ∈ F Z
Q(A) = 1A Z dP.

On écrira Q = Z·P, ou dQ = Z dP. Par application du théorème de convergence


monotone c’est la même chose que dire que pour toute v.a. X, F–mesurable
positive, Z Z
X dQ = XZ dP.

On continuera à noter E l’espérance par rapport à P mais on notera EQ


R
l’espérance par rapport à Q. Autrement dit E(X) = X dP et EQ (X) =
R R
X dQ = XZ dP..

Théorème 7.4.1 (Girsanov). — Soit M une martingale locale nulle en 0


sur (Ω, (Ft ), P), T > 0 et
1
ZT = eMT − 2 hM,M iT .
On suppose que E(ZT ) = 1 et on note Q la probabilité ZT · P sur (Ω, FT ).
Alors pour toute martingale locale N sur (Ω, (Ft ), P), le processus Xt = Nt −
hN, M it , 0 ≤ t ≤ T, est une martingale locale sur (Ω, (Ft )t≤T , Q) de processus
croissant hN, N it .

Preuve: Montrons d’abord que, sous P, Xt Zt est une martingale locale.


Puisque dZ = ZdM et dhN, Zi = ZdhN, M i la formule d’Ito nous montre
que
d(XZ) = d(N Z −hN, M iZ) = ZdN +N dZ +dhN, Zi−hN, M idZ −ZdhN, M i

= ZdN + N dZ − hN, M idZ


est une somme d’intégrales stochastiques par rapport à des martingales locales,
donc une martingale locale. Soit (τn ) réduisant XZ en martingale et soit τ
un temps d’arrêt borné par T , alors, en utilisant à la fois que, sous P, Z (cf.
Lemme 7.2.3) et (XZ)τn sont des martingales,
EQ [Xττn ] = E[Xττn ZT ] = E[Xττn E(ZT |Fτn ∧τ )]

= E[Xττn Zτn ∧τ ] = E[(XZ)ττn ] = E[X0 ] = EQ [X0 ],


(car Z0 = 1). Donc X τn est une Q-martingale (Corollaire 4.3.8).
90 CHAPITRE 7. APPLICATIONS DE LA FORMULE D’ITO

Le crochet pouvant s’obtenir par une limite p.s. ne dépend que de la classe
d’équivalence des probabilités (puisqu’alors les ensembles négligeables sont les
mêmes).

Il résulte de ce théorème que les semimartingales pour P et Q sont les


mêmes (jusqu’en T ). Par l’argument de la fin de la preuve, ou la propriété
caractéristique par exemple, on voit aussi que les intégrales stochastiques sont
les mêmes pour P et pour Q.
Pour vérifier l’hypothèse du théorème de Girsanov, on utilise le critère de
Novikov :

7.5. Critère de Novikov


Lemme 7.5.1. — Une famille {Xi , i ∈ I} est uniformément intégrable si et
seulement si supi∈I E(|Xi |) < +∞ et pour tout ε > 0, il existe η > 0 tel que
si P(A) ≤ η alors E(1A |Xi |) ≤ ε pour tout i ∈ I.

Preuve: Si le crière est vérifié, étant donné ε > 0, par Markov,


sup E(|Xi |)
P(|Xi | ≥ a) ≤ ≤η
a
pour a assez grand, donc E(1{|Xi |≥a} |Xi |) ≤ ε. Réciproquement, si la famille
est uniformément intégrable, pour M assez grand, et P(A) ≤ ε/2M ,
E(|X|1A ) ≤ E(|X|1A 1{|X|≥M } ) + E(|X|1A 1{|X|≤M } )
≤ E(|X|1{|X|≥M } ) + M P(A) ≤ ε

Théorème 7.5.2 (Critère de Novikov). — Soit M martingale locale


hM,M iT
nulle en 0, telle que E(e 2 ) < +∞. Alors E(E(M )T ) = 1.

Preuve: Rappelons d’abord (Corollaire 7.2.3) que E(E(M )T ) ≤ 1. Pour tout


A ∈ FT ,
MT hM,M iT
1/2
1A e 2 = E(M )T 1A (e 2 )1/2 ,
donc par Cauchy Schwarz,
MT hM,M iT hM,M iT
E(1A e 2 ) ≤ [E(E(M )T )]1/2 [E(1A e 2 )]1/2 ≤ [E(1A e 2 )]1/2 .
Pour 0 < a < 1, posons X = exp aM
1+a , alors
T

a2 1 2 2 2
E(aM )T = eaMT − 2
hM,M iT
= (eMT − 2 hM,M iT )a ea(1−a)MT = E(M )aT X 1−a .
7.6. CAMERON-MARTIN 91

En appliquant l’inégalité de Hölder on a


2 2 2
(18) E(1A E(aM )T ) ≤ E(E(M )T )a E(1A X)1−a ≤ E(1A X)1−a .
Comme (1+a)/2a > 1 on peut appliquer l’inégalité de Jensen (E(U )(1+a)/2a ≤
E(U (1+a)/2a ),
aMT MT 2a
E(1A X) = E(1A exp ) ≤ E(1A e 2 ) 1+a .
1+a
On arrive donc à
MT hM,M iT
E(1A E(aM )T ) ≤ E(1A e 2 )2a(1−a) ≤ [E(1A e 2 )]a(1−a) .
Pour tout temps d’arrêt τ , en appliquant ceci à M τ , on obtient que
hM,M iT
E(1A E(aM )τ ∧T ) ≤ [E(1A e 2 )]a(1−a) .
Il résulte du lemme que la famille E(aM )τ ∧T est uniformément intégrable. Et
donc (pourquoi ?) que la martingale locale E(aM )t est une vraie martingale.
En particulier E(E(aM )T ) = 1. Pour atteindre le cas a = 1 on écrit que par
(18) avec A = Ω,
2 2
1 = E(E(aM )T ) ≤ E(E(M )T )a E(X)1−a
donc en prenant a → 1, E(E(M )T ) = 1. 

Remarque : On a aussi E(E(M )T |F0 ) = 1 puisque E(E(M )T |F0 ) ≤ 1 et


E(E(E(M )T |F0 )) = E(E(M )T ) = 1.

7.6. Cameron-Martin
Corollaire 7.6.1 (Cameron–Martin). — Soit B un brownien sur
RT RT
(Ω, (Ft ), P) et φs ∈ L0 (B). On suppose que ZT = exp[ 0 φs dBs − 12 0 φ2s ds]
Rt
vérifie E(ZT ) = 1. Alors, pour 0 ≤ t ≤ T , B̃t = Bt − 0 φs ds est un
mouvement brownien sur (Ω, (Ft )0≤t≤T , Q) où dQ = ZT dP sur FT .

Preuve: d’après le critère de Lévy, il suffit de voir que B̃t est une martingale
locale de processus croissant t ce qui est immédiat par le théorème. 

Le critère suivant est très utile :

Corollaire 7.6.2 (Variante de Novikov). — Si il existe µ > 0 tel que


RT µφ2t ) dt < +∞, alors E(Z ) = 1.
0 E(e T
92 CHAPITRE 7. APPLICATIONS DE LA FORMULE D’ITO

Preuve: On choisit t0 = 0 < t1 · · · < tn = T avec ti+1 − ti < 2µ et on


pose φi = φ1[ti ,ti+1 [ . Alors, écrivons, en utilisant que pour toute probabilité
R R
ν,exp |f | dν ≤ exp |f | dp (conséquence de l’inégalité de Jensen),
Z ti+1
1 T
R
φi (s)2 ds 1 (ti+1 − ti )φ(s)2
E(e 2 0 ) = E(exp[ ds])
ti+1 − ti ti 2
Z ti+1 Z ti+1
1 (ti+1 − ti )φ(s)2 1
≤ E( exp ds) ≤ E exp µφ(s)2 ds
ti+1 − ti ti 2 ti+1 − ti ti
Zti +t
est fini, donc en appliquant la remarque suivant Novikov au processus Zti , t ≥
0, on voit que
Zt
E( i+1 |Fti ) = 1.
Zti
Donc de proche en proche,
Zt Ztn
E(ZT ) = E(Zt0 1 · · · ) = 1.
Zt0 Ztn−1
CHAPITRE 8

EQUATIONS DIFFÉRENTIELLES
STOCHASTIQUES

8.1. Introduction
Notons Mp×d (R) l’ensemble des matrices p × d à coefficients dans R. Soient
σ : Rp → Mp×d (R) et b : Rp → Rp deux fonctions mesurables localement
bornées (i.e. bornées sur chaque boule) définies sur Rp . Pour x ∈ Rp , on
considère l’équation différentielle stochastique (E.D.S.)
(19) dXt = σ(Xt ) dBt + b(Xt ) dt, X0 = x ∈ R p ;
pour Bt ∈ Rd et Xt ∈ Rp . Etant donné un Ft -mouvement Brownien d dimen-
sionnel B sur (Ω, (Ft ), P), muni de sa filtration, on appelle solution (forte) de
cette équation un processus adapté continu Xt tel que, en coordonnées, pour
i = 1, · · · , p, pour tout t ≥ 0,
d Z t Z t
(i) (i)
X
Xt = X0 + σij (Xs ) dBs(j) + bi (Xs ) ds
j=1 0 0

Le cas d’une équation à coefficients dépendant du temps, du type


dXt = σ(t, Xt ) dBt + b(t, Xt ) dt
se ramène à cette situation en travaillant dans Rp+1 , en rajoutant une com-
(0)
posante Xt = t. Le lemme suivant est crucial.

Lemme 8.1.1 (Gronwall). — Soit g : [0, T ] → R une fonction borélienne


bornée telle que, pour a, b ≥ 0,
Z t
g(t) ≤ a + b g(s) ds, pour tout 0 ≤ t ≤ T.
0

Alors g(t) ≤ aebt sur [0, T ].


94 CHAPITRE 8. EQUATIONS DIFFÉRENTIELLES STOCHASTIQUES

Rt Rt
Preuve: On pose G(t) = a + b 0 g(s) ds et H(t) = a + b 0 G(s) ds. Alors
g(t) ≤ G(t) ≤ H(t)
Rt
et H(t) ≤ a + b 0 H(s) ds. Il suffit donc majorer H or H est dérivable et
(e−bt H(t))0 = −be−bt H(t) + e−bt H 0 (t) = −be−bt H(t) + be−bt G(t) ≤ 0
donc e−bt H(t) ≤ H(0) = a. 

8.2. Solutions fortes d’E.D.S.


On considère l’équation (19). On dit que b et σ sont lipschitziennes si il
existe K > 0 tel que, partout,
||b(x) − b(y)|| ≤ K||x − y||, ||σ(x) − σ(y)|| ≤ K||x − y||.
(on peut prendre comme norme, par exemple, ||σ(x)|| = ( i,j σi,j (x)2 )1/2 et
P

||b(x)|| = ( i bi (x)2 )1/2 ). Le théorème fondamental est le suivant :


P

Théorème 8.2.1. — Soit Bt , t ≥ 0, un (Ω, (Ft ), P) mouvement brownien d–


dimensionnel. On suppose que b et σ sont lipschitziennes. Etant donné x ∈ Rp
il existe un et un seul processus continu adapté X tel que pour tout t ≥ 0,
Z t Z t
Xt = x + b(Xs ) ds + σ(Xs ) dBs .
0 0

Preuve: En dimensions p = d = 1, pour simplifier les notations uniquement.


1. Unicité : Si X, X 0 sont deux solutions. On localise avec τ = inf{t >
0; |Xt − Xt0 | ≥ n} :
Z t∧τ Z t∧τ
0 0
Xt∧τ − Xt∧τ = (b(Xs ) − b(Xs )) ds + (σ(Xs ) − σ(Xs0 )) dBs .
0 0
Puisque (a + b)2 ≤ 2a2 + 2b2 , et en appliquant Cauchy Schwarz, si t ≤ T ,
0
E([Xt∧τ − Xt∧τ ]2 ) ≤
Z t∧τ Z t∧τ
0
≤ 2E([ 2
(b(Xs ) − b(Xs )) ds] ) + 2E([ (σ(Xs ) − σ(Xs0 )) dBs ]2 )
0 0
Z t∧τ Z t∧τ
≤ 2E((t ∧ τ )[ (b(Xs ) − b(Xs0 ))2 ds]) + 2E([ (σ(Xs ) − σ(Xs0 ))2 ds])
0 0
Z t∧τ Z t∧τ
≤ 2E(T [ (K|Xs − Xs0 |)2 ds]) + 2E([ (K|Xs − Xs0 |)2 ds])
0 0
Z t
2 0
≤ 2(T + 1)K E(|Xs∧τ − Xs∧τ |)2 ds.
0
8.2. SOLUTIONS FORTES D’E.D.S. 95

0 ]2 = 0 par le lemme de Gronwall. On en déduit que X = X 0 .


Donc E[Xt∧τ −Xt∧τ

2. Existence : on utilise ce qu’on appelle le schéma de Picard. On pose, pour


tout t ≥ 0, Xt0 = x puis par récurrence
Z t Z t
n n−1
Xt = x + b(Xs ) ds + σ(Xsn−1 ) dBs
0 0

On a
Z t Z t
Xtn+1 − Xtn = (b(Xsn ) − b(Xsn−1 )) ds + (σ(Xsn ) − σ(Xsn−1 )) dBs
0 0

Posons
gn (u) = E(sup[Xtn+1 − Xtn ]2 ).
t≤u

Si 0 ≤ u ≤ T ,
Z t Z t
gn (u) ≤ 2E(sup[ (b(Xs ) − b(Xs )) ds] ) + 2E(sup[ (σ(Xsn ) − σ(Xsn−1 )) dBs ]2 )
n n−1 2
t≤u 0 t≤u 0
Z u Z u
≤ 2E(T (b(Xsn ) − b(Xsn−1 ))2 ds) + 8E([ (σ(Xsn ) − σ(Xsn−1 ))2 ds)
0 0
Z u
≤ 2(T + 4)K 2 E(|Xsn − Xsn−1 |2 ) ds
0
Z u Z u
2 n n−1 2
≤ 2(T + 4)K E(sup |Xs − Xs | ) dv = C gn−1 (v) dv
0 s≤v 0

pour C = 2(T + 4)K 2 . On en déduit par récurrence que,

C n tn−1
gn (t) ≤ g0 (t)
(n − 1)!
or
g0 (t) ≤ E(sup[Xs1 − x]2 ) ≤ E(sup(sb(x) + σ(x)Bs )2 )) ≤ Cte
s≤T s≤T

On a donc

X ∞
X
E( sup[Xtn+1 − Xtn ]2 ) = gn (T ) < +∞.
n=0 t≤T n=0

On en déduit facilement que X n converge p.s. vers une solution X de


l’équation.
96 CHAPITRE 8. EQUATIONS DIFFÉRENTIELLES STOCHASTIQUES

8.3. Localisation
On dit que b et σ sont localement lipschitziennes si pour tout N > 0 il existe
0 > 0 tel que, si ||x|| ≤ N, ||y|| ≤ N ,
KN , KN
0
||b(x) − b(y)|| ≤ KN ||x − y||, ||σ(x) − σ(y)|| ≤ KN ||x − y||.

C’est le cas par exemple dans le cas fondamental où les fonctions b et σ sont
de classe C 1 , par le théorème des accroissements finis.

Théorème 8.3.1. — On suppose que b et σ sont localement lipschitziennes.


Alors pour tout x ∈ Rp il existe un temps d’arrêt ξ ≤ + ∞ et un processus X
tel que pour tout t < ξ, Xt est solution de l’E.D.S.,

dXt = σ(Xt ) dBt + b(Xt ) dt, X0 = x.

Lorsque ξ < +∞, lim supt→ξ− ||Xt || = +∞. Dans ce cas on dit qu’il y a
explosion.
Si, de plus il existe K > 0 tel que, pour tout x ∈ Rp ,

(20) ||σ(x)|| + ||b(x)|| ≤ K(1 + ||x||)

alors ξ = +∞ p.s. et pour tout m, T > 0,

E(sup kXt km ) < +∞.


t≤T

Preuve: Pour tout n > 0 on se donne une fonction φn : Rp → R de classe C 1 ,


égale à 1 sur {x; ||x|| ≤ n} et à 0 sur {x; ||x|| ≥ n + 1}. Les fonctions bn = bφn
et σn = σφn sont lipschitziennes. Il existe donc une unique solution X (n) de
l’E.D.S.
(n) (n) (n) (n)
dXt = σn (Xt ) dBt + bn (Xt ) dt, X0 = x.
(n)
On prend n ≥ ||x||. Soit τn = inf{t ≥ 0; ||Xt || ≥ n}. Si m ≥ n , soit
n = inf{t ≥ 0; ||X (m) || ≥ n}. Alors b (X (m) ) = b (X (m) ) et σ (X (m) ) =
τm t m t∧τmn n t∧τmn m t∧τmn
(m)
σn (Xt∧τm
n ). Comme pour la preuve de l’unicité dans la preuve du théorème

8.2.1 on en déduit que pour tout m ≥ n,


(m) (n)
Xt∧τm
n = Xt∧τ
n

n ≥ τ . On peut donc poser, dès que τ ≥ t,


en particulier τm n n

(n)
Xt = Xt
8.3. LOCALISATION 97

Soit ξ = limn→+∞ τn . On définit ainsi, pour t < ξ, une solution Xt de l’E.D.S.


De plus si ξ < ∞,
lim sup ||Xt || ≥ lim sup ||Xτn || = lim sup n = +∞.
t→ξ − n→+∞ n→+∞

Supposons maintenant vérifiée la condition (20). Soit


τ = inf{t ≥ 0; kXt k ≥ n}
avec n ≥ kx0 k. Pour simplifier les notations, travaillons en dimension 1, pour
p ∈ N, par Ito,
p(p − 1) p−2
dXtp = pXtp−1 dXt + Xt dhX, Xit
2
donc
Z t∧τ
p p p(p − 1)
Xt∧τ = x0 + [p(Xsτ )p−1 b(Xsτ ) + σ(Xsτ )2 (Xsτ )p−2 ]ds
0 2
Z t∧τ
+ p(Xsτ )p−1 σ(Xsτ )dBs
0
Puisque (a + b + c)2 ≤ 4(a2 + b2 + c2 ) on en déduit que
Z t∧τ
2p 2p p(p − 1)
Xt∧τ ≤ 4x0 + 4( [p(Xsτ )p−1 b(Xsτ ) + σ(Xsτ )2 (Xsτ )p−2 ]ds)2
0 2
Z t∧τ
+4( p(Xsτ )p−1 σ(Xsτ )dBs )2
0
donc par Doob, et par Cauchy Schwarz, si 0 ≤ r ≤ T , pour un T > 0 fixé,
2p
E(sup Xt∧τ )≤
t≤r
r
p(p − 1)
Z
4x2p
0 + 4T ( [p(Xsτ )p−1 b(Xsτ ) + σ(Xsτ )2 (Xsτ )p−2 ]2 ds)
0 2
Z r
+16E( [p(Xsτ )p−1 σ(Xsτ )]2 ds
0
On peut trouver deux constantes α, β > 0 telles que, pour tout x ∈ R,
p(p − 1)
4T (pxp−1 b(x) + σ(x)2 xp−2 )2 + 16(pxp−1 σ(x))2 ≤ α + β|x|2p
2
On a donc, en posant γ = 4x2p0 + T α,
Z r
2p 2p
E(sup Xt∧τ ) ≤ γ + β E(Xs∧τ )ds
t≤r 0
donc Z r
2p 2p
E(sup Xt∧τ ) ≤γ+β E(sup Xt∧τ )ds
t≤r 0 t≤s
98 CHAPITRE 8. EQUATIONS DIFFÉRENTIELLES STOCHASTIQUES

et par Gronwall,
2p
E(sup Xt∧τ ) ≤ γeβr .
t≤r
Comme les constantes ne dépendent pas de n (qui a défini τ ) on peut faire
tendre n vers l’infini pour obtenir que
E(sup Xt2p ) ≤ γeβr .
t≤r
En particulier Xt est fini p.s. donc ξ = +∞.

8.4. Propriété de Markov


Reprenons les hypothèses précédentes en supposant que ξ = +∞, et notons
Xt la solution de l’E.D.S. (19) vérifiant X0 = x0 . Par construction, l’applica-
tion
(x0 , ω) ∈ Rp × Ω 7→ {Xt (ω), 0 ≤ t} ∈ C(R+ , Rp )
est mesurable lorsqu’on munit Rd × Ω de la tribu B(R+ ) × F∞ et l’ensemble
des fonctions continues C(R+ , Rp ) de R+ dans Rp de la tribu engendrée par les
applications coordonnées (f 7→ f (t)), par exemple. Puisque l’on peut prendre
F∞ = σ(Bs , s ≥ 0) , il existe une application mesurable
Φ : Rp × C(R+ , Rp ) → C(R+ , Rp )
telle que
Xt = Φ(x0 , B)(t).
De plus, par construction, Pour tout temps d’arrêt τ , fini p.s., on a
Xtτ = Φ(x0 , B τ )(t).
Par la propriété de Markov forte on sait que le processus B̃t = Bt+τ − Bτ est
un mouvement brownien indépendant de Fτ , donc de Xτ . On voit facilement
en prenant d’abord pour H des fonctions étagées que, pour tout H de L0 (B),
Z t+τ Z t
Hs dBs = Hs+τ dB̃s
τ 0
La relation
Z t+τ Z t+τ
Xτ +t = Xτ + b(Xs ) ds + σ(Xs ) dBs
τ τ
Z t Z t
= Xτ + b(Xτ +s ) ds + σ(Xτ +s ) dB̃s
0 0
montre que, si on pose τ Xt = Xτ +t , pour tout t ≥ 0, alors
τ
X = Φ(Xτ , B̃).
8.5. PROCESSUS DE MARKOV 99

Puisque B̃ est indépendant de Fτ , on en déduit :

Théorème 8.4.1. — (Propriété de Markov forte) Pour tout temps d’arrêt τ


fini p.s., pour toute fonction mesurable positive F définie sur C(R+ , Rp ),
E(F (τ X)|Fτ ) = Ey (F (X)), pour y = Xτ
où le symbole Ey signifie que l’on considère la solution X telle que X0 = y.

8.5. Processus de Markov


Posons, pour f mesurable positive sur Rp , Pt f (x) = Ex (f (Xt )). En prenant
F (X) = f (Xt ) et τ = s dans le théorème précédent on voit que
E(f (Xt+s )|Fs ) = Ey (f (Xt )) = Pt f (y), pour y = Xs ,
donc, en prenant l’espérance,
Pt+s f (x) = Ex (f (Xt+s )) = Ps (Pt f )(x)
c’est la propriété dite de semigroupe. On dit que X est un processus de Markov
de semigroupe (Pt ). Par continuité des trajectoires en t = 0,
lim Pt f (x) = f (x)
t→0

si f est continue bornée.

Définition 8.5.1. — On appelle générateur du semigroupe (Pt ) l’opérateur


Lf défini par
Pt f (x) − f (x)
Lf (x) = lim
t→0 t
pour les f pour lesquels cette limite a un sens.

Théorème 8.5.2. — Soit X solution de l’E.D.S.,


dXt = σ(Xt ) dBt + b(Xt ) dt
Alors X est un processus de Markov dont le générateur est donné par
p p
1 X ∂2f X ∂f
Lf (x) = ai,j (x) (x) + bi (x) (x)
2 ∂xi ∂xj ∂xi
i,j=1 i=1

lorsque f est C 2 à support compact où a = σσ ∗ . On dit que X est une diffusion.
100 CHAPITRE 8. EQUATIONS DIFFÉRENTIELLES STOCHASTIQUES

Preuve: Si on applique la formule d’Ito à f (Xt ), on obtient,


X Z t ∂f Z t
f (Xt ) = f (X0 ) + (Xs )σi,j (Xs ) dBj (s) + Lf (Xs ) ds
0 ∂xi
i,j 0

∂f
Puisque f est à support compact , ∂x i
(Xs )σi,j (Xs ) est borné, donc l’intégrale
stochastique est une martingale, d’espérance nulle. On a alors
Z t Z t
Pt f (x) = f (x) + Ex ( Lf (Xs ) ds) = f (x) + Ps Lf (x) ds
0 0
Donc
t
Pt f (x) − f (x)
Z
1
Lf (x) = lim = lim Ps Lf (x) ds = P0 Lf (x) = Lf (x).
t→0 t t→0 t 0

8.6. EDS et EDP


La formule d’Ito et le théorème précédent montrent qu’il y a un lien très fort
entre les EDS et les opérateurs différentiels aux dérivées partielles du second
ordre du type de L. Ceci permet en particulier de donner des solutions proba-
bilistes à certaines équations aux derivées partielles (EDP), et réciproquement.
Donnons deux exemples.

8.6.1. Problème de Dirichlet. — Dans Rp considérons un ouvert borné


D de frontière ∂D régulière. Etant donné une fonction f : ∂D → R sur le bord
on considère l’équation
Lφ(x) = 0, x ∈ D;
φ(x) = f (x), x ∈ ∂D,
où φ est continue sur D̄. Donnons juste l’idée du type de résultat auquel on
peut s’attendre :

Théorème 8.6.1. — Sous de bonnes hypothèses..., la solution φ admet la


représentation
φ(x) = Ex (f (Xτ )), x ∈ D;
où X est la diffusion associée à (19) et τ = inf{t ≥ 0; Xt ∈ ∂D}.

Preuve: On considère la solution X de (19) partant de x ∈ D. Par Ito,


Z t∧τ X Z t Z t∧τ
∂φ
φ(Xt∧τ ) = φ(x) + (Xs )σi,j (Xs ) dBj (s) + Lφ(Xs ) ds
0 0 ∂xi
i,j 0
8.6. EDS ET EDP 101

On prend l’espérance et on tient compte du fait que Lφ est nulle :


E(φ(Xt∧τ )) = E(φ(x)) = φ(x)
et on fait tendre t vers l’infini, et on utilise que φ = f sur ∂D :
φ(x) = lim E(φ(Xt∧τ ) = E(φ(Xτ )) = E(f (Xτ )).
t→+∞

8.6.2. Feynman-Kac. — On se donne g : R+ × Rp → R φ, c : Rp → R avec


c ≥ 0. On considère une solution u bornée à dérivées bornées de l’équation
∂u
(21) (t, x) = (L − c(x))u(t, x) + g(t, x), u(0, x) = φ(x).
∂t
Théorème 8.6.2. — La solution u(t, x) de (21) vérifie :
Z t Z t Z s
u(t, x) = Ex [φ(Xt ) exp(− c(Xs ) ds)]+Ex [ g(t−s, Xs ) exp(− c(Xu ) du) ds]
0 0 0
où X est la diffusion associée à (19)
Preuve: On pose, t > 0 étant fixé,
Z s
v(s, x) = u(t − s, x), Zs = exp(− c(Xu ) du).
0
Appliquant la formule d’Itô, on a
d(v(s, Xs )Zs ) = −v(s, Xs )c(Xs )Zs ds + Zs dv(s, Xs )
∂v
= Z{ + (L − c)v} ds + Z∇x v σ dBs .
∂s Rt
Vu que ∇x v est bornée et que 0 ≤ Zs ≤ 1, E( 0 Zs ∇x v σ(Xs ) dBs ) = 0.
D’autre part ∂v ∂u
∂s (s, x) = − ∂s (t − s, x) et donc
∂v ∂u
(s, x) + (L − c)v(s, x) = − (t − s, x) + (L − c)u(t − s, x) = −g(t − s, x).
∂s ∂s
On a donc
Z t
E(v(t, Xt )Zt ) − E(v(0, X0 )Z0 ) = E(− g(t − s, Xs )Zs ds),
0
mais, puisque u(0, Xt ) = φ(Xt ),
E(v(t, Xt )Zt ) − E(v(0, X0 )Z0 ) = E(u(0, Xt )Zt ) − u(t, x) = E(φ(Xt )Zt ) − u(t, x)
et l’on obtient
Z t
u(t, x) = E(φ(Xt )Zt ) + E( g(t − s, Xs )Zs ds).
0