Vous êtes sur la page 1sur 96

Université Pierre et Marie Curie, Paris 6

Master de Mathématiques 2009-2010

M2–Probabilités et Finance

Calcul Stochastique

Philippe Bougerol

14 Octobre 2009

1
TABLE DES MATIÈRES

1. Introduction au calcul stochastique . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1


1.1. Modélisation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
1.2. Bruit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2
1.3. Un ”primer” sur l’intégrale d’Ito . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3

2. Intégration de Lebesgue . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
2.1. Mesures . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
2.2. Intégration . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
2.3. Espaces L1 , L1 , L2 , L2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
2.4. Espérance conditionnelle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
2.5. Densités, Probabilités équivalentes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
2.6. Uniforme intégrabilité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
2.7. Divers . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
2.8. Convergence en probabilité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
2.9. Tribu engendrée . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
2.10. Lois . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
2.11. Mesure produit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
2.12. Processus . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
2.13. Indépendance . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24

3. Mouvement Brownien . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
3.1. Loi gaussienne . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
3.2. Vecteur gaussien . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28
3.3. Famille gaussienne . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
3.4. Définition du mouvement brownien . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
3.5. Filtrations et Brownien . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30
3.6. Propriété de Markov forte du mouvement brownien . . . . . . . . . . . . . . 32
3.7. Existence et Simulation du Mouvement brownien . . . . . . . . . . . . . . . . 36
4 TABLE DES MATIÈRES

3.8. Appendice 1 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36
3.9. Appendice 2 : Construction de P. Lévy du mouvement brownien . . 37
4. Martingales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39
4.1. Martingales, définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39
4.2. Martingales à temps discret . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40
4.3. Martingale continue à droite . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42
4.4. Formulaire sur l’espérance conditionnelle . . . . . . . . . . . . . . . . . . . . . . . . 45
5. Crochet de martingales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49
5.1. Cas discret . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49
5.2. Premiers pas, à temps continu . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51
5.3. Crochet comme variation quadratique . . . . . . . . . . . . . . . . . . . . . . . . . . 52
5.4. Martingale locale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 54
5.5. Processus à variation finie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 57
5.6. Crochet de deux martingales locales . . . . . . . . . . . . . . . . . . . . . . . . . . . . 58
6. Intégrale stochastique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61
6.1. Intégrale stochastique par rapport à une martingale de carré intégrable
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61
6.2. Cas d’une martingale locale. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 65
6.3. Semimartingales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 66
6.4. Formule d’Itô . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 69
7. Applications de la formule d’Ito . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 73
7.1. Sur le Brownien multidimensionnel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 73
7.2. Martingales exponentielles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 75
7.3. Théorème de représentation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 77
7.4. Girsanov . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 79
8. Equations différentielles stochastiques . . . . . . . . . . . . . . . . . . . . . . . . . . 83
8.1. Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 83
8.2. Solutions fortes d’E.D.S. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 84
8.3. Localisation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 86
8.4. Propriété de Markov . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 87
8.5. Processus de Markov . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 88
8.6. EDS et EDP . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 89
CHAPITRE 1

INTRODUCTION AU CALCUL
STOCHASTIQUE

Introduction très très sommaire et volontairement caricaturale, sans toutes


les justifications mathématiques, pour l’instant. Tout sera repris, rigoureuse-
ment et dans un cadre plus général, ensuite.

1.1. Modélisation
On cherche à modéliser (construire des modèles) et faire des calculs sur des
phénomènes évoluant dans le temps qui dépendent du hasard.
La valeur Xt du phénomène à l’instant t, peut être observée à cet instant,
mais pas prédite avant. Entre les instants t et t+h une part de hasard s’ajoute.
On s’intéresse au cas le plus fréquent où la fonction t 7→ Xt est continue. Pour
faire simple supposons que Xt est à valeurs dans R. On va avoir, pour t, h ≥ 0,

Xt+h = Xt + ∆ht

où ∆ht est aléatoire. L’idée fondamentale est qu’au moins dans un premier
temps, pour h très très (infinitésimalement...) petit, ∆ht peut s’écrire

∆ht = Ht εht

où εht est une variable aléatoire indépendante de tout ce qui précède et de loi
ne dépendant que de h (et donc pas de t) et où Ht est une fonction continue
de t, ”observable à l’instant t”, par exemple une fonction de Xt . On va voir
que c’est très opérationel.

C’est assez naturel. Dans le cas déterministe (c’est à dire sans hasard), et
si Xt est dérivable, on a bien ce type de modélisation en prenant pour Ht la
dérivée à l’instant t et en prenant εht = h.
2 CHAPITRE 1. INTRODUCTION AU CALCUL STOCHASTIQUE

1.2. Bruit
Le fait d’avoir pris h ≥ 0 (infinitésimalement) petit entraı̂ne des contraintes.
Si on remplace h par h = h1 + h2 , avec h1 , h2 ≥ 0, on a
Xt+h = Xt + Ht εht
= Xt+h1 +h2 = Xt+h1 + Ht+h1 εht+h
2
1

= Xt + Ht εht 1 + Ht+h1 εht+h


2
1
.
Pour h1 très petit on a par continuité Ht+h1 ∼ Ht . On arrive donc à
εht ∼ εht 1 + εht+h
2
1
.
De proche en proche, pour h très petit,
h/n h/n h/n h/n
εht ∼ εt + εt+h/n + εt+2h/n + · · · + εt+(n−1)h/n .
Nous avons supposé que εht est une variable aléatoire indépendante de tout ce
qui précède et de loi ne dépendant pas de t. On voit donc que nécessairement,
εht est la somme de n variables aléatoires indépendantes et de même loi. Une
variante du théorème de la limite centrale (qui utilise que les εht sont petits ...)
nous conduit à dire qu’alors εht a une loi gaussienne. Notons mh sa moyenne
et σh2 sa variance. La relation
εht = εht 1 + εht+h
2
1

nous amène à (et l’on va voir que c’est vraiment ça la propriété clef, plus
encore que d’être gaussien)
mh1 +h2 = mh1 + mh2 , σh21 +h2 = σh21 + σh22
donc (par exemple si ces coefficients sont continus), il existe a ∈ R et σ ≥ 0
tels que mh = ah et σh2 = σ 2 h.
On voit donc que l’on peut écrire
εht = ah + σ(Bt+h − Bt )
où Bt est un mouvement brownien sur un espace de probabilité (Ω, A, P),
c’est à dire un processus (=famille de variables aléatoires) continu formé de
v.a. gaussiennes telles que Bt ∼ N (0, t) et Bt+h − Bt est indépendant de
Br , 0 ≤ r ≤ t.
On était parti de
Xt+h = Xt + Ht εht
donc on a, au moins infinitésimalement,
Xt+h = Xt + Ht (ah + σ(Bt+h − Bt )).
1.3. UN ”PRIMER” SUR L’INTÉGRALE D’ITO 3

Si σ = 0 cela s’interprète par l’équation différentielle


dXt
= aHt
dt
ce qui s’écrit aussi sous forme intégrale
Z t
Xt − X0 = aHs ds.
0
On va voir par contre que si σ > 0 alors Xt ne peut pas être dérivable. On
va donc plutot garder la forme intégrale en écrivant que
Z t Z t
Xt − X0 = aHs ds + σHs dBs
0 0
Rt
où il faut donner un sens à l’intégrale dite stochastique 0 σHs dBs . On verra
qu’il est aussi utile de généraliser en ne prenant pas le même facteur Hs dans
les deux termes, ce qui s’interprête en distinguant bien la partie aléatoire de
la partie déterministe de l’accroissement.

1.3. Un ”primer” sur l’intégrale d’Ito


Le mot ”primer” est anglais et signifie ”première couche” en métallurgie.
Pour un processus continu par morceaux Ht on veut donner un sens à
Z t
Hs dBs .
0
On va voir que c’est possible et naturel sous l’hypothèse que l’on a déja
évoquée, que Ht est observable à l’instant t. Il faudra donner un sens à ça (et
on dira adapté), mais disons que la propriété essentielle dont on va se servir
ici est que l’accroissement Bt+h − Bt , h ≥ 0 est indépendant de Hs , s ≤ t.
La définition simple ”naturelle” ressemble à l’intégrale de Riemann : si
X n
Ht = Hti 1[ti ,ti+1 [ (t)
i=1
par analogie avec la formule qui se vérifie facilement
Z t X n
Hs ds = Hti (ti+1 ∧ t − ti ∧ t)
0 i=1
(où s ∧ t = min(s, t)), on pose
Z t n
X
Hs dBs = Hti (Bti+1 ∧t − Bti ∧t ).
0 i=1
4 CHAPITRE 1. INTRODUCTION AU CALCUL STOCHASTIQUE

Lemme 1.3.1. — Si Hs ∈ L2 pour tout s > 0, alors pour t > 0,


Z t
E( Hs dBs ) = 0,
0
Z t Z t
E(( Hs dBs )2 ) = E( Hs2 ds).
0 0

Preuve: Montrons la seconde égalité :


n
Rt 2
X
E(( 0 Hs dBs ) ) = E(( Hti (Bti+1 ∧t − Bti ∧t ))2 )
i=1
n
X
= E(Hti Htj (Bti+1 ∧t − Bti ∧t )(Btj+1 ∧t − Btj ∧t ))
i,j=1
X n
= E(Hti 2 (Bti+1 ∧t − Bti ∧t )2 ) +
i=1
X
+2 E(Hti Htj (Bti+1 ∧t − Bti ∧t )(Btj+1 ∧t − Btj ∧t ))
i<j
n
X
= E(Hti 2 )E((Bti+1 ∧t − Bti ∧t )2 ) +
i=1
X
+2 E(Hti Htj (Bti+1 ∧t − Bti ∧t ))E(Btj+1 ∧t − Btj ∧t )
i<j

en utilisant l’indépendance. Puisque E((Bti+1 ∧t − Bti ∧t )2 ) = ti+1 − ti et


E((Btj+1 ∧t − Btj ∧t )) = 0 on obtient que
Z t Xn Z t
E(( Hs dBs )2 ) = E(Hti 2 )(ti+1 ∧ t − ti ∧ t) = E(Hs 2 ) ds. 
0 i=1 0

On veut prolonger cette construction à d’autres processus H. On le fait de


(n)
la façon suivante : si Ht , t ≥ 0, est une suite de processus du type précédent
pour laquelle il y a un processus H tel que H (n) → H au sens où pour tout
t ≥ 0,
Z t
E(Hs(n) − Hs )2 ds → 0
0
Rt (n)
alors, la suite 0 Hs dBs est une suite de Cauchy dans l’espace L2 (Ω, F, P)
puisque
Z t Z t
(n)
E([ Hs dBs − Hs(m) dBs ]2 )
0 0
1.3. UN ”PRIMER” SUR L’INTÉGRALE D’ITO 5

Z t
= E([ (Hs(n) − Hs(m) ) dBs ]2 )
0
Z t
= E( (Hs(n) − Hs(m) )2 ds)
0
Z t
= E((Hs(n) − Hs(m) )2 ) ds
0
Rt (n)
par le lemme. L’espace L2 (Ω, F, P) étant complet (Hilbert), cette suite 0 Hs dBs
converge. On appelle
Z t
Hs dBs
0
sa limite. Elle vérifie, par passage à la limite, comme au dessus

Proposition 1.3.2. —
Z t
E( Hs dBs ) = 0,
0
Z t Z t
E(( Hs dBs ) ) = E( Hs2 ds).
2
0 0

Si Ht , t ≥ 0, est un processus continu borné tel que Ht est σ(Bs , 0 ≤ s ≤ t)


mesurable. Alors la suite de processus
n−1
(n)
X
Ht = H kT 1[ kT , (k+1)T [ (t)
n n n
k=0
approxime bien H au sens précédent sur l’intervalle [0, T ] (utiliser le théorème
de convergence dominée). En fait on verra qu’au lieu d’être borné, il suffit que
Z T
E( Hs2 ds) < ∞.
0

1.3.1. Une formule d’Ito. — Commençons par un résultat fondamental,


qui est tout à fait particulier au mouvement brownien.

Théorème 1.3.3. — Si B est un mouvement brownien si tn0 = 0 < tn1 <


· · · < tnn−1 < tnn = t est une suite de subdivisions de [0, t] dont le pas
sup0≤k≤n−1 |tnk+1 − tnk | tend vers 0, alors, dans L2 ,
n−1
X
lim (Btnk+1 − Btnk )2 = t.
n→∞
k=0

En fait montrons le résultat plus général suivant :


6 CHAPITRE 1. INTRODUCTION AU CALCUL STOCHASTIQUE

Proposition 1.3.4. — Sous les memes hypothèses, si f est une fonction


mesurable bornée, alors dans L2 ,
n−1
X
lim f (Btnk )[(Btnk+1 − Btnk )2 − (tnk+1 − tnk )] = 0.
n→∞
k=0

Preuve:
n−1
!2
X
E( f (Btnk )[(Btnk+1 − Btnk )2 − (tnk+1 − tnk )] )
k=0
n−1
X n−1
X
= E( f (Btnk )f (Btnr )[(Btnk+1 −Btnk )2 −(tnk+1 −tnk )][(Btnr+1 −Btnr )2 −(tnr+1 −tnr )])
k=0 r=0
n−1
X
= E(f (Btnk )2 [(Btnk+1 − Btnk )2 − (tnk+1 − tnk )]2 )+
k=0
X
+2 Ef (Btnk )f (Btnr )[(Btnk+1 −Btnk )2 −(tnk+1 −tnk )][(Btnr+1 −Btnr )2 −(tnr+1 −tnr )])
0≤k<r<n

On utilise l’indépendance des accroissements (espérance du produit est égal


au produit des espérances) :
n−1
X
= E(f (Btnk )2 )E[((Btnk+1 − Btnk )2 − (tnk+1 − tnk ))2 )+
k=0
X
+2 E[f (Btnk )f (Btnr )((Btnk+1 −Btnk )2 −(tnk+1 −tnk ))]E[(Btnr+1 −Btnr )2 −(tnr+1 −tnr )]
0≤k<r<n

Or, puisque Bt+h − Bt a la même loi que hB1 ,
E[(Btnr+1 − Btnr )2 − (tnr+1 − tnr )] = 0
q
E[((Btnk+1 − Btnk )2 − (tnk+1 − tnk ))2 ) = E[(( tnk+1 − tnk )B1 )2 − (tnk+1 − tnk ))2 )

= (tnk+1 − tnk )2 E[(B12 − 1)2 ]


Donc
n−1
!2
X
E( f (Btnk )[(Btnk+1 − Btnk )2 − (tnk+1 − tnk )] )
k=0
n−1
X
= (tnk+1 − tnk )2 E(f (Btnk )2 )E[(B12 − 1)2 ].
k=0
1.3. UN ”PRIMER” SUR L’INTÉGRALE D’ITO 7

Or ceci se majore par, si C = E[(B12 − 1)2 ] max f 2 ,


n−1
X n−1
X
C (tnk+1 − tnk )2 ≤C sup |tnk+1 − tnk | (tnk+1 − tnk )
k=0 0≤k≤n−1 k=0

≤ Ct sup |tnk+1 − tnk |


0≤k≤n−1
qui tend vers 0.

Théorème 1.3.5 (Une formule d’Ito). — Si f : R → R est à dérivée


seconde continue,
Z t
1 t 00
Z
0
f (Bt ) = f (B0 ) + f (Bs ) dBs + f (Bs ) ds.
0 2 0
Preuve: On va utiliser la formule de Taylor (Taylor-Lagrange) : pour tout
x, y il existe z entre x et y tels que
1
f (y) − f (x) = f 0 (x)(y − x) + f 00 (z)(y − x)2 .
2
kt
On prend une suite de subdivisions de [0, t], par exemple tnk = n.
n−1
X
f (Bt ) − f (B0 ) = f (Btnk+1 ) − f (Btnk )
k=0

n−1 n−1
X 1 X 00 k
= f 0 (Btnk )(Btnk+1 − Btnk ) + f (θn )(Btnk+1 − Btnk )2
2
k=0 k=0
où θnk
est entre B et B tn
k
. tn
k+1
Comme ça ne dépend pas de n c’est égal à sa limite quand n → +∞.
Supposons par exemple f 0 borné et prenons la limite de chacun des deux
termes de la somme dans L2 . Pour le premier, on remarque d’abord que
n−1
X Z t
0
f (Btk )(Btk+1 − Btk ) =
n n n Zsn dBs
k=0 0

où
n−1
X
Ztn = f 0 (Btnk )1[tnk ,tnk+1 ] (t).
k=0
Donc, en utilisant la proposition,
n−1
X Z t
E([ f 0 (Btnk )(Btnk+1 − Btnk ) − f 0 (Bs ) dBs ]2 )
k=0 0
8 CHAPITRE 1. INTRODUCTION AU CALCUL STOCHASTIQUE

Z t
= E([ (Zsn − f 0 (Bs )) dBs ]2 )
Z0 t
= E([ (Zsn − f 0 (Bs ))2 ds])
0
qui tend vers 0 par le théorème de convergence dominée usuel. Donc, dans L2 ,
n−1
X Z t
0
f (Btk )(Btk+1 − Btk ) →
n n n f 0 (Bs ) dBs .
k=0 0

On regarde maintenant le dernier terme :


n−1
X
[f 00 (θkn ) − f 00 (Btnk )](Btnk+1 − Btnk )2
k=0
n−1
n
X
≤ sup |f 00 (θrn ) − f 00 (Btnr )| (Btnk+1 − B tk )2
1≤r≤n−1
k=0
tend vers 0 (au moins p.s. suivant une sous suite) car f 00 est uniformément
continue sur les compacts. Par la proposition, dans L2 ,
n−1
X n−1
X
lim f 00 (Btnk )(Btnk+1 − Btnk )2 = lim f 00 (Btnk )(tnk+1 − tnk )
n→∞ n→∞
k=0 k=0
Z t
= f 00 (Bs ) ds
0
puisque f 00 est continue (approximation de l’intégrale de Riemann).

On laisse en exercice la généralisation suivante très utile, en utilisant la


formule de Taylor pour une fonction de deux variables.
Théorème 1.3.6 (Une formule d’Ito). — Si f : R+ × R → R, (t, x) 7→
f (t, x) est à dérivées secondes continues,
Z t Z t
1 t 00
Z
∂f ∂f
f (t, Bt ) = f (0, 0) + (s, Bs ) ds (s, Bs ) dBs + f (s, Bs ) ds
0 ∂t 0 ∂x 2 0
1.3.2. Deux calculs. —
Z t
Bt2 =2 Bs dBs + t.
0
λ2 t2
Si Zt = exp(λBt − 2 ) alors
Z t
Zt = 1 + λZs dBs .
0
CHAPITRE 2

INTÉGRATION DE LEBESGUE

Le but de ce chapitre est de développer rapidement ce que l’on appelle la


théorie abstraite de l’intégration de Lebesgue.

2.1. Mesures
Un espace mesurable est la donnée (Ω, F) d’un ensemble Ω et d’une tribu
F sur cet ensemble :

Définition 2.1.1. — Une classe de parties F d’un ensemble Ω est une tribu
si
(i) elle est stable par complémentaire,
(ii) elle est stable par réunion dénombrable,
(iii) elle contient Ω.

Pour comparaison une topologie est une classe d’ouverts : c’est à dire, par
définition, une classe de parties de Ω stable par union quelconque, intersection
finie, contenant Ω et ∅

Définition 2.1.2. — Une mesure sur un espace mesurable (Ω, F) est une
application m : F → R+ ∪ {+∞} telle que
(i) m(∅) = 0.
(ii) m(A ∪ B) = m(A) + m(B) si A ∈ F, B ∈ F sont disjoints.
(iii) si (An , n ∈ N) est une suite croissante d’éléments de F, m(An ) →
m(∪An ).

On dit que m est σ-finie si on peut écrire Ω comme une réunion dénombrable
d’ensembles de mesure finie ; m est une probabilité si m(Ω) = 1.
10 CHAPITRE 2. INTÉGRATION DE LEBESGUE

Exemple : Lorsque Ω est dénombrable (c’est à dire fini ou en bijection avec


N) , F = ensemble de toutes les parties de Ω est une tribu et m(A) = Card(A)
définit une mesure σ-finie (théorie des séries).
Il est difficile de décrire aussi explicitement des exemples très différents de
celui ci, comme par exemple la mesure de Lebesgue que nous verrons.

Définition 2.1.3. — On dit qu’une propriété est vraie p.p. (presque partout)
ou p.s. (presque surement) si elle est vraie en dehors d’un ensemble de mesure
nulle.

2.2. Intégration
Soit (Ω, F, m) un espace mesurable muni d’une mesure. Une fonction f :
Ω → R est étagée si on peut l’écrire sous la forme
n
X
f= rk 1Ak
k=1

où rk ∈ R, Ak ∈ F, k = 1, ..n. On définit l’intégrale de la fonction étagée f


positive par
Z n
X
f dm = rk m(Ak ).
k=1
(avec la convention ici que 0 · ∞ = 0). On vérifie facilement que ça ne
dépend pas de la décomposition choisie et que, si f, g sont étagées positives et
a, b ∈ R+ ,
Z Z Z
(af + bg) dm = a f dm + b g dm.

Pour l’instant, appelons fonction mesurable réelle une fonction f : Ω → R̄


telle que pour tout a ∈ R, {f > a} ∈ F. (On utilisera les notations {f > a} =
{ω ∈ Ω; f (ω) > a} et R̄ = R ∪ {+∞} ∪ {−∞}).

Lemme 2.2.1. — Si (fn ) est une suite de fonctions mesurables, alors supn∈N fn
est mesurable.

Preuve: En effet il suffit d’écrire que


{sup fn > a} = ∪n∈N {fn > a}.
n∈N
2.2. INTÉGRATION 11

Si (fn ) est une suite de fonctions mesurables, pour la même raison, inf n∈N fn
et donc
lim sup fn := lim sup fk = inf sup fk
n→+∞ k≥n n∈N k≥n

lim inf fn := lim inf fk = sup inf fk


n→+∞ k≥n n∈N k≥n
sont mesurables. En particulier une limite de fonctions mesurables est me-
surable (rappelons qu’une suite fn converge dans R̄ ssi f := lim sup fn =
lim inf fn et qu’alors f est la limite).
Si f : Ω → R est mesurable positive on pose
Z Z
f dm = sup g dm

où le sup est pris sur l’ensemble des fonctions étagées g qui vérifient 0 ≤ g ≤ f .
Si f est mesurable on dit que f est intégrable si f + := max(f, 0) et f − :=
− min(f, 0) sont d’intégrale finie et on pose alors
Z Z Z
f dm = f dm − f − dm.
+

On voit que f est intégrable ssi |f | l’est puisque |f | = f + + f − et on a


Z Z
| f dm| ≤ |f | dm

Lemme 2.2.2. — Une fonction intégrable est finie presque partout.

Preuve: Soit A = {|f | = +∞}. Si r > 0 et g = r1A , on a g ≤ |f | donc


Z Z
rm(A) = g dm ≤ |f |dm

ce qui n’est possible pour r > 0 que si m(A) = 0. 


Si f et g sont mesurables finies, −f et f + g sont aussi mesurables car
1
{−f > a}c = {f ≥ −a} = ∩n∈N {f > −a − }
n
et
{f + g > a} = ∪r∈Q {f > r, g > a − r}.
On en déduit

Proposition 2.2.3. — L’ensemble des fonctions intégrables est un espace


vectoriel.
12 CHAPITRE 2. INTÉGRATION DE LEBESGUE

Théorème 2.2.4 (de convergence monotone, ou de Beppo Levi)


Si fn est une suite croissante de fonctions mesurables positives,
Z Z
lim fn dm = lim fn dm.
n→+∞ n→+∞

Preuve: La fonction f := lim fn est mesurable. Puisque fn ≤ fn+1 ≤ f , il est


facile de voir que
Z Z Z
fn dm ≤ fn+1 dm ≤ f dm.
R R
Donc lim fn dm ≤ f dm. Pour montrer l’inégalité inverse, prenons une
fonction étagée g telle que 0 ≤ g ≤ f et un réel c tel que 0 < c < 1. Chaque
ensemble
En = {fn ≥ cg}
est mesurable, la suite En est croissante, de réunion Ω. On a
Z Z Z
fn dm ≥ fn 1En dm ≥ cg1En dm.
R
Comme g est étagée, on vérifie que le terme de droite tend vers c g dm. On
a donc Z Z
lim fn dm ≥ c g dm
d’où, par définition, Z Z
lim fn dm ≥ c f dm.
Il suffit alors de faire tendre c vers 1. 

Corollaire 2.2.5. — Si (fn )est une suite de fonctions mesurables positives


+∞ Z
X Z X+∞
fn dm = fn dm.
n=0 n=0

Lemme 2.2.6 (de Fatou). — Soit (fn ) une suite de fonctions mesurables
positives, Z Z
lim inf fn dm ≤ lim inf fn dm.

Théorème 2.2.7 (de convergence dominée). — Soit (fn ) une suite de


fonctions mesurables vérifiant |fn (x)| ≤ g(x) pour tout x de E, où g est une
fonction intégrable, alors si fn converge
Z Z
lim fn dm = lim fn dm.
n→+∞ n→+∞
2.3. ESPACES L1 , L1 , L2 , L2 . 13

Preuve: En remplacant fn par fn − lim fk on se ramène au cas où fn → 0.


Dans ce cas, par Fatou appliqué à g − |fn | ≥ 0,
Z Z Z Z Z
g dm ≤ lim inf g−|fn | dm ≤ lim inf g−|fn | dm = g dm−lim sup |fn | dm
R R
Donc lim sup |fn | dm = 0 ce qui assure que lim |fn | dm = 0. Donc
Z Z
| lim fn dm| ≤ lim |fn | dm = 0.

2.3. Espaces L1 , L1 , L2 , L2 .
On note L1 l’ensemble des fonctions intégrables, L2 l’ensemble des fonctions
de carré intégrable, i.e. des fonctions mesurables f : Ω → R̄ telles que
Z
|f |2 dm < +∞,

et L∞ l’ensemble des fonctions mesurables f pour lesquelles il existe une


constante M ≥ 0 telle que |f | ≤ M , p.p. On pose
Z
kf k1 = |f | dm
Z
kf k2 = ( f 2 dm)1/2 .

et kf k∞ = l’inf des M tels que |f | ≤ M , p.p. On définit ainsi des semi-normes


c’est à dire que la relation suivante est vraie pour p = 1, 2, ∞ :
kf + gkp ≤ kf kp + kgkp
Ceci est immédiat pour p = 1 et résulte pour p = 2 du lemme essentiel suivant :

Lemme 2.3.1 (inégalité de Cauchy Schwartz). — Pour f, g mesurables


Z Z Z
( f g dm) ≤ f dm g 2 dm.
2 2

Preuve: Pour tout λ ∈ R, le trinome en λ du second degré


Z Z Z Z
λ2 [ f 2 dm] + 2λ[ f g dm] + g 2 dm = (λf + g)2 dm

est positif, ce qui n’est possible que si son discriminant


Z Z Z
[ f g dm] − [ f dm][ g 2 dm]
2 2

est négatif. 
14 CHAPITRE 2. INTÉGRATION DE LEBESGUE

On dit qu’une suite de fonctions mesurables fn converge vers f dans Lp , si


f ∈ Lp et
lim kfn − f kp = 0.
n→+∞

Définition 2.3.2. — La suite (fn ) est de Cauchy dans Lp si pour tout ε > 0
il existe N > 0 tel que pour m, n ≥ N,
kfn − fm k ≤ ε.

Théorème 2.3.3. — 1. Si une suite (fn ) est de Cauchy dans Lp , il existe


un élément de Lp tel que fn tend vers f dans Lp .
2. Si une suite fn converge vers f dans Lp il existe une sous suite d’entiers
nk telle que, pour presque tout ω ∈ Ω.
fnk (ω) → f (ω).

Preuve: Ecrivons la preuve pour p = 1. Soit (fn ) une suite de Cauchy. Pour
tout k ∈ N, il existe Nk tel que, pour n, m ≥ Nk ,
kfn − fm k ≤ 2−k .
Si on prend nk = max(N0 , · · · , Nk ) on voit que
kfnk+1 − fnk k ≤ 2−k .
Donc,

Z X ∞ ∞
X X 1
|fnk+1 − fnk | dm = kfnk+1 − fnk k ≤ < +∞.
2k
k=1 k=0 k=0
P∞
Par le Lemme 2.2.2, k=0 |fnk − fnk+1 | est fini presque partout, et la série
P∞
k=0 (fnk − fnk+1 ) est donc convergente (car absolument convergente). On a
p−1
X
fnp = fn0 + (fnk+1 − fnk )
k=0
donc, si on pose

X
f = fn0 + (fnk+1 − fnk ),
k=0
on voit que fnp tend vers f presque partout. On a pu donc extraire une sous
suite convergeant p.p. De plus si n ≥ Nk et p ≥ k, kfn − fnp k ≤ 2−k donc, en
appliquant le lemme de Fatou,
Z Z
|fn − f | dm ≤ lim inf |fn − fnp | dm ≤ 2−k
p→+∞
2.3. ESPACES L1 , L1 , L2 , L2 . 15

d’où kfn − f k tend vers 0. Ceci prouve le 1, et aussi le 2 puisque qu’une suite
convergeante est de Cauchy de façon évidente, et qu’on peut donc lui extraire
une sous suite convergeant p.p. 
Par rapport à la topologie il y a une petite difficulté car
R
Lemme 2.3.4. — Si f est mesurable |f | dm = 0 si et seulement si f = 0
p.p.
Cela résulte immédiatement de la très importante inégalité suivante
Lemme 2.3.5 (Inégalité de Markov). — Si f est une fonction mesurable
positive et T > 0, R
f dm
m(f ≥ T ) ≤ .
T
Donc kf k = 0, n’entraı̂ne pas que f est nulle (partout). Donc k · k n’est pas
une norme, mais seulement une semi-norme, et d(f, g) = kf − gk pas vraiment
une distance. Ce n’est pas génant (et si on veut une norme on remplace Lp
par l’ensemble Lp des classes de fonctions égales presque partout).
Un role particulier est joué par L2 (ou L2 ) car il a une structure géométrique
plus riche que les autres. On peut y définir les angles et surtout l’orthogonalité,
à partir du produit scalaire : pour f, g ∈ L2
Z
hf, gi = f g dm.

Un espace vectoriel muni d’un produit scalaire dans lequel les suites de Cauchy
convergent est appelé un espace de Hilbert. L2 est un espace de Hilbert. Une
propriété fondamentale des espaces de Hilbert est le théorème suivant.
Théorème 2.3.6 (Théorème de projection dans un Hilbert)
Soit V un sous espace vectoriel fermé dans un espace de Hilbert H. Pour
tout x ∈ H il existe un unique élément v ∈ V appelé la projection de x sur V
caractérisé par
– v∈V
– hx − v, wi = 0, pour tous w ∈ V .
En appliquant ce théorème ou en reprenant sa preuve on voit que
Théorème 2.3.7 (Théorème de projection dans L2 )
Soit V un sous espace vectoriel fermé de L2 (au sens où toute limite de
suite dans V est p.s. égale à un élément de V ). Pour tout f ∈ L2 , il existe un
élément v ∈ V appelé la projection de x sur V vérifiant
1. v ∈ V
16 CHAPITRE 2. INTÉGRATION DE LEBESGUE

2. hx − v, wi = 0, pour tous w ∈ V .
Si v 0 est un autre élément de V vérifiant cette propriété v = v 0 p.p.

2.4. Espérance conditionnelle


Dans (Ω, F, P) considérons une sous tribu F de A. L’ensemble V = L2 ((Ω, G, P)
est fermé dans L2 ((Ω, G, P) car toute limite de fonctions F-mesurables est F-
mesurable. On obtient donc immédiatement à partir du théorème 2.3.7

Théorème 2.4.1. — Pour tout X ∈ L2 (Ω, F, P) il existe un élément Z ∈


L2 (Ω, G, P) caractéisé par
1. Z est G mesurable ;
2. E(XU ) = E(ZU ), pour tout U de L2 ((Ω, G, P)

Par définition de Z est l’espérance conditionnelle de X sachant G. On la Il


n’est pas difficile de voir que dans le 2) de la caractérisation, on peut remplacer
”pour tout U de L2 (Ω, G, P)” par ”pour tout U, G mesurable positif et borné.
Alors, on étend cette construction à tout X à valeurs positives, ou intégrable.
Dans tous les cas on note
Z = E(X|G)
et on a :
Propriété caractéristique de l’espérance conditionnelle : Z = E(X/G)
est la v.a. déterminée (à un p.s.) près par
1. Z est G mesurable ;
2. E(XU ) = E(ZU ), pour tout U de U, G mesurable positif et borné.

2.5. Densités, Probabilités équivalentes


Définition 2.5.1. — Etant donné deux mesures µ et ν sur (Ω, F), et une
fonction mesurable positive φ : Ω → R, on dit que µ a la densité φ par rapport
à ν et on écrit
dµ = φ dν
si pour tout A ∈ F
Z
µ(A) = φ(x) dν(x).
A
2.6. UNIFORME INTÉGRABILITÉ 17

Alors, pour toute fonction mesurable positive f


Z Z
f dµ = f φ dν.

Souvent lorsqu’on dit qu’une v.a. réelle a la densité φ, on sous entend que sa
loi a la densité φ par rapport à la mesure de Lebesgue.

Proposition 2.5.2. — Si une v.a. X a une loi de densité φ, alors


Z
E(f (X)) = f (x)φ(x) dm(x)

pour toute fonction mesurable positive f .

Considérons maintenant deux probabilités P et Q sur (Ω, F).

Définition 2.5.3. — On dit que Q est absolument continue par rapport à


P et on note Q << P si P(A) = 0 entraine Q(A) = 0. On dit que Q est
équivalente à P si à la fois Q << P et P << Q.

En utilisant le théorème de projection on peut montrer (mais on ne le fera


pas car il n’est pas important pour nous) le théorème suivant :

Théorème 2.5.4 (Théorème de Radon Nikodym)


On a Q << P si et seulement si il existe une v.a. Z ≥ 0 telle que
dQ = Z dP

2.6. Uniforme intégrabilité


Limitons nous au cas des probabilités et utilisons les notations probabilistes :
on note P une probabilité sur (Ω, F). Une variable aléatoire réelle X : Ω → R
est la même chose qu’une fonction mesurable et on pose
Z
E(X) = X dP.

Définition 2.6.1. — Une famille L de v.a. est uniformément intégrable si


Z
sup |X| dP → 0, quand R → +∞.
X∈L {|X|>R}

Lemme 2.6.2. — Si deux familles L et L0 de v.a. sont uniformément intégrables,


alors {X + X 0 , X ∈ L, X 0 ∈ L0 } est uniformément intégrable.
18 CHAPITRE 2. INTÉGRATION DE LEBESGUE

Preuve:
Z Z Z
|X| dP ≤ |X| dP + |X| dP
{|X+X 0 |>R} {|X+X 0 |>R,|X|>R/2} {|X+X 0 |>R,|X|≤R/2}
Z Z
≤ |X| dP + |X| dP
|X|>R/2} {|X 0 |>R/2,|X|≤R/2}
Z Z
≤ |X| dP + |X 0 | dP
|X|>R/2} {|X 0 |≥R/2}
peut être rendu inférieur à ε pour R assez grand et de même pour l’intégrale
de X 0 .

Théorème 2.6.3. — Soit {Xn , n ∈ N} une suite uniformément intégrable de


variables aléatoires qui converge p.s. vers X. Alors Xn → X dans L1 et en
particulier, E(Xn ) → E(X).

Preuve: Par le lemme, la suite Yn = |Xn − X| est aussi uniformément


intégrable. Ensuite
E(Yn ) = E(Yn 1{Yn <R} ) + E(Yn 1{Yn ≥R} ).
Pour tout ε > 0, pour R assez grand, le second terme est inférieur à ε/2 par
unif. int. Un tel R étant choisi, le premier terme est inférieur à ε/2 pour n
assez grand, par convergence dominée. 

Lemme 2.6.4. — Une suite de v.a. Xn telle que supn E(Xn2 ) < +∞ est
uniformément intégrable.
|Xn |
Preuve: On utilise que 1{|Xn |>R} ≤ R donc
E[Xn2 ]
E[|Xn |1{|Xn |>R} ] ≤ .
R

2.7. Divers
Lemme 2.7.1 (de Borel Cantelli). — Soit (An ) une suite de sous ensembles
mesurables de Ω telle que ∞
P
n=0 m(An ) < +∞. Alors
+∞
X
1An < +∞ p.s.
k=0

Autrement dit, presque tout ω ∈ Ω n’appartient qu’à un nombre fini de An .


2.9. TRIBU ENGENDRÉE 19

Preuve: Par convergence monotone,


Z X+∞ +∞
X
1An dm = m(An ) < +∞
k=0 k=0
P+∞
donc k=0 1An < +∞ p.p. .

2.8. Convergence en probabilité


Définition 2.8.1. — Une suite de v.a. Xn tend vers X en probabilité si pour
tout ε > 0,
P(|Xn − X] ≥ ε) → 0
quand n → +∞.

Proposition 2.8.2. — Si Xn → X en probabilité il existe une sous suite nk


telle que Xnk → X presque surement.

Une façon de le montrer est de remarquer que Xn → 0 en probabilité si et


seulement si min(|Xn |, 1) → 0 dans L1 .
Si Q << P la convergence en probabilité sur (Ω, F, P) entraine la conver-
gence en probabilité sur (Ω, F, Q) (exrecice).

2.9. Tribu engendrée


Définition 2.9.1. — Soit C un ensemble de parties de Ω. On appelle tribu
engendrée par C et on note σ(C) la plus petite tribu contenant C.

Définition 2.9.2. — Soit E un espace muni d’une topologie, on appelle tribu


borélienne de E et on note B(E) la tribu engendrée par les ouverts.

Définition 2.9.3. — Soit (E, E) et (F, B) deux espaces mesurables, on dit


qu’une fonction f : E → F est mesurable si pour tout B ∈ B, f −1 (B) ∈ E.

Lorsque E ou F est un espace topologique, si on ne le précise pas, on le


munit de la tribu borélienne. On retrouve donc la notion introduite avant. Un
sup, un inf, une limite d’une suite de fonctions mesurables à valeurs réelles
sont mesurables. Les fonctions continues sont mesurables.

Lemme 2.9.4. — Toute fonction mesurable de E dans R̄+ est la limite crois-
sante d’une suite de fonctions étagées.
20 CHAPITRE 2. INTÉGRATION DE LEBESGUE

En effet,
n2n −1
X k
f = lim n1{n≤f } + 1 k k+1
n→+∞ 2n { 2n ≤f < 2n }
k=0
(lorsque f est finie on peut se passer du premier terme).
Pour s’habituer aux notations, utilisons le vocabulaire des probabilités.
Donnons nous une famille (Ei , Ei ), i ∈ I, d’espaces mesurables.

Définition 2.9.5. — Soit Xi : Ω → Ei , i ∈ I, des v.a.. On appelle tribu


engendrée par cette famille et on note σ(Xi , i ∈ I) la tribu engendrée par
{Xi ∈ Ai }, Ai ∈ Ei et i ∈ I.

Intuitivement, la tribu σ{Xi , i ∈ I} est formée des ensembles que l’on peut
décrire à l’aide des Xi . Pour une seule application X : Ω → Rd , σ(X) est
exactement la classe des ensembles {X ∈ A}, où A est un borélien de Rd .
Donnons nous pour toute la suite un espace de probabilité (Ω, F, P). Une
variable aléatoire est la même chose qu’une application mesurable mais la
plupart du temps à valeurs dans E = R ou Rd . Le lemme suivant est très
utile.

Lemme 2.9.6. — Soit X une application de Ω dans un espace mesurable


(E, E) et σ(X). Une application Y : Ω → R est σ(X)-mesurable si et seulement
si il existe une application mesurable φ : E → R telle que Y = φ(X).

Preuve: Supposons d’abord que Y est étagée et σ(X)-mesurable. On peut par


définition l’écrire sous la forme Y = kn=1 αn 1An , où An ∈ σ(X). Il existe donc
P

pour tout n, un borélien Bn tel que An = {X ∈ Bn }. Posons φ = kn=1 αn 1Bn .


P

On vérifie qu’alors Y = φ(X). Ceci montre la partie directe du lemme lorsque


Y est étagée. Dans le cas général, si Y est σ(X)-mesurable, il existe une suite
de v.a. étagées Yn telle que Y = lim Yn . Par ce qui précède, on peut écrire
Yn = φn (X) et il suffit alors de poser φ = lim sup φn . La réciproque est facile.

Une façon agréable d’exprimer le lemme précédant est de dire qu’une va-
riable aléatoire Y est σ(X1 , X2 , · · · , Xn )-mesurable si et seulement si elle
s’écrit
Y = φ(X1 , X2 , · · · , Xn )
pour une application borélienne φ.
Le maniement des tribus engendrées est souvent délicat. Un outil sophis-
tiqué :
2.9. TRIBU ENGENDRÉE 21

Théorème 2.9.7 (de la classe monotone). — Soient C et M des ensembles


de parties de Ω tels que C ⊂ M. On suppose que
(i) C est stable par intersection finie (i.e. A, B ∈ C implique A ∩ B ∈ C).
(ii) M est stable par différence propre (i.e. A, B ∈ M et A ⊂ B implique
B \ A ∈ M).
(iii) M est stable par limite croissante (i.e. An ∈ M et An ⊂ An+1 implique
∪An ∈ M).
(iv) Ω est dans M.
Alors σ(C) est contenu dans M.

Preuve: Montrons que l’intersection N de toutes les classes M vérifiant


(ii), (iii), (iv) est une tribu donc contient σ(C). Stable par intersection finie :
Fixons un A de C, la classe
{B ∈ N ; A ∩ B ∈ N }
contient C par (i) et vérifie (ii, iii, iv), elle contient donc N . Maintenant, fixons
un B dans N , la classe
{C ∈ N ; C ∩ B ∈ N }
contient C par ce que l’on vient de montrer et vérifie (ii, iii, iv), elle contient
donc N . 
Le résultat fondamental de la théorie de l’intégration est le suivant :

Théorème 2.9.8. — Il existe une et une seule mesure m sur R, appelée


mesure de Lebesgue, vérifiant
m(]s, t]) = t − s
Plus généralement, pour toute fonction croissante continue à droite A il existe
une mesure et une seule mA vérifiant
mA (]s, t]) = A(t) − A(s)
pour tout s < t.

La preuve de l’existence est difficile, nous l’admettons. Par contre l’unicité


est conséquence du thm de la classe monotone (appliqué à la classe des inter-
valles de la forme [a, b], a, b ∈ R, qui engendre la tribu borélienne et est stable
par intersection finie.)
Il est facile de voir, en utilisant le théorème de convergence dominée que
R
pour toute fonction continue à support compact sur R, f dm n’est autre que
R
l’intégrale de Riemann de f . Nous utiliserons donc aussi la notation f (x) dx.
22 CHAPITRE 2. INTÉGRATION DE LEBESGUE

2.10. Lois
On se donne un espace de probabilité (Ω, F, P) et un ensemble E, muni
d’une tribu E.

Définition 2.10.1. — Soit X : Ω → E une variable aléatoire (= application


mesurable). On appelle loi de X et on note parfois P(X) la probabilité sur
(E, E) définie par P(X) (A) = P(X ∈ A), pour tout A de E.

La règle de calcul suivante est d’un emploi constant : il faut absolument


savoir la manier. La première égalité est la définition de l’espérance.

Proposition 2.10.2. — Soit X une variable aléatoire à valeurs dans E.


Pour toute fonction mesurable f : E → R, à valeurs positives ou telle que
f (X) soit intégrable, on a
Z Z
E(f (X)) = f (X) dP = f dP(X) .
Ω E

2.11. Mesure produit


Soient (E1 , E1 , m1 ) et (E2 , E2 , m2 ) deux espaces mesurés σ-finis. On munit
E1 × E2 de la tribu E1 ⊗ E2 sur E1 × E2 , appelée tribu produit, engendrée par
les ensembles de la classe
C = {A × B, A ∈ E1 , B ∈ E2 }
Cette classe est stable par intersection finie. On pose, pour tout C ∈ E1 ⊗ E2 ,
Z Z
(m1 ⊗ m2 )(C) = { 1C (x, y) dm1 (x)} dm2 (y)}
R
(à l’aide du thm de classe monotone, on vérifie que y 7→ 1C (x, y) dm1 (x) est
bien mesurable). On définit ainsi une mesure sur m1 ⊗ m2 sur E1 × E2 . De la
même façon, la formule
Z Z
ν(C) = { 1C (x, y) dm2 (y)} dm1 (x)}

définit aussi une mesure. Pour tout C = A × B de C,


(m1 ⊗ m2 )(C) = m1 (A)m2 (B) = ν(C)
On déduit donc du théorème de classe monotone que les deux mesures m1 ⊗m2
et ν coincident. Il en résulte assez facilement :
2.12. PROCESSUS 23

Théorème 2.11.1 (de Fubini). — Soit f : E1 × E2 → R une fonction


mesurable. Alors, pour tout x ∈ E1 , la fonction
Z
y ∈ E2 7→ f (x, y) dm1 (x)

est mesurable et
Z Z Z Z
{ f (x, y) dm1 (x)}dm2 (y) = { f (x, y) dm2 (y)}dm1 (x)

sous l’une des deux hypothèses suivantes (i) f est à valeurs positives (ii) f est
intégrable

Lorsque f n’est pas positive, on applique souvent ce thm à |f | pour montrer


que f est intégrable.
L’exemple fondamental est celui de la mesure de Lebesgue sur Rd = R ×
R × · · · × R, égale au produit, d fois, de la mesure de Lebesgue sur R. Pour la
manier on utilise parfois le

Théorème 2.11.2 (de changement de variables)


Si φ est un difféomorphisme de l’ouvert U sur l’ouvert V , on a, pour toute
f ∈ B + (Rd ),
Z Z
(1) f (v) dm(v) = f (φ(u))|J(φ)(u)| dm(u).
V U
∂φj
où J(φ) est le déterminant de la matrice des ∂uk et m est le mesure de
Lebesgue.

2.12. Processus
On appelle processus à temps continu une famille de variables aléatoires
indéxée par R+ et processus à temps discret une famille de variables aléatoires
indexée par N, donc une suite de v.a..
Considérons un processus Xt , t ∈ R+ , à valeurs dans un espace E muni d’une
tribu E. La loi de ce processus, vu comme une v.a. à valeurs dans l’ensemble
+
produit E R , muni de la tribu produit, est complêtement déterminée par les
lois finies dimensionnelles de
(Xt1 , · · · , Xtn ), t1 < · · · < tn , n ∈ N.
Soit (Ω, F, P) un espace de probabilité. On représente ce que l’on ”connait”
à l’instant t par une tribu Ft . Ceci amène à poser
24 CHAPITRE 2. INTÉGRATION DE LEBESGUE

Définition 2.12.1. — Une famille croissante (Ft , t ∈ R+ ) de sous-tribus de


F, c’est à dire vérifiant Fs ⊂ Ft ⊂ F, s’appelle une filtration et le terme
(Ω, F, Ft , P) un espace de probabilité filtré.
Un processus Xt est dit adapté à cette filtration si Xt est Ft -mesurable,
pour tout t ≥ 0.
L’exemple fondamental de filtration est donné par Ft = σ(Xs , s ≤ t) où
(Xt ) est un processus quelconque. Si Xt est un processus adapté sans régularité
particulière, on ne sait rien de sa dépendance en t. Elle n’est peut être même
pas borélienne. Ceci amène à poser :
Définition 2.12.2. — Un processus progressif Xt , t ∈ R+ , est un processus
tel que pour tout T ≥ 0, l’application
(t, ω) ∈ [0, T ] × Ω 7→ Xt (ω)
est mesurable de B([0, T ]) ⊗ FT dans B(R), où B([0, T ]) et B(R) sont les tribus
boréliennes.
En pratique tous les processus adaptés que nous rencontrerons seront pro-
gressifs. C’est par exemple le cas des processus continus (ou continus à droite,
à gauche, etc...).

2.13. Indépendance
La notion la plus importante en probabilité est sans conteste la notion
d’indépendance. Elle recouvre à la fois une notion intuitive (le résultat du
loto est indépendant de la température, etc ...) et une notion mathématique.
Il est nécessaire de bien posséder ces deux aspects et de comprendre qu’ils
signifient la même chose. Un bon utilisateur des probabilités est quelqu’un qui
sait exploiter l’indépendance, ou la non indépendance, dans les événements
de la vie courante. Même si le plus souvent on ne s’intéresse qu’à l’indépend-
ance d’événements ou de variables aléatoires, il s’avère plus efficace de définir
l’indépendance de tribus. Un espace de probabilité (Ω, A, P) est toujours fixé.
Définition 2.13.1. — On dit que des tribus A1 , · · · , An contenues dans A
sont indépendantes si, pour tout A1 ∈ A1 , · · · , An ∈ An ,
P(A1 ∩ A2 · · · ∩ An ) = P(A1 )P(A2 ) · · · P(An ).
Des variables aléatoires X1 , · · · , Xn sont dites indépendantes si les tribus
engendrées σ(X1 ), · · · , σ(Xn ) le sont. On dit qu’une famille infinie de sous
tribus (ou de variables aléatoires) est formée de tribus indépendantes lorsque
2.13. INDÉPENDANCE 25

toute sous famille finie a cette propriété. Donnons quelques résultats utiles au
maniement de l’indépendance. Le premier est très important et son énoncé
est à bien comprendre, malgré son aspect compliqué. Nous en donnons deux
formes.
Proposition 2.13.2 (Lemme de regroupement). — (Forme 1). Soit I
un ensemble d’indices, et Ai , i ∈ I, des sous tribus indépendantes de A.
Alors, si I1 , I2 , · · · , In sont des parties disjointes de I, les tribus σ(Ai , i ∈
I1 ), σ(Ai , i ∈ I2 ), · · · , σ(Ai , i ∈ In ) sont indépendantes.
(Forme 2). Soit X1 , X2 , · · · , Xn , · · · des variables aléatoires indépendantes.
Alors si 0 < n1 < n2 < n3 < · · · les variables aléatoires φ1 (X1 , · · · , Xn1 ),
φ2 (Xn1 +1 , · · · , Xn2 ), · · · sont indépendantes, pour toute application φ1 : Rn1 →
R, φ2 : Rn2 −n1 → R, · · · , mesurable.
Donnons un exemple simple mais typique d’utilisation : si X, Y, U, V sont
quatre variables aléatoires réelles indépendantes, alors X + Y et U V sont ind-
épendantes.
Théorème 2.13.3. — Deux variables aléatoires X, Y sont indépendantes si
et seulement si P(X,Y ) = P(X) ⊗ P(Y ) .
Corollaire 2.13.4. — Si les variables aléatoires X, Y sont indépendantes,
alors pour toute fonction φ mesurable positive (ou telle que φ(X, Y ) soit
intégrable) on a
Z Z
E[φ(X, Y )] = φ(x, y) dP(X) (x)dP(Y ) (y).

On peut aussi écrire cette relation sous les formes


Z Z
E[φ(X, Y )] = φ(X(ω), Y (ω 0 )) dP(ω)dP(ω 0 ),
Ω Ω
ou encore Z
E[φ(X, Y )] = E[φ(X, Y (ω 0 ))] dP(ω 0 ),

qui nous seront utiles.
CHAPITRE 3

MOUVEMENT BROWNIEN

3.1. Loi gaussienne


La loi gaussienne N (m, σ 2 ) sur R est la masse de Dirac en m lorsque σ = 0
et la loi de densité
1 (x−m)2
√ e− 2σ2
2πσ 2
sinon. Il n’y a pas de primitive explicite mais une excellente approximation par
une fraction rationnelle (1) . Si X suit la N (m, σ 2 ), alors E(X) = m, var(X) =
σ 2 . Lorsque σ = 0, X = m p.s. La fonction caractéristique est E(eitX ) =
2 2
exp{− σ 2t + itm}.

Proposition 3.1.1. — Toute limite de v.a. gaussiennes, en loi, en probabi-


lité, ou p.s., ou dans L1 , ou dans L2 est gaussienne. De plus l’espérance et la
variance convergent vers l’espérance et la variance de la limite.

Preuve: Toutes les convergences considérées entraı̂nent la convergence en


loi. Supposons donc que Xn converge en loi vers X et que Xn suit une loi
2 2
N (mn , σn2 ). Alors E(eitXn ) = exp{− σn2t +itmn } et E(eitXn ) → g(t) := E(eitX ).
2 2
En prenant le module on voit que exp{− σn2t } → |g(t)| donc que σn2 converge
vers σ 2 = −(2 log |g(t)|)/t2 . On en déduit que eitmn converge vers h(t) =
2 2
exp{− σ 2t }g(t). Alors, si f est C 1 à support compact, tel que f (t)h(t)dt 6= 0,
R

par intégration par parties,


Z Z
0 itmn
f (t)e dt = −imn f (t)eitmn dt

1. cf. Appendice
28 CHAPITRE 3. MOUVEMENT BROWNIEN

donc, en pasant à la limite mn converge vers m := i( f 0 (t)h(t)dt)/( f (t)h(t)dt).


R R

On voit donc que


σ 2 t2
E(eitXn ) → exp{− + itm}
2
et la limite est donc gaussienne.

3.2. Vecteur gaussien


On identifie un vecteur à une matrice colonne. L’espérance d’un vecteur
aléatoire X = (X1 , · · · , Xd )t est le vecteur E(X) = (E(X1 ), · · · , E(Xd ))t et sa
matrice de covariance est,
KX = E[(X − E(X))(X − E(X))t ] = E(XX t ) − E(X)[E(X)]t .
ses composantes sont KX (i, j) = Cov(Xi , Xj ). Si les composantes X1 , . . . , Xd
sont indépendantes, K(X) est diagonale. Il est clair que

Lemme 3.2.1. — Si M est une matrice déterministe r × d, on a KM X =


M KX M t .

Pour λ ∈ Rd , notons
d
X
hλ, Xi = λi Xi
i=1
le produit scalaire. En appliquant le lemme à M = λt on voit que
λt KX λ = varhλ, Xi ≥ 0.
En particulier, KX est une matrice symétrique semi-définie positive, donc
diagonalisable de valeurs propres positive ou nulles.

Définition 3.2.2. — Un vecteur aléatoire X = (X1 , . . . , Xd )t est dit gaus-


sien si toute combinaison linéaire des composantes suit une loi normale.

Proposition 3.2.3. — Un vecteur X est gaussien si et seulement, il existe


un vecteur m ∈ Rd et une matrice de covariance K telle que pour tout λ ∈ Rd
λt Kλ
E(exp(ihλ, Xi) = exp(ihλ, mi − ).
2
Alors m = E(X) et K = KX .

Un exemple typique de vecteur gaussien est donné par un vecteur de com-


posantes normales indépendantes. Par contre, en général, un vecteur à com-
posantes gaussiennes n’est pas nécéssairement gaussien.
3.4. DÉFINITION DU MOUVEMENT BROWNIEN 29

3.3. Famille gaussienne


Une famille, ou un processus, {Xi , i ∈ I} de variables aléatoires est dite
gaussienne si toute combinaison linéaire finie de ces v.a. suit une loi normale.
La loi globale de cette famille (c’est à dire par définition, la loi de toute sous
famille finie) est déterminée par les espérances E(Xi ), i ∈ I, et les covariances
Cov (Xi , Xj ), i, j ∈ I. En appliquant la proposition précédente pour calculer
la fonction caractéristique, on obtient le théorème fondamental suivant :

Théorème 3.3.1. — Soit {Xi , i ∈ I} une famille gaussienne et I1 , I2 , · · · , In


des parties disjointes de I. Alors les familles
{Xi , i ∈ I1 }, {Xi , i ∈ I2 }, · · · , {Xi , i ∈ In }
sont indépendantes ssi
cov(Xi , Xj ) = 0
chaque fois que iet j sont dans des ensembles I1 , · · · , In différents.

Preuve: Il suffit de voir que {Xi , i ∈ I1 ∪ I2 ∪ · · · ∪ In−1 } est indépendant de


{Xi , i ∈ In }... il faut un argument de classe monotone.

3.4. Définition du mouvement brownien


Définition 3.4.1. — On appelle mouvement brownien un processus gaussien
Bt , t ∈ R+ , à trajectoires continues tel que B0 = 0 et Bt+s −Bt est indépendant
de σ(Bu , u ≤ t) de loi N (0, s), pour tout t, s ≥ 0.

On peut démontrer que sans l’hypothèse de continuité les trajectoires sont


continues p.s.

Proposition 3.4.2. — Un processus gaussien {Bt , t ∈ R+ } à trajectoires


continues est un mouvement brownien si et seulement si
E(Bt ) = 0, E(Bt Bs ) = min(s, t), pour tout t, s ≥ 0.

Preuve: Supposons d’abord que Bt , t ∈ R+ , est un mouvement brownien.


Alors Bt est centré donc E(Bt ) = 0. De plus, si 0 ≤ s ≤ t, on sait que Bt − Bs
est indépendant de σ(Br , r ≤ s), donc en particulier de Bs . Il en résulte que
E(Bt Bs ) = E((Bt − Bs + Bs )Bs ) = E(Bt − Bs )E(Bs ) + E(Bs2 ) = s.
Réciproquement, supposons les relations vraies et montrons qu’alors Bt , t ∈
R+ , est un mouvement brownien. Il faut montrer d’abord que si 0 ≤ s ≤ t,
30 CHAPITRE 3. MOUVEMENT BROWNIEN

Bt − Bs est indépendant de σ(Br , r ≤ s). Puisque la famille des Bt , t ≥ 0, est


gaussienne, il suffit de vérifier que Cov(Bt − Bs , Br ) = 0, si r ≤ s ≤ t. Or
Cov(Bt − Bs , Br ) = E(Bt Br ) − E(Bs Br ) = min(t, r) − min(s, r) = 0.
Ensuite, il faut voir que, si 0 ≤ s ≤ t, loi de Bt − Bs ne dépend que de t − s :
cette loi est gaussienne centrée et sa variance est
E((Bt − Bs )2 ) = E(Bt2 ) + E(Bs2 ) − 2E(Bt Bs ) = t + s − 2s = t − s.
Enfin, Bt est bien centré de variance t.

Corollaire 3.4.3. — Soit {Bt , t ∈ R+ } un mouvement brownien. Alors


1. pour tout a > 0, {Bt+a − Ba , t ∈ R+ },
2. (Scaling) pour tout α ∈ R, {αBα−2 t , t ∈ R+ },
3. {tB1/t , t ∈ R+ } sur l’ensemble de probabilité 1 où limt→0 tB1/t = 0,
sont des mouvements browniens.

Preuve: Les trois assertions se montrent de la même façon. Traitons par


exemple la seconde. Posons Xt = αBα−2 t . Tout d’abord, toute combinaison
linéaire des v.a. Xt est une combinaison linéaire de certains Bs donc est
gaussienne. Ceci montre que le processus {Xt , t ≥ 0} est gaussien. Il est continu
comme Bt . Il est clair que E(Xt ) = 0, et
t s
E(Xt Xs ) = α2 E(Bα−2 t Bα−2 s ) = α2 min( , ) = min(s, t).
α2 α2
Par la proposition précédente, {Xt , t ≥ 0} est un brownien. Dans le troisième
cas, il faut aussi vérifier la continuité p.s. en 0. Puisque tB1/t , t > 0 a la même
loi que {Bt , t > 0}, Xn = sup0<s<1/n |sB1/s | et Yn = sup0<s<1/n |Bs | ont la
même loi. Donc P(Xn → 0) = P(Yn → 0) = 1 puisque B est continu en 0, ce
qui montre la continuité p.s.

3.5. Filtrations et Brownien


Considérons un espace de probabilité filtré (Ω, (Ft ), F, P).En général, on
note F∞ = σ(Ft , t ≥ 0). On pose
(2) Ft+ = ∩ε>0 Ft+ε .
On dit que la filtration Ft est continue à droite si Ft+ = Ft . La filtration Ft+
est elle même continue à droite.
3.5. FILTRATIONS ET BROWNIEN 31

Définition 3.5.1. — Un processus B adapté à (Ω, Ft , P) est un (Ft )–mouvement


brownien si B est un mouvement brownien et pour tout s ≥ 0, la famille
{Bt − Bs , t ≥ s} est indépendante de Fs .

Théorème 3.5.2. — Un (Ft )–mouvement brownien est aussi un (Ft+ )–mouvement


brownien.

Preuve: Pour tout s < t < t1 < · · · < td le vecteur


(Bt1 − Bt , · · · , Btd − Bt )
est indépendant de Ft donc de Fs+ , qui est contenu dans Fs . Par continuité
(Bt1 − Bs , · · · , Btd − Bs )
est aussi indépendant de Fs+ .

Corollaire 3.5.3 (Loi 0–1 de Blumenthal). — Soit Bt un mouvement brow-


nien et Ft = σ(Bs , 0 ≤ s ≤ t). Pour tout A ∈ F0+ , P(A) = 0 ou 1.
0 , donc de
Preuve: F0+ est indépendant de Bt pour tout t > 0 donc de F∞
F0+ .

3.5.1. Quelques propriétés trajectorielles du brownien. — Le résultat


technique suivant va nous permettre de décrire quelques propriétés non tri-
viales du mouvement brownien.

Lemme 3.5.4. — Si {Bt , t ∈ R+ } est un mouvement brownien,


Bt Bt
lim sup √ = +∞, lim inf √ = −∞, p.s.
t→0+ t t→0+ t

Preuve: La variable aléatoire R = lim supt→0+ Bt / t est F0+ mesurable,
où Ft = σ(Bs , 0 ≤ s ≤ t), donc constante p.s.. Plus précisément, soit R =
+∞, soit il existe une constante α telle que R ≤ α, p.s. Ce dernier cas est
Bt
impossible car il entraine que P( √ t
≥ α + 1) → 0 quand t → +∞ alors que
Bt
P( √ t
≥ α + 1) = P(B1 ≥ α+1) 6= 0. Le cas de la liminf s’obtient en appliquant
la limsup à (−Bt ) qui est aussi un brownien.

Proposition 3.5.5. — Pour presque tout ω, la trajectoire t 7→ Bt (ω),


(i) n’est nulle part dérivable ;
(ii) passe une infinité de fois par chaque point de R.
32 CHAPITRE 3. MOUVEMENT BROWNIEN

Preuve: Le lemme assure que B n’est pas dérivable en 0, p.s., donc en


tout point t fixé, sur un ensemble de probabilité 1, qui peut dépendre de
t. Nous admettons qu’on peut choisir cet ensemble indépendant de t. Posons
Wt = tB1/t . Comme Wt , t ≥ 0, est un mouvement brownien, on peut lui
appliquer le lemme : presque sûrement,
Wt
lim sup √ = +∞.
t→0 t
Donc, en posant s = t−1 ,
1 √
lim sup √ Bs = lim sup sW1/s = +∞,
s→+∞ s s→∞
donc sup Bt = +∞. De même inf Bt = −∞ ; les trajectoires étant continues
elles doivent passer par tous les points, une infinité de fois, p.s.

La preuve précédente montre aussi que la trajectoire oscille énormément au


moment où elle part de 0, puisqu’elle arrive à traverser une infinité de fois
l’axe {x = 0} avant chaque instant fixé.

3.6. Propriété de Markov forte du mouvement brownien


3.6.1. Temps d’arrêt. — Soit (Ω, Ft , P) un espace de probabilité filtré. On
pose F∞ = σ(Ft , t ≥ 0).
Définition 3.6.1. — Une application τ de Ω dans R̄+ est un temps d’arrêt
si, pour tout t ≥ 0, {τ ≤ t} ∈ Ft . La tribu
Fτ := {A ∈ F∞ , pour tout t ≥ 0, A ∩ {τ ≤ t} ∈ Ft }
s’appelle la tribu des événements antérieurs à τ .
Proposition 3.6.2. — (i) Soient σ et τ des temps d’arrêt. Alors σ ∨ τ et
σ ∧ τ sont des temps d’arrêt et Fσ∧τ = Fσ ∩ Fτ . De plus {σ ≤ τ } et {σ = τ }
appartiennent à Fσ∧τ .
(ii) Soient τn des temps d’arrêt. Alors supn τn est un temps d’arrêt.
(iii) Supposons (Ft ) continue à droite. Alors τ est un temps d’arrêt dés que
{τ < t} ∈ Ft . Un inf d’une suite de temps d’arrêt est un temps d’arrêt.
Preuve: (i) Soit A ∈ Fσ ∩ Fτ , alors A ∩ {σ ∧ τ ≤ t} = (A ∩ {σ ≤ t}) ∪
(A ∩ {τ ≤ t}) ∈ Ft et A ∈ Fσ∧τ . Si A ∈ Fσ∧τ , A ∩ {τ ≤ t} = A ∩ {σ ∧ τ ≤
t} ∩ {τ ≤ t} est dans Ft . Donc A ∈ Fτ de même A ∈ Fσ . Pour montrer
que {σ ≤ τ } ∈ Fσ∧τ , il suffit de montrer que {σ ≤ τ } ∈ Fσ ∩ Fτ . Mais
l’on a {σ ≤ τ } ∩ {τ ≤ t} = {σ ≤ t} ∩ {τ ≤ t} ∩ {σ ∧ t ≤ τ ∧ t} ∈ Ft et
3.6. PROPRIÉTÉ DE MARKOV FORTE DU MOUVEMENT BROWNIEN 33

{σ ≤ τ } ∩ {σ ≤ t} = {σ ∧ t ≤ τ ∧ t} ∩ {σ ≤ t} ∈ Ft . On procède de même
pour {σ = τ }.
(ii) On a {supn τn ≤ t} = ∩n {τn ≤ t} ∈ Ft .
(iii) Si {τ < t} ∈ Ft , pour tout t ≥ 0, {τ ≤ t} = ∩ε>0 {τ < t+ε} ∈ Ft+ = Ft . Si
τn est une suite de temps d’arrêt qui décroit vers τ , {τ < t} = ∪n {τn < t} ∈ Ft ,
donc τ est un temps d’arrêt.
Soit (Xt ) un processus adapté à (Ω, Ft ) à valeurs dans un espace métrique
(E, d), par exemple Rk avec la norme usuelle. La distance d définit une topo-
logie et on munit E de la tribu borélienne. On associe à un sous ensemble A
de E,
(3) τA (ω) = inf(t ≥ 0, Xt (ω) ∈ A),
τA est appelé le temps d’entrée dans A.
Proposition 3.6.3. — Si A est fermé et X à trajectoires continues, τA est
un temps d’arrêt.
Preuve: Posons d(x, A) = inf a∈A d(x, a). Cette fonction est continue car, pour
tout x, y ∈ E et a ∈ A
d(x, a) ≤ d(x, y) + d(y, a)
donc d(x, A) ≤ d(x, y) + d(y, A) ce qui assure que |d(x, A) − d(y, A)| ≤ d(x, y).
On utilise alors que
1
{τA ≤ t} = ∩n ∪s<t,s∈Q+ {d(Xs , A) ≤ } ∈ Ft . 
n
Proposition 3.6.4. — Si A est ouvert et X à trajectoires continues à droite,
τA est un temps d’arrêt de Ft+ .
Preuve: En effet
{τA < t} = ∪s<t,s∈Q+ {Xs ∈ A}
Lemme 3.6.5. — Si X est un processus continu à droite adapté à (Ft ),
l’application (s, ω) 7→ Xs (ω) est mesurable de ([0, t] × Ω, B([0, t]) ⊗ Ft ) dans
E.
(n) Pn−1
Preuve: Pour tout n, posons Xs = k=0 X k+1 ∧t 1{ k ∧t≤s< k+1 ∧t} . Alors
n n n
(n)
(s, ω) 7→ Xs (ω) est mesurable de ([0, t] × Ω, B([0, t]) ⊗ Ft ) dans E. Il en
est donc de même de la limite X de X (n) quand n → +∞.
Proposition 3.6.6. — Si X est un processus adapté continu à droite et τ un
temps d’arrêt, Xτ 1τ <∞ est Fτ -mesurable.
34 CHAPITRE 3. MOUVEMENT BROWNIEN

Preuve: Soit Γ un borélien de E. Il s’agit de montrer que pour tout t ≥ 0,


{Xτ ∈ Γ} ∩ {τ ≤ t} ∈ Ft . Soit Ωt = {τ ≤ t}. L’application ω 7→ (τ (ω), ω)
est mesurable de (Ωt , Ft ) dans ([0, t] × Ω, B([0, t]) ⊗ Ft ), l’application (s, ω) 7→
Xs (ω) est mesurable de (([0, t] × Ω, B([0, t]) ⊗ Ft ) dans E par le lemme. Donc
l’application composée ω 7→ Xτ (ω) (ω) de (Ωt , Ft ) dans E est mesurable i.e.
{τ ≤ t, Xτ ∈ Γ} ∈ Ft .

3.6.2. La propriété de Markov forte du brownien. —

Lemme 3.6.7. — Soit τ un temps d’arrêt. Il existe une suite décroissante τn


de temps d’arret tel que τn est à valeurs dans {k/2n , k ∈ N} ∪ {+∞}.
[2n τ ]+1
Preuve: On peut prendre τn = 2n .

Théorème 3.6.8. — Soit {Bt , t ≥ 0} un (Ft )–mouvement brownien. Alors,


pour tout temps d’arrêt τ , conditionnellement à {τ < +∞}, le processus
{Bt+τ − Bτ , t ∈ R+ } est un brownien, indépendant de Fτ .

Preuve: Il faut montrer que pour toute v.a. Z, Fτ -mesurable bornée et


F : Rd → R, continue bornée,
E(Z1{τ <+∞} F (Bt1 +τ − Bτ , Bt2 +τ − Bτ , · · · , Btd +τ − Bτ )) =

= E(Z1{τ <+∞} )E(F (Bt1 , · · · , Btd ))


On considère d’abord le cas où τ prend toutes ses valeurs dans l’ensemble
dénombrable {sk = k2−n , k ∈ N}. Alors, puisque Ω est la réunion dénombrable
des ensembles disjoints {τ = sk }, on peut écrire :
E(Z1{τ <+∞} F (Bt1 +τ − Bτ , · · · , Btd +τ − Bτ )) =
+∞
X
= E(ZF (Bt1 +τ − Bτ , · · · , Btd +τ − Bτ )1{τ =sk } )
k=0
+∞
X
= E(Z1{τ =sk } F (Bt1 +sk − Bsk , · · · , Btd +sk − Bsk ))
k=0
+∞
X
= E(Z1{τ =sk } )E(F (Bt1 , · · · , Btd ))
k=0
= E(Z1{τ <+∞} )E(F (Bt1 , · · · , Btd ))
où l’on a utilisé que Z1{τ =sk } est Fsk mesurable et que B est un Ft –brownien.
Dans le cas général, on approche τ par une suite décroissante τn de temps
3.6. PROPRIÉTÉ DE MARKOV FORTE DU MOUVEMENT BROWNIEN 35

d’arrêt à valeurs dénombrables, donnée par le lemme. Puisque Fτ est contenu


dans Fτn on a encore
E(Z1{τ <+∞} F (Bt1 +τn −Bτn , · · · , Btd +τn −Bτn )) = E(Z1{τ <+∞} )E(F (Bt1 , · · · , Btd ))
et on fait tendre n vers l’infini pour conclure, en utilisant la continuité des
trajectoires.

Proposition 3.6.9 (Principe de réflexion). — Soit {Bt , t ≥ 0} un mou-


vement brownien. Pour a > 0, on pose Ta = inf{t ≥ 0; Bt = a}. Alors
P(Ta ≤ t) = 2P(Bt ≥ a).
2 /2s
La densité de Ta est f (s) = a(2πs3 )−1/2 e−a 1R+ (s). En particulier E(Ta ) =
∞.

Preuve: En utilisant la propriété de Markov forte du brownien, on sait que


Wt = Bt+Ta − BTa est un brownien indépendant de FTa donc en particulier de
Ta . On peut donc écrire, puisque BTa = a que
P(Bt ≥ a) = P(Ta ≤ t, Bt ≥ a)
= P(Ta ≤ t, (Bt − BTa ) + BTa ≥ a)
= P(Ta ≤ t, Wt−Ta ≥ 0)
Z
= 1{s≤t} P(Wt−s ≥ 0)dPTa (s)
1
= P(Ta ≤ t).
2
p
On en déduit, avec le changement de variable x = a t/s,
Z ∞ Z t
−x2 /2t 2
dx = a (2πs3 )−1/2 e−a /2s ds.
p
P(Ta ≤ t) = 2/πt e
a 0
2 /2s
Donc la densité de Ta est f (s) = a(2πs3 )−1/2 e−a , ce qui permet de calculer
l’espérance.

On voit donc que, bien que le brownien passe une infinité de fois par tout
les points, il met un temps d’espérance infinie pour atteindre un point donné.
La propriété suivante est assez étonnante !

Corollaire 3.6.10. — La loi de sup0≤s≤t Bs est la même que celle de |Bt |.

Preuve: P(sup0≤s≤t Bs ≥ a) = P(Ta ≤ t) = 2P(Bt ≥ a) = P(|Bt | ≥ a).


36 CHAPITRE 3. MOUVEMENT BROWNIEN

3.7. Existence et Simulation du Mouvement brownien


L’ordinateur simule une suite Un de v.a. i.i.d. uniformes sur [0, 1]. (Par
simulation on veut dire qu’il ”tente” de fabriquer ... ) On commence par simuler
des v.a. indépendantes X1 , X2 , · · · de loi gaussienne N (0, 1). Une façon de faire
est de poser p
Xn = −2 log U2n sin(2πU2n+1 ).
Un intervalle de temps [0, T ] étant donné, on choisit ensuite un pas de
discrétisation h = Tn , où n ∈ N. On simule la trajectoire brownienne aux
instants kT /n, k = 0, 1, · · · , n − 1 en posant B0 = 0 puis par récurrence,
r
T
B(k+1)T /n = BkT /n + Xk+1 .
n

Il y a une autre méthode de simulation, qui permet de faire éventuellement


un effet de loupe sur un morceau de trajectoire choisi. Expliquons le principe
de cette construction en simulant le mouvement brownien sur [0, 1] par raffine-
ments successifs : A l’étape n on construit le brownien au points 2kn , 0 ≤ k ≤ 2n .
A l’étape 0 on pose B0 = 0 et on choisit pour B1 une v.a. de loi N (0, 1). Une
fois l’étape n achevée, on procède ainsi : on se donne des v.a. X0 , X1 , · · · ind-
épendantes entre elles et de ce qui précède, de loi N (0, 2−n ) et l’on pose, pour
k entier,
B kn + B k+1 + Xk
2n
B 2k+1 = 2 .
2n+1 2
On vérifie (cf. exercice dans l’appendice 2) que l’on construit bien ainsi un
mouvement brownien sur [0, 1] en passant à la limite sur l’approximation
linéaire. Ceci montre en particulier son existence.

3.8. Appendice 1
Donnons une excellente approximation de la fonction de repartition de la
loi normale sous la forme d’un programme C.
// standard normal density function
double ndf(double t)
{
return 0.398942280401433*exp(-t*t/2);
}

// standard normal cumulative distribution function


3.9. APPENDICE 2 : CONSTRUCTION DE P. LÉVY DU MOUVEMENT BROWNIEN 37

double nc(double x)
{
double result;
if (x<-7.)
result = ndf(x)/sqrt(1.+x*x);
else if (x>7.)
result = 1. - nc(-x);
else
{
result = 0.2316419;
static double a[5] = {0.31938153,-0.356563782,1.781477937,
-1.821255978,1.330274429};
result=1./(1+result*fabs(x));
result=1-ndf(x)*(result*(a[0]+result*
(a[1]+result*(a[2]+result*(a[3]+result*a[4])))));
if (x<=0.) result=1.-result;
}
return result;
}

3.9. Appendice 2 : Construction de P. Lévy du mouvement brownien


Soit {Yk,n ; 0 ≤ k ≤ 2n , n ∈ N} des v.a. indépendantes, toutes de loi
N (0, 1). On construit par récurrence sur n une suite {Xn (t), 0 ≤ t ≤ 1}n∈N∗
de processus tels que
Xn (t) est linéaire sur chaque intervalle dyadique [2−n k, 2−n (k + 1)],

X0 (0) = 0, X0 (1) = Y1,0 ,


Xn+1 (2−n k) = Xn (2−n k)
Xn+1 (2−(n+1) (2k + 1)) = Xn (2−(n+1) (2k + 1)) + 2−(n+2)/2 Y2k+1,n+1 .
a. Montrer que {Xn (t), 0 ≤ t ≤ 1} est un processus gaussien.
b. Montrer que
P( sup |Xn+1 (t) − Xn (t)| ≥ 2−n/4 ) ≤ 2n P(|Y0,0 | ≥ 2(n+4)/4 ).
0≤t≤1

c. Montrer que si Y ∼ N1 (0, 1), P(|Y | > a) ≤ C1 a−8 .


38 CHAPITRE 3. MOUVEMENT BROWNIEN

d. Montrer que p.s. Xn converge uniformément sur [0, 1] vers un processus


X, et que X est un mouvement brownien.
CHAPITRE 4

MARTINGALES

4.1. Martingales, définition


Pour T = R ou N on considère (Ω, (Ft )t∈T , P) un espace de probabilité filtré.
Définition 4.1.1. — Une famille Mt , t ∈ T , est une martingale si Mt ∈ L1 ,
(Mt ) est adapté et
E(Mt |Fs ) = Ms , pour tout 0 ≤ s ≤ t.
Une famille Mt , t ∈ T , est une sous-martingale si Mt ∈ L1 , (Mt ) est adapté et
E(Mt |Fs ) ≥ Ms , pour tout 0 ≤ s ≤ t.
Si M est une (ss)-martingale sur (Ω, (Ft )t∈T , P), ça l’est aussi pour la
filtration naturelle Ft0 = σ(Ms , s ≤ t).
Exemple. Soit X ∈ L1 . On pose Xt = E(X|Ft ). On a, pour s < t,
E(Xt |Fs ) = E(E(X|Ft )|Fs ) = E(X|Fs ) = Xs
et Xt est une martingale.
Proposition 4.1.2. — Soit B un (Ft )–mouvement brownien. Alors,
(i) Bt , t ∈ R+ ;
(ii) Bt2 − t, t ∈ R+ ;
λ2 t
(iii) pour λ ∈ R , exp(λBt − 2 ), t ∈ R+ ;
sont des (Ft )-martingales.
Proposition 4.1.3 (Inégalité de Jensen). — Soit M une martingale (resp.
sous martingale) et φ : R → R une fonction convexe (resp. convexe croissante).
Si φ(Mt ) est intégrable pour tout t ≥ 0, c’est une sous martingale.
40 CHAPITRE 4. MARTINGALES

Preuve: Une fonction convexe est l’enveloppe supérieure de ses tangentes :


Donc il existe une famille F de fonctions affines (du type x →
7 ax + b) tels que
φ(x) = sup f (x)
f ∈F

avec de plus chaque f croissante si φ est croissante. Pour tout f ∈ F


E(φ(Mt )|Fs ) ≥ E(f (Mt )|Fs ) = f (E(Mt |Fs ) ≥ f (Ms )
donc E(φ(Mt )|Fs ) ≥ supf ∈F f (Ms ) = φ(Ms ). 
Exemple : Si M est une martingale |M | est une sous martingale et si X est
une sous martingale, alors X + est une sous martingale.
(n)
Proposition 4.1.4. — Soit {Mt , t ∈ T }, n ∈ N, une suite de (Ft )– martin-
(n)
gales. Si pour tout t, Mt tend vers Mt dans L1 , ou afortiori dans L2 , alors
Mt , t ∈ T , est une martingale.

Preuve: On utilise que


(n) (n) (n)
E(|E(Mt |Fs ) − E(Mt |Fs )|) ≤ E(E(|Mt − Mt ||Fs )) = ||Mt − Mt ||1 .

4.2. Martingales à temps discret


Nous allons exposer deux résultats fondamentaux de Doob, indispensables
pour nous. Etant donné un processus M et un temps d’arrêt τ on note M τ le
processus arrété à l’instant τ , défini par :
Mtτ = Mτ ∧t .

Théorème 4.2.1 (d’arrêt). — Soit {Mn , n ∈ N} une (sous) martingale et


τ un temps d’arrêt. Alors M τ est encore une (sous)-martingale.

Preuve: Il suffit d’écrire


τ
Mn+1 − Mnτ = 1{τ >n} (Mn+1 − Mn ). 
Le lemme suivant n’est utile que pour les temps d’arrêt à valeurs dénombrables,
c’est à dire rarement dans le cas ”continu” car il n’a d’intérêt que si P({τ =
r}) > 0.

Lemme 4.2.2. — Si σ est un temps d’arrêt, pour toute v.a. X ≥ 0


E(X|Fσ ) = E(X|Fr ), sur {σ = r}
4.2. MARTINGALES À TEMPS DISCRET 41

Preuve: Il nous faut montrer que


1{σ=r} E(X|Fσ ) = 1{σ=r} E(X|Fr ),
soit encore puisque {σ = r} ∈ Fσ que
E(1{σ=r} X|Fσ ) = 1{σ=r} E(X|Fr ).
On utilise la propriété caractéristique de l’espérance conditionnelle 4.4.1 : la
v.a. Z = 1{σ=r} E(X|Fr ) est Fσ -mesurable et pour toute v.a. U positive, Fσ -
mesurable, puisque U 1{σ=r} est Fr -mesurable,
E(U Z) = E(U 1{σ=r} E(X|Fr )) = E(U 1{σ=r} X)
donc Z = E(1{σ=r} X|Fσ ).
Corollaire 4.2.3. — Soient {Mn , n ∈ N} une (sous) martingale, σ et τ deux
temps d’arrêt. On suppose que τ est borné. Alors
E(Mτ | Fσ ) ≥ Mτ ∧σ
avec égalité dans le cas d’une martingale
Preuve: Si τ est borné par la constante r > 0, on peut écrire que, sur {σ = n},
E(Mτ | Fσ ) = E(Mrτ | Fn ) ≥ Mr∧n
τ
= Mτ ∧σ .
Théorème 4.2.4. — Soit Mn , n ∈ N, une sous-martingale positive. Pour
tout a > 0,
aP( max Mk ≥ a) ≤ E(Mn ; max Mk ≥ a) ≤ E(Mn ).
0≤k≤n 0≤k≤n

De plus
E( max Mk2 ) ≤ 4E(Mn2 ).
0≤k≤n

Preuve: Soit σ = inf{k ≥ 0; Mk ≥ a}. On applique le corollaire aux temps


d’arrêt σ et τ = n :
E(Mσ∧n ) ≤ E(Mn ).
Posons A = {σ ≤ n} = {max0≤k≤n Mk ≥ a}. On a
Mσ∧n ≥ a1A + Mn 1Ac .
Donc
E(Mn ) ≥ E(Mσ∧n ) ≥ aP(A) + E(Mn 1Ac ),
ce qui donne l’inégalité aP(A) ≥ E(Mn 1A ) que l’on cherchait. Ensuite
Z ∞ Z ∞
aP( max Mk ≥ a) da ≤ E(Mn ; max Mk ≥ a) da.
0 0≤k≤n 0 0≤k≤n
42 CHAPITRE 4. MARTINGALES

Avec Fubini ceci s’écrit, si on pose S = max0≤k≤n Mk


Z max0≤k≤n Mk Z max0≤k≤n Mk
E( a da) ≤ E(Mn da)
0 0
donc
1
E(( max Mk )2 ) ≤ E(Mn max Mk ).
2 0≤k≤n 0≤k≤n
En appliquant Cauchy Schwarz on obtient
1
E(( max Mk )2 ) ≤ E(Mn2 )1/2 E(( max Mk )2 )1/2
2 0≤k≤n 0≤k≤n

ce qui donne le résultat. 


Dans la preuve précédente, en multipliant par ap−2 et en appliquant l’inégalité
de Holder, on obtient pour p > 1,
|| max Mk ||p ≤ q||Mn ||p
0≤k≤n

où p−1 + q −1 = 1.

4.3. Martingale continue à droite


Si Mt , t ∈ R+ , est un processus à trajectoires continues à droite, on a
sup Mt = lim sup M kTn .
0≤t≤T n→+∞ 0≤k≤2n 2

En appliquant le Théorème 4.2.4 à la sous martingale Xk = M kTn on obtient


2
immédiatement :

Théorème 4.3.1 (Inégalités de Doob). — Soit Mt , t ∈ R+ , une sous-


martingale continue à droite positive. Pour tout a > 0,
aP( sup Mt ≥ a) ≤ E(MT ; sup Mt ) ≤ E(MT )
0≤t≤T 0≤t≤T

De plus
E( sup Mt2 ) ≤ 4E(MT2 ).
0≤t≤T

Puisque la valeur absolue d’une martingale est une sous martingale, on en


déduit le corollaire absolument fondamental pour la suite :

Corollaire 4.3.2. — Si M est une martingale continue à droite


E( sup Mt2 ) ≤ 4E(MT2 ).
0≤t≤T
4.3. MARTINGALE CONTINUE À DROITE 43

Déduisons un convergence de théorème de martingales (il en existe d’autres,


par exemple pour les martingales positives).

Théorème 4.3.3. — Une martingale continue à droite (Mt ) telle que

sup E(Mt2 ) < +∞


t≥0

converge p.s. et dans L2 lorsque t → +∞.

Preuve: Puisque Mt2 est une sous martingale, E(Mt2 ) est une fonction crois-
sante. Par hypothèse, elle est bornée. Donc elle converge lorsque t → +∞. On
en déduit que, pour tout ε > 0, il existe N tel que, si s, t ≥ N

E((Mt − Ms )2 ) = E(Mt2 ) − E(Ms2 ) < ε

lorsque s, t → +∞. La suite Mn est donc de Cauchy dans L2 , elle converge


vers une v.a. M∞ . En faisant tendre t → +∞ suivant les entiers on voit que

E((M∞ − Ms )2 ) < ε

donc Ms → M∞ dans L2 . Si on applique l’inégalité de Doob à la martingale


Nt = Ms+t − Ms on obtient

E(sup(Mt+s − Ms )2 ) ≤ 4E((MT +s − Ms )2 ) ≤ 4ε
t≤T

pour tout T ≥ 0, donc

E(sup(Mt+s − Ms )2 ) ≤ 4ε.
t≥0

Il en résulte en écrivant que

(Mt+s − M∞ )2 ≤ 2(Mt+s − Ms )2 + 2(Ms − M∞ )2

que
E(sup(Mt − M∞ )2 ) ≤ 16ε.
t≥s

Il existe donc une sous suite ni telle que, p.s., supt≥0 (Mt+ni − M∞ ) → 0, ce
qui entraine que Mt → M∞ , p.s. 

Pour montrer le théorème d’arrêt, nous allons utiliser :

Lemme 4.3.4. — Si X ∈ L1 (Ω, A, P), la famille {E(X|F), F sous tribu de A}


est uniformément intégrable.
44 CHAPITRE 4. MARTINGALES

Preuve: Remarquons d’abord que pour tout ε > 0, il existe α > 0 tel que, si
P(A) < α alors E(|X|1A ) ≤ ε. En effet, par Lebesgue dominé, E(|X|1{|X|≥M } )
tend vers 0 lorsque M → +∞.On choisit M pour lequel E(|X|1{|X|≥M } )) < ε/2
et ensuite α > 0 tel que αM < ε/2. On a alors
E(|X|1A ) ≤ E(|X|1A 1{|X|≥M } ) + E(|X|1A 1{|X|≤M } )

≤ E(|X|1{|X|≥M } ) + M P(A ∩ {|X| ≤ M }) ≤ ε


Soit R = α−1 E|X|. On a, pour a > R, P(|E(X|F)| > a) ≤ a−1 E|E(X|F)| ≤
a−1 E|X| < α et
Z Z Z
|E(X|F)| dP ≤ E(|X||F) dP = |X| dP < ε
{|E(X|F )|>a} {|E(X|F )|>a} {|E(X|F )|>a}

Théorème 4.3.5 (d’arrêt). — Soient (Xt , t ∈ R+ ) une sous-martingale


continue à droite, et σ et τ deux temps d’arrêt avec τ borné. Alors Xτ ∈ L1
et Xσ∧τ ≤ E(Xτ | Fσ ).

Preuve: (a) La suite de temps arrêt τn = 2−n ([2n τ ] + 1) décroit vers τ et


Xτn tend vers Xτ , quand n → +∞. Si τ est bornée par K, τn est borné
par K + 1. D’après le corollaire 4.2.3, Xt+ étant une sous-martingale, Xτ+n ≤
+
E(XK+1 | Fτn ). On a alors
+
E|Xτn | = 2E(Xτ+n ) − E(Xτn ) ≤ 2E(XK+1 ) − E(X0 )
d’où, par le lemme de Fatou, E|Xτ | ≤ lim inf n E|Xτn | < +∞ donc Xτ ∈ L1 .
(b) Soit σn = 2−n ([2n σ] + 1). On suppose Xt ≥ 0 pour tout t ≥ 0. Soit
A ∈ Fσ ⊂ Fσn . On a alors, en appliquant le corollaire 4.2.3 à la sous-martingale
X kn , k ∈ N,
2
E(1A Xσn ∧τn ) ≤ E(1A Xτn )
et, puisque X∧τn et Xτn convergent vers Xσ ∧ τ et Xτ dans L1 (par l’uniforme
intégrabilité donné par le lemme), E(1A Xσ∧τ ) ≤ E(1A Xτ ).
(c) On revient au cas général. Pour tout a > 0, a + Xt ∨ (−a) est une sous-
martingale positive donc, pour tout A ∈ Fσ , E(1A Xσ ∨ (−a)) ≤ E(1A Xτ ∨
(−a)). On conclut facilement puisque, lorsque a → +∞, Xτ ∨ (−a) → Xτ et
Xσ ∨ (−a) → Xσ dans L1 . 

Corollaire 4.3.6. — Soient (Mt , t ∈ R+ ) une sous-martingale continue à


droite, telle que sup0≤t<+∞ |Mt | < +∞. Pour tous temps d’arrêts σ et τ
E(Mτ |Fσ ) ≥ Mτ ∧σ .
4.4. FORMULAIRE SUR L’ESPÉRANCE CONDITIONNELLE 45

Preuve: En utilisant le corollaire précédent aux temps d’arrêts bornés τ ∧ t


et σ ∧ t, pour tout A ∈ Fσ
E(1A 1{σ≤t} Mτ ∧t ) = E(1A 1{σ≤t} Mσ∧τ ∧t )
car A∩{σ ≤ t} ∈ Fσ∧t . Il suffit alors de faire tendre t vers l’infini en appliquant
le théorème de convergence dominée.

Corollaire 4.3.7. — Soient (Xt , t ∈ R+ ) une (sous) martingale continue à


droite et τ un temps d’arrêt. Alors Xtτ := Xt∧τ est une (sous) martingale.

Preuve: Vu le corollaire précédent, on a, pour s < t, E(Xt∧τ | Fs ) ≥ Xt∧τ ∧s =


Xτ ∧s p.s. 

Corollaire 4.3.8. — Soit (Xt , t ∈ R+ ) un processus intégrable continu à


droite. Alors Xt est une martingale si et seulement si, pour tout temps d’arrêt
borné τ on a E(Xτ ) = E(X0 ).

Preuve: La nécessité résulte du corollaire ??. Montrons que la condition est


suffisante. Soient s < t et A ∈ Fs . τ = s1A + t1Ac est un temps d’arrêt
borné et l’on E(X0 ) = E(Xτ ) = E(1A Xs ) + E(1Ac Xt ). Mais τ = t est aussi
un temps d’arrêt borné d’où E(X0 ) = E(Xt ) = E(1A Xt ) + E(1Ac Xt ). On en
déduit E(1A Xs ) = E(1A Xt ) i.e. Xt est une martingale. 

4.4. Formulaire sur l’espérance conditionnelle


Soit (Ω, A, P) un espace de probabilité et F une sous-tribu de A. L’espérance
conditionnelle E(X|F) d’une variable aléatoire X positive (ou intégrable) n’est
définie que presque surement, on ommetra d’écrire ”p.s.” dans une égalité où
elle apparait.

Théorème 4.4.1 (Propriété caractéristique de l’espérance condition-


nelle)
Soit X une v.a.r. positive ou intégrable. L’espérance conditionnelle E(X|F)
est la seule (classe de) v.a. Z ayant les deux propriétés suivantes :
(i) Z est F-mesurable ;
(ii) pour toute v.a.r. U , F-mesurable bornée positive,
E(ZU ) = E(XU ).

On utilisera très souvent les inégalités suivantes qui montrent que l’applica-
tion T : Lp → Lp donnée par T (X) = E(X|F) est continue pour p = 1, 2, ∞.
46 CHAPITRE 4. MARTINGALES

Proposition 4.4.2 (Continuité de l’espérance conditionelle)


Pour toute v.a. positive ou intégrable,

E(|E(X|F)|) ≤ E(|X|);

E(E(X|F)2 ) ≤ E(X 2 );

kE(X|F)k∞ ≤ kXk∞ .
Les propriétés suivantes sont faciles à démontrer et essentielles :
Proposition 4.4.3. — Si les expressions ont un sens :
E(E(X|F)) = E(X);
Si X est F-mesurable, E(XY |F) = XE(Y |F);
Si G est une sous-tribu de F, E(X|G) = E(E(X|F)|G);
E(1|F) = 1;
E(aX + bY |F) = aE(X|F) + bE(Y |F);
Si X ≤ Y , E(X|F) ≤ E(Y |F);
|EB (XY |F)|2 ≤ E(X 2 |F)E(Y 2 |F).
On a l’analogue des théorèmes de convergence de Beppo Levi, de Fatou, de
Lebesgue :
Proposition 4.4.4. — Soit (Xn ) une suite de v.a.
(Beppo Levi conditionnel) Si 0 ≤ Xn ↑ X, E(Xn |F) → E(X|F), p.s.
(Fatou conditionnel) Si 0 ≤ Xn , E(lim inf Xn |F) ≤ lim inf E(Xn |F),
(Lebesgue conditionnel) Si |Xn | ≤ V où V ∈ L1 et si Xn → X , E(Xn |F) →
E(X|F), p.s. et dans L1
Preuve: On commence par montrer Beppo Levi : si 0 ≤ Xn ↑ X la suite
E(Xn |F) est croissante donc a une limite, que nous notons Z. Comme limite
de fonctions F-mesurables Z est F-mesurable. Et pour toute v.a. U positive
et F-mesurable, par le théorème de Beppo Levi classique, appliqué deux fois,
E(U Z) = lim E(U E(Xn |F)) = lim E(U Xn ) = E(U X)
n→+∞ n→+∞

Donc Z = E(X|F) par la propriété caractéristique de l’espérance condition-


nelle (Thm 4.4.1). Les autres enoncés s’en déduisnet comme dans le cas non
conditionnel et par le fait que
||E(Xn |F) − E(X|F)||1 ≤ ||Xn − X||1
4.4. FORMULAIRE SUR L’ESPÉRANCE CONDITIONNELLE 47

pour la convergence dans L1 . 


Très souvent les calculs explicites d’espérance conditionnelle utilisent le
théorème suivant :
Théorème 4.4.5. — Soit (T, X) une variable aléatoire à valeurs dans un
espace produit E × F et h : E × F → R mesurable, positive ou bornée. On
suppose que T est B-mesurable et que X est indépendante de B. Alors,
E(h(T, X)|B) = φ(T ) où φ(t) = E(h(t, X)).
On peut encore écrire cette égalité comme
Z
E(h(T, X)|B)(ω) = h(T (ω), X(ω 0 )) dP(ω 0 ).

CHAPITRE 5

CROCHET DE MARTINGALES

Nous allons commencer à construire l’intégrale stochastique par rapport à


une martingale continue. La construction est naturelle mais il y a pas mal
d’inégalités à contrôler !

5.1. Cas discret


Soit (Mn , n ∈ N) une (Fn )–martingale sur (Ω, (Fn )n∈N , P). Si H est un
processus adapté on pose S(H, M )0 = 0 et
n
X
S(H, M )n = Hk−1 (Mk − Mk−1 ).
k=1

Le lemme simple suivant est la clé des calculs que nous ferons.

Lemme 5.1.1 (Lemme d’orthogonalité). — Si Mn , n ∈ N, est une mar-


tingale dans L2 ,
n
X
E(Mn2 ) − E(M02 ) = E((Mk − Mk−1 )2 ).
k=1

Montrons maintenant un résultat technique.

Proposition 5.1.2. — Soit M une martingale et H un processus adapté


borné. Alors S(H, M ) est une martingale et si M est bornée il existe une
constante c > 0 ne dépendant que de la borne de M , telle que, pour tout n,

||S(H, M )n ||22 ≤ c|| sup Hk2 ||2 .


k≤n
50 CHAPITRE 5. CROCHET DE MARTINGALES

Preuve: On peut supposer M0 = 0. Puisque H est borné, S(H, M )n est


intégrable pour tout n. C’est une martingale car
E(S(H, M )n+1 − S(H, M )n |Fn ) = E(Hn (Mn+1 − Mn )|Fn )
= Hn [E(Mn+1 |Fn ) − Mn ] = 0.
Supposons maintenant que |M | est bornée par K. Posons A0 = 0 et
n
X
An = E((Mk − Mk−1 )2 |Fk−1 ).
k=1

Nous allons chercher à majorer E(A2n ). Commençons par E(An ). En appliquant


le lemme,
Xn
E(An ) = E( (Mk − Mk−1 )2 ) = E(Mn2 ) ≤ K 2 .
k=1
Par ailleurs, puisque
Ak − Ak−1 = E((Mk − Mk−1 )2 |Fk−1 )
On a 0 ≤ Ak − Ak−1 ≤ 4K 2 , donc
(Ak − Ak−1 )2 ≤ 4K 2 (Ak − Ak−1 )
et
n
X n
X
E( (Ak − Ak−1 )2 ) ≤ 4K 2 E( (Ak − Ak−1 )) = 4K 2 E(An ) ≤ 4K 4 .
k=1 k=1

On vérifie que Mn2


− An est une martingale. En appliquant le lemme à cette
martingale, et en utilisant l’inégalité (a + b)2 ≤ 2(a2 + b2 ), on obtient que
n
X
E[(Mn2 − An )2 ] = E( (Mk2 − Ak − Mk−1
2
+ Ak−1 )2 )
k=1
Xn n
X
≤ 2E( (Mk2 − 2
Mk−1 )2 ) + 2E( (Ak − Ak−1 )2 )
k=1 k=1
Utilisons l’inégalité
(Mk2 − Mk−1
2
)2 = (Mk + Mk−1 )2 (Mk − Mk−1 )2 ≤ 4K 2 (Mk − Mk−1 )2 ;
on obtient
n
X
E[(Mn2 − An )2 ] ≤ 8K 2 E( (Mk − Mk−1 )2 ) + 8K 4
k=1
≤ 8K + 8K 4 = 16K 4 ,
4
5.2. PREMIERS PAS, À TEMPS CONTINU 51

donc
E(A2n ) ≤ 2E(Mn4 ) + 2E(Mn2 − An )2 ≤ 34K 4 .
On a alors, en appliquant cette fois le lemme à la martingale S(H, M )
n
X
E[S(H, M )2n ] = 2
E(Hk−1 (Mk − Mk−1 )2 )
k=1
n
X n
X
2
= E(Hk−1 E((Mk − Mk−1 )2 |Fk−1 )) = 2
E(Hk−1 (Ak − Ak−1 ))
k=1 k=1
n
X
≤ E(sup |Hk |2 (Ak − Ak−1 )) = E(sup |Hk |2 An )
k=1 k k

≤ ||An ||2 || sup |Hk |2 ||2 ≤ 34K 2 || sup |Hk |2 ||2
k k

où l’on a utilsé Cauchy Schwarz à la dernière ligne. On peut donc prendre
c = 6K 2 .

5.2. Premiers pas, à temps continu


On considère une martingale continue Mt , t ∈ R+ , sur (Ω, (Ft ), P). On
appelle processus (adapté) élémentaire un processus H s’écrivant
n−1
X
Ht = Hti 1[ti ,ti+1 [ (t)
i=0

où 0 ≤ t0 < t1 · · · < tn et où Hti est une v.a. Fti –mesurable bornée. On note
E l’ensemble de ces processus élémentaires.

Proposition 5.2.1. — Pour H ∈ E on pose


Z t n−1
X
Hs dMs = (H · M )t = Hti (Mti+1 ∧t − Mti ∧t ).
0 i=0

Alors
(i) H · M est une (Ft )-martingale continue, nulle en 0.
(ii) Si M est bornée, il existe une constante C > 0, ne dépendant que de la
borne de M , telle que, pour tout T > 0,

|| sup (H · M )t ||22 ≤ C|| sup Ht2 ||2


0≤t≤T t≤T
52 CHAPITRE 5. CROCHET DE MARTINGALES

Preuve: Puisque M est une martingale, E(Mr |Fs ) = Mr∧s pour tous r, s, ≥ 0.
On en déduit que si 0 ≤ ti ≤ s ≤ t,

E(Hti (Mti+1 ∧t − Mti ∧t )|Fs ) = Hti E(Mti+1 ∧t − Mti ∧t )|Fs )


= Hti (Mti+1 ∧t∧s − Mti ∧t∧s )
= Hti (Mti+1 ∧s − Mti ∧s ).

En utilisant cette relation pour s = ti , on voit maintenant que si 0 ≤ r ≤ ti ≤ t,

E(Hti (Mti+1 ∧t − Mti ∧t )|Fr ) = E(E(Hti (Mti+1 ∧t − Mti ∧t )|Fti )|Fr ) = 0

donc encore

E(Hti (Mti+1 ∧t − Mti ∧t )|Fr ) = Hti (Mti+1 ∧r − Mti ∧r ).

Lorsque t ≤ ti , ceci est encore vrai. Donc H · M est une martingale.


Montrons (ii). On regarde la martingale à temps discret Nk = Mtk ∧T et le
processus à temps discret Gk = Htk . Alors

(H · M )T = S(G, N )n

donc par la Proposition 5.1.2, il existe c > 0 tel que

||(H · M )T ||22 ≤ c|| sup Ht2 ||2 .


t≤T

On applique alors l’inégalité de Doob à la martingale H · M .

5.3. Crochet comme variation quadratique


Théorème 5.3.1. — Soit M une martingale continue bornée et 0 = tn0 <
tn1 < · · · < tnpn = T une suite de subdivisions de [0, T ] dont le pas tend vers 0.
Alors, la limite
pn
X
(4) lim (Mtni ∧t − Mtni−1 ∧t )2
n→+∞
i=1

existe dans L2 et définit, pour t ≤ T , un processus croissant continu noté


hM, M it . De plus la formule
Z t
2 2
Mt = M 0 + 2 Ms dMs + hM, M it
0
Rt
définit une martingale 0 Ms dMs .
5.3. CROCHET COMME VARIATION QUADRATIQUE 53

Preuve: On regarde Z t
(n)
Xt = Ms(n) dMs
0
où
n−1
(n)
X
Mt = Mtni 1[tni ,tni+1 [ (t).
i=0
(n)
On sait par la Proposition 5.2.1 que Xt est une martingale. En appliquant
(n) (m)
cette proposition à la martingale Xt − Xt on voit qu’il existe C > 0 telle
que
(n) (m)
E[ sup (Xt − Xt )2 ] ≤ C|| sup (M (m) (s) − M (n) (s))2 ||2
0≤t≤T 0≤s≤T
(m)
≤ 2C|| sup (M (s) − M (s)) ||2 + 2C|| sup (M (n) (s) − M (s))2 ||2
2
0≤s≤T 0≤s≤T
(en utilisant (a + b)2 ≤ 2(a2 + b2 )). Par continuité de t 7→ Mt (ω) et donc
uniforme continuité sur [0, T ], et le théorème de convergence dominée, le
dernier terme tend vers 0. On peut donc trouver une sous suite nk , k ≥ 1,
telle que
(n ) (n )
E( sup (Xt k − Xt k+1 )2 ) ≤ 1/2k
0≤t≤T
(n )
On en déduit que Xt k
converge uniformément sur [0, T ] vers un processus
(n)
X qui sera donc continu. Toute la suite Xt converge vers Xt dans L2 . En
particulier X est une martingale. Il reste à montrer que
At := Mt2 − 2Xt
est croissant. On a
j
(n)
X
(5) Atnj = Mt2nj − 2Xtn = M02 + (Mtni − Mtni−1 )2 .
j
i=1
Soit 0 ≤ r ≤ s ≤ T et pour chaque n, notons in ≤ jn les entiers tels que
(n)
tin ≤ r ≤ tnin+1 , tnjn ≤ s ≤ tnjn+1 .
On a
(n)
Xr(n) − Xtn = Mtnin (Mr − Mtnin ) → 0
in

quand n → +∞. De même


(n)
Xs(n) − Xtn → 0
jn

On peut donc écrire


As − Ar = lim (Atnjn − Atnin ) ≥ 0
n→+∞
54 CHAPITRE 5. CROCHET DE MARTINGALES

la positivité venant de (5).

Lemme 5.3.2. — Si (Mt ) est une martingale bornée, on a pour t > s > 0,
E((Mt − Ms )2 |Fs ) = E(hM, M it − hM, M is |Fs ).

Preuve: Puisque (Mt ) est une martingale, on a


E((Mt − Ms )2 |Fs ) = E(Mt2 |Fs ) + Ms2 − 2Ms E(Mt |Fs )

= E(Mt2 |Fs ) + Ms2 − 2Ms2


= E(Mt2 |Fs ) − Ms2
et, puisque Mt2 − hM, M it est une martingale,
E(Mt2 |Fs ) − Ms2 = E(Mt2 − hM, M it + hM, M it |Fs ) − Ms2

= Mt2i − hM, M iti + E(hM, M it |Fs ) − Ms2


= E(hM, M it − hM, M is |Fs ).

5.4. Martingale locale


Définition 5.4.1. — Un processus adapté continu M tel que M0 = 0 est une
martingale locale si il existe une suite croissante τn , n ∈ N, de temps d’arrêt
tendant vers +∞ telle que M τn soit une martingale. On dit que (τn ) réduit
M.

Si M est un processus adapté non nul en 0, on dit que c’est une martingale
locale si Mt − M0 l’est. Il résulte du théorème d’arrêt que

Théorème 5.4.2. — Une martingale locale arrétée est une martingale locale.

Lemme 5.4.3. — La somme de deux martingales locales est une martingale


locale.

Preuve: Si (τn ) réduit la martingale locale M et σn réduit la martingale locale


N , alors σn ∧ τn réduit M + N .
Très souvent on utilisera :

Proposition 5.4.4. — Si M est une martingale locale nulle en 0, et si


Tn = inf{t ≥ 0; |Mt | = n}
alors M Tn est une martingale bornée.
5.4. MARTINGALE LOCALE 55

Preuve: Si (τk ) réduit M , M τk est une martingale donc par le théorème


d’arrêt, M τk ∧Tn est une martingale. Pour tout t ≥ 0, quand k → +∞, Mtτk ∧Tn
tend vers MtTn dans L1 par convergence dominée (puisque |Mtτk ∧Tn | ≤ n).
Donc M Tn est une martingale.

Théorème 5.4.5. — Une martingale locale M telle que sup0≤s≤t |Ms | est
dans L1 est une martingale.

Preuve: Il suffit d’utiliser qu’une limite dans L1 de martingales est une


martingale (Proposition 4.1.4) et le théorème de convergence dominée.
Par contre l’uniforme intégrabilité ne suffit pas. L’exemple classique est
Mt = 1/||Bt+1 || où B est le brownien dans R3 : on verra que c’est une
martingale locale avec la formule d’Ito, par calcul E(Mt2 ) est uniformément
5/2
borné (et même E(Mt ) ) et pourtant
1
E(Mt ) = E(1/||Bt+1 ||) = √ E(1/||B1 ||)
t+1
n’est pas constant.

5.4.1. Crochet d’une martingale locale. — Le lemme suivant résulte


immédiatement de la formule (4) décrivant le crochet comme variation qua-
dratique (en remarquant que par sa preuve, la convergence y est uniforme en
t borné).

Lemme 5.4.6. — Si M est une martingale bornée et τ un temps d’arrêt,


hM τ , M τ it = hM, M it∧τ .

Considérons une martingale locale M , nulle en 0, réduite par (τn ) ; il résulte


du lemme que si n ≤ m alors

hM τn , M τn it = hM τm , M τm it
si t ≤ τn . On peut donc définir sans ambiguité hM, M i en posant
hM, M it = hM τn , M τn it , pour tout n tel que τn ≥ t.
On remarque que

Proposition 5.4.7. — Si M est une martingale locale, le processus hM, M it


est continu, adapté et
Mt2 − hM, M it , t ≥ 0,
est une martingale locale.
56 CHAPITRE 5. CROCHET DE MARTINGALES

Théorème 5.4.8. — Soit M une martingale locale nulle en 0. Alors les


conditions suivantes sont équivalentes :
(i) pour tout t ≥ 0, hM, M it ∈ L1 ,
(ii) M est une martingale de carré intégrable.
Dans ce cas Mt2 − hM, M it est une martingale.

Preuve: Supposons (i). On peut réduire M avec Tn = inf{t; |Mt | = n}. Alors
(n)
Nt = (MtTn )2 − hM Tn , M Tn it
(n)
est une martingale locale nulle en 0 telle que sup0≤s≤t |Ns |, majoré par
n + hM, M it , est dans L1 . C’est donc une vraie martingale par le théorème
(n)
5.4.5. Donc E(Nt ) = 0 c’est à dire
(6) E(MT2n ∧t ) = E(hM, M iTn ∧t ).
En particulier
E(MT2n ∧t ) ≤ E(hM, M it )
ce qui assure que la suite MTn ∧t , n ∈ N, est uniformément intégrable. On en
déduit que Mt est une martingale comme limite dans L1 des martingales MtTn .
Par Fatou
E(Mt2 ) ≤ lim inf E(MT2n ∧t ) ≤ lim inf E(hM, M iTn ∧t ) = E(hM, M it ) < +∞.
n→+∞ n→+∞

Donc Mt est de carré intégrable. Ce qui montre (ii). Dans ce cas, par Doob
sup0≤s≤t Ms2 est dans L1 . La martingale locale Mt2 −hM, M it est majorée pour
t ∈ [0, T ] par hM, M iT + sup0≤t≤T Mt2 . C’est donc une vraie martingale par le
théorème 5.4.5.
Supposons maintenant (ii). Soit Sn = inf{t ≥ 0; hM, M it = n}. Alors
MS2n ∧t − hM, M iSn ∧t est une martingale locale dont le sup sur [0, T ] est
intégrable, donc une martingale donc
E(hM, M iSn ∧t ) = E(MS2n ∧t ).
Par Doob E(hM, M iSn ∧t ) ≤ 4E(Mt2 ). En faisant tendre n → +∞ on voit que
(i) est vrai. 

Proposition 5.4.9. — Soit Mt une martingale locale et


hM, M i∞ = lim hM, M it
t→+∞

Alors
E(sup Mt2 ) ≤ 4E(hM, M i∞ ).
t≥0
5.5. PROCESSUS À VARIATION FINIE 57

Si ces quantités sont finies, Mt est une martingale, elle converge p.s. et dans
L2 vers une v.a. M∞ quand t → +∞ et pour tous temps d’arrêts σ, τ
E(Mτ |Fσ ) = Mτ ∧σ .

Preuve: Soit (τn ) une suite de temps d’arrêt réduisant M . Par Doob, pour
tout T > 0,
E(sup(Mtτn )2 ) ≤ 4E((MTτn )2 ) = 4E(hM τn , M τn iT )
t≤T

On a donc
E( sup Mt2 ) ≤= 4E(hM, M iT ∧τn )
t≤T ∧τn
On peut appliquer deux fois le théorème de convergence monotone, en faisant
tendre T puis n vers l’infini, pour obtenir
E(sup Mt2 ) ≤ 4E(hM, M i∞ )
t≥0

Si cette quantité est finie, Mt est une martingale convergente par le théorème
de convergence 4.3.3. Par le théorème d’arrêt,
E(Mτ ∧n |Fσ ) = Mτ ∧n∧σ .
et on peut appliquer le théorème de convergence dominée pour l’espérance
conditionnelle (ou la continuité dans L2 ) pour faire tendre n vers l’infini. 
Attention : si M est une vraie martingale, E(Mt2 ) = E(hM, M it ), donc
sup E(Mt2 ) = E(hM, M i∞ ).
t≥0

Si par contre M est seulement une martingale locale ceci peut être faux, comme
le montre le contre exemple de la fin de la section précédente Mt = 1/||Bt+1 ||
où B est le brownien de R3 .
Insistons, l’inégalité de Doob sous la forme
E(sup Mt2 ) ≤ 4E(MT2 )
t≤T

peut être fausse pour une martingale locale.

5.5. Processus à variation finie


Définition 5.5.1. — On appelle processus (adapté continu) à variation finie
la différence de deux processus croissants continus adaptés.
58 CHAPITRE 5. CROCHET DE MARTINGALES

Si At = Ut − Vt est à variation finie avec U et V croissants, pour toute


subdivision 0 = t0 < t1 < · · · < tn = T ,
Xn n
X n
X
(7) |Ati − Ati−1 | ≤ |Uti − Uti−1 | + |Vti − Vti−1 | ≤ UT − U0 + VT − V0
i=1 i=1 i=1
Il y a une réciproque à cette propriété, mais nous ne l’utiliserons pas. L’exemple
Rt
typique de processus à variation finie est donné par la primitive At = 0 Rs ds
d’un processus Rt localement intégrable progressif (par exemple continu adapté) :
Rt Rt
en effet il suffit de prendre Ut = 0 Rs+ ds et Vs = 0 Rs− ds.
Proposition 5.5.2. — Une martingale locale (continue) nulle en 0 à varia-
tion finie est nulle.
Preuve: Ecrivons Mt = Ut − Vt avec U, V croissants continus adaptés nuls en
0. Soit τk = inf{t ≥ 0; Ut + Vt ≥ k} et 0 = tn0 < tn1 < · · · < tnpn = T une suite
de subdivisions de [0, T ] dont le pas tend vers 0. Alors, en appliquant le lemme
5.1.1 à la martingale N = M τk ,
Xpn
E(MT ∧τk ) = E( (Ntni − Ntni−1 )2 )
2

i=1
pn
X
≤ E(sup |Ntnj − Ntnj−1 | |Ntni − Ntni−1 |)
j i=1
≤ E(sup ||Ntnj − Ntnj−1 |UT ∧τk + VT ∧τk |)
j
≤ kE(sup |Ntnj − Ntnj−1 ]) → 0
j

Corollaire 5.5.3. — Si M est une martingale locale, hM, M i est l’unique


processus croissant adapté At nul en 0 tel que Mt2 − At soit une martingale
locale.

5.6. Crochet de deux martingales locales


Considérons deux martingales locales M et N . Le ”crochet” de M et N est
défini par
1
hM, N it = [hM + N, M + N it − hM − N, M − N it ]
4
Exactement comme au dessus on voit que
Proposition 5.6.1. — hM, N i est le seul processus (continu adapté) à va-
riation finie, nul en 0, tel que M N − hM, N i soit une martingale locale.
5.6. CROCHET DE DEUX MARTINGALES LOCALES 59

Si M et N sont bornés, il résulte de la formule (4) que si 0 = tn0 < tn1 <
· · · < tnpn = T sont des subdivisions dont le pas tend vers 0. Alors
pn
X
(8) hM, N iT = lim (Mtni − Mtni−1 )(Ntni − Ntni−1 )
n→+∞
i=1

On en déduit :

Lemme 5.6.2. — Si M et N sont deux martingales locales, et τ un temps


d’arrêt, alors
hM τ , N i = hM, N τ i = hM τ , N τ i = hM, N iτ .

Considérons un processus croissant continu A sur R+ . Pour chaque ω ∈ Ω,


définissons une mesure mA(ω) sur R+ on posant
mA(ω) ([s, t]) = At (ω) − As (ω).
Pour simplifier, on notera
Z t Z t
f (s) dmA(ω) (s) = f (s) dAs (ω)
0 0
si f est borélienne positive ou bornée, et la plupart du temps on n’écrit pas ω.
Si A maintenant est un processus à variation finie, donc s’écrivant At = Ut −Vt
où U et V sont des processus croissants, on posera
Z t Z t Z t
f (s) dAs = f (s) dUs − f (s) dVs .
0 0 0
Le seul cas que l’on rencontrera souvent est celui où A est une primitive :
Rt
At = 0 Rs ds. Alors
Z t Z t
f (s) dA(s) = f (s)Rs ds.
0 0
Considérons deux martingales locales M et N .

Lemme 5.6.3. — Pour H ∈ E,


Z t Z t
2
( Hs dhM, N is ) ≤ hN, N it Hs2 dhM, M is .
0 0

Preuve: On écrit que hλM + N, λM + N it est une fonction croissante de t,


on en déduit que
(hM, N it − hM, N is )2 ≤ (hM, M it − hM, M is )(hN, N it − hN, N is )
60 CHAPITRE 5. CROCHET DE MARTINGALES

qui s’écrit aussi


Z t Z t Z t
( dhM, N iu )2 ≤ dhM, M iu dhN, N iu .
s s s
Si
n−1
X
Ht = Hti 1[ti ,ti+1 [ (t)
i=0
est un processus de E, on en déduit que
Z t n Z
X ti+1 ∧t
| Hs dhM, N is | = | Hs dhM, N is |
0 i=1 ti ∧t
n
X Z ti+1 ∧t
≤ |Hti dhM, N is |
i=1 ti ∧t
n
X Z ti+1 ∧t Z ti+1 ∧t
≤ |Hti |[ dhM, M is ]1/2 [ dhN, N is ]1/2 .
i=1 ti ∧t ti ∧t

Or ( ai bi ≤ ( a2i )( b2i ) (Cauchy Schwarz) donc


)2
P P P
Z t n
X Z ti+1 ∧t Xn Z ti+1 ∧t
2 2
( Hs dhM, N is ) ≤ [ Hti dhM, M is ][ dhN, N is ]
0 i=1 ti ∧t i=1 ti ∧t

c’est à dire
Z t Z t Z t
2 2
( Hs dhM, N is ) ≤ Hs dhM, M is dhN, N is .
0 0 0
Proposition 5.6.4 (Kunita Watanabe). — L’application
Z t
H ∈ E 7→ Hs dhM, N is
0
Rt
se prolonge par continuité à tout processus H tel que 0 Hs2 dhM, M iu < ∞ et
si on note de la même façon ce prolongement, il vérifie encore
Z t Z t
2
( Hs dhM, N is ) ≤ hN, N it Hs2 dhM, M is .
0 0
CHAPITRE 6

INTÉGRALE STOCHASTIQUE

6.1. Intégrale stochastique par rapport à une martingale de carré


intégrable
On considère une martingale continue Mt de carré intégrable (c’est à dire
telle que Mt ∈ L2 pour tout t ≥ 0). Rappelons (Théorème 5.4.8) qu’alors
hM, M it ∈ L1 et que
Mt2 − hM, M it
est une martingale.

Définition 6.1.1. — On note HT2 l’espace des martingales continues Mt , 0 ≤


t ≤ T , dans L2 , telles que M0 = 0, muni du produit scalaire
(M, N )H2 = E(MT NT ).
T

On identifiera deux martingales égales p.s. dans la proposition suivante.

Proposition 6.1.2. — HT2 est un espace de Hilbert.

Preuve: Il faut montrer que HT2 est complet. Considérons une suite de Cauchy
(n)
M (n) . Alors MT est une suite de Cauchy dans L2 (Ω, F, P), qui est complet.
Il existe donc une variable aléatoire, que nous noterons MT , dans L2 (Ω, F, P)
telle que
(n)
E((MT − MT )2 ) → 0
quand n → +∞. Posons, pour tout t ≤ T , Mt = E(MT |Ft ). Il est clair que
(Mt ) est une martingale, et par continuité dans L2 de l’espérance condition-
(n)
nelle, que Mt → Mt dans L2 . Par Doob
(n) (m)
E( sup (Ms(n) − Ms(m) )2 ) ≤ 4E((MT − MT )2 )
0≤t≤T
62 CHAPITRE 6. INTÉGRALE STOCHASTIQUE

tend vers 0 quand n, m → +∞. On peut extraire une sous suite nk telle que
(n )
Mt k converge uniformément. La limite sera donc continue. Or cette limite
est nécessairement Mt . Ceci montre que Mt est une martingale continue. Donc
(n)
M ∈ HT2 et ||M (n) − M ||2H2 = E((MT − MT )2 ) → 0.
T

Définition 6.1.3. — Etant donnée une martingale M on note L2 (M )T l’en-


RT
semble des processus progressifs H tels que E( 0 Hs2 dhM, M is ) < ∞ muni du
produit scalaire
Z T
(H, K)L2 (M )T = E( Hs Ks dhM, M is ).
0

Proposition 6.1.4. — E est dense dans L2 (M )T .

Preuve: Remarquons que L2 (M )T est un sous espace fermé dans un L2 . C’est


donc un espace de Hilbert. Il suffit donc de montrer que si K ∈ L2 (M )T est
orthogonal à E alors il est nul. Posons
Z t
Xt = Ks dhM, M is .
0

Montrons que Xt ∈ L1
: Par l’inégalité de Kunita Watanabe (Proposition
5.6.4),
Z t Z t
1/2
|Ks | dhM, M is ≤ hM, M it ( Ks2 dhM, M is )1/2 ;
0 0
on voit, après avoir appliqué Cauchy Schwarz, que
Z t Z t
(9) E( |Ks | dhM, M is ) ≤ E(hM, M it )E( Ks2 dhM, M is ) < +∞.
0 0

Donc Xt ∈ L1 .
Soit Z une v.a. Fs –mesurable bornée. Pour 0 ≤ s ≤ t ≤ T ,
le processus Hr = Z1[s,t[ (r) est dans E donc, par hypothèse, orthogonal à K
donc
Z T Z t
0 = E( Hr Kr dhM, M ir ) = E(Z Kr dhM, M ir ) = E(Z(Xt − Xs )).
0 s
Ceci entraine que X est une martingale. Comme elle est à variation finie, elle
est nulle par la Proposition 5.5.2. Donc K doit être aussi nul dans L2 (M )T .

P
Rappelons maintenant que lorsque H = Hti 1[ti ,ti+1 [ ∈ E et M est une
P
martingale, on a défini l’intégrale stochastique (H · M )t = Hti (Mti+1 ∧t −
Mti ∧t )
6.1. INTÉGRALE STOCHASTIQUE PAR RAPPORT À UNE MARTINGALE DE CARRÉ INTÉGRABLE
63

Proposition 6.1.5. — Si H ∈ E est un processus élémentaire et M est une


martingale de carré intégrable,
Z T
2
E(H · M )T = E( Hs2 dhM, M is ).
0

Preuve: Sans perte de généralité, on peut supposer que tn = T pour sim-


plifier les notations. Alors, en appliquant le lemme d’orthogonalité 5.1.1 à la
martingale H.M ,
n−1
X
E(H · M )2T = E[((H · M )ti+1 − (H · M )ti )2 )
i=0

n−1
X
= E( Ht2i (Mti+1 − Mti )2 )
i=0

n−1
X
= E( Ht2i E((Mti+1 − Mti )2 |Fti ))
i=0

n−1
X
= E( Ht2i E(hM, M iti+1 − hM, M iti |Fti ))
i=0

n−1
X
= E( Ht2i (hM, M iti+1 − hM, M iti ))
i=0
Z T n−1
X
= E( Ht2i 1[ti ,ti+1 [ (s)dhM, M is )
0 i=0
Z T
= E( Hs2 dhM, M is ). 
0
On voit donc que l’application I(H) = H · M est une isométrie de E, sous
espace de L2 (M )T , dans HT2 . Comme E est dense et HT2 complet, on peut
prolonger cette isométrie à HT2 tout entier. En effet, si H ∈ HT2 , il existe par
densité une suite H (n) ∈ E telle que H (n) → H. Par isométrie la suite H (n) · M
est de Cauchy dans HT2 , donc converge vers un élément que l’on note H · M :

Théorème 6.1.6. — L’intégrale stochastique se prolonge en une isométrie


Rt
de L2 (M )T dans HT2 . On note encore H · M ou 0 Hs dMs l’image de H ∈
L2 (M )T .
64 CHAPITRE 6. INTÉGRALE STOCHASTIQUE

Théorème 6.1.7 (Propriété caractéristique). — Pour H ∈ L2 (M )T , (H·


M )t , t ≤ T, est la seule martingale nulle en 0, vérifiant
Z T
hH · M, N iT = Hs dhM, N is ,
0

pour tout N ∈ HT2 .

Preuve: Montrons d’abord la relation pour H ∈ E et même par linéarité, pour


Ht = Z1[a,b[ (t), avec b ≤ T , où Z est Fa –mesurable, bornée. Il faut voir que
Rt
(H · M )t Nt − 0 Hs dhM, N is est une martingale. Posons L = M N − hM, N i,
si a ≤ s ≤ T ,
E(ZMs NT ) = E(ZMs E(NT |Fs )) = E(ZMs Ns ) = E(ZLs ) + E(ZhM, N is ).
Puisque L est une martingale, E(ZLs ) = E(ZLa ). En appliquant ceci on en
déduit que, puisque (H · M )T = Z(Mb − Ma ),
Z t
E((H · M )T NT ) = E(Z(hM, N ib − hM, N ia )) = E( Hs dhM, N is ).
0
Pour tout temps d’arrêt τ borné par T , en remplaçant M et N par M τ et N τ
on a encore Z τ
E((H · M )τ Nτ ) = E( Hs dhM, N is )
0
Rt
ce qui montre bien que (H · M )t Nt − 0 Hs dhM, N is est une martingale.
Pour traiter le cas général d’un H dans L2 (M )T , approchons le par H n ∈ E.
L’application
M ∈ HT2 7→ hM, N iT ∈ L1
est continue par Kunita Watanabe (Proposition 5.6.4 appliquée à H = 1),
donc, dans L1 ,
Z T Z T
n n
hH·M, N iT = lim hH ·M, N iT = lim Hs dhM, N is = Hs dhM, N is ,
n→+∞ n→+∞ 0 0
en utilisant à nouveau Kunita Watanabe. Reste l’unicité : si X est une mar-
tingale nulle en 0, telle que pour tout N ,
hX, N iT = hH · M, N iT ,
alors, en prenant N = X − H · M , on a hX − H · M, X − H · M i = 0 donc
X = H.M . 
Une autre façon d’écrire cette relation est
dhH · M, N it = Ht dhM, N it
6.2. CAS D’UNE MARTINGALE LOCALE. 65

c’est à dire que, pour chaque ω fixé, la mesure dhH · M, N it a la densité Ht


par rapport à la mesure dhM, N it .

Corollaire 6.1.8. — Pour toutes martingales M, N dans HT2 , H ∈ L2 (M )T


et K ∈ L2 (N )T
Z T
hH · M, K · N iT = Hs Ks dhM, N is .
0

Théorème 6.1.9. — Pour H ∈ L2 (M ) T, pour tout temps d’arrêt τ ,


(H · M )τ = H · M τ .
De plus , K ∈ L2 (H · M )T si et seulement si KH ∈ L2 (M )T et alors
(associativité de l’intégrale stochastique)
(KH) · M = K · (H · M ).

Preuve: Pour l’arrêt, on utilise la propriété caractéristique : pour tout N ∈


HT2 , et
Z T
τ τ
h(H · M ) , N iT = h(H · M ), N iT = Hs dhM, N iτs
0
Z T Z T
= Hs d hM τ , N is = hHs d M τ , N is .
0 0
Pour l’associativité : d’abord
Z T Z T
2
E( Ks dh(H · M ), (H · M )is ) = E( Ks2 Hs2 dhM, M is ).
0 0
Par ailleurs
Z T Z T
h(KH)·M, N iT = Ks Hs d hM, N is = Ks hH·M, N is = hK·(H·M ), N iT .
0 0

6.2. Cas d’une martingale locale.


Soit M une martingale locale. On note L0 (M ) l’ensemble des processus
progressifs H tels que, pour tout t > 0,
Z t
Hs2 dhM, M is < +∞, p.s.
0
La suite Z t
τn = inf{t ≥ 0; (1 + Hs2 )dhM, M is ≥ n}
0
66 CHAPITRE 6. INTÉGRALE STOCHASTIQUE

est formée de temps d’arrêt et croı̂t vers +∞. Puisque


Z T
τn τn
hM , M it ≤ n et Hs2 dhM τn , M τn is ≤ n,
0
on voit que M τn
est une vraie martingale de HT2 et que H est dans L2 (M τn )T .
Considérons H · M τn . Pour m ≥ n,
(H · M τm )τn = H · (M τm )τn = H · M τm ∧τn = H · M τn .
On peut donc poser, sans ambiguı̈té,
(H · M )t = H · (M τn )t , pour tout n tel que τn ≥ t.
Théorème 6.2.1 (Propriété caractéristique). — H ·M est l’unique mar-
tingale locale, nulle en 0, telle que, pour toute martingale locale N
Z T
hH · M, N iT = Hs dhM, N is ,
0
Preuve: facile
Corollaire 6.2.2. — Pour H, K ∈ L0 (M ), pour tout temps d’arrêt τ ,
(H · M )τ = H · M τ et (HK) · M = H · (K · M ).

6.3. Semimartingales
On se fixe (Ω, F, (Ft ), P).
Définition 6.3.1. — On appelle semimartingale (continue) un processus
adapté Xt s’écrivant
Xt = X0 + Mt + Vt
où M est une martingale locale et V un processus à variation finie, nuls en 0,
continus adaptés.
Vu la Proposition 5.5.2, cette décomposition est unique. On l’appelle la
décomposition canonique.
Définition 6.3.2. — Le crochet de 2 semimartingales Xt = X0 + Mt +
Vt , Yt = Y0 + Nt + Ut où M et N sont les parties martingales, est par définition
hX, Y i = hM, N i.
L’exemple fondamental de semimartingale (mais ce n’est pas le seul, penser
au sup du brownien St = max0≤s≤t Bs ) est donné par les processus d’Ito : on
considère un Ft –mouvement brownien B = (B (1) , · · · , B (d) ) à valeurs dans Rd
issu de 0 ; par définition,
6.3. SEMIMARTINGALES 67

Définition 6.3.3. — Un Ft –mouvement brownien B = (B (1) , · · · , B (d) ) à


valeurs dans Rd est un processus continu tel que Bt+s − Bt , s ≥ 0, est
indépendant de Ft et donc les composnates sont des browniens indépendants.
Définition 6.3.4. — On appelle processus d’Itô réel tout processus Xt de la
forme
Xd Z t Z t
k k
(10) Xt = X0 + φs dBs + αs ds
k=1 0 0

où X0 ∈ F0 , où φk et α sont des processus progressifs réels tels que, pour tout
RtP Rt
t > 0, 0 (φks )2 ds + 0 |αs | ds < +∞ p.s.
Un processus d’Ito multidimensionnel est un processus dont les compo-
santes sont des processus d’Ito réels (par rapport au même Ft –brownien d-
PRt k Rt
dimensionnel B). Soient Xt = X0 + 0 φ dB k + 0 αs ds et Yt = Y0 +
PRt k k
0 ψ dB un processus d’Itô de dimension 2. On a
Xd Z t
(11) hX, Y it = φks ψsk ds.
k=1 0

6.3.1. Intégration par rapport à une semimartingale. — Soit Xt =


X0 +Mt +A1t −A2t une semimartingale. On note L0 (X), l’ensemble des processus
progressifs U tels que, pour tout t > 0,
Z t Z t
2
Us dhMs , Ms i + |Us | d(A1s + A2s ) < +∞, p.s.
0 0
Pour U ∈ L0 (X), on définit :
Z t Z t Z t Z t
1
Us dXs = Us dMs + Us dAs − Us dA2s .
0 0 0 0
Tout processus adapté continu est dans L0 (X). On vérifie facilement que :
Proposition 6.3.5 (Propriétés importantes). — Si X, Y sont des semi-
martingales, pour H ∈ L0 (M )T , pour tout temps d’arrêt τ ,
(H · M )τ = H · M τ );
si K ∈ L0 (H.M )T ,
(KH) · M = K · (H · M );
pour toute semimartingale N , si K ∈ L0 (N )T
Z T
hH · M, K · N iT = Hs Ks dhM, N is .
0
68 CHAPITRE 6. INTÉGRALE STOCHASTIQUE

Théorème 6.3.6 (de convergence dominée pour l’I.S.)


Soit K, H ∈ L0 (X) et H (n) une suite de processus progressifs telle que ;
(n) (n)
pour tout t ≥ 0, Ht → Ht p.s. quand n → +∞ et |Ht | ≤ Kt . Alors, en
probabilité Z Z t t
sup | Hs(n) dXs − Hs dXs | → 0.
0≤t≤T 0 0

Preuve: Si Xt = X0 + Mt + At est la décomposition canonique de X.


L’intégrale par rapport à A se traite avec le théorème de Lebesgue classique.
Pour la partie M , appliquons la technique fondamentale : la localisation.
Localisons : Soit τk la suite croissante vers +∞ de temps d’arrêt, définie
par
τk = inf{t ≥ 0; |Mt | + hK · M, K · M it = k}
alors par Doob
Z t Z t Z T Z T
(n) τk τk 2
E[ sup ( Hs dMs − Hs dMs ) ] ≤ 4E[( Hs(n) dMsτk − Hs dMsτk )2 ]
0≤t≤T 0 0 0 0
Z τk ∧T
= 4E[( (Hs(n) − Hs )2 dhM, M is ].
0
(n) R τ ∧T (n)
Par Lebesgue dominé (puisque (Hs − Hs )2 ≤ 4Ks2 ) on voit que 0 k (Hs −
Hs )2 dhM, M i → 0 quand n → +∞, et puisque cette quantité est bornée (par
2k) son espérance tend vers 0 à nouveau par Lebesgue dominé. Soit ε > 0
Z t Z t
P( sup ( Hs(n) dMs − Hs dMs )2 > ε)
0≤t≤T 0 0
Z t Z t
≤ P( sup ( Hs(n) dMsτk − Hs dMsτk )2 > ε, τk > t) + P(τk ≤ t)
0≤t≤T 0 0
etc... tend vers 0.
Proposition 6.3.7. — Soit X une semimartingale et U un processus adapté
continu. Soit 0 = tn0 < tn1 < . . . < tnpn = t, une suite de subdivisions dont le
pas tend vers 0. Alors
n −1
pX Z t
Uti (Xti+1 − Xti ) →
n n n Us dXs
i=0 0

et
n −1
pX
(Xtni+1 − Xtni )2 → hX, Xit
i=0
en probabilité.
6.4. FORMULE D’ITÔ 69

Ppn −1
Preuve: On pose Usn = i=0 Utni 1[tni ,tni+1 [ (s). On a
n −1
pX Z t
Utni (Xtni+1 − Xtni ) = Usn dXs .
i=0 0

Vu la continuité, Un
tend vers U en restant borné pour chaque ω puisque
n
|Us | ≤ max0≤r≤t |Ur |. Il suffit d’appliquer le théorème précédent pour obtenir
la première limite.
Ecrivons X = X0 + M + A où M est une martingale et A à variation finie,
n −1
pX
(Xtni − Xtni−1 )2 =
i=0
n −1
pX n −1
pX n −1
pX
2 2
(Mtni − Mtni−1 ) + (Atni − Atni−1 ) + 2 (Mtni − Mtni−1 )(Atni − Atni−1 )
i=0 i=0 i=0
et
n −1
pX
|(Atni − Atni−1 )2 + 2(Mtni − Mtni−1 )(Atni − Atni−1 )| ≤
i=0
n −1
pX
( sup |Atnj − Atnj−1 | + 2|Mtnj − Mtnj−1 |)| |(Atni − Atni−1 )|
1≤j≤n i=0
tend vers 0, par continuité de M et de A et en utilisant l’inégalité (7). Posons
τk = inf(s ≥ 0, |Ms | ≥ k). En écrivant
n −1
pX
P(| (Mtni − Mtni−1 )2 − hX, Xit | > ε)
i=0
n −1
pX
= P(| (Mtτnk − Mtτnk )2 − hX τk , X τk it | > ε, t < τk ) + P(t ≥ τk )
i i−1
i=0
Ppn τk
on obtient la convergence en probabilité puisque i=1 (Mtn − Mtτnk )2 →
i i−1
hX τk , X τk it par le théorème 5.3.1.

6.4. Formule d’Itô


Théorème 6.4.1. — (Formule d’Itô) Soit Xt = (Xt1 , . . . , Xtp ) une semimar-
tingale à valeurs dans Rp , et f ∈ C 2 (Rp ). Alors f (Xt ) est une semimartingale
et
p Z t p Z
X ∂f j 1 X t ∂2f
f (Xt ) − f (X0 ) = (Xs ) dXs + (Xs ) dhX j , X k is .
0 ∂x j 2 0 ∂x j ∂xk
j=1 j,k=1
70 CHAPITRE 6. INTÉGRALE STOCHASTIQUE

Preuve: Traitons le cas p = 1, avec une méthode qui s’étend immédiatement


au cas général. La formule de Taylor à l’ordre 2 s’écrit
(y − x)2 00
f (y) − f (x) = f 0 (x)(y − x) + f (θ)
2
pour un θ ∈ [x, y]. Ecrivons donc, pour une suite de subdivisions emboitées
0 = tn0 < tn1 < . . . < tnpn = t, de [0, t] dont le pas tend vers 0,
n −1
pX
f (Xt ) − f (X0 ) = (f (Xtni+1 ) − f (Xtni ))
i=0
n −1
pX n −1
pX
0 00
(Xtni+1 − Xtni )2
= f (X )(X
tn tn −X )+ tn f (θin )
i i+1 i
2
i=0 i=0
t
où θin est entre Xtni+1 et Xtni . Le premier terme tend vers 0 f 0 (Xs ) dXs par la
R

proposition 6.3.7. Etudions le second. On écrit fin au lieu de f 00 (θin ). Puisque


les partitions sont emboitées, pour m < n,
n −1
pX m −1
pX X
··· = ··· ,
i=0 j=0 {i;tm n m
j ≤ti <tj+1 }

donc
n −1
pX m −1
pX X
| (X tn
i+1
−X tn
i
)2 fin − (Xtni+1 − Xtni )2 fjm |
i=0 j=0 {i;tm n m
j ≤ti <tj+1 }

n −1
pX
≤ [ sup sup |fin − fjm |] (Xtni+1 − Xtni )2 .
0≤j<pm tm n m
j ≤ti <tj+1 i=0
En appliquant la Proposition 6.3.7, on voit que ceci tend vers 0 en probabilité
par uniforme continuité de f 00 sur [0, t] pour m, n → +∞. On fixe m pour
lequel c’est petit pour tout n ≥ m. En appliquant à nouveau la Proposition
6.3.7,
m −1
pX X m −1
pX
lim fjm (Xtni+1 − Xtni ) = 2
fjm (hX, Xitm
j+1
− hX, Xitm
j
)
n→+∞
j=0 {i;tm n m
j ≤ti <tj+1 }
j=0
Z t
= Hm (s) dhX, Xis
0
en posant Hm (s) = fjm lorsque tm
j ≤ s < tm
j+1 . Par Lebesgue dominé, ceci tend
vers Z t Z t
lim Hm (s) dhX, Xis = f 00 (Xs ) dhX, Xis
m→+∞ 0 0
6.4. FORMULE D’ITÔ 71

il suffit donc d’avoir choisi m assez grand. 

On écrit souvent de façon formelle,


p p
X ∂f j 1 X ∂2f
(12) df (Xt ) = (Xt ) dXt + (Xt ) dhX j , X k it .
∂xj 2 ∂xj ∂xk
j=1 j,k=1

Corollaire 6.4.2. — Soit X une semimartingale à valeurs dans Rp et f ∈


C 1,2 (R+ × Rp ). Alors f (t, Xt ) est une semimartingale et
f (t, Xt ) − f (0, X0 ) =
t p Z t p Z
1 X t ∂2f
Z
∂f X ∂f
(s, Xs ) ds+ (s, Xs ) dXsj + (s, Xs ) dhX j , X k is .
0 ∂t 0 ∂xj 2 0 ∂xj ∂xk
j=1 j,k=1
CHAPITRE 7

APPLICATIONS DE LA FORMULE D’ITO

7.1. Sur le Brownien multidimensionnel


La formule d’Ito peut être localisée. Voyons ça sur un exemple. Soit B le
Brownien dans Rd partant de 0 et Wt = Bt + x, le mouvement brownien
partant de x ∈ Rd . Pour tout temps d’arrêt, τ , par Ito, pour toute fonction
C2
d Z t∧τ
1 t∧τ
Z
X ∂f i
f (Wt∧τ ) = f (x) + (Ws ) dWs + ∆f (Ws ) ds
∂xi 2 0
i=1 0
2
où ∆ est le laplacien ∆f = di=1 ∂∂xf2 . Si Wsτ est à valeurs dans un ensemble F
P
i
et que f est C 2 uniquement sur un voisinage de F , cette formule reste valable
(car on peut y remplacer f par une fonction C 2 sur Rd tout entier, égale à f
sur ce voisinage). Prenons pour F un fermé ne contenant pas 0, et considérons
la fonction f : Rd → R égale à :
1
f (x) = log kxk, si d = 2 et f (x) = , si d ≥ 3.
kxkd−2
En dehors de 0, ∆f = 0 (on dit que f est harmonique). Donc

Lemme 7.1.1. — Si τ est un temps d’arrêt tel que Wtτ ne s’annule jamais,
f (Wtτ ) est une martingale locale.

Preuve: Soit τn = inf{t; ||Wt∧τ || ≤ 1/n}, avec kxk > 1/n. Par Ito, f (Wtτ ∧τn )
est une martingale locale. De plus τn → +∞ car Wt∧τ ne s’annule pas.

Proposition 7.1.2 (Les points sont polaires en dimension ≥ 2)


Si d ≥ 2, pour tout x ∈ Rd
P(∃t > 0; Bt = x) = 0.
74 CHAPITRE 7. APPLICATIONS DE LA FORMULE D’ITO

Preuve: Il suffit de traiter le cas d = 2. Supposons d’abord x 6= 0. Il faut


montrer (quitte à changer x en −x) que
P(∃t > 0; Wt = 0) = 0.
Choisissons r, R > 0 tels que r < ||x|| < R, posons Tr = inf{t ≥ 0; ||Wt || =
r}, TR = inf{t ≥ 0; ||Wt || = R} et τ = Tr ∧ TR . Puisque ln(||Wtτ ||) est une
martingale locale bornée,
E[ln(||Wtτ ||)] = E[ln(||W0τ ||)] = ln ||x||
donc, en faisant t → +∞,
E[ln(||Wτ ||)] = ln ||x||
c’est à dire
P(Tr < TR ) ln r + P(Tr > TR ) ln R = ln ||x||
ce qui donne
ln R − ln ||x||
(13) P(Tr < TR ) = .
ln R − ln r
En faisant tendre r vers 0 on obtient que
P(T0 ≤ TR ) = 0,
car {T0 ≤ TR } = ∪r<R {Tr < TR }. Puis en faisant tendre R vers +∞,
P(T0 < ∞) = 0.
Donc partant de x 6= 0 on n’atteint pas 0. Ensuite, puisque pour tout ε > 0,
B̃t = Bt+ε − Bε , t ≥ 0, est un brownien indépendant de Bε et puisque Bε 6= 0,
p.s., on a (en prenant dans ce qui précède Wt = B̃t + Bε )
P(∃t > ε, Bt = 0) = P(∃t > 0, Bε+t = 0) = P(∃t > 0, B̃t = −Bε ) = 0
et, en faisant tendre ε vers 0, P(∃t > 0, Bt = 0) = 0.

Proposition 7.1.3. — En dimension 2 , pour tout ouvert O de R2


P(∃t > 0; Bt ∈ O) = 1
et, p.s., lim inf t→+∞ ||Bt || = 0. Si d ≥ 3, limt→+∞ ||Bt || → +∞.

Preuve: Pour d = 2 en reprenant la preuve précedente on voit en commençant


par faire tendre R vers l’infini, que pour tout x ∈ R2 ,
P(∃t > 0; ||Bt − x|| < ε) = 1.
7.2. MARTINGALES EXPONENTIELLES 75

Par contre pour d ≥ 3, puisque ce n’est plus ln ||x|| mais ||x||2−d qui est
harmonique, on obtient à la place de l’équation (13),
R2−d − ||x||2−d
P(Tr < TR ) = .
R2−d − r2−d
En faisant tendre R vers +∞, on obtient que, partant de x,
||x||2−d
P(Tr < +∞) = .
r2−d
On a donc, pour tout M > 0,
M 2−d
P(lim inf |Bt | ≥ r) ≥ P(kBt+TM k ≥ r, ∀t ≥ 0) ≥ 1 − →1
t→+∞ r2−d
quand M tend vers l’infini si d > 2.

Remarque : On peut maintenant justifier que Mt := 1/||Bt+1 || est bien une


martingale locale pour le brownien dans R3 .

7.2. Martingales exponentielles


7.2.1. Définition. —

Théorème 7.2.1. — Soit M une martingale locale. Alors, pour tout λ ∈ C,


1
E(λM ) = exp(λM − λ2 hM, M i)
2
est une martingale locale et

dE(λM ) = λE(λM ) dM.

Preuve: Il suffit d’appliquer la formule d’Ito aux fonctions parties réelles et


2
imaginaires de f (x) = ex et à la semimartingale λM − λ2 hM, M i.

Lemme 7.2.2. — Soit M une martingale locale et E(M ) = exp(M − 21 hM, M i).
Si E(E(M )T ) = 1 pour un T > 0, alors E(M )t , t ≤ T, est une (vraie) martin-
gale.

7.2.2. Critère de Paul Lévy. —

Proposition 7.2.3. — Soit M une martingale locale (continue) nulle en 0


de crochet t. Alors M est un (Ft )–brownien.
76 CHAPITRE 7. APPLICATIONS DE LA FORMULE D’ITO

Preuve: Par le théorème précédent, pour tout λ réel, E(iλM ) est une martin-
λ2 T
gale locale bornée sur [0, T ] par e 2 donc une martingale : pour 0 < s < t,
E[E(iλMt )|Fs ] = E(iλMs )
autrement dit,
1 1
E[exp(iλMt − λ2 t)|Fs ] = exp(iλMs − λ2 s)
2 2
d’où
1
E[exp(iλ(Mt − Ms ))|Fs ] = exp(− λ2 (t − s))
2
et l’on conclue facilement.

7.2.3. Dubins-Schwarz. —

Proposition 7.2.4. — Soit M une martingale locale nulle en 0. Alors il


existe un brownien B tel que Mt = BhM,M it .

Preuve: Ne traitons que le cas plus simple où hM, M i est strictement croissant
et hM, M i∞ = ∞. Dans ce cas, pour chaque ω ∈ Ω, la fonction t ∈ R+ 7→
hM, M it (ω) ∈ R+ est bijective. Notons t ∈ R+ 7→ σt (ω) ∈ R+ l’inverse de
cette fonction (qui vérifie donc hM, M iσt = σhM,M it = t). Chaque σt est un
temps d’arrêt car
{σt ≤ s} = {hM, M iσt ≤ hM, M is } = {t ≤ hM, M is }
est Fs –mesurable. Pour n ∈ N, M σn est une vraie martingale car
hM σn , M σn it ≤ hM, M iσn = n.
et par Doob
E(sup(Mtσn )2 ) ≤ lim E(sup(Mtσn )2 ) ≤ 4E(hM, M iσn ) = n.
t≥0 T →+∞ t≤T

On n’a donc pas de mal à justifier l’application du théorème d’arrêt à σs :


E(Mσσtn |Fσs ) = Mσσsn .
Donc Mσt est une (Fτt )-martingale locale. On voit de la même façon que
(M 2 − hM, M i)σt = Mσ2t − t
est une martingale locale. On conclue donc avec le critère de Lévy que Bt =
Mσt est un mouvement brownien. On termine en remarquant que Mt =
BhM,M it .
7.3. THÉORÈME DE REPRÉSENTATION 77

Proposition 7.2.5. — Soit M une martingale locale. Presque sûrement,


a. Sur hM, M i∞ = +∞,
lim sup Mt = +∞, lim inf Mt = −∞
t→+∞ t→+∞

et limt→+∞ Mt /hM, M it = 0.
b. Sur hM, M i∞ < +∞, Mt converge quand t → +∞.

7.3. Théorème de représentation


Théorème 7.3.1. — On suppose que (Ft ) est la filtration du brownien Ft =
σ(Bs , 0 ≤ s ≤ t).
Si Z ∈ L2 (FT ), il existe un unique processus K dans L2T (B) tel que
Z T
(14) Z − E(Z) = Ks dBs .
0

Si M est une martingale locale (arbitraire) nulle en 0, il existe K dans L0 (B)


tel que
Z t
Mt = Ks dBs .
0
En particulier, M est continue.

Preuve: Les combinaisons linéaires des v.a.


Xn
U = exp(i λj (Btj − Btj−1 )), n ∈ N, λ1 , · · · , λn ∈ R, tj ≤ T,
j=1

sont denses dans L2 (Ω, FT ). En effet soit X ∈ L2 (Ω, FT ) tel que


n
X
E[X exp(i λj (Btj − Btj−1 ))] = 0.
j=1

X + X −
Notons µ+ et µ+ les probabilités sur Rn images de E(X + ) dP et E(X − ) dP

par le vecteur (Bt1 − Bt0 , · · · , Btn − Btn−1 ). Ces deux probabilités ont la
même transformée de Fourier donc sont égales. Autrement dit pour tout
A ∈ σ(Btj − Btj−1 , j = 1, · · · , n), E(1A X) = 0. Par classe monotone, c’est
vrai pour tout A ∈ FT . Donc X = 0.
Notons H̃ l’ensemble des Z de L2 (FT ) admettant la représentation (14).
C’est un fermé car si Zn → Z dans L2 et
Z T
Zn = E(Zn ) + Ksn dBs
0
78 CHAPITRE 7. APPLICATIONS DE LA FORMULE D’ITO

la suite Zn − E(Zn ) est de Cauchy donc K n est de Cauchy dans L2T (B), qui
est complet. Si Kn → K, alors
Z T
Z = E(Z) + Ks dBs .
0
Pn
Montrons que chaque v.a. U est dans H̃. Posons Gt = j=1 λj 1[tj−1 ,tj [ (t),
Rt Rt RT
i Gs dBs + 21 G2s ds − 12 G2s ds
Mt = e 0 0 et γ = e 0 . Remarquons que γ n’est pas
aléatoire et que dMt = iGt Mt dBt . On a
RT RT RT RT
Gs dBs + 12 G2s ds − 12 G2s ds
U = ei 0 Gs dBs
= ei 0 0 e 0 = γMt
donc
Z T
U = γ[1 + iGt Mt dBt ]
0
Z T
U = E(U ) + iγGt Mt dBt
0

ce qui montre que U est dans H̃. Finalement H̃ est fermé et contient un sous
ensemble dense dans L2T (B), il lui est donc égal. Ceci montre l’existence de
la représentation (14). Pour l’unicité, si (14) est vrai pour K et K 0 , alors
RT RT 0
0 Ks dBs = 0 Ks dBs donc
Z T Z T
0
E( 2
(Ks − Ks ) dBs ) = E(Ks − Ks0 )2 ds = 0
0 0

et Ks = Ks0 ,
p.s.
Considérons maintenant une martingale locale M , nulle en 0 que l’on réduit
par τn en martingales de carré intégrable. Puisque MTτn est dans L2 (Ω, FT ), il
existe un processus K (n) tel que
Z T
MTτn = Ks(n) dBs
0

on en déduit que, pour 0 ≤ t ≤ T ,


Z T Z t
Mtτn = E(MTτn |Ft ) = E( Ks(n) dBs |Ft ) = Ks(n) dBs .
0 0

Posons alors pour tout t ≥ 0, Kt = Ktn dès que t ≤ τn . L’unicité précédente


montre que K est ainsi bien défini. On a, en prenant τn ≥ t,
Z t Z t
τn (n)
Mt = Mt = Ks dBs = Ks dBs .
0 0
7.4. GIRSANOV 79

7.4. Girsanov
7.4.1. Probabilités équivalentes. — Sur un espace probabilisable (Ω, F)
on dit que deux probabilités P et Q sont équivalentes si il existe une v.a. Z
strictement positive telle que pour tout A ∈ F
Z
Q(A) = 1A Z dP.

On écrira Q = Z · P, ou dQ = Z dP Par application du théorème de Lebesgue


c’est la même chose que dire que pour toute v.a. X, F–mesurable positive,
Z Z
X dQ = XZ dP.

On continuera à noter E l’espérance par rapport à P mais on notera EQ


R
l’espérance par rapport à Q. Autrement dit E(X) = X dP et EQ (X) =
R
X dQ.
Théorème 7.4.1 (Girsanov). — Soit M une martingale locale sur (Ω, (Ft ), P)
et
1
ZT = eMT − 2 hM,M iT .
On suppose que E(ZT ) = 1 et on note Q la probabilité ZT · P sur (Ω, FT ).
Alors pour toute martingale locale N sur (Ω, (Ft ), P), le processus Xt = Nt −
hN, M it , 0 ≤ t ≤ T, est une martingale locale sur (Ω, (Ft )t≤T , Q) de processus
croissant hN, N it .
Preuve: On peut supposer que N0 = 0 donc qur X0 = 0. Appliquons la
formule d’Ito en utilisant que dZ = ZdM donc que dhN, Zi = ZdhN, M i :
d(XZ) = d(N Z −hN, M iZ) = ZdN +N dZ +dhN, Zi−hN, M idZ −ZdhN, M i
= ZdN + N dZ − hN, M idZ
XZ est donc une martingale locale sur (Ω, P). Soit (τn ) la réduisant en mar-
tingale. et soit τ un temps d’arrêt borné par T , alors, en utilisant à la fois que
Z (cf. Lemme 7.2.2) et (XZ)τn sont des martingales,
EQ [Xττn ] = E[Xττn ZT ] = E[Xττn E(ZT |Fτn ∧τ )]
= E[Xττn Zτn ∧τ ] = E[(XZ)ττn ] = 0.
Donc X τn est une Q-martingale (Corollaire 4.3.8).

Il résulte de ce théorème que les semimartingales pour P et Q sont les


mêmes (jusqu’en T ). De plus, le crochet pouvant s’obtenir par une limite
p.s. ne dépend que de la classe d’équivalence des probabilités (puisqu’alors les
ensembles négligeables sont les mêmes). Par le même argument, ou la propriété
80 CHAPITRE 7. APPLICATIONS DE LA FORMULE D’ITO

caractéristique par exemple, on voit aussi que les intégrales stochastiques sont
les mêmes pour P et pour Q.

Corollaire 7.4.2 (Cameron–Martin). — Soit B un brownien sur (Ω, (Ft ), P)


RT RT
et φs ∈ L0 (B). On suppose que ZT = exp[ 0 φs dBs − 21 0 φ2s ds] vérifie
Rt
E(ZT ) = 1. Alors, pour 0 ≤ t ≤ T , B̃t = Bt − 0 φs ds est un mouvement
brownien sur (Ω, (Ft )0≤t≤T , Q) où dQ = ZT dP sur FT .

Preuve: d’après le critère de Lévy, il suffit de voir que B̃t est une martingale
locale de processus croissant t ce qui est immédiat par le théorème.

7.4.2. Novikov. — Pour vérifier l’hypothèse du théorème de Girsanov ou


de Cameron Martin, on utilise :

Proposition 7.4.3 (Critère de Novikov). — Soit M martingale locale nulle


hM,M iT
en 0, telle que E(e 2 ) < +∞. Alors E(E(M )T ) = 1.

Preuve: Montrons cette proposition uniquement sous l’hypothèse un peu plus


forte que E(e6hM,M iT ) < +∞. Ecrivons
1
2(Mt − hM, M it ) = 2Mt − 4hM, M it + 3hM, M it
2
Par Cauchy Schwarz, pour la suite de temps d’arrêt (τn ) bornant M , on a
1 1
E[E(M )2T ∧τn ] ≤ E[exp(2(2MT ∧τn − 4hM, M iT ∧τn ))] 2 E[exp(6hM, M iT ∧τn )] 2
1
≤ E[exp(6hM, M iT ] 2
car E(E(2Mt∧τn )) ≤ 1. Les v.a. E(M )T ∧τn sont uniformément intégrable et
d’espérance égale à 1. Donc l’espérance de la limite est aussi égale à 1. 
Le critère suivant est très utile :
RT 2
Corollaire 7.4.4. — Si il existe µ > 0 tel que 0 E(eµφt ) dt < +∞, alors
E(ZT ) = 1.

Preuve: Soit λ > 0. On choisit t0 = 0 < t1 · · · < tn = T avec λ(ti+1 −ti ) < µ et
on pose φi = φ1[ti ,ti+1 [ . Alors, écrivons, en utilisant que pour toute probabilité
R R
p,exp |f | dp ≤ exp |f | dp (conséquence de l’inégalité de Jensen),
Z ti+1
RT 2 1
E(eλ 0 φi (s) ds ) = E(exp[ (ti+1 − ti )λφ(s)2 ds])
ti+1 − ti ti
Z ti+1 Z ti+1
1 1
≤ E( exp(ti+1 − ti )λφ(s)2 ds) ≤ E exp µφ(s)2 ds
ti+1 − ti ti ti+1 − ti ti
7.4. GIRSANOV 81

est fini, donc avec Novikov en prenant λ = 1/2 (ou sa forme faible prouvée en
prenant λ = 6), on voit que
Zt
E( i+1 |Fti ) = 1
Zti
Donc de proche en proche,
Zt Ztn
E(ZT ) = E(Zt0 1 · · · ) = 1.
Zt0 Ztn−1
CHAPITRE 8

EQUATIONS DIFFÉRENTIELLES
STOCHASTIQUES

8.1. Introduction
Notons Mp×d (R) l’ensemble des matrices p × d à coefficients dans R. Soient
σ : Rp → Mp×d (R) et b : Rp → Rp deux fonctions mesurables localement
bornées (i.e. bornées sur chaque boule) définies sur Rp . Pour x ∈ Rp , on
considère l’équation différentielle stochastique (E.D.S.)

(15) dXt = σ(Xt ) dBt + b(Xt ) dt, X0 = x ∈ R p ;

Etant donné un mouvement Brownien d dimensionnel sur (Ω, (Ft ), P), muni de
sa filtration, on appelle solution (forte) de cette équation un processus adapté
continu Xt tel que, en coordonnées, pour i = 1, · · · , p, pour tout t ≥ 0,
d Z t Z t
(i) (i)
X
Xt = X0 + σij (Xs ) dBs(j) + bi (Xs ) ds
j=1 0 0

Le cas d’une équation à coefficients dépendant du temps, du type

dXt = σ(t, Xt ) dBt + b(t, Xt ) dt

se ramène à cette situation en travaillant dans Rp+1 , en rajoutant une com-


(0)
posante Xt = t. Le lemme suivant est crucial.

Lemme 8.1.1 (Gronwall). — Soit g : [0, T ] → R une fonction borélienne


bornée telle que,
Z t
g(t) ≤ a + b g(s) ds, pour tout 0 ≤ t ≤ T.
0

Alors g(t) ≤ aebt sur [0, T ].


84 CHAPITRE 8. EQUATIONS DIFFÉRENTIELLES STOCHASTIQUES

Rt
Preuve: On pose G(t) = a + b 0 g(s) ds. Alors g(t) ≤ G(t). Si g est continue,
G est une fonction dérivable et

(e−bt G(t))0 = −be−bt G(t) + e−bt G0 (t) = −be−bt G(t) + be−bt g(t) ≤ 0

donc e−bt g(t) ≤ e−bt G(t) ≤ G(0) = a.


Si g est seulement mesurable bornée, G est continue et vérifie
Z t Z t
G(t) = a + b g(s) ds ≤ a + b G(s) ds
0 0

donc la même conclusion est vraie. 

8.2. Solutions fortes d’E.D.S.


On considère l’équation (15). On dit que b et σ sont lipschitziennes si il
existe K > 0 tel que, partout,

||b(x) − b(y)|| ≤ K||x − y||, ||σ(x) − σ(y)|| ≤ K||x − y||.

(on peut prendre comme norme, par exemple, ||σ(x)|| = ( i,j σi,j (x)2 )1/2 et
P

||b(x)|| = ( i bi (x)2 )1/2 ). Le théorème fondamental est le suivant :


P

Théorème 8.2.1. — Soit Bt , t ≥ 0, un (Ω, (Ft ), P) mouvement brownien d–


dimensionnel. On suppose que b et σ sont lipschitziennes. Etant donné x ∈ Rp
il existe un et un seul processus continu adapté X tel que pour tout t ≥ 0,
Z t Z t
Xt = x + b(Xs ) ds + σ(Xs ) dBs .
0 0

Preuve: En dimensions p = d = 1, pour simplifier les notations uniquement.


1. Unicité : Si X, X 0 sont deux solutions. On localise avec τ = inf{t >
0; |Xt − Xt0 | ≥ n} :
Z t∧τ Z t∧τ
0
Xt∧τ − Xt∧τ = (b(Xs ) − b(Xs0 )) ds + (σ(Xs ) − σ(Xs0 )) dBs .
0 0
8.2. SOLUTIONS FORTES D’E.D.S. 85

Puisque (a + b)2 ≤ 2a2 + 2b2 , et en appliquant Cauchy Schwarz, si t ≤ T ,


0
E([Xt∧τ − Xt∧τ ]2 ) ≤
Z t∧τ Z t∧τ
0
≤ 2E([ 2
(b(Xs ) − b(Xs )) ds] ) + 2E([ (σ(Xs ) − σ(Xs0 )) dBs ]2 )
0 0
Z t∧τ Z t∧τ
0 2
≤ 2E((t ∧ τ )[ (b(Xs ) − b(Xs )) ds]) + 2E([ (σ(Xs ) − σ(Xs0 ))2 ds])
0 0
Z t∧τ Z t∧τ
≤ 2E(T [ (K|Xs − Xs0 |)2 ds]) + 2E([ (K|Xs − Xs0 |)2 ds])
0 0
Z t
0
≤ 2(T + 1)K 2 E(|Xs∧τ − Xs∧τ |)2 ds.
0
Donc E[Xt∧τ −Xt∧τ0 ]2 = 0 par le lemme de Gronwall. On en déduit que X = X 0 .

2. Existence : on utilise ce qu’on appelle le schéma de Picard. On pose, pour


tout t ≥ 0, Xt0 = x puis par récurrence
Z t Z t
n n−1
Xt = x + b(Xs ) ds + σ(Xsn−1 ) dBs
0 0
On a
Z t Z t
Xtn+1 − Xtn = (b(Xsn ) − b(Xsn−1 )) ds + (σ(Xsn ) − σ(Xsn−1 )) dBs
0 0
Posons
gn (u) = E(sup[Xtn+1 − Xtn ]2 ).
t≤u
Si 0 ≤ u ≤ T ,
Z t Z t
gn (u) ≤ 2E(sup[ (b(Xsn )
− b(Xsn−1 )) ds]2 )
+ 2E(sup[ (σ(Xsn ) − σ(Xsn−1 )) dBs ]2 )
t≤u 0 t≤u 0
Z u Z u
≤ 2E(T (b(Xsn ) − b(Xsn−1 ))2 ds) + 8E([ (σ(Xsn ) − σ(Xsn−1 ))2 ds)
0 0
Z u
≤ 2(T + 4)K 2 E(|Xsn − Xsn−1 |2 ) ds
0
Z u Z u
2 n n−1 2
≤ 2(T + 4)K E(sup |Xs − Xs | ) dv = C gn−1 (v) dv
0 s≤v 0

pour C = 2(T + 4)K 2 . On en déduit par récurrence que,


C n tn−1
gn (t) ≤ g0 (t)
(n − 1)!
or
g0 (t) ≤ E(sup[Xs1 − x]2 ) ≤ E(sup(sb(x) + σ(x)Bs )2 )) ≤ Cte
s≤T s≤T
86 CHAPITRE 8. EQUATIONS DIFFÉRENTIELLES STOCHASTIQUES

On a donc

X ∞
X
E( sup[Xtn+1 − Xtn ]2 ) = gn (T ) < +∞.
n=0 t≤T n=0
On en déduit que X n converge p.s. vers une solution X de l’équation.

8.3. Localisation
On dit que b et σ sont localement lipschitziennes si pour tout N > 0 il existe
0 > 0 tel que, si ||x|| ≤ N, ||y|| ≤ N ,
KN , KN

0
||b(x) − b(y)|| ≤ KN ||x − y||, ||σ(x) − σ(y)|| ≤ KN ||x − y||.
C’est le cas par exemple dans le cas fondamental où les fonctions b et σ sont
de classe C 1 , par le théorème des accroissements finis.
Théorème 8.3.1. — On suppose que b et σ sont localement lipschitziennes.
Alors pour tout x ∈ Rp il existe un temps d’arrêt ξ ≤ + ∞ et un processus X
tel que pour tout t < ξ, Xt est solution de l’E.D.S.,
dXt = σ(Xt ) dBt + b(Xt ) dt, X0 = x;
et, lorsque ξ < +∞, lim supt→ξ− ||Xt || = +∞.
Si, de plus il existe K > 0 tel que, pour tout x ∈ Rp ,
(16) ||σ(x)|| + ||b(x)|| ≤ K(1 + ||x||)
alors ξ = +∞ p.s.
Preuve: Pour tout n > 0 on se donne une fonction φn : Rp → R dérivable,
égale à 1 sur {x; ||x|| ≤ n} et à 0 sur {x; ||x|| ≥ n + 1}. Les fonctions bn = bφn
et σn = σφn sont lipschitziennes. Il existe donc une unique solution X (n) de
l’E.D.S.
(n) (n) (n) (n)
dXt = σn (Xt ) dBt + bn (Xt ) dt, X0 = x.
(n)
On prend n ≥ ||x||. Soit τn = inf{t ≥ 0; ||Xt || ≥ n}. Si m ≥ n , soit
(m) (m) (m) (m)
τnm = inf{t ≥ 0; ||Xt || ≥ n}. Alors bm (Xt∧τnm ) = b(Xt∧τnm ) et σm (Xt∧τnm ) =
(m)
σ(Xt∧τnm ). Comme pour la preuve de l’unicité dans la preuve du théorème
8.2.1 on en déduit que pour tout m ≥ n,
(m) (n)
Xt∧τnm = Xt∧τn
en particulier τnm ≥ τn . On peut donc poser, dès que τn ≥ t,
(n)
Xt = Xt
8.4. PROPRIÉTÉ DE MARKOV 87

Soit ξ = limn→+∞ τn . On définit ainsi, pour t < ξ, une solution Xt de l’E.D.S.


De plus si ξ < ∞,
lim sup ||Xt || ≥ lim sup ||Xτn || = lim sup n = +∞.
t→ξ − n→+∞ n→+∞

Montrons maintenant que ξ = +∞ sous la condition (16), en dimension 1,


pour simplifier. Par Ito,
d(e−λt (1 + Xt2 )) = −λe−λt (1 + Xt2 ) dt + e−λt (2Xt dXt + dhX, Xit )
= e−λt [−λ(1 + Xt2 ) + 2Xt b(Xt ) + σ 2 (Xt )]dt + 2e−λt Xt σ(Xt ) dBt
On a
−λ(1 + x2 ) + 2xb(x) + σ 2 (x) ≤ −λ(1 + x2 ) + (2|x|K(1 + |x|) + K 2 (1 + |x|)2
On peut donc choisir λ > 0 assez grand pour que cette quantité soit toujours
négative. Alors
Z t∧τn
−λ(t∧τn )
e 2 2
(1 + Xt∧τn ) ≤ (1 + x ) + 2e−λt Xt σ(Xt ) dBt
0
donc
E(e−λ(t∧τn ) (1 + Xt∧τ
2
n
)) ≤ 1 + x2
or
E(e−λ(t∧τn ) (1+Xt∧τ
2
n
)) ≥ E(1{τn ≤t} e−λt∧τn (1+Xt∧τ
2
n
)) ≥ E(e−λt (1+n2 )1{τn ≤t} )
(1+x2 )eλt
donc P(τn ≤ t) ≤ 1+n2
et τn → +∞.

8.4. Propriété de Markov


Reprenons les hypothèses précédentes en supposant que ξ = +∞, et notons
Xt (x) la solution de l’E.D.S. (15) vérifiant X0 (x) = x. Par construction,
l’application
(x, ω) ∈ Rp × Ω 7→ {Xt (x)(ω), 0 ≤ t} ∈ C(R+ , Rp )
est mesurable lorsqu’on munit Rd × Ω de la tribu B(R+ ) × F∞ et l’ensemble
des fonctions continues C(R+ , Rp ) de R+ dans Rp de la tribu engendrée par les
applications coordonnées (f 7→ f (t)), par exemple. Puisque F∞ = σ(Bs , s ≥ 0)
ou sa complétée, il existe une application mesurable
Φ : Rp × C(R+ , Rp ) → C(R+ , Rp )
telle que
X(x) = Φ(x, B).
88 CHAPITRE 8. EQUATIONS DIFFÉRENTIELLES STOCHASTIQUES

Pour tout temps d’arrêt τ , fini p.s., on a


X(x)τ = Φ(x, B τ ).
Par la propriété de Markov forte on sait que le processus B̃t = Bt+τ − Bτ est
un mouvement brownien indépendant de Fτ , donc de Xτ . On voit facilement
en prenant d’abord pour H des fonctions étagées que, pour tout H de L0 (B),
Z t+τ Z t
Hs dBs = Hs+τ dB̃s
τ 0
La relation
Z t+τ Z t+τ
Xτ +t = Xτ + b(Xs ) ds + σ(Xs ) dBs
τ τ
Z t Z t
= Xτ + b(Xτ +s ) ds + σ(Xτ +s ) dB̃s
0 0
montre que, si on pose τ Xt = Xτ +t , pour tout t ≥ 0, alors
τ
X = Φ(Xτ , B̃).
Puisque B̃ est indépendant de Fτ , on en déduit :

Théorème 8.4.1. — (Propriété de Markov forte) Pour tout temps d’arrêt τ


fini p.s., pour toute fonction mesurable positive F définie sur C(R+ , Rp ),
E(F (τ X)|Fτ ) = Ey (F (X)), pour y = Xτ
où le symbole Ey signifie que l’on considère la solution X telle que X0 = y
(c’est à dire X(y)).

8.5. Processus de Markov


Posons, pour f mesurable positive sur Rp , Pt f (x) = Ex (f (Xt )). En prenant
F (X) = f (Xt ) et τ = s dans le théorème précédent on voit que
E(f (Xt+s )|Fs ) = Ey (f (Xt )) = Pt f (y), pour y = Xs ,
donc, en prenant l’espérance,
Pt+s f (x) = Ex (f (Xt+s )) = Ps (Pt f )(x)
c’est la propriété dite de semigroupe. On dit que X est un processus de Markov
de semigroupe (Pt ). Par continuité des trajectoires en t = 0,
lim Pt f (x) = f (x)
t→0
si f est continue bornée.
8.6. EDS ET EDP 89

Définition 8.5.1. — On appelle générateur du semigroupe (Pt ) l’opérateur


Lf défini par
Pt f (x) − f (x)
Lf (x) = lim
t→0 t
pour les f pour lesquels cette limite a un sens.

Théorème 8.5.2. — Soit X solution de l’E.D.S.,

dXt = σ(Xt ) dBt + b(Xt ) dt

Alors X est un processus de Markov dont le générateur est donné par


p p
1 X ∂2f X ∂f
Lf (x) = ai,j (x) (x) + bi (x) (x)
2 ∂xi ∂xj ∂xi
i,j=1 i=1

lorsque f est C 2 à support compact où a = σσ ∗ . On dit que X est une diffusion.

Preuve: Si on applique la formule d’Ito à f (Xt ), on obtient,


X Z t ∂f Z t
f (Xt ) = f (X0 ) + (Xs )σi,j (Xs ) dBj (s) + Lf (Xs ) ds
0 ∂xi
i,j 0

∂f
Puisque f est à support compact , ∂x i
(Xs )σi,j (Xs ) est borné, donc l’intégrale
stochastique est une martingale, d’espérance nulle. On a alors
Z t Z t
Pt f (x) = f (x) + Ex ( Lf (Xs ) ds) = f (x) + Ps Lf (x) ds
0 0

Donc
t
Pt f (x) − f (x)
Z
1
Lf (x) = lim = lim Ps Lf (x) ds = P0 Lf (x) = Lf (x).
t→0 t t→0 t 0

8.6. EDS et EDP


La formule d’Ito et le théorème précédent montrent qu’il y a un lien très fort
entre les EDS et les opérateurs diffférentiels aux dérivées partielles du second
ordre du type de L. Ceci permet en particulier de donner des solutions proba-
bilistes à certaines équations aux derivées partielles (EDP), et réciproquement.
Donnons deux exemples.
90 CHAPITRE 8. EQUATIONS DIFFÉRENTIELLES STOCHASTIQUES

8.6.1. Problème de Dirichlet. — Dans Rp considérons un ouvert borné


D de frontière ∂D régulière. Etant donné une fonction f : ∂D → R sur le bord
on considère l’équation

Lφ(x) = 0, x ∈ D;
φ(x) = f (x), x ∈ ∂D.
Théorème 8.6.1. — La solution φ admet la représentation
φ(x) = Ex (f (Xτ )), x ∈ D;
où X est la diffusion associée à (15) et τ = inf{t ≥ 0; Xt ∈ ∂D} est supposé
fini p.s.
Preuve: On considère la solution X de (15) partant de x ∈ D. Par Ito,
Z t∧τ X Z t Z t∧τ
∂φ
φ(Xt∧τ ) = φ(x) + (Xs )σi,j (Xs ) dBj (s) + Lφ(Xs ) ds
0 0 ∂xi
i,j 0

On prend l’espérance et on tient compte du fait que Lφ est nulle :


E(φ(Xt∧τ )) = E(φ(x)) = φ(x)
et on fait tendre t vers l’infini, et on utilise que φ = f sur ∂D :
φ(x) = lim E(φ(Xt∧τ ) = E(φ(Xτ )) = E(f (Xτ )).
t→+∞

8.6.2. Feynman-Kac. — On se donne g : R+ × Rp → R φ, c : Rp → R avec


c ≥ 0. on considère une solution u bornée à dérivées bornées de l’équation
∂u
(17) (t, x) = (L − c(x))u(t, x) + g(t, x), u(0, x) = φ(x).
∂t
Théorème 8.6.2. — La solution u(t, x) de (17) vérifie :
Z t Z t Z s
u(t, x) = Ex [φ(Xt ) exp(− c(Xs ) ds)]+Ex [ g(t−s, Xs ) exp(− c(Xu ) du) ds]
0 0 0
où X est la diffusion associée à (15)
Preuve: On pose, t > 0 étant fixé,
Z s
v(s, x) = u(t − s, x), Zs = exp(− c(Xu ) du).
0
Appliquant la formule d’Itô, on a
d(v(s, Xs )Zs ) = −v(s, Xs )c(Xs )Zs ds + Zs dv(s, XS )
∂v
= Z{ + (L − c)v} ds + Z∇x v σ dBs .
∂s
8.6. EDS ET EDP 91

Rt
Vu que ∇x v est bornée et que 0 ≤ Zs ≤ 1, E( 0 Zs ∇x v σ(Xs ) dBs ) = 0.
D’autre part ∂v ∂u
∂s (s, x) = − ∂s (t − s, x) et donc
∂v ∂u
(s, x) + (L − c)v(s, x) = − (t − s, x) + (L − c)u(t − s, x) = −g(t − s, x).
∂s ∂s
On a donc
Z t
E(v(t, Xt )Zt ) − E(v(0, X0 )Z0 ) = E(− g(t − s, Xs )Zs ds),
0
mais, puisque u(0, Xt ) = φ(Xt ),
E(v(t, Xt )Zt ) − E(v(0, X0 )Z0 ) = E(u(0, Xt )Zt ) − u(t, x) = E(φ(Xt )Zt ) − u(t, x)
et l’on obtient
Z t
u(t, x) = E(φ(Xt )Zt ) + E( g(t − s, Xs )Zs ds).
0

Vous aimerez peut-être aussi