Vous êtes sur la page 1sur 134

Calcul stochastique

M2 Mathématiques

Jean-Christophe Breton
Université de Rennes 1
Octobre–Décembre 2020

Version du 21 décembre 2020


2
Table des matières

1 Formule d’Itô et conséquences 1


1.1 Formule d’Itô . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
1.2 Théorème de Lévy . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
1.3 Dubins-Schwarz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
1.4 Inégalités de Burkholder-Davis-Gundy . . . . . . . . . . . . . . . . . . . . 14
1.5 Représentation des martingales browniennes . . . . . . . . . . . . . . . . . 20
1.6 Formule de Tanaka . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24

2 Théorème de Girsanov 27
2.1 Logarithme stochastique . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28
2.2 Théorème de Girsanov . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30
2.3 Mise en œuvre de Girsanov . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
2.4 Girsanov dans le cadre brownien . . . . . . . . . . . . . . . . . . . . . . . . 35

3 Équation différentielle stochastique 41


3.1 Introduction et définitions . . . . . . . . . . . . . . . . . . . . . . . . . . . 41
3.2 Exemples d’EDS . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43
3.2.1 Équations linéaires . . . . . . . . . . . . . . . . . . . . . . . . . . . 43
3.2.2 Équations affines . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45
3.3 Existence et unicité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46
3.4 Utilisation de Girsanov pour les EDS . . . . . . . . . . . . . . . . . . . . . 55
3.5 Flot sur l’espace de Wiener . . . . . . . . . . . . . . . . . . . . . . . . . . 58
3.6 Markov fort pour EDS homogène . . . . . . . . . . . . . . . . . . . . . . . 64

4 Mouvement brownien et EDP 69


4.1 Fonctions harmoniques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 69
4.2 Problème de Dirichlet . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 74
4.3 Équation de la chaleur . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 79
4.4 Formule de Feynman-Kac . . . . . . . . . . . . . . . . . . . . . . . . . . . 81

5 Diffusions 85
5.1 Générateur d’une diffusion . . . . . . . . . . . . . . . . . . . . . . . . . . . 85
5.2 Semi-groupe d’une diffusion . . . . . . . . . . . . . . . . . . . . . . . . . . 88

i
ii Table des matières

5.3 Diffusion et EDP . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 92

6 Problèmes de martingale 101


6.1 Introduction et notations . . . . . . . . . . . . . . . . . . . . . . . . . . . . 101
6.2 EDS et problème de martingale . . . . . . . . . . . . . . . . . . . . . . . . 104
6.3 Équation différentielle fonctionnelle stochastique . . . . . . . . . . . . . . . 114
6.4 Existence de solution faible d’EDS . . . . . . . . . . . . . . . . . . . . . . 118
6.5 Unicité faible avec problème de martingale . . . . . . . . . . . . . . . . . . 121
Introduction

Ces notes de cours ont pour but d’introduire au calcul stochastique et à ses outils fon-
damentaux. Elles sont principalement destinées aux étudiants du Master 2 Mathématiques
et applications de l’Université de Rennes 1. Ces notes ont plusieurs sources d’inspiration,
dont principalement [LG1] mais aussi les notes de cours [Gué], [EGK], [Mal]. Par ailleurs,
des références standards conseillées sur le sujet sont les livres [KS], [RY] (en anglais) et
[Gal], [CM] (en français).
Le contenu de ces notes est le suivant :
Les propriétés de l’intégrale stochastique, en particulier la formule d’Itô et le théorème
de Girsanov, sont des outils qui fondent le calcul stochastique ; ils sont présentés dans
les Chapitres 1 et 2. Dans le Chapitre 3, on présente la notion d’équation différentielle
stochastique (EDS) à laquelle on donne un sens grâce à l’intégration stochastique. Le
calcul stochastique et la formule d’Itô en particulier permettent de créer des liens féconds
entre processus stochastiques et équations différentielles partielles (EDP). Ils sont illustrés
dans le Chapitre 4 par les liens entre mouvement brownien et équation de la chaleur. On
s’intéresse ensuite aux processus de diffusion, qui sont des solutions d’EDS particulières,
on les introduit dans le Chapitre 5. Le Chapitre 6 présente la notion de problème de
martingales qui permet de donner des solutions faibles d’EDS.
Les prérequis de ce cours sont les martingales en temps continu, le mouvement brownien
et l’intégration stochastique (niveau M2) pour lesquelles on pourra consulter [JCB-proc].

iii
iv ©JCB – M2 Math. – Université de Rennes 1
Chapitre 1

Formule d’Itô et conséquences

Dans ce chapitre, on prouve la formule d’Itô, véritable clef de voûte du calcul stochas-
tique. Celle-ci montre que lorsqu’on applique une application C 2 à une semimartingale, on
conserve une semimartingale ; elle en donne en plus la décomposition (martingale locale +
processus à variation finie). La formule d’Itô est prouvée en Section 1.1. Des conséquences
importantes en sont présentées dans les sections suivantes : théorème de Lévy (caractérisa-
tion du mouvement brownien par son crochet, Section 1.2 ), théorème de Dubins-Schwarz
(Section 1.3), inégalités de Burkholder-Davis-Gundy (BDG, Section 1.4), théorème de re-
présentation des martingales (Section 1.5), formule de Tanaka (Section 1.6).

1.1 Formule d’Itô


La formule d’Itô est l’outil de base du calcul stochastique : elle montre qu’une fonction de
classe C 2 de p semimartingales continues est encore une semimartingale continue, et elle
exprime explicitement la décomposition de cette semimartingale.
Rappelons la formule de changement de variable classique : si F, g sont de classe C 1 alors
(F ◦ g)0 (t) = F 0 (g(t)) g 0 (t) s’écrit
Z t
F (g(t)) = F (g(0)) + F 0 (g(s))g 0 (s) ds.
0
1
Si F est C et g est seulement absolument continue (c’est à dire à variation finie) alors on
a encore avec l’intégrale de Stieltjes :
Z t
F (g(t)) = F (g(0)) + F 0 (g(s)) dg(s).
0

La même formule reste vraie pour un processus X à variation finie en faisant un calcul
trajectoriel (pour chaque ω fixé, la trajectoire t 7→ Xt (ω) est à variation finie et le cas
précédent s’applique) : pour F une fonction de classe C 1 , on a alors
Z t
F (Xt ) = F (X0 ) + F 0 (Xs ) dXs .
0

1
2 Chapitre 1. ©JCB – M2 Math. – Université de Rennes 1

La formule d’Itô généralise cette propriété pour des semimartingales lorsque F est C 2 ; la
formule fait alors apparaı̂tre un terme supplémentaire dû au fait que ces processus ne sont
pas à variation finie, cf. (1.1) ci-dessous.

Théorème 1.1 (Formule d’Itô) Soit X une semimartingale et F : R → R une fonction de


classe C 2 . Alors
Z t
1 t 00
Z
0
F (Xt ) = F (X0 ) + F (Xs ) dXs + F (Xs ) dhX, Xis . (1.1)
0 2 0
Si on considère p semimartingales continues X (1) , . . . , X (p) et F : Rp → R de classe C 2
alors,
p Z t
(1) (p) (1) (p)
X ∂F
F (Xt , . . . , Xt ) = F (X0 , . . . , X0 ) + (Xs(1) , . . . , Xs(p) ) dXs(i)
i=1 0 ∂x i
p Z t 2
1X ∂ F
+ (Xs(1) , . . . , Xs(p) ) dhX (i) , X (j) is . (1.2)
2 i,j=1 0 ∂xi ∂xj

Démonstration : On traite d’abord le cas (1.1) c’est à dire p = 1. Considérons une suite
{0 = tn0 < · · · < tnpn = t}n≥1 de subdivisions emboı̂tées de [0, t] de pas tendant vers 0. Alors
en télescopant la somme, on a
pn −1
X 
F (Xt ) = F (X0 ) + F (Xtni+1 ) − F (Xtni ) .
i=0

La formule de Taylor (Lagrange) à l’ordre 2 sur l’intervalle (non ordonné) (Xtni , Xtni+1 )
donne pour chaque ω ∈ Ω :
fn,i (ω)
F (Xtni+1 ) − F (Xtni ) = F 0 (Xtni )(Xtni+1 − Xtni ) + (Xtni+1 − Xtni )2
2
où " #
inf F 00 Xtni + θ(Xtni+1 − Xtni ) , sup F 00 Xtni + θ(Xtni+1 − Xtni ) .
 
fn,i ∈
θ∈[0,1] θ∈[0,1]

D’après 6) dans la Proposition ?? (approximation à la Riemann des intégrales stochas-


tiques) avec Hs = F 0 (Xs ), on a au sens de la convergence en probabilité :
pn −1 Z t
X
0
F 0 (Xs ) dXs ,
P
F (Xtni )(Xtni+1 − Xtni ) −→ n → +∞.
i=0 0

Pour prouver la formule d’Itô (1.1), il reste à établir la convergence en probabilité :


pn −1 Z t
X
2
F 00 (Xs ) dhX, Xis ,
P
fn,i (ω)(Xtni+1 − Xtni ) −→ n → +∞, (1.3)
i=0 0
1.1. Formule d’Itô 3

car alors, par unicité presque sûre de la limite en probabilité, on aura pour tout t ≥ 0 :
Z t
1 t 00
Z
0
F (Xt ) = F (X0 ) + F (Xs ) dXs + F (Xs ) dhX, Xis ps.
0 2 0
Les deux termes de l’égalité ci-dessus étant continus en t, les deux processus seront en fait
indistinguables, ce qui donnera (1.1).
Il reste donc à établir (1.3) ; pour cela, on note pour n < m :
pm −1
X
Tm = fm,j (ω)(Xtm
j+1
− Xtm
j
)2
j=0
pn −1
X X
Tn,m = fn,i (ω) (Xtm
j+1
− Xtm
j
)2 .
i=0 {j:tn m n
i ≤tj <ti+1 }

Ppm −1 Ppn −1 P
Comme = {j:tn m n (subdivisions emboı̂tées), on a
j=0 i=0 i ≤tj <ti+1 }

pn −1
X X
Tm = fm,j (ω)(Xtm
j+1
− Xtm
j
)2
i=0 {j:tn m n
i ≤tj <ti+1 }

et on peut écrire
|Tm − Tn,m |

pn −1 pn −1
X X
2
X X
2

= fm,j (ω)(Xtmj+1
− X tm) −
j
f n,i (ω)(X tm
j+1
− X tm)
j
i=0 {i:tni ≤tm n
j <ti+1 }
i=0 {j:tn m n
i ≤tj <ti+1 }


n −1
pX X
 2

= fm,j (ω) − fn,i (ω) (Xtm j+1
− X tm)
j
i=0 {j:tni ≤tm n
j <ti+1 }


pn −1 pm −1
X X
2
X
≤ Zn,m (Xtm
j+1
− X tm)
j

= Z n,m (Xtm j+1
− Xtm j
)2
i=0 {j:tni ≤tm n
j <ti+1 }
j=0

avec !
Zn,m = sup sup |fm,j − fn,i | .
0≤i≤pn −1 {j:tn m n
i ≤tj <ti+1 }

ps
La continuité de F 00 assure que Zn,m −→ 0 quand n, m → +∞. D’après l’interprétation
Ppm −1 2 P
« variation quadratique » du crochet (Proposition ??), on a j=0 (Xtj+1 − Xtj ) −→
m m

hX, Xit . Et donc pour ε > 0 donné, il existe n1 ≥ 1 tel que pour tout m > n ≥ n1 ,
pm −1
!
X
)2 ≥ ε/3 ≤ ε/3.

P |Tm − Tn,m | ≥ ε/3 ≤ P Zn,m (Xtm
j+1
− Xtm
j
(1.4)
j=0
4 Chapitre 1. ©JCB – M2 Math. – Université de Rennes 1

P m −1
(Comme Zn,m −→ 0 et pj=0
P P
(Xtm
j+1
− Xtm
j
)2 −→ hX, Xit , le lemme de Slutsky assure
P m −1
Zn,m pj=0
P
(Xtm j+1
− Xtmj
)2 −→ 0.) Ensuite, comme les (tm
j )j:tn m n
i ≤tj <ti+1
forment une subdi-
n n
vision de [ti , ti+1 ], la Proposition ?? montre aussi qu’en probabilité :
pn −1
X X
P- lim Tn,m = P- lim fn,i (Xtm
j+1
− Xtm
j
)2
m→+∞ m→+∞
i=0 {j:tn m n
i ≤tj <tn+1 }

pn −1  
X
= fn,i hX, Xitni+1 − hX, Xitni
i=0
Z t
= hn (s) dhX, Xis ,
0
Ppn −1
où hn = i=0 fn,i 1[tni ,tni+1 [ . Ainsi il existe n2 ≥ 1 tel que pour m ≥ n2 et tout n ≥ 0
 Z t 

P Tn,m −
hn (s) dhX, Xis ≥ ε/3 ≤ ε/3.
(1.5)
0

Puis comme F est C , on a limn→+∞ hn (s) = F 00 (Xs ) ps. De plus, on a pour tout s ∈
2

[tni , tni+1 [
hn (s) − F 00 (Xs ) = fn,i − lim fm,j(m) = lim fn,i − fm,j(m) ≤ lim Zn,m ,

m→+∞ m→+∞ m→+∞

et donc
sup |hn (s) − F 00 (Xs )| −→ 0,
P
n → +∞.
s∈[0,t]

Il existe donc aussi n3 ≥ 1 tel que pour n ≥ n3


 Z t Z t 
00

P hn (s) dhX, Xis − F (Xs ) dhX, Xis ≥ ε/3 ≤ ε/3. (1.6)
0 0

Comme
( p −1 Z t )
Xm
fm,j (Xtm − Xtm )2 − F 00 (Xs ) dhX, Xis ≥ ε

j+1 j

j=0 0
⊂ {|Tm − Tn,m | ≥ ε/3}
 Z t 

∪ Tn,m −
hn (s) dhX, Xis ≥ ε/3

0
 Z t Z t 
00

∪ hn (s) dhX, Xis − F (Xs ) dhX, Xis ≥ ε/3
0 0

en combinant (1.4), (1.5), (1.6), et en prenant m > n > max(n1 , n2 , n3 ), on a :


p −1 Z t !
Xm
fmj (Xtm − Xtm )2 − F 00 (Xs ) dhX, Xis ≥ ε ≤ ε

P j+1 j

j=0 0
1.1. Formule d’Itô 5

ce qui prouve (1.3) puisque ε > 0 est arbitraire. Finalement, la formule d’Itô (1.1) est
prouvée pour p = 1.

Dans le cas où p est quelconque, la formule de Taylor (toujours à l’ordre 2) donne
(1) (p) (1) (p)
F (Xtni+1 , . . . , Xtni+1 ) − F (Xti , . . . , Xtni )
i
p p k,l
X ∂F (1) (p) (k) (k)
X fn,i (k) (k) (l) (l)
= (Xtni , . . . , Xtni )(Xtni+1 − Xtni ) + (Xtni+1 − Xtni )(Xtni+1 − Xtni )
k=1
∂xk k,l=1
2

avec
" #
k,l ∂ 2F (1) (1) (1) ∂ 2
F (1) (1) (1)
fn,i ∈ inf (Xtni + θ(Xtni+1 − Xtni ), . . . ), sup (Xtni + θ(Xti − Xtni ), . . . ) .
θ∈[0,1] ∂xk ∂xl θ∈[0,1] ∂x k ∂x l i+1

Le 6) dans la Proposition ?? donne à nouveau la limite cherchée pour les termes faisant
intervenir les dérivées premières :
pi −1 p Z t
X ∂F (1) (p) (k) (k) P
X ∂F
(Xtni , . . . , Xtni )(Xtni+1 − Xtni ) −→ (Xs(1) , . . . , Xs(p) ) dXs(k) .
i=1
∂xk k=1 0
∂xk

En adaptant légèrement les arguments du cas p = 1, on montre que pour tous k, l ∈


{1, . . . , p} :
pn −1 t
∂ 2F
X Z
k,l (k) (k) (l) (l) P
fn,i (Xtni+1 −Xtni )(Xtni+1 −Xtni ) −→ (X (1) , . . . , Xs(p) ) dhX (k) , X (l) is , n → +∞.
i=0 0 ∂xk ∂xl s

Cela achève la preuve de la formule d’Itô dans le cas général (1.2). 

Un cas particulier important de la formule d’Itô est la formule d’intégration par parties.

Corollaire 1.2 (IPP) Si X et Y sont deux semimartingales continues, on a


Z t Z t
Xt Yt = X0 Y0 + Xs dYs + Ys dXs + hX, Y it . (1.7)
0 0

Le terme hX, Y i est nul si X ou Y est à variation finie. Il est présent quand on considère
de (vraies) semimartingales et ce terme supplémentaire témoigne de la différence entre le
calcul stochastique et le calcul différentiel déterministe.
Démonstration : Appliquer la formule d’Itô à F (x, y) = xy qui est bien de classe C 2 en
x, y et noter que
∂ 2F ∂ 2F ∂ 2F
(x, y) = 1, (x, y) = (x, y) = 0.
∂x∂y ∂x2 ∂y 2
6 Chapitre 1. ©JCB – M2 Math. – Université de Rennes 1

En particulier, si Y = X on obtient
Z t
Xt2 = X02 +2 Xs dXs + hX, Xit .
0

Remarque 1.3 — Lorsque X = M est une martingale locale, on sait que M 2 − hM, M i
est une martingale locale (définition du crochet du Théorème ??). La formule pré-
cédente montre que cette martingale locale est en fait
Z t
2
M0 + 2 Ms dMs ,
0

ce qu’on aurait pu voir directement sur la démonstration donnée en Section ??


puisqu’une lecture attentive
Ppn de la démonstration indique que la construction de
hM, M it fait intervenir i=0 Mti (Mti+1 − Mti ) qui sont des approximations (de
n n n
Rt
type Riemann) de l’intégrale stochastique 0 Ms dMs .
(1) (2)
— En prenant Xt = t et Xt = Xt , on a aussi pour toute fonction F de classe C 2
sur R+ × R

F (t, Xt ) = F (0, X0 )
Z t Z t
1 t ∂ 2F
Z
∂F ∂F
+ (s, Xs )dXs + (s, Xs )ds + (s, Xs ) dhX, Xis . (1.8)
0 ∂x 0 ∂t 2 0 ∂x2
| {z } | {z }
martingale locale variation finie

En fait, il suffit de prendre F ∈ C 1,2 (R+ × R, R), ie. F est C 1 en t ∈ R+ et C 2 en


x ∈ R.

Retour au mouvement brownien


Pour un (Ft )-mouvement brownien B, la formule d’Itô s’écrit
Z t Z t
0 1
F (Bt ) = F (B0 ) + F (Bs ) dBs + F 00 (Bs ) ds.
0 2 0

(1) (2)
En prenant Xt = t et Xt = Bt , (1.8) devient : pour toute fonction F de classe C 2 sur
R+ × R, on a :
t Z t
1 ∂ 2F
Z 
∂F ∂F
F (t, Bt ) = F (0, B0 ) + (s, Bs ) dBs + + (s, Bs ) ds.
0 ∂x 0 ∂t 2 ∂x2
1.1. Formule d’Itô 7

(1) (p)
Si Bt = (Bt , . . . , Bt ) est un (Ft )-mouvement brownien en dimension d alors les B (i) sont
des mouvements browniens indépendants. On a vu au chapitre précédent que dans ce cas
hB (i) , B (j) i = 0 lorsque i 6= j et dhB (i) , B (i) is = ds. La formule d’Itô montre alors que,
pour toute fonction F de classe C 2 sur Rp ,
p Z t
1 p (1) (p)
X ∂F (1)
F (Bt , . . . , Bt ) = F (B0 , . . . , B0 ) + (Bs , . . . , Bs(p) )dBs(i)
i=1 0 ∂x i
Z t
1
+ ∆F (Bs(1) , . . . , Bs(p) )ds (1.9)
2 0
2 (1) (p)
où ∆F = di=1 ∂∂xF2 est le laplacien de F . On a aussi une formule analogue pour F (t, Bt , . . . , Bt ).
P
i

(1) (p)
En particulier si F est harmonique (ie. ∆F = 0) alors F (Bt , . . . , Bt ) est une martingale
locale.

Exponentielles stochastiques
On définit maintenant l’exponentielle stochastique E(M ) d’une martingale locale M
quelconque. La formule d’Itô justifie qu’il s’agit d’une martingale locale et explique la
terminologie, cf. la Remarque 1.5 ci-dessous. Pour commencer, on dit qu’un processus à
valeurs dans C est une martingale locale si ses parties réelle et imaginaire en sont.

Proposition 1.4 Soit M une martingale locale. On pose pour tout λ ∈ C :


λ2
 
E(λM )t = exp λMt − hM, M it .
2
Le processus E(λM ) = (E(λM )t )t≥0 est une martingale locale.

Démonstration : Si F (x, r) est une fonction de classe C 2 sur R×R+ , la formule d’Itô assure
Z t
 ∂F 
F Mt , hM, M it = F (M0 , 0) + Ms , hM, M is dMs
0 ∂x
Z t
1 ∂ 2F

∂F 
+ + M s , hM, M is dhM, M is .
0 ∂r 2 ∂x2

Le processus F Mt , hM, M it est une martingale locale dès que sa partie à variation finie
s’annule, ie. lorsque F vérifie la condition :
∂F 1 ∂ 2F
+ = 0.
∂r 2 ∂x2
La preuve s’achève en observant que cette condition est satisfaite par la fonction F (x, r) =
2 
exp λx − λ2 r (plus précisément par les parties réelle et imaginaire de cette fonction). 
8 Chapitre 1. ©JCB – M2 Math. – Université de Rennes 1

∂F

Remarque 1.5 Avec F (x, r) = exp x − r/2 (prendre λ = 1 précédemment), ∂x
(x, r) =
F (x, r), si bien que l’identité
Z t
 ∂F 
F Mt , hM, M it = F (M0 , 0) + Ms , hM, M is dMs
0 ∂x

s’écrit Z t
E(M )t = E(M )0 + E(M )s dMs (1.10)
0
ou en écriture symbolique d’EDS (cf. Chapitre 3) : dE(M ) = E(M )dM , ce qui généralise
l’équation dy = y dx de solution y(x) = ex avec la condition y(0) = 1 ou l’équation
dyt = yt dgt de solution yt = exp(gt ) si g est à variation finie nulle en 0 et avec la condition
initiale y0 = 1. Cette propriété justifie l’appelation exponentielle stochastique de M pour
E(M ).
Rt
Proposition 1.6R· 1. Soit f ∈ L2loc (B) avec 0 f (s)2 ds ≤ C ps pour une constante C finie
alors E( 0 fs dBs ) estRune vraie martingale de carré intégrable. En particulier pour
·
tout t ≥ 0, on a E[E( 0 fs dBs )t ] = 1.
2. Si f ∈ L2loc (B) est à valeurs complexes, on a
" Z #
Z t
 ·  2  Z · 
2
|f (s)| ds ≤ C =⇒ E E fs dBs < +∞ et E E fs dBs = 1.
0 0 0


Démonstration : 1) Notons Zt = E( 0 f (s)dBs )t . On commence par supposer que |f (s)| ≤ k
pour tout s ∈ [0, t]. Pour l’exponentielle stochastique, la formule d’Itô s’écrit
Z t
Zt = 1 + Zs f (s) dBs .
0

On montre alors que


 Z t  
fZ ∈ L2[0,t] (B) = H : Ω × R+ → R : progressif avec E 2
Hs ds < +∞
0
Rt
pour assurer que 0 Zs f (s) dBs est une (vraie) martingale et que E[Zt ] = 1. De (a + b)2 ≤
2(a2 + b2 ), on déduit
Z ! u 2
Zu2 ≤ 2 1 + Zs fs dBs , u ≤ t.
0
Ru
Pour le calcul du moment d’ordre 2 de 0
Zs fs dBs , on utilise l’isométrie d’Itô pour déduire
pour u ≤ t :
 2
 Z u  2 2

E Zu ≤ 2 1 + E Zs fs ds
0
1.1. Formule d’Itô 9
 Z u 
2
 2
≤ 2 1+k E Zs ds . (1.11)
0

Apriori comme E[Zs2 ] n’est pas finie, on considère les temps d’arrêt Tn = inf t ≥ 0 : Zt ≥
n , n ≥ 1, qui réduisent la martingale locale Z. En faisant comme précédemment, on peut
remplacer (1.11) par

 2  2 
 Z u 
2
  2 
E Zu 1{u≤Tn } ≤ E Zu∧Tn ≤ 2 1 + k E Zs 1s≤Tn ds . (1.12)
0
 
On peut alors appliquer le résultat classique suivant à E Zu2 1{u≤Tn } :

Lemme 1.7 (Grönwall) Soit g une fonction positive localement intégrable définie sur R+
telle que pour a, b ≥ 0
Z t
g(t) ≤ a + b g(s) ds. (1.13)
0

Alors g(t) ≤ a exp(bt) pour tout t ≥ 0.

Preuve (Grönwall). En multipliant par e−bt , l’hypothèse (1.13) s’écrit


 Z t 
d
exp(−bt) g(s)ds ≤ a exp(−bt)
dt 0

ce qui, en intégrant, donne


Z t
a
exp(−bt) g(s)ds ≤ (1 − exp(−bt)).
0 b

On obtient le résultat en reportant l’inégalité ci-dessus dans l’hypothèse (1.13) :


a
g(t) ≤ a + b ebt (1 − exp(−bt)) = aebt .
b


Le lemme de Grönwall (Lemme 1.7) assure alors E[Zs2 1{s≤Tn } ] ≤ 2 exp(2k 2 s) et par conver-
gence monotone on obtient E[Zs2 ] ≤ 2 exp(2k 2 s) lorsque n → +∞. On a donc Zs de carré
intégrable et borné dans L2 pour s ∈ [0, t]. Cela garantit f Z ∈ L2[0,t] (B) et E[Zt ] = 1. De
plus, comme f est bornée et Z borné dans L2 , on a
hZ t i
Zs2 fs2 ds < +∞,
 
E hZ, Zit = E
0

ce qui assure que Z est une martingale L2 par le Th. ??.


10 Chapitre 1. ©JCB – M2 Math. – Université de Rennes 1

Dans le cas général, onRpose fn = (f ∧Rn) ∨ (−n) et on applique le cas précédent à fn . Par
t t
convergence monotone 0 fn (u)2 du % 0 f (u)2 du, n → +∞, et par isométrie et convergence
Rt L2 R t
dominée 0 fn (u)dBu −→ 0 f (u)dBu car
"Z 2 #
t Z t
Z  t
E fn (u) dBu − f (u) dBu =E (fn (u) − f (u))2 du .
0 0 0

On a donc
Z t Z t Z t Z t
1 2 P 1
fn (s) dBs − fn (s) ds −→ f (s) dBs − f (s)2 ds
0 2 0 0 2 0

et, comme la convergence en probabilité se conserve en appliquant une application continue,


P
on a avec des notations évidentes Zn (t) −→ Z(t), n → +∞. Puis
  Z t Z t 
2 2
 
E Zn (t) = E exp 2 fn (s) dBs − (4 − 3) fn (s) ds
0 0
  Z t Z t 1/2
2
≤ E exp 4 fn (s) dBs − 8 fn (s) ds
0 0
  Z t 1/2
2
×E exp 6 fn (s) ds
0
≤ 1 × exp(3C) (1.14)

en utilisant l’inégalité de Cauchy-Schwarz et le cas précédent pour avoir


  Z t Z t   Z t 
2
E exp 4 fn (s) dBs − 8 fn (s) ds =E E 4fn (s) dBs = 1.
0 0 0

Par (1.14), on a donc (Zn (t))n≥1 uniformément intégrable. D’après le Théorème de Vi-
P L1
tali, la convergence Zn (t) −→ Z(t) se renforce en Zn (t) −→ Z(t) et on a en parti-
culier limn→+∞ E[Zn (t)] = E[Z(t)], ce qui assure E[Z(t)] = 1. Pour s ≤ t, on a aussi
L1
E[Zn (t)|Fs ] −→ E[Z(t)|Fs ]. En passant à la limite dans E[Zn (t)|Fs ] = Zn (s), il vient donc
E[Z(t)|Fs ] = Z(s) pour s ≤ t, ie. Z est une martingale.
Il reste à voir que cette martingale est L2 . Pour cela, on observe qu’on a mieux que l’uni-
forme intégrabilité dans L1 avec une meilleure propriété que (1.14), en effet :
 Z t
3 t
 Z 
3 2
E[Zn (t) ] = E exp 3 fn (s) dBs − fn (s) ds
0 2 0
 Z t
18 − 15 t
 Z 
2
= E exp 3 fn (s) dBs − fn (s) ds
0 2 0
  Z t Z t 1/2
2
≤ E exp 6 fn (s) dBs − 18 fn (s) ds
0 0
1.2. Théorème de Lévy 11
  Z t 1/2
2
×E exp 15 fn (s) ds
0
h Z · i
≤ E E 6fn (s) dBs t exp(15C/2) = exp(15C/2),
0

ce qui justifie que (Zn (t))n≥1 est uniformément intégrable dans L2 . On en déduit alors que
L2
Zn (t) −→ Z(t) et donc Z(t) ∈ L2 .
2) Pour le cas complexe, on écrit f = Re(f ) + iIm(f ) et on se ramène assez facilement au
cas réel. 

1.2 Théorème de Lévy


Le résultat suivant permet de caractériser le mouvement brownien par son crochet parmi
les martingales locales à trajectoires continues.

Théorème 1.8 (Caractérisation du MB par son crochet) Soit X = X (1) , . . . , X (d) un
processus à trajectoires continues (Ft )-adapté issu de 0. Il y a équivalence entre
1. X est un (Ft )-mouvement brownien en dimension d.
2. Les processus X (1) , . . . , X (d) sont des (Ft )-martingales locales continues et de plus
hX (i) , X (j) it = δi,j t
où δi,j désigne le symbole de Kronecker.
En particulier, une (Ft )-martingale locale continue M issue de 0 est un (Ft )-mouvement
brownien si et seulement si hM, M it = t.
Remarque 1.9 Il est crucial que le processus soit à trajectoires continues. Par exemple le
processus de Poisson (standard) vérifie la même propriété de crochet mais il est à trajec-
toires càdlàg.

Démonstration : Le sens 1) ⇒ 2) est connu, cf. Remarques ?? et ??. On montre la réci-


(j)
proque. Pour cela, soit u ∈ Rd . Alors u · Xt = dj=1 uj Xt est une martingale locale de
P
processus croissant
d X
X d d
X
(j) (k)
uj uk hX , X it = u2j t = kuk2 t.
j=1 k=1 j=1

D’après la Proposition 1.4 sur les exponentielles stochastiques, E(iu · X) = exp iu · Xt +


1
2
kuk2 t est une martingale locale. Comme cette martingale locale est bornée sur les in-
tervalles [0, T ], T > 0, il s’agit en fait d’une vraie martingale. La propriété de martingale
donne alors pour s < t
     
1 2 1 2
E exp iu · Xt + kuk t Fs = exp iu · Xs + kuk s .

2 2
12 Chapitre 1. ©JCB – M2 Math. – Université de Rennes 1

En particulier, pour A ∈ Fs , on a :
h i
E 1A exp iu · (Xt − Xs )
h  i
= E E 1A exp (iu · (Xt − Xs )) Fs
      
1 2 1 2
= E 1A exp −iu · Xs − kuk t E exp iu · Xt + kuk t Fs

2 2
    
1 2 1 2
= E 1A exp −iu · Xs − kuk t exp iu · Xs + kuk s
2 2
 
1
= P(A) exp − kuk2 (t − s) . (1.15)
2

Avec A = Ω, (1.15) montre que Xt − Xs ∼ N (0, (t − s)Id ). Ensuite pour A ∈ Fs de


probabilité P(A) > 0, en notant PA (·) = P(·|A), on a
 
h i 1 2
EA exp iu · (Xt − Xs ) = exp − kuk (t − s)
2

ie. L(Xt − Xs |A) = N 0, (t − s)Id . Pour toute fonction mesurable positive f sur Rd , on a
   
EA f (Xt − Xs ) = E f (Xt − Xs )

soit    
E 1A f (Xt − Xs ) = P(A)E f (Xt − Xs ) .
Comme c’est vrai pour tout A ∈ Fs , on a Xt − Xs ⊥ ⊥ Fs (argument de classes monotones).
(i) (i) 
Finalement, pour tout 0 = t0 < t1 < · · · < tp , le vecteur Xtj − Xtj−1 1≤i≤d est un vecteur
1≤j≤p
gaussien (car obtenu en regroupant p vecteurs gaussiens indépendants). Par transformation
linéaire, (Xti )1≤i≤p est encore un vecteur gaussien pour tout (ti )1≤i≤p et donc X est un pro-
(i) (i) 
cessus gaussien. Comme le vecteur Xtj − Xtj−1 1≤i≤d a ses composantes indépendantes,
1≤j≤p
le processus X est finalement gaussien, à accroissements indépendants et stationnaires et
(par hypothèse) à trajectoires continues, achevant de prouver que X (1) , . . . , X (d) sont d
mouvements browniens indépendants. 

1.3 Dubins-Schwarz
Le résultat suivant montre que pour les martingales locales continues, le crochet est
une horloge interne qui permet de retrouver le processus quand on évalue un mouvement
brownien avec cette horloge. C’est une preuve supplémentaire du rôle central du mouvement
brownien dans la classe des martingales locales continues.
1.3. Dubins-Schwarz 13

Théorème 1.10 (Dubins-Schwarz) Soit M une martingale locale continue issue de 0 et


telle que hM, M i∞ = +∞ ps. Alors, il existe un mouvement brownien β tel que

ps ∀t ≥ 0, Mt = βhM,M it .

Remarque 1.11 — En grossissant l’espace de probabilité on peut se débarrasser de la


condition hM, M i∞ = +∞ ps.
— Le mouvement brownien β n’est pas adapté par rapport à la filtration (Ft )t≥0 initiale
de M , mais par rapport à une filtration « changée de temps ».
— Il s’agit d’un résultat existentiel : le résultat est valable pour un certain mouvement
brownien (construit par la preuve du théorème) et pas pour un mouvement brownien
quelconque.

Démonstration : Pour tout r ≥ 0, on définit un temps d’arrêt τr en posant



τr = inf t ≥ 0 : hM, M it > r .

L’hypothèse sur hM, M i assure que τr < +∞ ps. De plus, la fonction r 7→ τr est
— croissante car si r ≤ s alors

{t ≥ 0 : hM, M it > s} ⊂ {t ≥ 0 : hM, M it > r}

et en passant aux inf : τr ≤ τs ;


— continue à droite car si on note α = lims&r τs , on a d’abord α ≥ τr par croissance,
puis si l’inégalité est stricte, on aurait τr < β < α ≤ τs pour tout s > r et
nécessairement r < hM, M iβ ≤ s pour tout s > r ce qui est absurde (car on peut
prendre s arbitrairement proche de r) ;
— avec des limites à gauche en r > 0 avec

lim τs = τr− = inf t ≥ 0 : hM, M it = r .
s%r

La fonction r 7→ τr est donc croissante càdlàg. On pose alors βr = Mτr . Le processus β


est adapté par rapport à la filtration donnée par Gr = Fτr , r ≥ 0. Remarquons que cette
filtration satisfait les conditions habituelles
T (puisque lorsque (Tn )n≥1 est une suite de temps
d’arrêt décroissant vers T on a FT = n≥1 FTn , cf. Prop. ??).

Lemme 1.12 Les intervalles de constance de M et de hM, M i sont ps les mêmes. En


d’autres termes, on a ps pour tous a < b,

Mt = Ma , ∀t ∈ [a, b] ⇐⇒ hM, M it = hM, M ia , ∀t ∈ [a, b].

Démonstration : De la gauche vers la droite, utiliser l’approximation habituelle de hM, M it .


De la droite vers la gauche, appliquer le Corollaire ?? (hM, M i = 0 : M est indistinguable
de M0 ) au processus M(a+t)∧T − Ma pour un temps d’arrêt T convenable. 
14 Chapitre 1. ©JCB – M2 Math. – Université de Rennes 1

Revenons à la preuve du Théorème 1.10. On a ps pour tout r > 0,

lim βs = lim Mτs = Mτr− = Mτr = βr .


s%r s%r

où l’avant dernière égalité vient du Lemme 1.12 et du fait que pour t ∈ [τr− , τr ], on a
hM, M it = r. Par ailleurs, par composition de telles fonctions, les trajectoires de β sont
clairement continues à droite ; on conclut que le processus β est à trajectoires continues.
Nous montrons ensuite que βs et βs2 − s sont des martingales relativement à la filtration
(Gs )s≥0 . Pour tout n ≥ 1, les martingales locales arrêtées M τn et (M τn )2 − hM, M iτn
sont des vraies martingales uniformément intégrables (d’après le Théorème ?? puisque
hM τn , M τn i∞ = hM, M iτn = n). Le théorème d’arrêt s’applique pour ces martingales uni-
formément intégrables et donne alors pour r ≤ s ≤ n :

E[βs |Gr ] = E[Mττsn |Fτr ] = Mττrn = βr

et

E[βs2 − s|Gr ] = E (Mττsn )2 − hM τn , M τn iτs |Fτr


 

= (Mττrn )2 − hM τn , M τn iτr
= βr2 − r.

On a donc hβ, βis = s. Le Théorème 1.8 (Théorème de Lévy avec d = 1) assure alors que
β est un (Gr )r≥0 -mouvement brownien. Finalement, par définition de β, on a ps pour tout
t ≥ 0,
βhM,M it = MτhM,M it .
On a 
τhM,M it = inf s ≥ 0 : hM, M is > hM, M it ≥ t,
si l’inégalité est stricte alors hM, M i est constante sur [t, τhM,M it ], et d’après le Lemme 1.12
M aussi, ce qui assure MτhM,M it = Mt et conclut que ps pour tout t ≥ 0 on a Mt = βhM,M it .
Par continuité des trajectoires, les deux processus sont indistinguables. 

1.4 Inégalités de Burkholder-Davis-Gundy


Dans cette section, on prouve les inégalités Burkholder-Davis-Gundy (BDG) qui montrent
que pour une martingale locale M

E hM, M im et E |Mt∗ |2m


   
t

où Mt∗ = max0≤s≤t |Ms | sont de même ordre de grandeur sur [0, +∞[ pour tout m > 0.
1.4. Inégalités de Burkholder-Davis-Gundy 15

Théorème 1.13 (Inégalités de Burkholder-Davis-Gundy) Pour tout réel p ≥ 0, il existe


des constantes cp , Cp telles que pour toute martingale locale M continue issue de 0,
 ∗ p
cp E hM, M ip/2 p/2
   
∞ ≤ E (M ∞ ) ≤ C p E hM, M i ∞ (1.16)
où Mt∗ = sup0≤s≤t |Ms |.

Remarque 1.14 Si T est un temps d’arrêt quelconque, en remplaçant M par la martingale


locale arrêtée M T , on obtient les mêmes inégalités avec T à la place de +∞ ; en particulier,
on a les mêmes inégalités avec t à la place de +∞.

On commence par les résultats préliminaires suivants :

Proposition 1.15 (Inégalités de martingales) Soit M une martingale continue bornée et


de variation quadratique bornée. Pour tout temps d’arrêt T , on a
E |MT |2m ≤ Cm E hM, M im
   
T , m>0 (1.17)
m 2m
   
Bm E hM, M iT ≤ E |MT | , m > 1/2 (1.18)
 m
  ∗ 2m  0
 m

Bm E hM, M iT ≤ E (MT ) ≤ Cm E hM, M iT , m > 1/2 (1.19)
0
où Bm , Cm , Cm sont des constantes universelles (qui dépendent seulement de m mais pas
de la martingale M ni du temps d’arrêt T ).

Remarque 1.16 En localisant correctement, on montre que (1.17) et (1.19) restent valables
pour M
 martingale
 locale continue. Pour que (1.18) reste valable, il faut supposer en plus
m
que E hM, M iT < +∞.

Démonstration :[Inégalités de martingales] On considère le processus


Yt = δ + εhM, M it + Mt2
Z t
= δ + (1 + ε)hM, M it + 2 Ms dMs , t ≥ 0,
0

où δ > 0 et ε > 0 sont des constantes qui seront choisies plus tard et la deuxième expression
vient de la formule d’Itô. En appliquant la formule d’Itô pour f (x) = xm , on a pour t ≥ 0 :
Z t Z t
m m m−1
Yt = δ + m(1 + ε) Ys dhM, M is + 2m(m − 1) Ysm−2 Ms2 dhM, M is
0 0
Z t
+2m Ysm−1 Ms dMs .
0

R t m−1 par hypothèse M , Y et hM, M i sont bornées et Y est bornée de 0, l’intégrale


Comme
Y
0 s
Ms dMs est une (vraie) martingale uniformément intégrable. Le théorème d’arrêt
(Théorème ??) s’applique et donne
Z T 
m−1
E Ys Ms dMs = 0.
0
16 Chapitre 1. ©JCB – M2 Math. – Université de Rennes 1

En prenant les espérances dans la formule d’Itô, on a donc


Z T 
 m m m−1
E YT = δ + m(1 + ε)E Ys dhM, M is
0
Z T 
m−2 2
+2m(m − 1)E Ys Ms dhM, M i . (1.20)
0

Ci dessous, on passe à la limite dans les espérances avec le théorème de convergence dominée
en utilisant que M et son crochet hM, M i sont bornés.
Cas 1 : borne sup (1.17) pour 0 < m ≤ 1. Comme le dernier terme à droite de (1.20) est
négatif pour m ≤ 1, en faisant δ → 0, on a
Z T 
2 m 2 m−1
 
E (εhM, M iT + MT ) ≤ m(1 + ε)E (εhM, M is + Ms ) dhM, M is
0
Z T 
m−1 m−1
≤ m(1 + ε)ε E hM, M is dhM, M is
0
= (1 + ε)εm−1 E hM, M im
 
T (1.21)

en utilisant la décroissance de xm−1 pour 0 < m ≤ 1. Comme pour ces valeurs de m,


x 7→ xm est concave, on a

2m−1 (xm + y m ) ≤ (x + y)m , x ≥ 0, y ≥ 0, (1.22)

et (1.21) donne

εm E hM, M im 2m
≤ (1 + ε)(ε/2)m−1 E hM, M im
     
T + E |MT | T . (1.23)

On déduit alors

E |MT |2m ≤ (1 + ε)(2/ε)1−m − εm E hM, M im


    
T . (1.24)

Cas 2 : borne inf (1.18) pour m > 1. Dans ce cas, le dernier terme à droite de (1.20) est
positif, x 7→ xm−1 est croissante et x 7→ xm est convexe. Les inégalités dans (1.21), (1.23),
(1.24) se renversent pour mener à

E |MT |2m ≥ (1 + ε)(2/ε)1−m − εm E hM, M im


    
T .

1
Cas 3 : borne inf (1.18) pour 2
< m ≤ 1. En faisant ε = 0 et δ → 0 dans (1.20), on a
Z T 
 2m
  1 2(m−1)
E |MT | = 2m m − E |Ms | dhM, M is . (1.25)
2 0

De plus, on déduit de (1.22) et (1.20) et de la décroissance de xm−1


m 
2m−1 εm E[hM, M im 2 m
≤ E εhM, M iT + (δ + MT2 ) = E[YTm ]
 
T ] + E[(δ + MT ) ]
1.4. Inégalités de Burkholder-Davis-Gundy 17
Z T 
m
≤ δ + m(1 + ε)E (δ + Ms2 )m−1 dhM, M is .
0

En faisant δ & 0, on obtient alors


Z T 
m−1
ε E hM, M im
m 2m 2(m−1)
   
2 T + E |MT | ≤ m(1 + ε)E |Ms | dhM, M is . (1.26)
0

En combinant (1.25) et (1.26), on a la borne inférieure valable pour tout ε > 0 :


−1
(1 + ε)21−m

2m m
E hM, M im
   
E |MT | ≥ε −1 T .
2m − 1

Cas 4 : borne sup (1.17) pour m > 1. Dans ce cas, l’inégalité (1.26) s’inverse et on a
−1
(1 + ε)21−m

2m m
E hM, M im
   
E |MT | ≤ε −1 T
2m − 1
où ε doit vérifier ε > (2m − 1)2m−1 − 1.
Les cas 1–4 établissent (1.17) et (1.18). Pour prouver (1.19), on applique l’inégalité maxi-
male de Doob à la (Ft )-martingale (MT ∧t )t≥0 . On a alors pour m > 1/2 :

Bm E hM, M im ≤ E |MT ∧t |2m ≤ E (MT∗ ∧t )2m


     
T ∧t
 2m
2m
E |MT ∧t |2m
 

2m − 1
 2m
2m
E hM, M im
 
≤ Cm T ∧t , t ≥ 0,
2m − 1
ce qui est (1.19) avec T remplacé par T ∧ t. On conclut alors à l’aide du théorème de
convergence monotone en faisant t → +∞. 

En plus des inégalités de martingales de la Prop. 1.15, la preuve des inégalités BDG du
Th. 1.13 utilise également l’inégalité de Lenglart :
Proposition 1.17 (Inégalité de Lenglart) Soit (Xt )t≥0 un processus à trajectoires continues
et positives partant de 0 et (At )t≥0 un processus continu croissant tels que

pour tout temps d’arrêt T borné : E[XT ] ≤ E[AT ]. (1.27)

Alors pour tout temps d’arrêt T :


 
E[δ ∧ AT ]
P max Xs ≥ ε ≤ + P(AT ≥ δ), ε, δ > 0, (1.28)
s≤T ε
2−p  p
E (XT∗ )p ≤
 
E AT , 0 < p < 1. (1.29)
1−p
18 Chapitre 1. ©JCB – M2 Math. – Université de Rennes 1

Remarque 1.18 1. Noter que la condition (1.27) est remplie si X = M 2 où M est
une martingale continue bornée dans L2 car par définition du crochet de M , on
a Xt − At = Mt2 − hM, M it martingale locale et c’est une vraie martingale car
M ∈ L2 . Le théorème  (avec T borné et 0 ≤ T ) donne en prenant l’espérance
 2 d’arrêt
2
E MT − AT = E M0 − A0 , ie. E[XT ] = E[AT ].
2. La condition (1.27) est encore remplie si M est une martingale locale réduite par Tn :
on peut supposer que M Tn est une martingale L2 pour laquelle d’après 1) (1.27) est
vraie, ie.
E[XT ∧Tn ] = E[AT ∧Tn ] ≤ E[AT ].
Mais comme Tn % +∞ et T est borné, par le lemme de Fatou, il vient :
 
E[XT ] = E lim inf XT ∧Tn ≤ lim inf E[XT ∧Tn ] ≤ lim inf E[AT ∧Tn ] ≤ E[AT ].
n→+∞ n→+∞ n→+∞

Démonstration :[Lenglart] Soit d’abord T un temps d’arrêt borné et ε > 0. On note



R = inf t ≥ 0 : Xt ≥ ε . Sur {XT ≥ ε}, on a R ≤ T ou encore R = R ∧ T . Comme par
continuité des trajectoires XR = ε, on a alors :
   

   XR XR∧T
P XT ≥ ε = E 1{XT∗ ≥ε} = E 1{XT∗ ≥ε} = E 1{XT∗ ≥ε}
ε ε
1 1 1
≤ E[XR∧T ] ≤ E[AR∧T ] ≤ E[AT ] (1.30)
ε ε ε
où on utilise d’abord (1.27) avec T ∧ R borné puis la croissance de A.
Si T est un temps d’arrêt quelconque, alors (1.30) s’applique au S
temps d’arrêt borné Tn =
T ∧ n : P(XTn ≥ ε) ≤ ε E[ATn ]. Mais comme Tn → T (n → +∞), n≥1 {XT∗n > ε} = {XT∗ >
∗ 1

ε} (réunion croissante), et en passant à la limite, on a :


1 1
P XT∗ > ε = lim P XT∗n > ε ≤ lim E[ATn ] = E[AT ].
 
n→+∞ n→+∞ ε ε

On a donc encore P(XT∗ > ε) ≤ 1ε E[AT ].



Finalement, soit ε, δ > 0 et S = inf t ≥ 0 : At ≥ δ . On a

P XT∗ ≥ ε = P XT∗ ≥ ε, AT < δ + P XT∗ ≥ ε, AT ≥ δ


  

≤ P(XT∗ ≥ ε, T < S) + P(AT ≥ δ)


≤ P(XT∗ ∧S ≥ ε) + P(AT ≥ δ)
1  
≤ E AT ∧S + P(AT ≥ δ)
ε
1  
≤ E AT ∧ δ + P(AT ≥ δ)
ε
en utilisant (1.30) avec T ∧ S puis la définition de S, qui assure AT ∧S = AT ∧ AS = AT ∧ δ.
1.4. Inégalités de Burkholder-Davis-Gundy 19
R +∞
Pour la dernière partie, on utilise E[Z] = 0 P(Z ≥ x)dx valable pour toute variable
aléatoire Z positive. En utilisant ci-dessous (1.28) avec ε = δ = x−1/p , on a
Z +∞
 ∗ p
P (XT∗ )p > x dx

E (XT ) ≤
Z0 +∞
P XT∗ > x1/p dx


Z0 +∞ Z +∞
−1/p 1/p
P AT > x1/p dx
  
≤ x E AT ∧ x +
0 0
"Z p # "Z # Z
AT +∞ +∞
AT x−1/p dx + P ApT > x dx

≤ E dx + E
0 ApT 0

(th. de Fubini)
 
p p p−1
+ E ApT
 
≤ E[AT ] + E AT × AT
1−p
2−p  p
≤ E AT .
1−p


Corollaire 1.19 Soit (M (n) )n≥1 une suite de martingales locales et T un temps d’arrêt tels
P (n) P
que hM (n) , M (n) iT −→ 0. Alors sups≤T |Ms | −→ 0 quand n → +∞.

Démonstration : D’après la Remarque 1.18, la borne précédente reste vraie pour X =


(M (n) )2 et At = hM (n) , M (n) it où M (n) est une martingale locale. On a alors
  1 
P sup |Ms(n) |2 > ε ≤ E hM (n) , M (n) iT ∧ δ + P hM (n) , M (n) iT ≥ δ .
 
s≤T ε

Le deuxième terme tend vers 0 directement par l’hypothèse. Comme hM (n) , M (n) iT ∧ δ ≤ δ
est borné et uniformément intégrable,
 le premier terme
 tend aussi vers 0 par le théorème
(n) 2
de Vitali. Finalement, limn→+∞ P sups≤T |Ms | > ε = 0, ce qui assure en probabilité :

sup |Ms(n) | −→ 0,
P
n → +∞.
s≤T

Avec les inégalités de martingales (Prop. 1.15) et l’inégalité de Lenglart (Prop. 1.17), tout
est en place pour prouver les inégalités BDG (Th. 1.13) :
Démonstration des inégalités BDG (Théorème 1.13). D’après les inégalités de martingales
précédentes (Proposition 1.15) et la Remarque 1.16 qui les suit, (1.16) est valable pour
20 Chapitre 1. ©JCB – M2 Math. – Université de Rennes 1

p = 2m > 1. Il reste à voir le cas 0 < p = 2m ≤ 1. Quitte à localiser les processus, on


suppose que M et hM, M i sont bornés et on utilise l’inégalité de Lenglart (1.29).
D’après l’inégalité droite dans (1.19) avec m = 1, on peut appliquer l’inégalité de Lenglart
(1.29) avec
X = (M ∗ )2 , A = C10 hM, M i
et on a pour tout 0 < m < 1 :
 2−m
E (MT∗ )2m ≤ (C10 )m E hM, M im
  
T .
1−m
De la même façon, l’inégalité à gauche de (1.19) avec m = 1 permet d’appliquer l’inégalité
de Lenglart avec
X = B1 hM, M i, A = (M ∗ )2
ce qui donne pour 0 < m < 1
1−m m   ∗ 2m 
B1 E hM, M im

T ≤ E (MT ) .
2−m
Cela achève la preuve des inégalités BDG (1.16). 

1.5 Représentation des martingales browniennes


Nous montrons que lorsque la filtration est engendrée par un mouvement brownien,
toutes les martingales pour cette filtration peuvent être représentées comme intégrales
stochastiques par rapport à ce mouvement brownien.

Théorème 1.20 (Représentation des martingales browniennes) On suppose que la filtra-


tion (Ft )t≥0 sur Ω est (l’augmentation habituelle de) la filtration canonique d’un mouve-
ment brownien B issu de 0. Alors, pour toute variable aléatoire Z ∈ L2 (Ω, F∞ ), il existe
un (unique) processus h ∈ L2 (B) (en particulier progressif donc adapté) tel que
Z +∞
Z = E[Z] + h(s, ω) dBs .
0

Par conséquent, pour toute martingale M continue et bornée dans L2 (respectivement pour
toute martingale locale M continue), il existe un (unique) processus h ∈ L2 (B) (resp.
h ∈ L2loc (B)) et une constante C réelle tels que
Z t
Mt = C + h(s, ω) dBs .
0

La preuve utilise le résultat suivant de densité.


1.5. Représentation des martingales browniennes 21

Lemme 1.21 Sous les hypothèses du théorème précédent, l’espace vectoriel engendré par
les variables aléatoires n
 X 
exp i λj (Btj − Btj−1 )
j=1

pour 0 = t0 < t1 < · · · < tn et λ1 , . . . , λn ∈ R est dense dans L2C (Ω, F∞ ).

Démonstration :[Lemme 1.21] Il suffit de montrer que si Z ∈ L2C (Ω, F∞ ) vérifie


" n
#
 X 
E Z exp i λj (Btj − Btj−1 ) = 0 (1.31)
j=1

pour tout choix de 0 = t0 < t1 < · · · < tn et λ1 , . . . , λn ∈ R alors Z = 0.


Soit 0 = t0 < t1 < · · · < tn fixés, on note φm,σ2 (x), x ∈ R, la densité de la loi N (m, σ 2 ),
m ∈ R, σ 2 > 0. La condition (1.31) assure que pour tous σ12 , . . . , σn2 > 0 et m1 , . . . , mn ∈ R,
on a
Z Y n
" n
#
 X 
0 = φmj ,σj2 (λj )E Z exp i λj (Btj − Btj−1 ) dλ1 . . . dλn
Rn j=1 j=1
" n Z
#
Y   
= E Z φmj ,σj2 (λj ) exp iλj (Btj − Btj−1 ) dλj
j=1 R
" n #
σ 2 (Bt − Btk−1 )2
Y 
= E Z exp imk (Btk − Btk−1 ) − k k
k=1
2

où la deuxième égalité vient du théorème de Fubini et la troisième de l’expression de la


fonction caractéristique d’une loi gaussienne N (m, σ 2 ) :
E exp(iuX)] = exp ium − (σ 2 /(2u2 ) .
 

On obtient pour tous m1 , . . . , mn ∈ R et α1 , . . . , αn > 0 :


" n
#
Y  
E Z exp imk (Btk − Btk−1 ) − αk (Btk − Btk−1 )2 = 0.
k=1

Le théorème de Stone-Weierstrass garantit que les combinaisons linéaires complexes de la


fonction constante égale à 1 et des fonctions de la forme
n
X 
(y1 , . . . , yn ) 7→ exp (imk yk − αk yk2 )
k=1

avec α1 , . . . , αm > 0 et m1 , . . . , mn ∈ R sont denses dans l’espace C` (Rn , C) des fonctions


continues de Rn dans C qui ont une limite à l’infini, muni de la norme de la convergence
uniforme. Par un passage à la limite, on obtient donc, pour toute fonction ϕ ∈ C` (Rn , C),
 
E Z ϕ(Bt1 , Bt2 − Bt1 , . . . , Btn − Btn−1 ) = 0.
22 Chapitre 1. ©JCB – M2 Math. – Université de Rennes 1

On a donc, d’abord par approximation, pour tout ouvert borné U de Rn puis, par un
argument de classe monotone, pour tout borélien U de Rn :
 
E Z 1U (Bt1 , Bt2 − Bt1 , . . . , Btn − Btn−1 ) = 0.

Finalement, on a obtenu l’égalité E[Z1A ] = 0 pour tout A ∈ σ(Bt1 , . . . , Btn ). Avec un


dernier argument de classe monotone, on montre que cette égalité reste vraie pour tout
A ∈ σ(Bt : t ≥ 0) ; puis, par complétion, pour tout A ∈ F∞ . On conclut finalement que
Z = 0 ce qui établit le Lemme 1.21. 

Démonstration :[Théorème 1.20] On montre d’abord la première assertion. Pour cela, on


note H l’espace vectoriel des variables aléatoires Z ∈ L2 (Ω, F∞ ) qui ont la propriété an-
noncée. Remarquons que l’unicité de h est facile à établir puisque si h et e
h correspondent
à la même variable aléatoire Z, on a par isométrie d’Itô :
Z +∞ 2

E h(s, ω) − e
h(s, ω) ds
0
"Z 2 #
+∞ Z +∞
= E h(s, ω) dBs − h(s, ω)) dBs
e = 0.
0 0

puisque
Z +∞ Z +∞
Z = E[Z] + h(s, ω) dBs = E[Z] + h(s, ω) dBs .
e
0 0

h dans L2 (B) et l’unicité.


On a donc h = e
Ensuite, on montre que H est fermé : si Z ∈ H correspond à h,
"Z 2 #
Z  +∞ +∞
E[Z 2 ] = E[Z]2 + 2E[Z]E h(s, ω) dBs + E h(s, ω) dBs
0 0
Z +∞ 
2 2
= E[Z] + E h(s, ω) ds .
0

R +∞
par l’isométrie d’Itô et parce que 0 h(s, ω) dBs est centrée. Il en découle facilement que
si (Zn )n≥0 est une suite dans H qui converge dans L2 (Ω, F∞ ) vers Z, on a
Z +∞ 2

2 2
E[(Zn − Zm ) ] = E[Zn − Zm ] + E hn (s, ω) − hm (s, ω) ds ,
0

et les processus hn associés à Zn forment une suite de Cauchy dans L2 (B) donc convergent
vers h ∈ L2 (B). D’aprèsR la propriété d’isométrie de l’intégrale stochastique (Théorème ??),
+∞
on a alors Z = E[Z] + 0 h(s, ω) dBs et donc H est un espace fermé.
1.5. Représentation des martingales browniennes 23

Ensuite, on montre que H contient les variables Paléatoires du Lemme 1.21 : pour 0 = t0 <
n
t1 < · · · < tn et λ1 , . . . , λn ∈ R, notons f (s) = j=1 λj 1]tj−1 ,tj ] (s) et E f la martingale expo-
R· 
nentielle E i 0 f (s) dBs (cf. Proposition 1.4). La formule d’Itô (1.10) pour l’exponentielle
stochastique montre que
n n Z +∞
 X 1X 2 
f
exp i λj (Btj − Btj−1 ) + λj (tj − tj−1 ) = E∞ = 1 + i Esf f (s) dBs
j=1
2 j=1 0

soit
 Xn 
exp i λj (Btj − Btj−1 )
j=1
n Z +∞ n
1X 2
   1X 
= exp − λj (tj − tj−1 ) + i exp − λ2j (tj − tj−1 ) Esf f (s) dBs .
2 j=1 0 2 j=1

On a donc
( n
! )
X
exp i λj (Btj − Btj−1 ) : λj ∈ R, 0 = t0 < t1 · · · < tn , n ∈ N ⊂H
j=1

Finalement, d’après le Lemme 1.21,


( n
! )
X
L2 (Ω, F∞ ) = Vect exp i λj (Btj − Btj−1 ) : λj ∈ R, 0 = t0 < t1 · · · < tn , n ∈ N ⊂ H = H.
j=1

On a donc H = L2 (Ω, F∞ ) ce qui prouve la première partie du Théorème 1.20.


Soit maintenant M une martingale continue et bornée dans L2 , alors, d’après la première
partie, M∞ ∈ L2 (Ω, F∞ ) s’écrit avec h ∈ L2 (B) sous la forme
Z +∞
M∞ = E[M∞ ] + h(s, ω) dBs .
0

Par conditionnement, il vient :


Z t
Mt = E[M∞ |Ft ] = E[M∞ ] + h(s, ω) dBs .
0

L’unicité de h s’obtient comme dans la première partie.


Enfin, soit M une martingale locale (continue), on a d’abord M0 = C ∈ R parce que F0 est
P-triviale (ce qu’on peut déduire soit de la première partie de la preuve soit du Chapitre
??). Si Tn = inf t ≥ 0 : |Mt | ≥ n on peut appliquer ce qui précède à la martingale arrêtée
M Tn et trouver un processus hn ∈ L2 (B) tel que
Z t
Tn
Mt = C + hn (s, ω) dBs .
0
24 Chapitre 1. ©JCB – M2 Math. – Université de Rennes 1

Par unicité dans la deuxième partie, si m < n, on a hn (s, ω) = hm (s, ω), ds-pp sur [0, Tm ]
ps. Il est alors facile de construire h ∈ L2loc (B) tel que, pour tout m, h(s, ω) = hm (s, ω)
ds-pp sur [0, T
Rm ] ps. La formule annoncée découle ensuite de la construction de l’intégrale
t
stochastique 0 h(s, ω) dBs et l’unicité de h s’obtient aussi facilement par un argument de
localisation. 

Remarque 1.22 Sous les hypothèses du Théorème 1.20, notons N la classe des P-néglige-
ables de σ(Bt : t ≥ 0) et pour tout t ≥ 0, Gt = σ(Bs : 0 ≤ s ≤ t) ∨ N . A priori, on a
Ft = Gt+ . En fait, le Théorème 1.20 entraı̂ne que Gt = Gt+ = Ft (le cas t = 0 est la loi de
Blumenthal !). En effet, si Z est une variable aléatoire Ft -mesurable bornée, on a
Z t Z t−ε
2
Z= h(s, ω) dBs = (L )- lim h(s, ω) dBs
0 ε↓0 0

et quitte à prendre une sous-suite, on voit que Z est limite ps de variables (Gt )t -mesurables
(car si ε > 0 : Ft−ε ⊂ Gt ).

1.6 Formule de Tanaka


Théorème 1.23 (Formule de Tanaka) Soit X une semimartingale continue. Il existe (Lat )t≥0 ,
a ∈ R, processus croissant continu, appelé temps local en a de la semimartingale X, tel
que
Z t
+ + 1
(Xt − a) = (X0 − a) + 1{Xs >a} dXs + Lat
2
Z0 t
1
(Xt − a)− = (X0 − a)− − 1{Xs ≤a} dXs + Lat
2
Z t0
|Xt − a| = |X0 − a| + sgn(Xs − a)dXs + Lat
0

où sgn(x) = −1, 1 selon que x ≤ 0, x > 0. De plus, la mesure (de Stieltjes) dLat associée à
Lat est portée par {t ∈ R : Xt = a}.

Démonstration : On considère d’abord ϕ une fonction convexe continue. Bien que ϕ ne


soit pas C 2 , on tente d’écrire une formule d’Itô pour ϕ(Xt ).

Soit
R 0 j une fonction positive de classeR C à support compact inclus dans ] − ∞, 0] telle que
0
−∞
j(y)dy = 1. On pose ϕn (x) = n −∞ ϕ(x+y)j(ny)dy. Comme ϕ convexe est localement
bornée, ϕn est bien définie. De plus, ϕn est C ∞ et converge simplement vers ϕ et ϕ0n croı̂t
vers ϕ0− , dérivée à gauche de ϕ.
En appliquant la formule d’Itô à la fonction ϕn de classe C 2 , on a pour chaque n ≥ 1 :
Z t
1
ϕn (Xt ) = ϕn (X0 ) + ϕ0n (Xs )dXs + Ant (1.32)
0 2
1.6. Formule de Tanaka 25
Rt
où Ant = 0
ϕ00n (Xs )dhX, Xis .
On a limn→+∞ ϕn (Xt ) = ϕ(Xt ) et limn→+∞ ϕn (X0 ) = ϕ(X0 ). En arrêtant X, on peut
supposer que X et ϕ0n (Xs ) sont bornées (uniformément en n car ϕ01 ≤ ϕ0n ≤ ϕ0− ). Par le
Théorème ?? (convergence dominée pour l’intégrale stochastique), on a alors
Z t Z t
0
ϕ0− (Xs )dXs
P
ϕn (Xs )dXs −→
0 0

uniformément sur les compacts. Par conséquent, An converge vers un processus Aϕ croissant
car limite de processus croissants. En passant à la limite dans (1.32), il vient
Z t
1
ϕ(Xt ) = ϕ(X0 ) + ϕ0− (Xs )dXs + Aϕt (1.33)
0 2
puis le processus Aϕ peut être choisi continu (par indistinguabilité car il s’exprime comme
différence de processus continus).
On applique (1.33) à ϕ(x) = (x − a)+ fonction convexe de dérivée à gauche ϕ0− = 1]a,+∞[ :
il existe un processus croissant A+ tel que
Z t
+ + 1
(Xt − a) = (X0 − a) + 1{Xs >a} dXs + A+ . (1.34)
0 2 t
De la même façon avec ϕ(x) = (x − a)− fonction convexe de dérivée à gauche ϕ0− =
−1]−∞,a] : il existe un processus croissant A− tel que
Z t
− − 1
(Xt − a) = (X0 − a) − 1{Xs ≤a} dXs + A− . (1.35)
0 2 t
Par différence de (1.34) et (1.35), comme x = x+ − x− , on a
Z t
1 −
X t = X0 + dXs + (A+
t − At ). (1.36)
0 2

Il vient A+ = A− et on pose alors Lat := A+


t . En sommant (1.34) et (1.35), comme |x| =
x+ + x− , on a Z t
|Xt − a| = |X0 − a| + sgn(Xs − a)dXs + Lat .
0

Pour la dernière partie, en appliquant la formule d’Itô à la semimartingale |Xt − a| avec


f (x) = x2 , on a en utilisant aussi (1.36)
Z t
2 2
|Xt − a| = |X0 − a| + 2 |Xs − a| d(|Xs − a|)s + h|X − a|, |X − a|it
0
Z t Z t
2
= (X0 − a) + 2 |Xs − a| sgn(Xs − a) dXs + 2 |Xs − a| dLas + hX, Xit .
0 0
26 Chapitre 1. ©JCB – M2 Math. – Université de Rennes 1

En comparant avec la formule d’Itô pour X avec f (x) = (x − a)2 ,


Z t
2 2
(Xt − a) = (X0 − a) + 2 (Xs − a) dXs + hX, Xit ,
0
Rt
il vient 0
|Xs − a| dLas = 0 ps, ce qui est le résultat. 

Exemple 1.24 Pour le mouvement brownien B, la formule de Tanaka (Th. 1.23) s’écrit :
Z t
|Bt | = sgn(Bs )dBs + LB
t
0
= βt + LB
t , (1.37)

où LB = (LB t )t≥0 est le temps Rlocal du mouvement brownien en 0. Par le théorème de
t
Lévy (Th. 1.8), on observe βt = 0 sgn(Bs )dBs , t ≥ 0, est un (autre) mouvement brownien.
L’identité (1.37) ci-dessus correspond aussi la décomposition de Doob-Meyer de la semi-
martingale (|Bt |)t≥0 .

Remarque 1.25 (Formule d’Itô-Tanaka) Lorsque ϕ : R → R est une fonction convexe, on


peut préciser (1.33) : on montre que
Z +∞
ϕ
At = 2 Lat ϕ00 (da)
−∞

où ϕ00 (da) est la mesure associée à ϕ00 à comprendre dans le sens des distributions. On a
alors la formule d’Itô-Tanaka pour ϕ convexe :
Z t Z +∞
0
ϕ(Xt ) = ϕ(X0 ) + ϕ− (Xs )dXs + Lat ϕ00 (da). (1.38)
0 −∞

La formule (1.38)
Pp se généralise immédiatement à une combinaison linéaire de fonctions
00
convexes ϕ = i=1 αi ϕi . Dans ce cas, ϕ devient une mesure signée.
Chapitre 2

Théorème de Girsanov

La formule d’Itô étudiée au Chapitre 1 explique comment se transforme une semimar-


tingale quand on lui applique une transformation C 2 . On étudie maintenant comment se
transforme une semimartingale lorsqu’on change de mesure de probabilité P. C’est l’ob-
jet du théorème de Girsanov qu’on prouve en Section 2.2 et dont on étudie les premières
conséquences en Section 2.3.
Commençons par une approche heuristique pour des variables aléatoires : la densité gaus-
2 2
sienne standard φ(x) = √12π exp(− x2 ) possède la propriété suivante : φ(x−a) = φ(x)eax−a /2
pour tout a ∈ R qui se réécrit
Z
E[f (N + a)] = f (x + a)φ(x)dx
Z
= f (x)φ(x − a)dx
Z
2
= f (x)eax−a /2 φ(x)dx

= E[f (N ) exp(aN − a2 /2)] = Ea [f (N )] (2.1)


pour f mesurable bornée et N ∼ N (0, 1) et en notant Ea pour l’espérance sous
dQ(a) = exp(aN − a2 /2) dP.
Observer que Q(a) est bien une probabilité car le calcul précédent spécialisé à f = 1 assure
Q(a) (Ω) = Ea [1] = E[1] = 1.
L’identité (2.1) signifie que la variable aléatoire translatée N + a suit la même loi que N
(a)
en changeant la probabilité en dQ(a) = exp(aN − a2 /2) dP ie. PN +a = QN .
C’est cette observation, généralisée au mouvement brownien, qui constitue la formule de
Cameron-Martin (1944, cf. Corollaire 2.13) puis le Théorème de Girsanov original (1960, cf.
Corollaire 2.12). Ce théorème a ensuite été étendu à des martingales locales plus générales,
c’est cette version que nous présentons.
Dans ce chapitre, on considère (Ω, F, (Ft )t≥0 , P) un espace filtré satisfaisant les conditions
habituelles.

27
28 Chapitre 2. ©JCB – M2 Math. – Université de Rennes 1

2.1 Logarithme stochastique


La propriété de martingale est liée à la probabilité utilisée : si on change P en Q,
une martingale X (pour P) n’a pas de raison de rester une martingale pour Q. Dans
cette section, on étudie comment se transforme une semimartingale quand on change la
probabilité P en Q  P. La réponse est donnée par le Théorème de Girsanov (Th. 2.4).
Pour éviter les confusions dans un tel contexte, on indique la probabilité par rapport à
laquelle une martingale est considérée et on écrira ainsi : soit X une P-martingale ou une
(Ft , P)-martingale et on notera EP pour une espérance relative à P.
Dans la suite, on considère Q  P sur F∞ . Bien sûr, on a alors Q  P sur Ft pour tout
t ≥ 0 et on note Dt = dQ dP |Ft
la dérivée de Radon-Nikodym de Q par rapport à P sur Ft .
Dans un contexte statistique, D s’appelle la vraisemblance de Q (par rapport à P). Le
processus D vérifie les propriétés suivantes :

Proposition 2.1 (Processus dérivée de Radon-Nikodym)


(1) D est une (Ft , P)-martingale uniformément intégrable.
(2) D admet une modification càdlàg ; pour cette version et pour tout temps d’arrêt T , on
a DT = dQ
dP |FT
.
(3) Si Q ∼ P sur F∞ (ie. Q  P et P  Q) alors ps pour tout t ≥ 0, Dt > 0.

Démonstration : 1) Pour A ∈ Ft ⊂ F∞ , on a
 
Q(A) = EQ [1A ] = EP [1A D∞ ] = EP 1A EP [D∞ |Ft ] .

Comme EP [D∞ |Ft ] est Ft -mesurable, par unicité de la dérivée de Radon-Nikodym, il vient
Dt = EP [D∞ |Ft ] ps, ce qui assure que D est une (Ft )-martingale (filtration complète) ; de
plus, elle est uniformément intégrable car fermée.
2) D’après le Théorème ?? (régularisation trajectorielle des martingales), D admet une
version càdlàg. On peut donc considérer que D est càdlàg, ce qui permet d’appliquer le
théorème d’arrêt (D est uniformément intégrable) : si T est un temps d’arrêt et A ∈ FT ,
on a :
Q(A) = EQ [1A ] = EP [1A D∞ ] = EP [1A DT ].
Comme DT est FT -mesurable, par unicité de la dérivée de Radon-Nikodym, on a DT =
dQ
dP |FT
.

3) Posons S = inf t ≥ 0 : Dt = 0 ; il s’agit d’un temps d’arrêt. Sur {S < +∞}, on peut
considérer sn & S avec Dsn = 0, la continuité à droite de D assure alors DS = 0. Avec
A = {S < +∞} ∈ FS , on a d’après le 2) : Q(A) = EP [1A DS ] = 0 et donc par hypothèse
on a aussi P(A) = 0. Ainsi, S = +∞ P (ou Q)-presque sûrement, c’est à dire Dt > 0 pour
tout t ≥ 0. 
2.1. Logarithme stochastique 29

Dans la suite, on suppose en général D à trajectoires continues. La notion d’exponentielle


stochastique a été visitée au Chapitre 1. On lui associe maintenant la notion de logarithme
stochastique :
Proposition 2.2 (Logarithme stochastique) Soit D une martingale locale continue stric-
tement positive. Alors, il existe une unique martingale locale, à trajectoire continues, L,
appelée logarithme stochastique de D, telle que
 
1
Dt = exp Lt − hL, Lit = E(L)t . (2.2)
2
De plus, L est donnée par l’expression
Z t
Lt = ln D0 + Ds−1 dDs . (2.3)
0

Démonstration : Unicité. Si Dt = exp Lt − 12 hL, Lit = exp L0t − 12 hL0 , L0 it pour tout
 

t ≥ 0 alors Lt − L0t = 12 hL, Lit − 21 hL0 , L0 it pour tout t ≥ 0 ce qui exige L = L0 par le
Théorème ?? (une martingale locale à variation bornée et issue de 0 est nulle !).
Existence. Prenons L donné par (2.3) et remarquons que
Z t
dhD, Dis
hL, Lit = .
0 Ds2

Comme D > 0 et ln est C 2 sur R∗+ , on applique la formule d’Itô à ln D :


Z t
dDs 1 t dhD, Dis
Z
1
ln Dt = ln D0 + − 2
= Lt − hL, Lit ,
0 Ds 2 0 Ds 2
ce qui donne (2.2) en appliquant exp. 

Proposition 2.3 (P-martingale et Q-martingale) Soit Q ∼ P sur F∞ et L le logarithme


stochastique associé à la martingale Dt = (dQ/dP)|Ft qu’on suppose à trajectoires conti-
nues.
(1) Soit X un processus continu adapté et T un temps d’arrêt tel que (XD)T est une
P-martingale alors X T est une Q-martingale.
(2) En particulier, si XD est une P-martingale locale alors X est une Q-martingale locale.

Démonstration : La seconde partie de la proposition découle facilement de la première


partie qu’on se contente de prouver.
Pour cela, on a d’abord XtT ∈ L1 (Q) car d’après la Proposition 2.1,

EQ [|XT ∧t |] = EP [|XT ∧t DT ∧t |] < +∞.


30 Chapitre 2. ©JCB – M2 Math. – Université de Rennes 1

Puis considérons s < t et A ∈ Fs . Comme A ∩ {T > s} = A ∩ {T ≤ s}c ∈ Fs et (XD)T


est une P-martingale, on a
   
EP 1A∩{T >s} XT ∧t DT ∧t = EP 1A∩{T >s} XT ∧s DT ∧s (2.4)

par propriété de P-martingale pour (XD)T . On a aussi A ∩ {T > s} ∈ FT car pour tout
u ≥ 0,

si s ≤ u A ∩ {T > s} ∩ {T ≤ u} ∈ Fs ∩ Fu ⊂ Fu ,
si s > u A ∩ {T > s} ∩ {T ≤ u} = ∅ ∈ Fu .

Comme aussi A ∩ {T > s} ∈ Fs , on a donc A ∩ {T > s} ∈ FT ∧s ⊂ FT ∧t , l’égalité (2.4) se


réécrit    
EQ 1A∩{T >s} XT ∧t = EQ 1A∩{T >s} XT ∧s
car on rappelle que par la Proposition 2.1 :
dQ dQ
DT ∧t = , DT ∧s = .
dP |FT ∧t dP |FT ∧s
Par ailleurs, comme il est évident que EQ [1A∩{T ≤s} XT ∧t ] = EQ [1A∩{T ≤s} XT ∧s ] (car dans ces
deux intégrales XT ∧t = XT = XT ∧s ), il vient EQ [1A XT ∧t ] = EQ [1A XT ∧s ] pour tout A ∈ Fs .
Cela établit que X T est une Q-martingale et prouve la Proposition 2.3. 

2.2 Théorème de Girsanov


Théorème 2.4 (Girsanov) Soit Q ∼ P sur F∞ et L le logarithme stochastique (supposé
à trajectoires continues) associé à la martingale Dt = (dQ/dP)|Ft . Si M est une (Ft , P)-
martingale locale continue, alors le processus M f = M − hM, Li est une (Ft , Q)-martingale
locale continue.

Sous les hypothèses du Théorème 2.4, notons GQP (M ) := M


f. Alors l’application G P vérifie :
Q
— GQ envoie l’ensemble des P-martingales locales continues dans l’ensemble des Q-
P

martingales locales continues.


— On a
GPQ ◦ GQP = Id. (2.5)
— De plus, GQP commute avec l’intégrale stochastique, ie. si H est un processus locale-
ment borné alors H · GQP (M ) = GQP (H · M ).
Démonstration : On applique la formule d’Itô avec F (x, y) = xy de classe C 2 aux semi-
f = M − hM, Li et D :
martingales M
Z t Z t
Mt Dt = M0 D0 +
f f Ms dDs +
f Ds dMfs + hMf, Dit
0 0
2.2. Théorème de Girsanov 31
Z t Z t Z t
= M0 D0 + M
fs dDs + Ds dMs − Ds dhM, Lis + hM, Dit
0 0 0
Z t Z t
= M0 D0 + M
fs dDs + Ds dMs (2.6)
0 0

puisque d’après la Proposition 2.2 on a dhM, Lis = Ds−1 dhM, Dis . Comme M et D sont des
P-martingales, les intégrales stochastiques contre D et M en sont aussi aussi et l’égalité
(2.6) montre alors que M fD est une P-martingale locale. La conclusion vient de la Propo-
sition 2.3. 

Les corollaires suivants explorent quelques conséquences remarquables du théorème de


Girsanov (Th. 2.4).
Corollaire 2.5 Une (Ft , P)-martingale locale continue M reste une (Ft , Q)-semimartingale
continue avec la décomposition M = M f + hM, Li.

Démonstration : Directe. 

En particulier, ce corollaire montre que la classe des (Ft , P) semimartingales continues est
contenue dans celle des (Ft , Q) semimartingales continues. Mais en fait, on a mieux :
Corollaire 2.6 Sous les hypothèses du Théorème 2.4 (Girsanov), les classes des (Ft , P)
semimartingales continues et des (Ft , Q) semimartingales continues coı̈ncident.
Démonstration : Il suffit de montrer que sous les hypothèses du Théorème 2.4 (Girsanov),
−1
les rôles de P et Q sont symétriques. Notons que dQ dP

dP |Ft
= 1/ dQ |Ft
= D t . On applique

alors le Théorème 2.4 à M = −L. On a Mf = M − hM, Li = −L + hL, Li est une martingale


locale continue avec hM f, Mfi = hL, Li. Ainsi
 
 1 f f
E M t = exp Mt − hM , M it
f f
2
 
1
= exp −Lt + hL, Lit − hL, Lit
2
 
1
= exp −Lt + hL, Lit
2
−1 −1
= E L t = Dt .
On peut donc échanger les rôles de P et Q quitte à remplacer D par D−1 et L par
−L + hL, Li. 

f = M − hM, Li
On peut alors justifier (2.5) puisqu’avec les notations précédentes avec M
e = −L + hL, Li, on a
et L
GQP (M ) = M − hM, Li
32 Chapitre 2. ©JCB – M2 Math. – Université de Rennes 1

GPQ (M ) = M − hM, Li
e


= M − M, (−L + hL, Li)
= M + hM, Li

et donc

GPQ ◦ GQP (M ) = GQP (M ) + hGQP (M ), Li




= M − hM, Li + (M − hM, Li), L
= M − hM, Li + hM, Li = M.

Corollaire 2.7 Soit X, Y deux semimartingales continues (relativement à P ou Q). La va-


leur du crochet hX, Y i est la même sous P et sous Q.

Démonstration : En effet dans les deux cas, hX, Y i est donné par l’approximation de la
Proposition ?? qui ne change pas si on change P en Q. Ou encore, le changement de pro-
babilité n’affecte que la partie à variation finie d’une semimartingale donc pas son crochet.


De même, si H est un processus localement borné, l’intégrale stochastique H · X est la


même sous P et Q (utiliser des approximations par des processus élémentaires).
Le Théorème de Girsanov s’utilise souvent à horizon fini :

Corollaire 2.8 Pour T > 0 une date déterministe fixée, on se donne une filtration (Ft )t∈[0,T ]
et on suppose qu’elle vérifie les conditions habituelles (chaque Ft contient les P-négligeables
de FT ). Si Q ∼ P, on définit comme précédemment la martingale (Dt )t∈[0,T ] et, si D a une
version continue, on définit la martingale (Lt )t∈[0,T ] . Alors, l’analogue du Théorème 2.4
(Girsanov) reste vrai pour [0, T ].

2.3 Mise en œuvre de Girsanov


Dans les applications pratiques du théorème de Girsanov (Th. 2.4), on ne dispose pas
en général de la probabilité Q mais de ce qui joue le rôle du logarithme stochastique L de
sa dérivée de Radon-Nikodym D = dQ/dP. On reconstruit alors la probabilité Q comme
suit :
— on part d’une martingale locale continue L telle que L0 = 0 ;
— alors E(L)t est une martingale locale continue à valeurs strictement positives, c’est
donc une surmartingale (Proposition ??) ;
— cela assure l’existence ps de la limite E(L)∞ (Théorème ??) ; en plus, d’après le
lemme de Fatou, on a
E[E(L)∞ ] ≤ 1 (2.7)
2.3. Mise en œuvre de Girsanov 33

puisque
   
E[E(L)∞ ] = E lim E(L)t = E lim inf E(L)t ≤ lim inf E[E(L)t ] ≤ 1 (2.8)
t→+∞ t→+∞ t→+∞

car, si 0 ≤ s ≤ t, E[E(L)t ] ≤ E[E(L)s ] ≤ E[E(L)0 ] = 1.


— Mais si on a égalité dans (2.7) :

E[E(L)∞ ] = 1, (2.9)

on a bien mieux : dans ce cas, Q = E(L)∞ ·P est une probabilité équivalente à P avec
processus dérivée de Radon-Nikodym D = E(L) et donc de logarithme stochastique
L. Cela assure qu’on est donc bien dans le cadre du théorème de Girsanov (Th. 2.4).
En pratique, si M est une P-martingale locale, si on change sa partie à variation finie en
retranchant hM, Li, on a toujours une martingale locale en changeant P en Q, probabilité
équivalente de densité donnée par l’exponentielle stochastique E(L). Il faut cependant que
la condition (2.9) soit satisfaite. Il est donc important de pouvoir donner des conditions
qui assurent (2.9). C’est l’objet du résultat suivant :
Théorème 2.9 (Conditions de Novikov) Soit L une martingale locale continue telle que
L0 = 0. Considérons les conditions suivantes :
h
(1) E exp 21 hL, Li∞ ] < +∞ ;
(2) L est une martingale uniformément intégrable et E exp( 12 L∞ ) < +∞ ;
 

(3) E[E(L)∞ ] = 1, c’est à dire (2.9) :


(4) E(L) est une martingale uniformément intégrable.
Alors on a les implications 1) ⇒ 2) ⇒ 3) ⇒ 4).

Démonstration : (1) ⇒ (2) Comme d’après (1) E[hL, Li∞ ] < +∞, L est une vraie martin-
gale bornée dans L2 (cf. Th. ??). Elle est donc uniformément intégrable. Puis, par définition
de E(L)∞ :
   1/2
1 1/2 1
exp L∞ = E(L)∞ exp hL, Li∞ .
2 2
Par l’inégalité de Cauchy-Schwarz, comme l’inégalité (2.7) est toujours vraie, on a
     1/2   1/2
1 1/2 1 1
E exp L∞ ≤ E [E(L)∞ ] E exp hL, Li∞ ≤ E exp hL, Li∞ < +∞.
2 2 2

(2) ⇒ (3) Puisque L est une martingale uniformément intégrable, elle est fermée et on a
Lt = E[L∞ |Ft ]. Par l’inégalité de Jensen avec exp, on a alors
      
1 1 1
exp Lt = exp E[L∞ |Ft ] ≤ E exp L∞ |Ft ,
2 2 2
34 Chapitre 2. ©JCB – M2 Math. – Université de Rennes 1

ce qui assure, par (2), que exp( 12 Lt ) ∈ L1 . Par convexité de exp, exp( 12 Lt ) est une sous-
martingale qui, par l’inégalité précédente, est fermée par exp( 12 L∞ ) (en tant que sous-
martingale). En appliquant le théorème d’arrêt (Th. ??) pour les (sur)sous-martingales
fermées,pour tout temps d’arrêt T , on a exp( 21 LT ) ≤ E[exp( 12 L∞ )|FT ]. Cela assure que la
famille exp( 12 LT ) : T temps d’arrêt est uniformément intégrable.

(a) aLt

Puis pour 0 < a < 1, on pose Zt = exp 1+a . Un calcul direct donne
2 (a) 2
E(aL)t = (E(L)t )a (Zt )1−a .
Si Γ ∈ F∞ et T est un temps d’arrêt, l’inégalité de Hölder avec les indices conjugués
p = 1/a2 et q = 1/(1 − a2 ) donne
a2   1 i2a(1−a)
(a) 1−a2 (a) 1−a2
    h
E 1Γ E(aL)T ≤ E E(L)T E 1Γ Zt ≤ E 1Γ Zt ≤ E 1Γ exp LT
2
(2.10)
où, pour la deuxième inégalité, on a utilisé que E(L) est une surmartingale positive, ie.
E [E(L)T ] ≤ E [E(L)0 ] = 1
puis pour la troisième on a utilisé l’inégalité de Jensen avec ϕ(x) = x(1+a)/(2a) (convexe
pour 0 < a < 1), ie.
 h i(1+a)/(2a)  h i h i   1 
(a) (a) (a)
E 1Γ Zt = ϕ E 1Γ Z t ≤ E ϕ(1Γ Zt ) = E 1Γ exp LT .
2
Comme la famille exp( 21 LT) : T temps d’arrêt est uniformément

intégrable, l’inégalité
(2.10) montre que la famille E(aL)T : T temps d’arrêt l’est aussi. D’après la Proposition
??, cela entraı̂ne alors que E(aL) est une vraie martingale uniformément intégrable. Il suit
alors
  2a(1−a)
a2  (a) 1−a2 a2 1
1 = E [E(aL)0 ] = E [E(aL)∞ ] ≤ E [E(L)∞ ] E Z∞ ≤ E [E(L)∞ ] E exp L∞
2
avec, à nouveau pour la dernière égalité, l’inégalité de Jensen avec ϕ(x) = x(1+a)/(2a) . En
faisant a → 1, la dernière borne implique E [E(L)∞ ] ≥ 1 et donc avec (2.7) toujours valable
on a obtenu E [E(L)∞ ] = 1.
(3) ⇒ (4) On montre d’abord que E(L) est une vraie martingale sous (2.9) : en effet sous
(2.9), il y a égalité dans les inégalités (2.8), soit nécessairement E[E(L)t ] = E[E(L)s ] pour
tout s ≤ t, ce qui combiné avec E[E(L)t |Fs ] ≤ E(L)s exige E[E(L)t |Fs ] = E(L)s , c’est à
dire E(L) est une vraie martingale.
ps    
Puis comme E(L)t −→ E(L)∞ avec E |E(L)t | = E |E(L)∞ | = 1 alors le lemme de Scheffé
(Lemme 2.10 ci-dessous) garantit que E(L)t → E(L)∞ dans L1 .
D’après la Proposition ?? sur la convergence des martingales, c’est équivalent à avoir E(L)
uniformément intégrable (ou martingale fermée). 
2.4. Girsanov dans le cadre brownien 35

ps     
Lemme
 2.10 (Scheffé) Soit X n −→ X. Alors E |X n | → E |X| si et seulement si E |Xn −
1
X| → 0, ie. Xn → X dans L .

2.4 Girsanov dans le cadre brownien


Dans cette section, on spécialise de plus en plus le théorème de Girsanov (Th. 2.4) dans
le cadre brownien.

Corollaire 2.11 (Girsanov brownien 1) Soit B un (Ft , P)-mouvement brownien et L sa-


tisfaisant (2.9) (en satisfaisant une des conditions de Novikov du Th. 2.9). Alors B
e =
B − hB, Li est un (Ft , Q)-mouvement brownien.

Démonstration : Par le Théorème 2.4 (Girsanov), B e = B − hB, Li est une (Ft , Q)-
martingale locale continue de variation quadratique hB, e t = hB, Bit = t, t ≥ 0. Le
e Bi
Théorème de Lévy (Th. 1.8) assure alors que B
e est un (Ft , Q)-mouvement brownien. 
Rt
Dans le corollaire suivant, on prend Lt = 0 f (s)dBs ; il s’agit du Théorème de Girsanov
original (1960). On rappelle que, pour le mouvement brownien B,
 Z t  
L2loc (B) = H : Ω → R : progressif avec pour tout t ≥ 0 E 2
Hs (·) ds < +∞
0

et ici on considère
 Z T  
L2[0,T ] (B) = H : Ω → R : progressif avec E 2
Hs (·) ds < +∞ .
0

Corollaire 2.12 (Girsanov brownien 2) Soit B un R t (Ft , P)-mouvement brownien et, pour T
2
déterministe fixé, f ∈ L[0,T ] (B) telle que Lt = 0 f (s)dBs satisfait (2.9) (en satisfaisant
une des conditions de Novikov du Th. 2.9). Soit Q de densité (par rapport à P)
Z T Z T 
1 2
DT = exp f (s)dBs − f (s) ds .
0 2 0

Sous Q, le processus B s’écrit


Z t
Bt = BtQ + f (s)ds (2.11)
0

où B Q est un (Ft , Q)-mouvement brownien.


36 Chapitre 2. ©JCB – M2 Math. – Université de Rennes 1

Démonstration : On applique le théorème de Girsanov (Th. 2.4) à M = B avec Lt =


Rt Rt
0
f (s)dBs et on remarque que hB, Lit = 0 f (s)ds. Alors B
e = B − hB, Li = B Q est une
Q-martingale locale continue de crochet hB, e t = hB, Bit = t. Donc B Q = B
e Bi e est un
Q-mouvement brownien. 

On spécialise encore davantage le théorème de Girsanov (Th. 2.4) dans le cadre brownien
en prenant maintenant des intégrales stochastiques avec des intégrants f déterministes. On
obtient la formule de Cameron-Martin (1944) :

Corollaire 2.13 (Cameron-Martin) Soit (Bt )t≥0 un (Ft , P)-mouvement brownien et f ∈


L2 ([0, T ]).
(1) La variable aléatoire
Z T Z T 
1 2
DT = exp f (s)dBs − f (s) ds
0 2 0

est une densité de probabilité qui définit une probabilité Q (par dQ = DT dP).
(2) Le processus
Z t∧T
BtQ = Bt − f (s)ds, t ≥ 0,
0

est un Q-mouvement brownien. Autrement dit, sous Q, le P-mouvement brownien B


s’écrit Z t
Q
Bt = Bt + f (s)ds.
0

Démonstration : Il suffit de
R t prouver le point 1). Le point 2) estRalors donné par le Corol-
t
laire 2.12. On prend Lt = 0 f (s)dBs dans (2.2). On a hL, Lit = 0 f (s)2 ds et comme f est
déterministe, la condition E[exphL, LiT ] < +∞ est garantie. Le Théorème 2.9 assure alors
la condition de Novikov (2.9) et donc (Dt )t∈[0,T ] est bien une densité de probabilité et Q
une probabilité. 

Rt
Dans le cadre gaussien pour Lt = 0 f (s) dBs avec f ∈ L2[0,T ] (B), on donne une condition
plus explicite qui garantit (2.9) mais pour un horizon T fini :

Proposition 2.14 Soit T une date déterministe fixée et f ∈ L2[0,T ] (B). On suppose qu’il
existe a > 0 et C ∈]0, +∞[ tels que pour tout t ∈ [0, T ] on ait

E exp(af (t)2 ) ≤ C < +∞,


 

alors E[E(L)T ] = 1, ie. la condition (2.9) garantissant le théorème de Girsanov (Th. 2.4)
sur [0, T ] est satisfaite.
2.4. Girsanov dans le cadre brownien 37

Démonstration : On localise afin deR pouvoir appliquer la Proposition 1.6 qui garantit que
RT 2 · 
si 0 f (s) ds est bornée alors E E( 0 f (s)dBs )T = 1. Pour cela, on pose τn = inf t ≥ 0 :
Rt 
0
f (s)2 ds ≥ n . La suite fn = f 1[0,τn ] est telle que quand n → +∞
RT
fn (u)2 du ≤ n,
0
(2.12)
RT R T
0
fn (u)2 du % 0 f (u)2 du, (2.13)
RT L 2 R T
0
fn (u)dBu −→ 0 f (u)dBu (isométrie d’Itô). (2.14)
R·  R· 
On note Vn = E 0 fn (s)dBs et V = E 0 f (s)dBs . Avec ces notations, il s’agit de
montrer que E[V (T )] = 1. Fixons r, s tels que 0 ≤ r ≤ s ≤ T avec |s − r| ≤ a/6 et écrivons
 2  Z s Z s 
Vn (s) 2
= exp 2 fn (u)dBu − fn (u) du
Vn (r) r r
 Z s Z s   Z s 
2 2
= exp 2 fn (u)dBu − 4 fn (u) du exp 3 fn (u) du .
r r r

L’inégalité de Cauchy-Schwarz implique


" 2 #
Vn (s)
E
Vn (r)
 1/2
   Z s Z s     Z s 1/2
2 2
≤ E exp 4 fn (u)dBu − 8 fn (u) du  × E exp 6 fn (u) du
 
 r r  r
| {z }
R ·
E[E( r fn (u)dBu )s ]=1
   Z s 1/2
2
= 1 × E exp 6 fn (u) du
r
Z s 1/2
 du
E exp(6(s − r)fn (u)2 )


r s−r
1/2
≤ C

en utilisant le théorème de Fubini, l’inégalité de Jensen pour la fonction convexe exp et


la mesure uniforme du/(s − r) sur [r, s] et enfin l’hypothèse sur a ≥ 6(s − r) ainsi que la
Proposition 1.6 pour
  Z s Z s 
2
E exp 4 fn (u)dBu − 8 fn (u) du = 1.
r r

Vn (s) Vn (s)
Comme les moments d’ordre 2 de Vn (r)
sont bornés, on en déduit que Vn (r)
est uniformément
P
intégrable. De plus, avec (2.13) et (2.14), on montre que Vn (t) −→ V (t) (cf. preuve de la
38 Chapitre 2. ©JCB – M2 Math. – Université de Rennes 1

Vn (s) P V (s)
Proposition 1.6). On a donc aussi Vn (r)
−→ V (r)
et avec le théorème de Vitali :

Vn (s) V (s)
lim = dans L1 .
n→+∞ Vn (r) V (r)

Par continuité L1 de l’espérance conditionnelle, il vient


   
V (s) Vn (s)
E Fr = lim E F r = 1
V (r) n→+∞ Vn (r)

où la limite
R · 1 vientde ce que pour fn , on a (2.12), assurant par la Proposition 1.6 que
Vn = E 0 fn (s)dBs est une vraie martingale :
 
Vn (s) E[Vn (s)|Fr ] Vn (r)
E F r = = = 1.
Vn (r) Vn (r) Vn (r)
k
Pour conclure, il décompose [0, T ] en une subdivision tk = m T , 0 ≤ k ≤ m, avec m
assez grand pour  que le pas vérifie T /m ≤ a/6. On écrit alors V (T ) = V (tm−1 ) × 
V (tm )/V (tm−1 ) avec V (tm−1 ) variable aléatoire Ftm−1 -mesurable et E V (tm )/V (tm−1 )|Ftm−1 =
1 par ce qui précède. Finalement, par récurrence :
 
E[V (T )] = E[V (tm )] = E V (tm−1 ) × V (tm )/V (tm−1 )
 
= E V (tm−1 )E[V (tm )/V (tm−1 )|Ftm−1 ]
= E[V (tm−1 )] = 1,

ce qui achève la preuve de la Proposition 2.14. 

Exemple 2.15 (Étude du sup d’un mouvement brownien avec dérive) Pour étudier la loi
du sup de B et = Bt + bt sur [0, T ], il suffit de connaı̂tre la loi du couple (BT , sup0≤t≤T Bt ).
En effet, d’après la formule de Cameron-Martin, on a
   
1 2 
P sup (Bt + bt) ≥ x = EP exp bBT − b T 1{sup0≤t≤T Bt ≥x} .
0≤t≤T 2

Exemple 2.16 (Application statistique à la détection d’un signal) Considérons un signal


(temporel, déterministe) représenté par une fonction m. On cherche à tester la présence ou
non du signal m. La difficulté vient de ce que le test se pratique dans une ambiance bruitée
(représentée par B). On observe alors
— soit B (le bruit pur) si le signal est absent,
— soit m + B (le signal utile m bruité par B) si le signal est présent.
L’observateur n’observe ( ! !) qu’une seule des deux fonctions (sans savoir laquelle) ω =
(ωt : t ∈ [0, T ]) ∈ {B, m + B} et le but est précisément de déterminer laquelle des deux
fonctions il observe.
2.4. Girsanov dans le cadre brownien 39

Plutôt que de considérer les deux fonctions aléatoires B et m + B dont la loi est mesurée
par la même probabilité P, il est équivalent de considérer qu’il ne peut observer qu’une
fonction X, qui modélise son observation, mais sous deux probabilités différentes selon que
le signal est présent ou pas. Ainsi ω est observée avec la probabilité P(dω) ou Q(dω) selon
le cas.
On suppose que
— le bruit est modélisé par un mouvement
Rt brownien B ;
— le signal est de la forme m(t) = 0 f (s)ds où f Rest déterministe mesurable.
·
On interprète alors m comme le crochet m(t) = hB, 0 f (s)dBs it . Sous la probabilité Q
donnée par dQ = DT dP avec
Z T
1 T
Z 
2
DT = exp f (s)dBs − f (s) ds
0 2 0
B est un processus (mouvement brownien) décentré par m (ie. B = B Q + m), tandis que
sous P, B est un mouvement brownien standard donc centré.
La vraisemblance associée à l’observation de la trajectoire ω est donnée par DT (ω) qui vaut
1 s’il n’y a pas de signal et qui peut être très grand s’il y en a un. On en déduit une règle
de décision : si on observe ω, on décide que le signal est présent lorsque
Z T
1 T
Z
1 1
U := f (s)dBs > VarP (U ) = f (s)2 ds = σ 2 .
0 2 2 0 2

Cette règle n’est pas infaillible : Sous P, U ∼ N (0, σ 2 ) ∼ σN0 (où N0 ∼ N (0, 1)) et si le
signal m est réellement absent, la probabilité de prendre une mauvaise décision est
 1   1 
p = P U > σ 2 = P N0 > σ .
2 2
Tandis que si le signal est vraiment présent, Q est la probabilité qui gouverne le phénomène ;
sous Q
Z T Z T Z T
Q
U= f (s)dBs = f (s)dBs + f (s)dm(s)
0 0 0
Z T Z T
= Q
f (s)dBs + f (s)2 ds
0 0
2 2
∼ N (σ , σ ).
La probabilité d’erreur est alors
 1   1 
q = Q U < VarP (U ) = P σN0 + σ 2 ≤ σ 2
2 2
 1 2  1 2
= P σN0 ≤ − σ = P σN0 ≥ σ = p
2 2
(selon les cas, c’est P ou Q qui gouverne les lois). D’après la table de la loi N (0, 1), on a
p, q ≤ 5% si σ ≥ 4.
40 Chapitre 2. ©JCB – M2 Math. – Université de Rennes 1
Chapitre 3

Équation différentielle stochastique

On présente dans ce chapitre la notion d’équation différentielle stochastique (EDS)


brownienne. On commence par en donner une motivation en Section 3.1 en tant que géné-
ralisation des équations différentielles ordinaires dans un contexte d’incertitude représentée
par un bruit aléatoire. Des exemples d’EDS classiques sont présentés en Section 3.2. Les
principaux résultats d’existence et d’unicité sont décrits en Section 3.3. On étudie les so-
lutions d’EDS dirigée par un mouvement brownien comme fonctionnelle sur l’espace de
Wiener en Section 3.5. La propriété de Markov pour les solutions d’EDS homogène est
présentée en Section 3.6.

3.1 Introduction et définitions


Équations différentielles et EDS
Les équations différentielles (ordinaires) gouvernent de nombreux phénonènes détermi-
nistes. Pour prendre en compte des phénomènes aléatoires, formellement on doit prendre
en compte des « différentielles stochastiques », ce qui transforme les équations en équations
différentielles stochastiques (EDS).
Les équations différentielles sont des équations d’évolution du type

ẋ(t) = a(t, x(t)) (3.1)

où l’inconnue est une fonction x(t) qui doit vérifier une équation impliquant sa dérivée ẋ
et elle même. Les cas les plus simples sont les équations différentielles d’ordre 1 comme en
(3.1) (seule la dérivée 1ère est impliquée) avec a(t, x) = a + bx indépendant de t et affine
par rapport à x. Symboliquement, l’équation (3.1) se réécrit

dx(t) = a(t, x(t)) dt. (3.2)

Cette équation modélise typiquement un système physique (x(t))t≥0 qui évolue avec le
temps de façon que x s’accroı̂t, à la date t, selon le taux a(t, x(t)). Par exemple, avec
a(t, x) = a(t)x, l’équation dx(t) = a(t)x(t) dt modélise le cours d’un actif financier x(t)

41
42 Chapitre 3. ©JCB – M2 Math. – Université de Rennes 1

soumis au taux d’intérêt variable a(t) ou d’une population avec un taux de natalité a(t).
Il est bien connu que la solution est
Z t 
x(t) = x0 exp a(s) ds .
0

Les EDS sont des généralisations des équations (3.2) où la dynamique déterministe d’évo-
lution a est perturbée par un terme aléatoire (stochastique). On parle alors d’équation
différentielle stochastique. En général la perturbation aléatoire est considérée comme un
bruit. Par un argument du type TCL, il est légitime de considérer que ce bruit est un pro-
cessus gaussien et en général il est modélisé par un mouvement brownien B et une intensité
de bruit σ(t, x) :
dXt = a(t, Xt ) dt + σ(t, Xt ) dBt (3.3)
où σ est une fonction du temps t et de l’inconnue Xt au temps t mais pourrait juste
dépendre du temps (σt ) ou de la valeur Xt en t (σ(Xt )) ou encore être constante σ.

Définitions
En fait, l’écriture (3.3) est symbolique car dBt n’a pas de sens, le mouvement brownien
n’étant pas dérivable ! Il faudrait écrire (3.3) sous la forme
Z t Z t
Xt = X0 + a(s, Xs ) ds + σ(s, Xs ) dBs (3.4)
0 0
Rt
qui, elle, a un sens si l’intégrale stochastique 0 σ(s, Xs ) dBs en a un, cf. Chapitre ??. On
généralise encore dans la définition suivante la notion d’EDS dans un cadre vectoriel.

Définition 3.1 (EDS) On appelle équation différentielle stochastique (EDS) une équation
en le processus X (à valeurs dans Rd ) de la forme

dXt = a(t, Xt ) dt + σ(t, Xt ) dBt (E(a, σ))

ce qui, en terme intégrale, s’écrit


Z t m Z
X t
(i) (i)
Xt = X0 + ai (s, Xs ) ds + σi,j (s, Xs ) dBs(j) , 1 ≤ i ≤ d, (3.5)
0 j=1 0

où, pour m, d des entiers positifs,


— a(t, x) = (ai (t, x))1≤i≤d est un vecteur mesurable de Rd défini sur R+ × Rd appelé
dérive ou drift de l’EDS,
— σ(t, x) = (σi,j (t, x))1≤i≤d est une matrice d × m mesurable définie sur R+ × Rd
1≤j≤m
appelé coefficient de diffusion de l’EDS,
(1) (m)
et B = B , . . . , B est un mouvement brownien standard en dimension m.
3.2. Exemples d’EDS 43

La solution d’une EDS est une fonction aléatoire. Il s’agit donc d’un processus qu’on note
X = (Xt )t≥0 . Plus précisément, on a :

Définition 3.2 (Solution d’une EDS) On appelle solution  de l’EDS E(a, σ) la donnée de
— un espace de probabilité filtré Ω, F, (Ft )t≥0 , P satisfaisant les conditions habi-
tuelles ; 
— un (Ft )-mouvement brownien B = B (1) , . . . , B (m) dans Rm défini sur cet espace
de probabilité ; 
— un processus (Ft )-adapté continu X = X (1) , . . . , X (d) à valeurs dans Rd tel que
(3.4) soit vérifiée, c’est à dire, coordonnée par coordonnée, pour tout 1 ≤ i ≤ d :
(3.5).
Lorsque de plus X0 = x ∈ Rd , on dira que le processus X est solution de Ex (a, σ).

En pratique (dans les cas simples), pour trouver la solution d’une EDS, on intuite la forme
de la solution et on vérifie que l’EDS de départ est bien satisfaite en appliquant la formule
d’Itô, cf. Section 3.2. On propose des résultats généraux d’existence et d’unicité des EDS,
du type théorème de Cauchy-Lipschitz dans la Section 3.3.

3.2 Exemples d’EDS


Les EDS affines admettent des solutions explicites qu’on peut obtenir comme dans le cas
déterministe par la méthode de variation de la constante. Le cas affine est important car
les EDS affines apparaissent comme des linéarisées d’EDS plus complexes qu’on ne sait pas
toujours résoudre. On se place dans le cas réel, ie. d = m = 1.

3.2.1 Équations linéaires


Ornstein-Uhlenbeck : équation a(t, x) = −ax (a > 0) et σ(x) = σ. Il s’agit de l’équation
de Langevin :
dXt = −aXt dt + σ dBt (3.6)
c’est à dire avec a(t, x) = −ax, et σ(x) = σ. La solution est donnée par
Z t
−at
Xt = X0 e +σ e−a(t−s) dBs . (3.7)
0

Sans le terme σdBt , l’équation dXt = −aXt dt se résout immédiatement en Xt = Ce−at .


Pour tenir compte du terme σdBt , on fait « varier la constante C » :

dC e−at − aCe−at dt = dXt = −aXt dt + σ dBt


dC = σeat dBt
Z t
C = X0 + σeas dBs
0
44 Chapitre 3. ©JCB – M2 Math. – Université de Rennes 1

et, avec Xt = Ce−at , l’expression (3.7) est obtenue.


Rt
On peut observer directement que (3.7) est satisfaite en dérivant Xt = X0 e−at +σe−at 0
eas dBs
avec la formule d’Itô (sous la forme dérivée de l’IPP (1.7), Corollaire 1.2) :
Z t 
−at −at
eas dBs dt + σe−at eat dBt

dXt = X0 (−ae ) + σ(−ae )
0
 Z t 
= −a X0 e−at + e−at eas dBs dt + σdBt
0
= −aXt dt + σdBt .
Il s’agit du processus d’Ornstein-Uhlenbeck (cf. Section ?? ). Ce cas se généralise au cadre
vectoriel.
Équation a(t, x) = at x et σ(x) = σt x. On suppose les processus (at )t≥0 et (σt )t≥0 vérifient
RT RT
la condition d’intégrabilité 0 |at | dt < +∞, 0 |σt |2 dt < +∞ (par exemple en étant
bornés). L’EDS
dXt = Xt (at dt + σt dBt ), X0 = x (3.8)
admet pour solution
Z t Z t Z t 
1
Xt = x exp as ds + σs dBs − σs2 ds . (3.9)
0 0 2 0

Pour le voir, on suppose X positivement bornée sur [0, T ] (minorée par 1/n et majorée
par n) ; sinon, on introduit le temps d’arrêt Tn = inf(t : Xt ≤ 1/n ou Xt > n) et on
arrête les processus à ces dates. On applique la formule d’Itô à Xt∧Tn et à la fonction ln
(qui est C 2 sur [1/n, n]). De l’équation (3.8), on déduit dhX, Xit = Xt2 σt2 dt. Le processus
Yt = ln Xt∧Tn vérifie alors
1 1 dhX, Xit  σt2  1 2
dYt = dXt − = at dt + σt dBt − dt = at − σt dt + σt dBt ,
Xt 2 Xt2 2 2
ce qui prouve l’expression (3.9).
Black et Scholes. C’est le cas particulier où a(t, x) = ax et σ(t, x) = σx, ie.
dXt = aXt dt + σXt dBt . (3.10)
Cette EDS modélise l’évolution d’un cours X soumis à un taux d’intérêt déterministe a
et à une perturbation stochastique σXt dBt . Dans un contexte financier, le coefficient de
diffusion σ est appelé volatilité. Noter que la partie déterministe de l’accroissement de Xt
(aXt ) et sa partie aléatoire (σXt ) sont toutes les deux proportionnelles à la valeur courante
Xt en t (ce qui est typique des modèles de croissance).
La solution de (3.10) est un cas particulier de (3.9) :
σ2
 
Xt = X0 exp at − t + σBt .
2
On retrouve le mouvement brownien géométrique .
3.2. Exemples d’EDS 45

3.2.2 Équations affines


On suppose que a(t, x) = at x + ct et σ(t, x) = σt x + δt , c’est à dire qu’on considère
l’EDS affine générale

dXt = Xt (at dt + σt dBt ) + ct dt + δt dBt . (3.11)

Elle a une solution construite à partir de la solution Z de l’EDS linéaire associée dZt =
Zt (at dt + σt dBt ) de condition initiale Z0 = 1, ie.
Z t Z t Z t 
1
Zt = exp as ds + σs dBs − σs2 ds .
0 0 2 0

La solution de (3.11) est alors donnée par


 Z t 
−1
Xt = Zt X0 + Zs (e
cs ds + δs dBs ) , (3.12)
0

ct = ct − σt δt .
avec e
En effet, avec la formule d’Itô, on vérifie que (3.12) satisfait effectivement l’équation (3.11) :
D Z · E
Zt Zt−1 (e Zs−1 (e

dXt = ct dt + δt dBt ) + Xt (at dt + σt dBt ) + d Zt , cs ds + δs dBs ) .
0 t

Comme l’expression de Z assure

dhZ, Bit = Zt σt dhB, Bit = Zt σt ,

Le crochet se calcul comme suit


D Z · E Z t
Zs−1 (e Zs−1 e

Z, cs ds + δs dBs ) = cs dhZ, sis + δs dhZ, Bis
0 t
Z0 t Z t
−1
= Zs δs dhZ, Bis = δs σs ds.
0 0

D R E
·
On a donc d Z, 0 Zs−1 (e
cs ds + δs dBs ) = δt σt et on obtient :
t

dXt = e
ct dt + δt dBt + Xt (at dt + σt dBt ) + σt δt dt
= Xt (at dt + σt dBt ) + ct dt + δt dBt ,

justifiant que (3.12) est bien solution de (3.11).


46 Chapitre 3. ©JCB – M2 Math. – Université de Rennes 1

3.3 Existence et unicité


Comme d’habitude pour les équations différentielles, les notions d’existence et d’unicité
sont essentielles. Dans le contexte des EDS, il existe plusieurs types d’existence et d’unicité
des EDS. Dans toute cette section, on considère l’EDS E(a, σ).

Définition 3.3 (Existence, unicité des EDS) Pour l’équation E(a, σ), on dit qu’il y a
— existence faible
 si pour tout x ∈ R d , il existe une solution de Ex (a, σ) c’est à dire
un triplet X, B, (Ω, F, (Ft )t≥0 , P) où B est un (Ft )-mouvement brownien et pour
lequel X est solution satisfaisant (3.4) (c’est à dire (3.5)) ;
— existence et unicité faibles si de plus toutes les solutions de Ex (a, σ) ont même loi ;
— unicité trajectorielle si, l’espace de probabilité filtré Ω, F, (Ft )t≥0 , P et le mouve-
ment brownien B étant fixés, deux solutions X et X 0 de E(a, σ) telles que X0 = X00
ps sont indistinguables.
— existence forte si une solution X de Ex (a, σ) est adaptée par rapport à la filtration
canonique de B ; X est alors appelée solution forte.
— unicité forte pour E(a, σ) si pour tout mouvement brownien B, deux solutions fortes
associées à B sont indistinguables.

Remarque 3.4 Il peut y avoir existence et unicité faibles sans qu’il y ait unicité trajecto-
rielle. C’est le cas par exemple de :

dXt = sgn(Xt ) dBt , X0 = y, (3.13)

associé à un mouvement brownien B standard.


Pour voir cela, on considère un mouvement brownien β issu de β0 = y et on pose
Z t
Bt =
e sgn(βs ) dβs (3.14)
0

avec sgn(x) = 1 si x ≥ 0 et sgn(x) = −1 si x < 0. On observe que dB


et = sgn(βt ) dβt et
donc
et = sgn(βt )2 dβt = dβt ,
sgn(βt ) dB
soit : Z t
βt = y + sgn(βs ) dB
es .
0

Comme B
e en (3.14) est une martingale locale à trajectoires continues et que
Z t Z t
2
hB, Bit =
e e sgn(βs ) dhβ, βis = ds = t,
0 0

le théorème de Lévy (Théorème 1.8) assure que B


e est un mouvement brownien (issu de 0).
On voit alors que β est solution de l’EDS (3.13) pour laquelle il y a donc existence faible.
3.3. Existence et unicité 47

Mais β n’est pas solution forte de (3.13) : si elle l’était, β serait F B -adapté, ce qui im-
pliquerait F β ⊂ F B . Mais comme on montre que F B ⊂ F |β| , il devrait y avoir l’égalité
F β = F |β| , ce qui n’est pas possible puisque β n’est pas de signe constant.
Pour justifier F B ⊂ F |β| , on utilise la formule de Tanaka pour le mouvement brownien β
(cf. Exemple 1.24) et pour a = 0 :
Z t
|βt | = |y| + sgn(βs )dβs + Lβt = |y| + Bt + Lβt
0
Rt
d’où Bt = |βt | − Lβt − |y|. Mais comme 0 |βs |dLβs = 0, la mesure dLβt est concentrée sur
|β|
{t ≥ 0 : |βt | = 0} ; le processus Lβt est donc F |β| -adapté. Il suit que Bt est Ft -mesurable
et donc F B ⊂ F |β| .
À nouveau, par le théorème de Lévy (Théorème 1.8), on prouve l’unicité faible : toute
solution X de (3.13) est une martingale locale à trajectoires continues et vérifie
Z t Z t
2
hX, Xit = sgn(Xs ) dhB, Bis = ds = t
0 0

et doit donc être un mouvement brownien (théorème de Lévy : Th. 1.8).


Par contre, il n’y a pas en général unicité trajectorielle : pour y = 0, on voit facilement
Rque β et −β sont deux solutions de (3.13) associées au même brownien B. Noter que
t
1
0 {βs =0}
dBs = 0 car avec l’isométrie d’Itô :
"Z 2 #
t Z t  Z t  Z t
2
E 1{βs =0} dBs =E 1{βs =0} ds = E 1{βs =0} ds = P(βs = 0)ds = 0
0 0 0 0

Rt
et donc 0 1{βs =0} dBs = 0 ps. Aussi, β n’est pas solution forte de l’EDS : en fait, on montre
que la filtration de B coı̈ncide avec la filtration canonique de |β|, qui est strictement plus
petite que celle de β.

Le résultat suivant relie les différentes notions d’existence et d’unicité :

Théorème 3.5 (Yamada-Watanabe) Lorsque les coefficients a et σ sont boréliennes et lo-


calement bornées alors existence faible et unicité trajectorielle impliquent unicité faible.
De plus, dans ce cas, pour tout espace de probabilité filtré Ω, F, (Ft )t≥0 , P et tout (Ft )-
mouvement brownien B, il existe pour chaque x ∈ Rd une (unique) solution forte de
Ex (a, σ).

La preuve sera donnée au Chapitre 6 avec la notion de problème de martingale, cf. Théo-
rème 6.17.
Dans toute la suite, on suppose remplies les conditions suivantes :
48 Chapitre 3. ©JCB – M2 Math. – Université de Rennes 1

Hypothèses lipschitziennes. Les fonctions a et σ sont continues sur R+ × Rd et lipschit-


ziennes en x, ie. il existe une constante K ∈]0, +∞[ telle que pour tout t ≥ 0 et x, y ∈ Rd

|a(t, x) − a(t, y)| ≤ K|x − y|


|σ(t, x) − σ(t, y)| ≤ K|x − y|

et pour tout T ≥ 0 Z T
|a(t, 0)| + |σ(t, 0)|2 dt < +∞
0

où |a| et |σ| représentent la norme du vecteur a et de la matrice σ.


Noter que sous la condition de Lipschitz, on a

|a(t, x)| ≤ |a(t, 0)| + K|x| et |σ(t, x)| ≤ |σ(t, 0)| + K|x| (3.15)

ce qui assure
Z T Z T
2
|σ(t, x)| dt ≤ 2 |σ(t, 0)|2 dt + 2K 2 T x2 ,
0 0
Z T Z T
|a(t, x)|dt ≤ |a(t, 0)|2 dt + KT |x|.
0 0

Proposition 3.6 Sous les hypothèses lipschitziennes, une solution


Z t Z t
Xt = X0 + σ(s, Xs ) dBs + a(s, Xs ) ds
0 0

de E(a, σ) n’explose pas ps.


Démonstration : On considère t ∈ [0, T ]. À partir de
 Z t 2  Z t 2 
2 2
Xt ≤ 3 X0 + σ(s, Xs ) dBs + a(s, Xs ) ds
0 0

due à la convexité de x 7→ x2 , on a
 h Z t 2 i h Z t 2 i
2 2
E[Xt ] ≤ 3 E[X0 ] + E σ(s, Xs ) dBs +E a(s, Xs ) ds
0 0
 hZ t i h Z t 2 i
≤ 3 E[X02 ] + E σ(s, Xs )2 ds + E |a(s, Xs )| ds
0 0
(isométrie d’Itô)
 h Z t i h Z t 2 i
2 2 2 2
≤ 3 E[X0 ] + E 2(σ(s, 0) + K Xs ) ds + E |a(s, 0)| + K|Xs | ds
0 0
(conditions lipschitziennes)
3.3. Existence et unicité 49

 h Z t i h Z t 2
Z t i
2 2 2 2 2
≤ 3 E[X0 ] + E 2(σ(s, 0) + K Xs ) ds + E 2 |a(s, 0)|ds + 2K t |Xs |2 ds
0 0 0
(inégalité de Cauchy-Schwarz)
 Z T Z t  Z T 2 Z t 
2 2 2 2 2 2
≤ 3 E[X0 ] + 2σ(s, 0) ds + 2K E[Xs ]ds + 2 |(s, 0)|ds + 2K T E[Xs ]ds
0 0 0 0
(Fubini et t ∈ [0, T ])
Z t
≤ C +D E[Xs2 ]ds
0

avec
Z T Z T 
C = 3E[X02 ] +6 2
σ(s, 0) ds + 6 |a(s, 0)|ds
0 0
D = 6K 2 (1 + T ).

Le lemme de Grönwall qui suit assure alors que E[Xt2 ] ≤ CeBT pour tout t ∈ [0, T ] et
établit la Proposition 3.6. 

Lemme 3.7 (Grönwall) Soit T > 0 et g une fonction positive mesurable bornée sur [0, T ].
On suppose qu’il existe des constantes a ≥ 0, b ≥ 0 telles que pour tout t ∈ [0, T ], on a
Z t
g(t) ≤ a + b g(s)ds. (3.16)
0

Alors on a g(t) ≤ a exp(bt) pour tout t ∈ [0, T ].

Démonstration :[Grönwall] En itérant la condition (3.16) sur g, on a pour tout n ≥ 1 :


Z t Z s1 Z sn
(bt)2 (bt)n n+1
g(t) ≤ a + a(bt) + a + ··· + a +b ds1 ds2 . . . g(sn+1 )dsn+1 .
2 n! 0 0 0

Si g est majorée par A, le dernier terme se majore par A(bt)n+1 /(n + 1)! et il tend vers 0
quand n → +∞, ce qui prouve le lemme car le développement à droite tend vers a exp(bt). 

On a alors le principal résultat d’existence et d’unicité pour des EDS :


Théorème 3.8 (Cauchy-Lipschitz pour EDS) Sous les hypothèses lipschitziennes, il y a 
unicité trajectorielle pour E(a, σ). De plus, pour tout espace de probabilité filtré Ω, F, (Ft )t≥0 , P
et tout (Ft )-mouvement brownien B, il existe pour chaque x ∈ Rd une (unique) solution
forte de Ex (a, σ).
Ce résultat entraı̂ne en particulier qu’il y a existence faible pour E(a, σ). L’unicité faible
sera une conséquence du Théorème 3.13 (cf. remarque qui suit ce résultat) ; elle vient aussi
de l’unicité trajectorielle si on utilise le théorème de Yamata-Watanabe (Théorème 3.5).
50 Chapitre 3. ©JCB – M2 Math. – Université de Rennes 1

Remarque 3.9 On peut affaiblir l’hypothèse de continuité en t, celle-ci n’intervient essen-


tiellement que pour majorer sup0≤t≤T |σ(t, x)| et sup0≤t≤T |a(t, x)| pour x fixé : on peut
« localiser » l’hypothèse lipschitzienne sur a et σ et se contenter d’une constante K qui
dépend du compact sur lequel t et x sont considérés. Il faut alors conserver une condition
de croissance sous-linéaire :

|σ(t, x)| ≤ K(1 + |x|), |a(t, x)| ≤ K(1 + |x|).

Comme pour les équations différentielles (ordinaires), la croissance sous-linéaire prévient


l’explosion de la solution de l’EDS comme dans la Proposition 3.6.

Démonstration : Pour simplifier la présentation de la preuve, on considère le cas d = m = 1.


Unicité trajectorielle. On considère deux solutions X et X 0 de E(a, σ) avec X0 = X00 ,
définies sur le même espace et avec le même mouvement brownien B. Pour M > 0 fixé, on
considère le temps d’arrêt

τ = inf t ≥ 0 : |Xt | ≥ M, |Xt0 | ≥ M .




Noter que grâce à la Proposition 3.6, on a τ → +∞ lorsque M → +∞. D’après E(a, σ),
on a pour tout t ≥ 0 :
Z t∧τ Z t∧τ
Xt∧τ = X0 + σ(s, Xs ) dBs + a(s, Xs ) ds
0 0
Z t∧τ Z t∧τ
0 0 0
Xt∧τ = X0 + σ(s, Xs ) dBs + a(s, Xs0 ) ds.
0 0

On considère t ∈ [0, T ]. Par différence, comme X0 = X00 et comme X, X 0 sont bornées


par M sur ]0, τ ], l’expression de la variance d’une intégrale stochastique L2 , l’inégalité de
Cauchy-Schwarz, les hypothèses lipschitziennes et la majoration (x + y)2 ≤ 2(x2 + y 2 )
donnent
0
)2
 
E (Xt∧τ − Xt∧τ
" Z 2 # "Z 2 #!
t∧τ t∧τ
σ(s, Xs ) − σ(s, Xs0 ) dBs a(s, Xs ) − a(s, Xs0 ) ds
 
≤ 2 E +E
0 0

(convexité)
 Z t∧τ  Z t∧τ 
0 2
2
a(s, Xs0 )

≤ 2 E σ(s, Xs ) − σ(s, Xs ) ds + T E a(s, Xs ) − ds
0 0
(isométrie d’Itô et inégalité de Cauchy-Schwarz)
Z t∧τ 
2 0 2

≤ 2K (1 + T )E Xs − Xs ds
0
(hypothèse lipschitziennes)
Z t
2
 0
2 
= 2K (1 + T ) E Xs∧τ − Xs∧τ ds
0
3.3. Existence et unicité 51

(Fubini).
 0
2 
Si on pose h(t) = E Xt∧τ − Xt∧τ et C = 2K 2 (1 + T ), alors on a établi que h vérifie
pour t ∈ [0, T ] l’inéquation : Z t
h(t) ≤ C h(s) ds.
0

De plus, par définition de τ , la fonction h est bornée par 4M 2 , le lemme de Grönwall


0
(Lemme 3.7) s’applique avec a = 0 et b = C et donne h = 0, c’est à dire Xt∧τ = Xt∧τ ps.
Finalement, en faisant M → +∞, on a τ → +∞ et donc Xt = Xt0 ps. Les processus X
et X 0 sont des modifications à trajectoires continues, ils sont donc indistinguables par la
Proposition ??, ce qui prouve l’unicité trajectorielle.
Existence forte. On procède comme pour les équations différentielles (ordinaires) avec une
méthode d’approximation de Picard. Pour cela, on pose
(0)
Xt = x
Z t Z t
(1)
Xt = x+ a(s, x) ds
σ(s, x) dBs +
0 0
Z t Z t
(2) (1)
Xt = x+ σ(s, Xs ) dBs + a(s, Xs(1) ) ds
0 0
... = ... Z
t Z t
(n) (n−1)
Xt = x+ σ(s, Xs ) dBs + a(s, Xs(n−1) ) ds. (3.17)
0 0

Les intégrales stochastiques ci-dessus sont bien définies puisque par récurrence, on constate
(n)
que, pour chaque n, Xt est continu et adapté donc localement borné si bien que le
(n)
processus σ(t, Xt ) l’est aussi (hypothèses lipschitziennes) et l’intégrale correspondante
est bien définie.
On fixe maintenant T > 0 et on raisonne sur [0, T ]. On prouve par récurrence qu’il existe
Cn tel que, pour tout t ∈ [0, T ],
 (n) 
E (Xt )2 ≤ Cn . (3.18)
En effet, (3.18) est immédiate si n = 0 avec C0 = x. Puis, on suppose que (3.18) est vraie
au rang n − 1. Avec (3.15), on déduit

|σ(t, x)| ≤ C + K|x|, |a(t, x)| ≤ D + K|x|, t ∈ [0, T ], x ∈ R,

avec des constantes


C = sup |σ(t, 0)|, D = sup |a(t, 0)|
t∈[0,T t∈[0,T

Noter que par la croissance sous-linéaire de σ et l’hypothèse de récurrence (3.18), on a


hZ t i  t 2
Z
n−1 2
(C + K 2 |Xsn−1 |2 ) ds

E σ(s, Xs ) ds ≤ 2E
0 0
52 Chapitre 3. ©JCB – M2 Math. – Université de Rennes 1
Z t
2 2
E |Xsn−1 |2
 
≤ 2C T + 2K
0
≤ 2C 2 T + 2K 2 T Cn−1 < +∞.
On a donc par l’isométrie d’Itô
" Z 2 #
t Z t 
(n−1) (n−1) 2
E σ(s, Xs ) dBs =E σ(s, Xs ) ds < +∞.
0 0

Comme (x + y + z)2 ≤ 3(x2 + y 2 + z 2 ), par l’inégalité de Cauchy-Schwarz, l’isométrie d’Itô,


et les hypothèses lipschitziennes, on majore comme suit
" Z 2 # "Z 2 #!
 (n) 2  t t
2 (n−1) (n−1)
E (Xt ) ≤ 3 |x| + E σ(s, Xs ) dBs +E a(s, Xs ) ds
0 0

(convexité)
 Z t   Z t 2 
2 (n−1) 2 (n−1)
≤ 3 |x| + E σ(s, Xs ) ds + E |a(s, Xs )| ds
0 0
(isométrie d’Itô)
 Z t   Z t 2 
2 (n−1) 2 (n−1)
≤ 3 |x| + E (C + K|Xs |) ds + E D + K|Xs | ds
0 0
(hypothèses lipschitziennes)
 Z t   Z t 
2 2 2 (n−1) 2 2 2 (n−1) 2
≤ 3 |x| + E (2C + 2K |Xs | ) ds + E 2 DT ) + 2K t |Xs | ds
0 0
2
(convexité de x et inégalité de Cauchy-Schwarz)
Z t
2 2 2 2 2
E |Xs(n−1) |2 ds
 
≤ 3 |x| + 2(C T + D T ) + 2K (1 + T )
0
(Fubini et t ∈ [0, T ])
≤ 3 |x|2 + 2(C 2 T + D2 T 2 ) + 2K 2 (1 + T )T 2Cn−1 ) =: Cn


ce qui établit (3.18) par récurrence.


La borne (3.18) et la croissance sous-linéaire de σ assurent alors que, pour chaque n, la
Rt (n)
martingale locale 0 σ(s, Xs )dBs est une vraie martingale bornée dans L2 sur l’intervalle
[0, T ]. En effet, son crochet est intégrable, ce qui garantit l’affirmation par le Théorème ?? :
Z · Z ·  Z t 
(n) (n) (n) 2
E σ(s, Xs )dBs , σ(s, Xs )dBs = E σ(s, Xs ) dhB, Bis
0 0 t 0
Z t 
(n) 2
= E σ(s, Xs ) ds < +∞.
0
 (n+1) (n) 
On majore maintenant par récurrence E sup0≤t≤T |Xt − Xt |2 . On a
Z t Z t
(n+1) (n) (n) (n−1)
a(s, Xs(n) ) − a(s, Xs(n−1) ) ds
 
Xt − Xt = σ(s, Xs ) − σ(s, Xs ) dBs +
0 0
3.3. Existence et unicité 53

Z t 2 Z t  2
(n+1) (n) 2
σ(s, Xs(n) ) σ(s, Xs(n−1) ) a(s, Xs(n) ) − a(s, Xs(n−1) ) ds .

Xt − Xt ≤ − dBs +
0 0

En utilisant les inégalités de Doob (Prop. ??) et de Cauchy-Schwarz ainsi que les hypothèses
lipschitziennes, on déduit
 
(n+1) (n) 2
E sup |Xs − Xs |
0≤s≤t
" 2 #
 2
Z s Z s
(n) (n−1)
 (n) (n−1)
≤ 2E sup σ(u, Xu ) − σ(u, Xu ) dBu + sup a(u, Xu ) − a(u, Xu ) du
0≤s≤t 0 0≤s≤t 0

(convexité)
"Z 2 # "Z 2 #!
t t
σ(u, Xu(n) ) − σ(u, Xu(n−1) ) dBu a(u, Xu(n) ) − a(u, Xu(n−1) ) du

≤ 2 4E +E
0 0

(inégalité de Doob)
 Z t  Z t 
(n−1) 2
(n)
2
a(u, Xu(n) ) a(u, Xu(n−1) )

≤ 2 4E σ(u, Xu ) − σ(u, Xu ) du + T E − du
0 0
(isométrie d’Itô, inégalité de Cauchy-Schwarz)
Z t 
(n−1) 2
2
(n)
≤ 2(4 + T )K E Xu − X u du (3.19)
0
(hypothèses lipschitziennes)
Z t 
(n) (n−1)
2
≤ CT E sup Xr − Xr du (3.20)
0 0≤r≤u

avec CT = 2(4 + T )K 2 . Si on note


2  2 
gn (u) = E sup Xr(n) − Xr(n−1) g0 (u) = E sup Xr(0) = x2 ,
 
et
0≤r≤u 0≤r≤u

alors (3.20) s’écrit Z t


gn+1 (t) ≤ CT gn (u)du. (3.21)
0
Par ailleurs, par (3.18) et les inégalités précédentes telles (3.19), on voit que les fonctions
gn sont bornées sur [0, T ]. En effet, g0 (t) = x2 pour t ∈ [0, T ] et par une récurrence utilisant
(3.21), on établit que pour tout n ≥ 1 et t ∈ [0, T ], on a
tn
gn (t) ≤ x2 CTn .
n!
On déduit alors que +∞ 1/2
P
n=0 gn (T ) < +∞. Comme

X+∞ +∞
X
+∞
X
(n+1) (n)
(n+1)

(n)

sup |Xs − Xs | ≤ sup Xs − Xs = gn (T )1/2 < +∞,

0≤s≤T
0≤s≤T 2
n=0 2 n=0 n=0
54 Chapitre 3. ©JCB – M2 Math. – Université de Rennes 1

cela entraı̂ne que ps


+∞
X
sup Xs(n+1) − Xs(n) < +∞,
n=0 0≤s≤T
(n)
et donc ps la suite (Xt )t∈[0,T ] converge uniformément sur [0, T ] vers un processus limite
(Xt )t∈[0,T ] qui est nécessairement continu. Comme par récurrence, chaque processus X (n)
est adapté par rapport à la filtration canonique de B, X l’est aussi à la limite.
Les estimations (3.20) établissent aussi que

 1/2 +∞
2 (n) X
E sup Xs(n) − Xs = sup
0≤s≤T
Xs − X s =
sup (X (k)
s − X (k+1)
s
0≤s≤T 2
0≤s≤T
k=n 2
+∞
X
+∞
X

≤ sup (Xs(k) − Xs(k+1) ≤ gk (T )1/2 → 0, n → +∞.
0≤s≤T

k=n 2 k=n

On déduit alors de l’isométrie L2 , des hypothèses lipschitziennes que, avec des limites dans
L2 , on a :
Z t Z t 2 "Z 2 #
t
σ(s, Xs(n) ) dBs − σ(s, Xs(n) ) − σ(s, Xs ) dBs

σ(s, Xs ) dBs
= E
0 0 2 0
Z t 
(n)
2
= E σ(s, Xs ) − σ(s, Xs ) ds
0
Z t 
(n) 2
≤ E K|Xs − Xs | ds
0
 
(n) 2
≤ KT E sup |Xs − Xs | → 0, n → +∞,
0≤s≤T

et de même :
Z t Z t 2  Z t 
 2
a(s, Xs(n) ) ds − a(s, Xs ) ds = E
(n)
a(s, Xs ) − a(s, Xs ) ds

0 0 2 0
 Z t 2 
(n)
≤ E K|Xs − Xs | ds
0
Z t 
2 (n) 2
≤ K TE |Xs − Xs | ds
0
 
2 2 (n) 2
≤ K T E sup |Xs − Xs | → 0, n → +∞.
0≤s≤T

On a donc
Z t Z t
2
L - lim σ(s, Xs(n) ) dBs = σ(s, Xs ) dBs ,
n→+∞ 0 0
3.4. Utilisation de Girsanov pour les EDS 55
Z t Z t
2
L - lim a(s, Xs(n) ) ds = a(s, Xs ) ds.
n→+∞ 0 0

Finalement, en passant à la limite dans le schéma de Picard (3.17), on obtient que X est
solution forte de Ex (a, σ) sur [0, T ] :
Z t Z t
Xt = x + σ(s, Xs ) dBs + a(s, Xs ) ds.
0 0

3.4 Utilisation de Girsanov pour les EDS


Le théorème de Girsanov permet de montrer l’existence de solution faible d’EDS quand
elle n’admet pas nécessairement de solution forte.

Proposition 3.10 Soit B un mouvement brownien standard dans Rd et a : R+ × Rd → Rd .


On considère l’EDS
dXt = a(t, Xt )dt + dBt . (3.22)
(1) Il y a existence faible lorsque a est une fonction bornée.
(2) Il y a unicité faible sur [0, T ] lorsque a est presque sûrement carré intégrable sur [0, T ]
RT
(ie. 0 a(s, Xs )2 ds < +∞ ps) :
(i) 
Soit pour i = 1, 2 X (i) une solution sur Ω(i) , F (i) , (Ft )t≥0 , P(i) associée au mou-
vement brownien
 B (i) et de même loi initiale µ (indépendante de i = 1, 2). Alors
(1) (1)
X ,B et X , B (2) ont la même loi sous P(1) et P(2) (unicité faible) si
(2)

Z T 
a(t, Xt(i) ) 2 dt < +∞ = 1.
(i)

P
0

Remarque 3.11 — La condition sur a est trop faible pour que le Théorème 3.8 s’ap-
plique mais le théorème de Girsanov (Th. 2.4) permet de montrer l’existence faible
d’une solution.
— On peut affaiblir l’hypothèse a bornée en a à croissance sous-linéaire :

ka(t, x)k ≤ K(1 + kxk), 0 ≤ t ≤ T, x ∈ Rd .

— Ce résultat met en évidence l’effet régularisant du mouvement brownien B (en fait


RB,t cf. ci-dessous) dans (3.22) puisque sans B, l’équation différentielle ordinaire xt =
e e
0
a(s, xs )ds n’admet pas de solution en général lorsque a est seulement borné.
56 Chapitre 3. ©JCB – M2 Math. – Université de Rennes 1

Démonstration : Pour simplifier la présentation, on suppose d = 1.



1) Existence faible. En partant de Ω, F, (FtB )t≥0 , P et B un mouvement brownien, on
construit
R t une solution faible par le théorème de Girsanov (Th. 2.4). Pour cela, on considère
Lt = 0 a(s, Bs )dBs (bien défini puisque que a est bornée) et on pose
Z t
1 t
Z 
2
Zt = E(L)t = exp a(s, Bs ) dBs − a(s, Bs ) ds .
0 2 0
Rt
Comme hL, Lit = 0 a(s, Bs )2 ds, on a
 Z t i
h 1 i h 1 2
≤ exp tkak2∞ /2 ,

E exp hL, Lit = E exp a(s, Bs ) ds
2 2 0
le critère de Novikov (Théorème 2.9) est satisfait sur tout intervalle [0, t] et Z est donc une
(vraie) (FtB )-martingale sur R+ . On définit alors une probabilité sur chaque FtB en posant
dQa|F B = Zt dP. Dans ce contexte, le théorème de Girsanov (Th. 2.4) assure que
t

et = Bt − hB, Lit
B
Z t
= Bt − a(s, Bs )ds
0

est un Q(a) -mouvement brownien. Sous Q(a) , le processus B est solution de


Z t
Xt = Bt +
e a(s, Xs )ds
0

c’est à dire de l’EDS (3.22) dirigée par le mouvement brownien B.


e On a donc construit une
probabilité Qa et des processus (B, B) e est un mouvement brownien sous Q(a)
e tels que B
et B est solution faible de (3.22).
2) Unicité faible. Soit T une date déterministe fixée et µ une loi initiale. On suppose
maintenant a(t, Xt ) ∈ L2 ([0, T ]) ps. Pour k ≥ 1 et i = 1, 2, on considère
 Z t 
(i) (i) 2
τk = T ∧ inf 0 ≤ t ≤ T : ka(s, Xs )k ds ≥ k .
0

(i)
Par hypothèse sur a, on a τk → +∞, P(i) -ps. En posant
(i) (i)
!
Z t∧τk Z t∧τk
(k,i) 1
Zt = exp a(s, Xs(i) ) dBs(i) − ka(s, Xs(i) )k2 ds ,
0 2 0

on a
(i) (i) (i)
DZ ·∧τk Z ·∧τk E Z t∧τk
a(s, Xs(i) ) dBs(i) , a(s, Xs(i) ) dBs(i) = a(s, Xs(i) )2 ds ≤ k
0 0 t 0
3.4. Utilisation de Girsanov pour les EDS 57

(i)
par choix de l’arrêt τk . On a donc
(i) (i)
" !#
Z ·∧τk Z ·∧τk
1D E
E exp a(s, Xs(i) ) dBs(i) , a(s, Xs(i) ) dBs(i) ≤ exp(k/2) < +∞
2 0 0 t

et comme précédemment, le critère de Novikov assure que Z (k,i) est une martingale.
(k,i)
On définit alors des probabilités par dQ(k,i) = ZT dP(i) et le théorème de Girsanov
(Th. 2.4) assure que sous Q(k,i)
(i)
Z t∧τk
(i) (i) (i)
X (i) = X0 + a(s, Xs(i) )ds + B (i) , 0 ≤ t ≤ T,
t∧τk t∧τk
0

(i)
est un mouvement brownien standard de loi initiale µ, arrêté à τk . De plus, on montre que
(i) (i) (i) (k,i) (i)
τk , (Bt : t ≤ τk ) et ZT s’expriment en termes de X (i) indépendamment de i = 1, 2.
t∧τk

Pour 0 = t0 < t1 < · · · < tn = T et A ∈ B R2(n+1) , on a

(1) (1) (1) (1) (1)


P(1) (Xt0 , Bt0 , . . . , Xtn , Btn ) ∈ A, τk = T

Z
1
= 1 (1) (1) (1) (1)
(k,1) {(Xt ,Bt ,...,Xtn ,Btn )∈A,τk =T }
(1) dQ(k,1)
Ω (1) ZT 0 0
Z
1
= (k,2)
1{(X (2) ,B (2) ,...,X (2) ,B (2) )∈A,τ (2) =T } dQ(k,2)
Ω (2) ZT t0 t0 tn tn k

(2) (2) (2) (2) (2)


= P(2) (Xt0 , Bt0 , . . . , Xtn , Btn ) ∈ A, τk = T


(i)
où la deuxième égalité vient de l’observation précédente et du fait que sous Q(k,i) , X (i),τk est
(i)
un mouvement brownien (arrêté, de loi initiale µ). L’hypothèse sur a implique limk→+∞ P(i) τk =
T = 1, i = 1, 2. On peut donc passer à la limite  k → +∞ pour conclure pour tout n ≥ 1,
2(n+1)
0 = t0 < t1 < · · · < tn = T et A ∈ B R

(1) (1) (1) (1)


P(1) (Xt0 , Bt0 , . . . , Xtn , Btn ) ∈ A,

(1) (1) (1) (1) (1)
lim P(1) (Xt0 , Bt0 , . . . , Xtn , Btn ) ∈ A, τk = T

=
k→+∞
(2) (2) (2) (2) (2)
lim P(2) (Xt0 , Bt0 , . . . , Xtn , Btn ) ∈ A, τk = T

=
k→+∞
(2) (2) (2) (2)
= P(2) (Xt0 , Bt0 , . . . , Xtn , Btn ) ∈ A .


Le résultat suivant (admis) est une généralisation de la Proposition 3.10 pour une EDS
avec un coefficient de diffusion plus général :
58 Chapitre 3. ©JCB – M2 Math. – Université de Rennes 1

Théorème 3.12 (Beneš) Soit a : R → R une fonction bornée et σ : R → R une fonc-


tion (globalement) lipschitzienne et ne s’annulant pas et B un mouvement brownien réel
standard. L’EDS
dXt = a(Xt ) dt + σ(Xt ) dBt
admet une solution faible qui est unique en loi.
L’hypothèse cruciale est que le coefficient de diffusion ne s’annule pas : le processus diffuse
tout le temps. La non-nullité de ce coefficient joue un rôle essentiel dans l’étude de la
régularité des lois de solutions d’EDS. Cela est exploré à l’aide du calcul de Malliavin.

3.5 Flot sur l’espace de Wiener


Dans l’exemple des EDS affines (3.11), la dépendance de la solution par rapport aux condi-
tions initiales est explicite puisque (3.12) se réécrit Xt = Zt (X0 + Dt ). La solution Xt est
donc une fonction affine de la condition initiale X0 . Lorsque les coefficients sont détermi-
nistes, les processus Zt et Dt sont adaptés par rapport à la filtration Ft = σ(Bs : s ≤ t),
t ≥ 0. Autrement dit, Xt est une fonction déterministe de X0 et de la trajectoire du mou-
vement brownien sur [0, t]. En écrivant [x]t = {s 7→ xs : s ≤ t} la trajectoire d’une fonction
x sur [0, t], on peut écrire pour l’EDS affine
Xt (ω) = FX0 (t, [B(ω)]t )
où Fx (t, w) est continue par rapport à x. On généralise cette observation en interprétant
la solution de l’EDS E(a, σ), ie. dXt = a(t, Xt ) dt + σ(t, Xt ) dBt , comme fonctionnelle sur
l’espace de Wiener C(R+ , Rm ), B(C(R+ , Rm )), W (espace des trajectoires du mouvement
brownien).
On rappelle que l’espace de Wiener est l’espace canonique d’un mouvement brownien B,
issu de 0 à valeurs dans Rm , il s’agit donc de l’ensemble C(R+ , Rm ) des fonctions continues
de R+ dans Rm , muni de la mesure de Wiener W . En particulier, la mesure de Wiener W
est la loi d’un mouvement brownien B.
Théorème 3.13 (Fonctionnelle sur l’espace de Wiener) Sous les hypothèses lipschitziennes,
pour tout x ∈ Rd , il existe une fonctionnelle

C(R+ , Rm ) → C(R+ , Rd )
Fx :
w 7→ Fx (w)
mesurable et satisfaisant les propriétés suivantes :
pour tout t ≥ 0, Fx (w)t coı̈ncide W(dw)-ps avec une fonction mesurable de [w]t =
(1) 
w(r) : 0 ≤ r ≤ t ; avec un abus de notation, on écrira Fx (t, [B]t ) ;
(2) pour tout w ∈ C(R+ , Rm ), l’application
 d
R −→ C(R+ , Rm )
x 7→ Fx (w)
est continue ;
3.5. Flot sur l’espace de Wiener 59

(3) pour tout x ∈ Rd , pour tout choix d’espace de probabilité filtré Ω, F, (Ft )t≥0 , P et
tout (Ft )-mouvement brownien B en dimension m, le processus X défini par Xt =
Fx (B)t est l’unique solution de E(a, σ) avec valeur initiale x ; de plus, si Z est une
variable aléatoire F0 -mesurable, le processus (FZ (B)t )t≥0 est l’unique solution avec
valeur initiale Z.

Remarque 3.14 L’assertion (3) montre en particulier qu’il y a unicité faible pour l’EDS
E(a, σ) : les solutions de Ex (a, σ) sont toutes de la forme Fx (B) et ont donc la même loi,
image de la mesure de Wiener W par Fx .

Démonstration : À nouveau, on simplifie la présentation de la preuve en considérant le


cas d = m = 1. On note N la classe des sous-ensembles W-négligeables de C(R+ , R) et on
considère la filtration donnée pour tout t ∈ [0, +∞] par

Gt = σ w(s) : 0 ≤ s ≤ t ∨ N .

D’après la Remarque 1.22, la filtration (Gt )t≥0 est continue à droite, comme en plus elle
est complète, elle satisfait les conditions habituelles. Pour chaque x ∈ R, on note X x
la solution de l’EDS Ex (a, σ) associée à l’espace canonique C(R+ , R), G∞ , (Gt )t≥0 , W et
au mouvement brownien (canonique) Bt (w) = w(t). D’après le Théorème 3.8, sous les
hypothèses lipschitziennes cette solution existe et est unique à indistinguabilité près.
Soit x, y ∈ R et Tn le temps d’arrêt défini par

Tn = inf t ≥ 0 : |Xtx | ≥ n ou |Xty | ≥ n .




Soit p ≥ 2 et T ≥ 1. On travaille sur [0, T ]. En utilisant (x + y + z)p ≤ 3p−1 (xp + y p + z p ),


les inégalités de Burkholder-Davis-Gundy (Théorème 1.13) et l’inégalité de Hölder, on a
pour tout t ∈ [0, T ] :
 
x y p
E sup |Xs∧Tn − Xs∧Tn |
s≤t
  Z s∧Tn p 
y
p
x

≤ Cp |x − y| + E sup σ(r, Xr ) − σ(r, Xt ) dBr
0≤s≤t 0
 p
 Z s∧Tn 
x y
+E sup a(r, Xr ) − a(r, Xr ) dr
0≤s≤t 0
(convexité de xp )
"Z
t∧Tn p/2 #
2
≤ Cp |x − y|p + Cp0 E σ(r, Xrx ) − σ(r, Xty ) dr
0
Z t∧Tn p 

+E a(r, Xrx ) − a(r, Xry ) dr
0
(inégalité BDG droite pour p ≥ 2)
60 Chapitre 3. ©JCB – M2 Math. – Université de Rennes 1
 Z t 
p 0 p/2−1
x y
p
≤ Cp |x − y| + Cp t E σ(r ∧ Tn , Xr∧Tn ) − σ(r ∧ Tn , Xt∧Tn ) dr

0
Z t 
p−1
x y
p
+t E a(r ∧ Tn , Xr∧T ) − a(r ∧ Tn , X
r∧Tn )
dr
n
0
(inégalité de Hölder)
 Z t 
00 p p y
 x p

≤ Cp |x − y| + T E |Xt∧Tn − Xr∧Tn | dr
0
(hypothèses lipschitziennes et T ≥ 1)

où la constante Cp00 < +∞ dépend de p et de la constante K intervenant dans les hypothèses
lipschitziennes sur σ et a mais pas de n, x, y ou T .
y
 x p

Puisque par définition de Tn , la fonction t 7→ E sups≤t |Xs∧T n
− X s∧T n
| est bornée, le
lemme de Grönwall (Lemme 1.7) s’applique avec a = Cp00 |x − y|p et b = Cp00 T p et entraı̂ne
que pour tout t ∈ [0, T ], on a
 
y
E sup |Xs∧Tn − Xs∧Tn | ≤ Cp00 |x − y|p exp Cp00 T p t .
x p

(3.23)
s≤t

Comme
x y
sup |Xs∧Tn
− Xs∧Tn
|p = sup |Xsx − Xsy |p (3.24)
s≤t s≤t∧Tn

et Tn % +∞ (la Proposition 3.6 s’applique avec les hypothèses lipschitziennes), (3.24) est
croissant en n ≥ 1. Par convergence monotone, il vient alors de (3.23)
 
E sup |Xs − Xs | ≤ Cp00 |x − y|p exp Cp00 T p t .
x y p

s≤t

On considère sur C(R+ , R) la topologie de la convergence uniforme sur les compacts. Elle
est définie par une distance du type
+∞
X  
0 0
d(w, w ) = αk sup |w(s) − w (s)| ∧ 1
s≤k
k=1
P
pour tout choix de la suite de réels positifs αk > 0 tels que la série k≥1 αk soit convergente.
Ici, on fait le choix des coefficients αk tels que
+∞
X
αk exp Cp00 k p+1 < +∞.

(3.25)
k=1

D’après (3.23), ce choix (3.25) garantit que pour une constante C


ep < +∞, on a :

+∞
X  
αk E sup |Xsx − Xsy |p ep |x − y|p .
≤C (3.26)
s≤k
k=1
3.5. Flot sur l’espace de Wiener 61

Alors, les estimations précédentes et l’inégalité de Jensen montrent que


" +∞ 
X !p #
E d(X x , X y )p = E αk sup |Xsx − Xsy | ∧ 1
 
s≤k
k=1
+∞
!p " +∞  !p #
X X αk
= αk E P+∞ sup |Xsx − Xsy | ∧ 1
k=1 k=1 k=1 αk s≤k
+∞
!p " +∞  p !#
X X αk
≤ αk E P+∞ sup |Xsx − Xsy | ∧1
k=1 k=1 k=1 αk s≤k

(inégalité de Jensen pour la probabilité +∞ αk


P
k=1
P+∞ δk )
k=1 αk

+∞
!p−1 +∞  
X X
x y p ep |x − y|p .
= αk αk E sup |Xs − Xs | ≤ C
s≤k
k=1 k=1
(avec la borne (3.26))

Le théorème de Kolmogorov-Čentsov (Théorème ??) appliqué au processus (X x , x ∈ R) à


valeurs dans C(R+ , R) muni de la distance d donne l’existence d’une modification (X e x, x ∈
R) dont les trajectoires sont continues. On note alors

e x (w).
F (t, x, w) = Fx (w)t = X t

e x 7→ Fx (w) est continue ce qui établit la propriété (2) de l’énoncé.


Par choix de la version X,
L’application w 7→ Fx (w) est mesurable de C(R+ , R) muni de la tribu G∞ dans C(R+ , R)
muni de la tribu borélienne σ(w(s) : s ≥ 0). De même, pour chaque t ≥ 0, Fx (w)t = X e x (w)
t
est Gt -mesurable donc coı̈ncide ps avec une fonction mesurable de [w]t = {w(s) : 0 ≤ s ≤ t},
ce qui établit maintenant l’assertion (1).
On termine en montrant  l’assertion (3). On commence par fixer l’espace de probabilité
filtré Ω, F, (Ft )t≥0 , P et un (Ft )-mouvement brownien B. Il s’agit de voir que Fx (B) est
solution de l’EDS Ex (a, σ) :

dXt = a(t, Xt ) dt + σ(t, Xt ) dBt , X0 = x.

On observe que le processus Fx (B) est continu et adapté d’après (1) puisque Fx (B)t coı̈ncide
ps avec une fonction mesurable de [B]t = {Br : 0 ≤ r ≤ t} en effet pour une fonction fx
mesurable sur C(R+ , R), par le théorème de transfert
 
P Fx (B)t = fx ([B]t ) = W Fx (w)t = fx ([w]t ) = 1.

D’autre part, par construction de Fx , on a W(dw)-ps


Z t Z t
Fx (w)t = x + σ(s, Fx (w)s ) dw(s) + a(s, Fx (w)s ) ds. (3.27)
0 0
62 Chapitre 3. ©JCB – M2 Math. – Université de Rennes 1

Il s’agit de récupérer la même identité (3.27) pour Fx (B). Pour cela, on passe par des
approximations de Riemann des intégrales dans (3.27).
De façon standard, l’intégrale de Stieltjes s’approxime par des sommes de Riemann : on a
W-ps
Z t pn −1  
X (n) (n) (n) 
a(s, Fx (w)s ) ds = lim a ti , Fx (w)t(n) ti+1 − ti
0 n→+∞ i
i=0
(n) (n) (n)
où 0 = t0 ≤ t1 ≤ · · · ≤ tpn = t est une subdivision de [0, t] de pas qui tend vers 0.
De la même façon, d’après 6)Rdans la Proposition ??, on a une approximation de Riemann
t
pour l’intégrale stochastique 0 σ(s, Fx (w)s ) dw(s) mais dans le sens de la convergence en
probabilité W :
Z t pn −1   
X (n) (n)  (n) 
σ(s, Fx (w)s ) dw(s) = W- lim σ ti , Fx (w)t(n) w ti+1 − w ti .
0 n→+∞ i
i=0

En prenant une sous-suite (nk )k≥1 correctement choisie, on a une convergence W-presque
sûre :
Z t pnk −1   
X (n ) (nk )  (nk ) 
σ(s, Fx (w)s ) dw(s) = lim σ ti k , Fx (w)t(nk ) w ti+1 − w ti .
0 k→+∞ i
i=0

Comme en plus W-ps Fx (w)t = fx ([w]t ) pour une fonction fx mesurable sur C(R+ , Rm ),
on a finalement

nk −1
pX      
(nk ) (nk ) (nk )
fx ([w]t ) = x + lim σ ti , Fx (w)t(nk ) w ti+1 − w ti
k→+∞  i
i=0

pnk −1 
X (n )  (n ) (n ) 
+ a ti k , Fx (w)t(nk ) ti+1k − ti k .
i 
i=0

Maintenant qu’on s’est ramené à une convergence W-presque sûre, on peut, comme précé-
demment, remplacer w par B (puisque sa loi sous P est W) :
 
pX nk −1      
(n ) (n ) (n )
1 = W fx ([w]t ) = x + lim σ ti k , fx ([w]t(nk ) ) w ti+1k − w ti k
k→+∞  i
i=0

pnk −1 
X (n )  (n ) (n )  
+ a ti k , fx ([w]t(nk ) ) ti+1k − ti k
i 
i=0
 
pX nk −1      
(n ) (n ) (n )
= P fx ([B]t ) = x + lim
 σ ti k , fx ([B]t(nk ) ) B ti+1k − B ti k
k→+∞  i
i=0
3.5. Flot sur l’espace de Wiener 63

pnk −1 
X (nk )  (nk ) (nk )  
+ a ti , fx ([B]t(nk ) ) ti+1 − ti .
i 
i=0

Mais, en utilisant encore 6) dans la Proposition ??, on a


Z t pnk −1      
X (n ) (n ) (n )
σ(s, fx ([B]s )) dBs = P- lim σ ti k , fx ([B]t(nk ) ) B ti+1k − B ti k (en proba)
0 k→+∞ i
i=0
Z t pn −1
X (n)  (n) (n) 
a(s, fx ([B]s )) ds = lim a ti , fx ([B]t(n) ) ti+1 − ti P-ps
0 n→+∞ i
i=0

c’est à dire finalement (par unicité de la limite en probabilité) : P-ps


Z t Z t
Fx (B)t = fx ([B]t ) = x + σ(s, Fx (B)s ) dBs + a(s, Fx (B)s ) ds.
0 0

On obtient donc que Fx (B) est la solution recherchée de l’EDS Ex (a, σ).

Pour finir, on établit la deuxième partie de (3). On fixe à nouveau l’espace de probabilité
filtré Ω, F, (Ft )t≥0 , P et le (Ft )-mouvement brownien B. Soit Z une variable aléatoire
F0 -mesurable. En remplaçant formellement, dans l’EDS vérifiée par Fx (B), x par Z, on
obtient que FZ (B) est solution de E(a, σ) avec valeur initiale Z. On justifie maintenant ce
remplacement formel.
D’abord comme (x, ω) 7→ Fx (B)t est continue par rapport à x et Ft -mesurable par rapport
à ω, on a facilement que cette application est mesurable pour la tribu B(R) ⊗ Ft . Comme
Z est F0 -mesurable, il s’en déduit par composition que FZ (B)t est Ft -mesurable et le
processus FZ (B) est donc continu et adapté.
On a vu précédemment que

nk −1
pX      
(n ) (n ) (n )
Fx (B)t = x + P- lim σ ti k , Fx (B)t(nk ) B ti+1k − B ti k
k→+∞  i
i=0

pnk −1 
X (nk )  (nk ) (nk ) 
+ a ti , Fx (B)t(nk ) ti+1 − ti .
i 
i=0

De plus, comme Z est F0 -mesurable, on a Z ⊥ ⊥ B. On peut donc remplacer précédemment


x par Z et, en utilisant encore 6) dans la Proposition ??, avoir (avec Z ⊥ ⊥ B encore)
Z t Z t
FZ (B)t = Z + σ(s, FZ (w)s ) dBs + a(s, FZ (B)s ) ds
0 0

ce qui établit que FZ (B) est solution de E(a, σ) avec valeur initiale Z. 
64 Chapitre 3. ©JCB – M2 Math. – Université de Rennes 1

Propriété de flot
On suppose toujours valides les hypothèses lipschitziennes.
On considère maintenant le cas général de l’EDS E(a, σ) qui part de x à la date r, ie. avec
Xr = x et on note la solution Xtr,x pour t ≥ r. D’après le Théorème 3.13, on peut écrire
Xtr,x = F r, x, t, [B· − Br ]t


où (B· − Br )s+r = Bs+r − Br est la valeur en s du mouvement brownien translaté en temps
de r (c’est bien un mouvement brownien d’après la propriété de Markov faible).
Théorème 3.15 (Propriété de flot) Sous les hypothèses lipschitziennes, la solution de l’EDS
E(a, σ) avec Xr = x vérifie la propriété de flot : pour t0 ≥ 0,
F r, x, t0 + t, [B· − Br ]t0 +t = F t0 , Xtr,x
 
0
, t0 + t, [B· − Bt0 ] t0 +t
t0 ,X r,x
ie. Xtr,x
0 +t
= Xt0 +t t0 . (3.28)
Cette propriété s’étend pour des temps aléatoires : soit T un temps d’arrêt borné
F r, x, T + t, [B· − Br ]T +t = F T, XTr,x , T + t, [B· − BT ]T +t
 

T,X r,x
ie. XTr,x+t = XT +tT . (3.29)
Démonstration : La propriété de flot (3.28) vient de l’unicité forte de la solution de l’EDS
E(a, σ) sous les hypothèses lipschitziennes. En effet, le processus
t 7→ F t0 , Xtr,x

0
, t0 + t, [B· − Bt ]
0 0t +t

est une solution issue de Xtr,x


0
à l’instant t = 0. Il en est de même du processus

t 7→ F r, x, t0 + t, [B· − Br ]t0 +t
puisque à la date t = 0, il est en F (r, x, t0 , [B· − Br ]t0 ) = Xtr,x
0
. Les deux processus sont
adaptés par rapport à la filtration Gt = σ(Bt0 +t − Bt0 ) ∨ σ(Bs − Br : r ≤ r ≤ t0 ), t ≥ 0, et
Xtr,x
0
est bien mesurable par rapport à G0 = σ(Bs − Br : r ≤ r ≤ t0 ). Par unicité forte dans
le 3) du Théorème 3.13, ces deux processus continus en t sont égaux.
Pour un temps d’arrêt T , on procède de même en notant que, par la propriété de Markov
forte, (BT +t − BT )t≥0 est un mouvement brownien, cf. Théorème ??. 

3.6 Markov fort pour EDS homogène


Dans cette section, on suppose toujours satisfaites les hypothèses lipschitziennes de la
Section 3.3. Pour avoir des propriétés markoviennes homogènes, on suppose de plus que
l’EDS est homogène, c’est à dire que les coefficients de l’EDS ne dépendent pas du temps :
a(t, x) = a(x), σ(t, x) = σ(x).
3.6. Markov fort pour EDS homogène 65

Pour chaque x ∈ Rd , on note Px la loi sur C(R+ , Rd ) des solutions de Ex (a, σ) (unicité
faible). D’après le Théorème 3.13, on a Px = WFx−1 . L’assertion (2) dans le Théorème 3.13
montre que x 7→ Px est continue pour la topologie de la convergence étroite : soit xn → x,
pour f ∈ Cb C(R+ , Rd )
Z Z Z Z
Exn [f ] = f dPxn = f (Fxn (w)) dW(w) −→ f (Fx (w)) dW(w) = f dPx = Ex [f ]
(3.30)
où on utilise Fxn (w) → Fx (w), n
 → +∞ dû au 2) du Théorème 3.13 et la convergence domi-
d
née puisque f ∈ Cb C(R+ , R ) . Par un argument de classe monotone, on peut généraliser
cette propriété ci-dessus :

Proposition 3.16 Pour toute fonction Φ borélienne de C(R+ , Rd ) dans R, l’application


x 7→ Ex [Φ] est elle aussi mesurable.

Pour prouver la Proposition 3.16, on utilise les notions suivantes :

Définition 3.17 Soit Ω un ensemble.


1. Une collection H de fonctions à valeurs réelles sur Ω est appelée un espace vectoriel
monotone si
(a) H est un espace vectoriel ;
(b) toute f ∈ H est bornée ;
(c) les fonctions constantes sont dans H ;
(d) si (fn )n≥1 ⊂ H et fn ↑ f pour une fonction f bornée alors f ∈ H.
2. Une collection M de fonctions réelles sur Ω est une classe multiplicative si f, g ∈ M
implique f g ∈ M.

On a alors le résultat suivant :

Théorème 3.18 (Classes monotones version fonctionnelle) Soit Ω un ensemble. Si M est


une classe multiplicative telle que σ(M) = F alors tout espace vectoriel monotone conte-
nant M contient L∞ (F).

Démonstration : Voir [JCB-proba].


Démonstration :[Prop. 3.16] On applique le Théorème 3.18 avec

Ω = C(R+ , Rd ), F = B C(R+ , Rd ) .


On considère
A = {Φ bornée : x 7→ Ex [Φ] est mesurable}.
Comme A est clairement un espace vectoriel contenant les fonctions constantes, comme
Φ ∈ A est bornée (par définition) et comme lorsque Φn ∈ A ↑ Φ bornée alors (par conver-
gence monotone) Ex [Φ] = limn→+∞ Ex [Φn ] est mesurable en tant que limite de fonctions
66 Chapitre 3. ©JCB – M2 Math. – Université de Rennes 1

mesurables, alors A est espace vectoriel monotone. Puis M = Cb C(R+ , Rd ) est une classe
multiplicative puisque le produit de deux fonctions continues bornées le reste.
Comme par le Théorème 3.13, on a vu en (3.30) que M ⊂ A, et comme σ(M) = F, le
théorème de classes monotones version fonctionnelle (Théorème 3.18) assure alors que

L∞ B C(R+ , Rd ) ⊂ A,


c’est à dire Φ borélienne bornée est dans A.


Si Φ est borélienne positive non bornée, on a Φ = limn→+∞ Φn où Φn = Φ1{Φ≤n} ∈
A. Comme Ex [Φn ] est mesurable par le cas précédent, la limite obtenue par convergence
monotone Ex [Φ] = limn→+∞ Ex [Φn ] est encore mesurable et on a donc Φ ∈ A.
Si Φ est de signe quelconque, on écrit Φ = Φ+ −Φ− et on conclut de façon standard puisque
par le cas précédent Ex [Φ± ] est mesurable et donc E[Φ] − Ex [Φ+ ] − Ex [Φ− ] l’est aussi. 

Théorème 3.19 (Markov fort pour EDS homogène)  Soit X une solution de E(a, σ) sur
un espace de probabilité filtré Ω, F, (Ft )t≥0 , P . Soit aussi T un temps d’arrêt fini ps.
Alors pour Φ : C(R+ , Rd ) → R+ borélienne, on a
 
E Φ(XT +t : t ≥ 0)|FT = EXT [Φ]

c’est à dire pour toute variable aléatoire Z positive FT -mesurable


   
E ZΦ(XT +t : t ≥ 0) = E ZEXT [Φ]
 
ie. L (XT +t )t≥0 |FT = L (Xt )t≥0 |XT .

Remarque 3.20 Ce résultat signifie que la solution X de l’EDS vérifie la propriété de


Markov forte par rapport à la filtration (Ft )t≥0 : pour tout temps d’arrêt fini T , la loi
conditionnelle du « futur » (XT +t : t ≥ 0) connaissant le « passé » FT est la loi de X
partant de XT , qui ne dépend que du présent à l’instant T . Dans le cas particulier σ = Id
et a = 0, on retrouve la propriété de Markov forte pour le mouvement brownien. C’est du
reste sur celle-ci qu’on s’appuie pour la preuve.

Démonstration : Pour simplifier la présentation de la preuve, on suppose encore que m = 1,


(T )
d = 1. Notons Bt = BT +t − BT . Il s’agit d’un mouvement brownien indépendant de FT
(propriété de Markov forte pour le mouvement brownien B, cf. Théorème ??). On pose
aussi Xt0 = XT +t et on remarque que le processus X 0 est adapté par rapport à la filtration
(Ft0 )t≥0 donnée par Ft0 = FT +t et qu’elle satisfait les conditions habituelles. De plus, d’après
E(a, σ) satisfaite par X, on a
Z T +t Z T +t
Xt0 = XT +t = X0 + a(Xs ) ds + σ(Xs ) dBs
0 0
3.6. Markov fort pour EDS homogène 67
Z T Z T Z T +t Z T +t
= X0 + a(Xs ) ds + σ(Xs ) dBs + a(Xs ) ds + σ(Xs ) dBs
0 0 T T
Z T +t Z T +t
= XT + a(Xs ) ds + σ(Xs ) dBs . (3.31)
T T

Par le changement de variable x = T + u, on a de suite


Z T +t Z t
a(Xs ) ds = a(Xu0 ) du (3.32)
T 0

(comme il s’agit d’une intégrale de Riemann définie ω par ω, on peut faire le changement
de variable sans problème ω par ω, la valeur T = T (ω) étant alors figée).
On fait aussi un changement de variable dans l’intégrale stochastique à l’aide du lemme
suivant :
Lemme 3.21 Si h est un processus continu adapté, on a
Z T +t Z t
h(s, ω) dBs = h(T + u, ω) dBu(T ) .
T 0

On déduit alors du Lemme 3.21 que


Z T +t Z t Z t
σ(Xs ) dBs = (T )
σ(XT +u ) dBu = σ(Xu0 ) dBu(T ) . (3.33)
T 0 0

On a donc en injectant (3.32), (3.33) dans (3.31) :


Z t Z t
0 0
XT +t = XT + a(Xu ) du + σ(Xu0 ) dBu(T ) .
0 0

De plus, on remarque que X 0 est adapté par rapport à la filtration (Ft0 )t≥0 , que B (T ) est
un (Ft0 )-mouvement brownien et que XT est mesurable par rapport à F00 = FT . D’après
(3) dans le Théorème 3.13, on doit avoir ps X 0 = FXT B (T ) . Le résultat du théorème suit
alors facilement : comme XT est FT -mesurable et B (T ) est indépendant de FT , on a
E Φ(Xt0 : t ≥ 0)|FT = E Φ FXT (B (T ) ) |FT
    
Z
 
= Φ(FXT (w)) W(dw) = EXT Φ(Xt : t ≥ 0) ,
C(R+ ,R)

puisque Fx (w) est solution sur l’espace de Wiener de Ex (a, σ). 

Démonstration :[Lemme 3.21] En utilisant les arguments usuels d’approximation, il suffit


de faire la preuve pour h combinaison linéaire finie de processus de la forme h(s, ω) =
ϕ(ω)1]r,r0 ] (s) où ϕ est Fr -mesurable :
Z T +t Z T +t Z
h(s, ω) dBs = ϕ(ω)1]r,r0 ] (s) dBs = ϕ(ω) 1[T,T +t] (s)1]r,r0 ] (s) dBs
T T
68 Chapitre 3. ©JCB – M2 Math. – Université de Rennes 1
Z Z (r0 ∧(T +t))∨(r∨T )
= ϕ(ω) 1]r∨T,(r0 ∧(T +t))∨(r∨T )] (s) dBs = ϕ(ω) dBs
r∨T

car
[a, b]∩]c, d] =]a ∨ c, (b ∧ d) ∨ (a ∨ c)] (3.34)
(à noter qu’on prend comme borne supérieure (b ∧ d) ∨ (a ∨ c) pour avoir un intervalle vide
lorsque [a, b]∩]c, d] = ∅). On a donc
Z T +t
h(s, ω) dBs = ϕ(ω) B((r0 ∧ (T + t)) ∨ (r ∨ T )) − B(r ∨ T ) .

T

Puis comme T ≤ r ∨ T ≤ (r0 ∧ (T + t)) ∨ (r ∨ T ), on a

B((r0 ∧ T + t) ∨ (r ∨ T )) − B(r ∨ T )
= B((r0 ∧ (T + t)) ∨ (r ∨ T )) − BT − B(r ∨ T ) − BT
 

= B (T ) ((r0 − T ) ∧ t ∨ ((r − T ) ∨ 0)) − B (T ) ((r − T ) ∨ 0)

et
Z T +t
h(s, ω) dBs = ϕ(ω)B (T ) ((r0 − T ) ∧ t ∨ ((r − T ) ∨ 0)) − B (T ) ((r − T ) ∨ 0)

T
Z (r0 −T )∧t∨((r−T )∨0) Z (r0 −T )∧t∨((r−T )∨0)
(T )
= ϕ(ω) dBu = ϕ(ω) dBu(T )
(r−T )∨0 (r−T )∨0
Z
= ϕ(ω)1[0,t]∩]r−T,r0 −T ] (u) dBu(T ) ,

en utilisant (3.34), et donc


Z T +t Z t Z t
h(s, ω) dBs = ϕ(ω)1]r−T,r0 −T ] (u) dBu(T ) = ϕ(ω)1]r,r0 ] (T + u) dBu(T )
T
Z0 t 0

= h(T + u, ω) dBu(T ) .
0


Chapitre 4

Mouvement brownien et EDP

Des liens importants existent entre probabilités et équations aux dérivées partielles
(EDP) via les processus stochastiques. Ceux-ci sont souvent reliés à des opérateurs diffé-
rentiels linéaires, ce qui permet d’exprimer les solutions de certaines EDP en termes de
processus stochastiques. L’opérateur le plus simple est celui de Laplace ∆ et il est direc-
tement relié au mouvement brownien. On étudie dans ce chapitre les connexions entre
mouvement brownien et équations liées au laplacien : équation de Laplace, problème de
Dirichlet, équation de la chaleur, formule de Feynman-Kac.
Notations. Pour f : R+ × Rd → R suffisamment régulière, on note
∂f
∂t f (t, x) = (t, x),
∂t
∂f
∂xi f (t, x) = (t, x1 , . . . , xd ),
∂xi
∂ 2f
∂x2i ,xj f (t, x) = (t, x1 , . . . , xd ),
∂xi ∂xj
 
∇f (t, x) = ∂x1 f (t, x), . . . , ∂xd f (t, x) (le gradient de f )
d
X
∆f (t, x) = ∂x2i ,xi f (t, x) (le laplacien de f ).
i=1
On a facilement ∇ · ∇ = ∆. Si nécessaire, on précise la variable de dérivation en notant
∇x ou ∆x .

4.1 Fonctions harmoniques


On a vu au Chapitre 1 avec (1.9) que le laplacien est naturellement relié au mouvement
brownien standard B dans Rd . En effet, on rappelle que par la formule d’Itô on montre
que si Φ : Rd → R est C 2 alors
Z t
1 t
Z
Φ(Bt ) = Φ(B0 ) + ∇Φ(Bs ) · dBs + ∆Φ(Bs )ds, (4.1)
0 2 0

69
70 Chapitre 4. ©JCB – M2 Math. – Université de Rennes 1

où
d
X
∇Φ(Bs ) · dBs = ∂xi Φ(Bs )dBs(i) .
i=1
Ainsi, si ∆Φ = 0, alors Φ(B) est une martingale locale.
Définition 4.1 (Fonction harmonique) Soit D ⊂ Rd un domaine (ouvert, connexe). Une
fonction u : D → R est dite harmonique si u est de classe C 2 sur D et satisfait l’équation
de Laplace ∆u = 0 dans D.
Exemple 4.2 En dimension 2 : ln(x21 + x22 ) et ex1 sin x2 sont harmoniques sur R2 .
En effet, on a
2x1
∂x1 ln(x21 + x22 ) = 2

,
x1 + x2
2 4x2 2x2 − 2x21
∂x21 ,x1 ln(x21 + x22 ) = 2 − 2 1 2 = 22

,
x1 + x2 (x1 + x2 ) (x1 + x22 )2
et on a donc
∆ ln(x21 + x22 ) = ∂x21 ,x1 ln(x21 + x22 ) + ∂x22 ,x2 ln(x21 + x22 )
  

2x22 − 2x21 2x21 − 2x22


= + = 0.
(x21 + x22 )2 (x21 + x22 )2
Puis
∂x21 ,x1 ex1 sin x2 = ex1 sin x2 ∂x22 ,x2 ex1 sin x2 = −ex1 sin x2
 
et
donne
∆ ex1 sin x2 ) = ∂x21 ,x1 ex1 sin x2 + ∂x22 ,x2 ex1 sin x2
 

= ex1 sin x2 − ex1 sin x2 = 0.

En dimension d ≥ 3 : 1/kxkd−2 l’est sur D = Rd \ {0}.


En effet, on a
d
 X  d
X −d/2
2−d
(2−d)/2
x2i x2i

∂xi kxk = ∂xi = (2 − d)xi
i=1 i=1
d d
X −(d+2)/2
X −d/2
∂x2i ,xi 2−d
x2i d)x2i x2i

kxk = (2 − d) − d(2 −
i=1 i=1
−d 2 −(d+2)
= (2 − d)kxk − d(2 − d)xi kxk ,
et on a donc
d
X
2−d
∂x2i ,xi kxk2−d
 
∆ kxk =
i=1
d
X 
−d
= d(2 − d)kxk − d(2 − d) x2i kxk−(d+2) = 0.
i=1
4.1. Fonctions harmoniques 71

La propriété suivante joue un rôle essentiel pour relier les solutions d’EDP à des espérances
de processus arrêtés en des temps de sortie de domaine. Dans la suite, pour G ouvert, on
note pour B mouvement brownien :
τG = inf(t ≥ 0 : Bt ∈6 G) le temps d’entrée dans Gc ,
σG = inf(t > 0 : Bt 6∈ G) le temps de sortie de G.
On note que le temps de sortie de G est plus grand que le temps d’entrée dans Gc : σG ≥ τG .
Par exemple si G est ouvert et B part de ∂G, on a τG = 0 mais σG > 0 si B commence
par entrer dans G.
Proposition 4.3 Soit G un ouvert borné avec G ⊂ D et B un mouvement brownien issu
de a ∈ G. Si u : D → R est harmonique alors
Mt = u(Bt∧τG ) − u(a), t ≥ 0,
est une martingale centrée.
Démonstration : La fonction u n’est définie que sur D. Pour appliquer la formule d’Itô,
on commence par la prolonger sur Rd en Φ ∈ C 2 (Rd ) (qui coı̈ncide avec u sur G, mais pas
nécessairement sur D). Par exemple, on peut obtenir un tel prolongement par convolution
avec : 
(1G2δ ∗ ρ) × u dans D
Φ=
0 dans Dc
où G2δ est le (2δ)-voisinage de G avec 4δ = dist(G, Dc ) > 0 et où ρ est une fonction
d’intégrale 1, C ∞ et à support dans B(0, δ). La formule d’Itô (4.1) s’écrit
Z t∧τG
1 t∧τG
Z
Φ(Bt∧τG ) = Φ(a) + ∇Φ(Bs ) · dBs + ∆Φ(Bs )ds
0 2 0
Z t∧τG
u(Bt∧τG ) = u(a) + ∇Φ(Bs ) · dBs
0

 R sur G, on a ∆Φ(Bs ) = 0 pour s ∈ [0, t ∧ τG ].


car Φ|G = u|G et comme u est harmonique
t
Puis, comme ∇Φ est borné sur G, on a 1
0 [0,τG ]
(s)∇Φ(Bs ) · dBs est une martingale
t≥0
L2 . Finalement,
Z t
Mt = u(Bt∧τG ) − u(a) = 1[0,τG ] (s)∇Φ(Bs ) · dBs
0

est une martingale L2 et centrée car nulle en t = 0. 

Définition 4.4 (Formule de la moyenne) Une fonction réelle u est dite satisfaire la for-
mule de la moyenne sur D si pour toute boule ouverte B(a, r) telle que B(a, r) ⊂ D,
on a Z
u(a) = u(x) λa,r (dx) (4.2)
∂B(a,r)

où λa,r est la probabilité uniforme sur la sphère ∂B(a, r).


72 Chapitre 4. ©JCB – M2 Math. – Université de Rennes 1

Cette propriété signifie que la valeur de u en tout point a s’obtient comme moyenne de u
sur n’importe quelle sphère centrée en a, d’adhérence dans D.
Notons que le volume de la boule B(a, r) est
 2rd π d/2
Vol B(a, r) = := Vr ,
dΓ( d2 )
et son aire de surface est
 2rd−1 π d/2 d
Sr = ∂r Vol B(a, r) = d
= Vr .
Γ( 2 ) r

Ainsi, on déduit l’expression suivante pour les intégrales sur les boules :
Z Z r Z
f (x) dx = Sρ f (x) λa,ρ (dx)dρ. (4.3)
B(a,r) 0 ∂B(a,ρ)

Proposition 4.5 Soit u : D → R. Alors u est harmonique sur D si et seulement si u vérifie


la formule de la moyenne (4.2).

Démonstration : ⇒ On applique la Proposition 4.3 avec G = B(a, r) :

Ea [u(Bt∧τG )] − u(a) = Ea [Mt ] = 0.

Comme G est borné, τG < +∞ ps, et en faisant t → +∞, on déduit par convergence
dominée (puisque u est bornée sur B(a, r)) :

u(a) = Ea [u(BτG )]. (4.4)

On observe que le mouvement brownien standard issu de a est isotrope : aucune direction
n’est privilégiée par le processus, ie. la loi de B est invariante par les rotations de centre
a. En effet si Ra est une rotation centée en a alors Ra (B) ∼ B. Par conséquent, la loi du
point de sortie Bτ∂B(a,r) de B de la boule B(a, r) est invariante aussi par les rotations de
centre a : Ra (Bτ∂B(a,r) ) ∼ Bτ∂B(a,r) . Comme la probabilité uniforme λa,r est la seule loi sur
la sphère ∂B(a, r) invariante par rotation (de centre a), il s’agit nécessairement de la loi
de BτG : Pa (Bτ∂B(a,r) ∈ ·) = λa,r . On réécrit alors (4.4) comme suit
Z
u(a) = Ea [u(BτG )] = u(x) λa,r (dx). (4.5)
∂B(a,r)

⇐ On suppose maintenant que u vérifie la formule de la moyenne (4.2). On commence


par montrer que u est de classe C ∞ . Pour ε > 0, soit gε : Rd → R+ la fonction C ∞ donnée
par (  
cε exp kxk21−ε2 si kxk < ε
gε (x) =
0 si kxk ≥ ε
4.1. Fonctions harmoniques 73

où la constante cε est choisie de façon que


Z Z ε  
1
gε (x) dx = cε Sρ exp dρ = 1. (4.6)
B(0,ε) 0 ρ − ε2
2

Soit ε > 0 et a ∈ D tels que B(a, ε) ⊂ D, on pose


Z Z
uε (a) = u(a + x)gε (x) dx = u(y)gε (y − a) dy.
B(0,ε) Rd

Il est clair que uε est C ∞ sur le domaine D où elle est définie. De plus pour tout a ∈ D,
il existe ε > 0 tel que B(a, ε) ⊂ D, on déduit alors, à l’aide du théorème de Fubini, de la
formule de la moyenne et de la normalisation (4.6) :
Z
uε (a) = u(a + x)gε (x) dx
B(0,ε)
Z ε Z  
1
= cε Sρ u(a + x) exp λ0,ρ (dx)dρ
0 ∂Bρ ρ 2 − ε2
Z ε Z  
 1
= cε Sρ u(x) λa,ρ (dx) exp dρ
0 ∂B(a,ρ) ρ2 − ε2
Z ε  
1
= cε Sρ u(a) exp dρ
0 ρ 2 − ε2
= u(a)

en utilisant l’écriture (4.3) des intégrales. Comme u = uε sur D avec uε = u ∗ gε ∈ C ∞ , on


a aussi u de classe C ∞ sur D.
Pour voir que ∆u = 0 sur D, on choisit a ∈ D et on écrit la formule de Taylor en a :
d d
X 1X
u(a + y) = u(a) + yi ∂xi u(a) + yi yj ∂x2i ,xj u(a) + o(kyk2 ), y ∈ B(0, ε), (4.7)
i=1
2 i,j=1

où ε > 0 est assez petit pour que B(a, ε) ⊂ D où u est C ∞ . Comme par (im)parité, on a
Z Z
yi λ0,ε (dy) = 0, yi yj λ0,ε (dy) = 0, i 6= j,
∂B(0,ε) ∂B(0,ε)

en intégrant la formule de Taylor (4.7) sur ∂B(0, ε), et en utilisant la formule de la moyenne,
on obtient
Z d Z
1X 2
u(a) = u(a + y) λ0,ε (dy) = u(a) + ∂ u(a) yi2 λ0,ε (dy) + o(ε2 ).
∂B(0,ε) 2 i=1 xi ,xi ∂B(0,ε)
74 Chapitre 4. ©JCB – M2 Math. – Université de Rennes 1

Mais comme
Z d Z
1X
yi2 λ0,ε (dy) = y 2 λ0,ε (dy)
∂B(0,ε) d i=1 ∂B(0,ε) i
ε2
Z
1
= kyk2 λ0,ε (dy) = ,
d ∂B(0,ε) d
on a
ε2
∆u(a) + o(ε2 ) = 0.
2
D’où il vient ∆u(a) = 0 pour a ∈ D en faisant ε → 0. 

Proposition 4.6 (Principe du maximum) Soit u une fonction harmonique sur D. Alors
(1) Si u atteint son maximum en un point intérieur à D et si l’ouvert D est connexe alors
u est constante sur D.
(2) Sur tout compact F ⊂ D, u atteint son maximum sur le bord ∂F de F .

Démonstration : Pour 1), on pose M = sup(u(x) : x ∈ D). Si a ∈ D, d’après la formule de la


moyenne (satisfaite par u harmonique), u(a) est moyenne des valeurs {u(x) : x ∈ ∂B(a, r)}
pour tout r assez petit. Ainsi si u(a) = M , nécessairement u est constante égale à M sur
toute sphère ∂B(a, r). Comme ceci est valable pour tout r assez petit, cela exige que u soit
constante sur un voisinage de a.
L’ensemble A = {x ∈ D : u(x) = M } est donc ouvert mais il est aussi fermé par continuité
de u. De plus, comme par hypothèse A 6= ∅ et D est connexe, on a A = D.
Pour montrer 2), on considère a ∈ F ◦ , intérieur de F compact, et on note G la composante
connexe de F ◦ qui contient a. D’après la formule de la moyenne, on a u(a) ≤ max(u(x) :
x ∈ ∂G). Comme ∂G ⊂ ∂F ◦ ⊂ ∂F , on a donc aussi que u(a) ≤ max(u(x) : x ∈ ∂F ). 

4.2 Problème de Dirichlet


Le problème de Dirichlet consiste à résoudre l’équation de Laplace sur un ouvert D
avec des conditions aux bords imposées (sur ∂D). Étant donné un ouvert D ⊂ Rd et
f : ∂D → R une fonction continue, le problème de Dirichlet (D, f ) consiste à trouver une
fonction u : D → R continue sur D et C 2 sur D telle que

∆u = 0 sur D
(4.8)
u|∂D = f.

Il s’agit d’un problème bien connu qu’on peut résoudre explicitement de façon analytique en
utilisant la transformation de Fourier sur des domaines pertinents. L’approche probabiliste
4.2. Problème de Dirichlet 75

permet d’avoir accès rapidement à une expression de la solution pour des domaines D
de géométrie (relativement) arbitraire. De plus, elle ouvre la porte à des techniques de
simulations de ces solutions d’EDP (méthode de Monte-Carlo). Cependant pour simplifier,
nous supposons que D est borné.

Théorème 4.7 (Dirichlet 1) On considère le problème de Dirichlet (4.8). Soit

u(x) = Ex [f (BτD )], x ∈ D. (4.9)

(1) Si Ex [|f (BτD )|] < +∞, ∀x ∈ D, alors u donnée par (4.9) vérifie (4.8).
(2) Si f est bornée et
Pa (τD < +∞) = 1, ∀a ∈ D,
alors toute solution bornée du problème de Dirichlet (D, f ) s’écrit (4.9).

Si D est borné alors la condition dans 1) au dessus est satisfaite car BτD reste dans D et
f est finie sur un domaine borné.
D’après le Théorème 4.7, pour résoudre le problème de Dirichlet (4.8), il reste seulement à
voir la continuité sur ∂D de u donnée par (4.9), c’est à dire

lim Ex [f (BτD )] = f (a), a ∈ ∂D. (4.10)


x∈D
x→a

Ceci est lié à la notion de régularité du bord, cf. ci-dessous.


Démonstration : On montre d’abord 2) puis 1).
2) On suppose d’abord qu’il existe u vérifiant le problème de Dirichlet (4.8). Soit x ∈ D
ε
et D− = {y ∈ D : dist(y, Dc ) > ε} le ε-intérieur de D. Pour ε assez petit, x ∈ D− ε
. On
applique alors la Proposition 4.3 et en prenant l’espérance de la martingale obtenue, on a
 
u(x) = Ex u(Bt∧τDε ) .

ε
Par hypothèse, on a τD−ε < +∞ Px -ps (D− ⊂ D) : on se ramène facilement au cas où D est
un rectangle et on utilise les temps de sortie des marginales de B qui sont des mouvements
browniens unidimensionnels dont les temps de sorties d’intervalles sont bien connus. On
utilise le théorème de convergence dominée (u bornée sur D puisque D est borné) pour
faire successivement t → +∞ et ε → 0 par continuité de B et de u : d’abord comme
τD−ε < +∞ ps
   
u(x) = lim Ex u(Bt∧τDε ) = Ex u(BτDε ) .
t→+∞ − −

ε
S
Puis comme D = ε>0 D− , on a τD−ε % τD lorsque ε → 0 donc à nouveau par convergence
dominée :  
u(x) = lim Ex u(BτDε ) = Ex [u(BτD )] = Ex [f (BτD )]
ε→0 −
76 Chapitre 4. ©JCB – M2 Math. – Université de Rennes 1

où la dernière égalité vient de la condition au bord du problème de Dirichlet (4.8) avec
BτD ∈ ∂D. Finalement, si x ∈ ∂D alors τD = 0 et on a u(x) = f (x). Si elle existe, la
solution de (4.8) est donc unique et nécessairement donnée par (4.9).
1) On considère maintenant u donnée par (4.9). Comme pour 2), il est immédiat que
u(x) = f (x) si x ∈ ∂D. Pour montrer que u est harmonique dans D, on montre que u
vérifie la formule de la moyenne, ce qui est équivalent par la Proposition 4.5.
Soit B(a, r) ⊂ D. Quand B part de a ∈ B(a, r) ⊂ D, comme τB(a,r) ≤ τD , on a FτB(a,r) ⊂
FτD et par conditionnement on a
 
u(a) = Ea [f (BτD )] = Ea Ea [f (BτD )|FτB(a,r) ] .

Mais

Ea [f (BτD )|FτB(a,r) ] = Ea [f (BτD − BτB(a,r) + BτB(a,r) )|FτB(a,r) ]


(τ )
= Ea [f (BτDB(a,r)
−τB(a,r) + BτB(a,r) )|FτB(a,r) ]
(τ )
= Ea [f (Bτ 0 B(a,r) + BτB(a,r) )|FτB(a,r) ]
D

= u(BτB(a,r) )

(τB(a,r) )
car par la propriété de Markov forte, Bt := Bt+τB(a,r) − BτB(a,r) , t ≥ 0, est un mouve-
(τ )
ment brownien issu de 0, indépendant de FτB(a,r) et donc sachant FτB(a,r) , Bt+τB(a,r)
B(a,r)
+BτB(a,r)
0
est un mouvement brownien partant de BτB(a,r) ∈ ∂B(a, r) pour lequel τD := τD − τB(a,r)
reste le temps de sortie de D (il s’agit de τD , reinitialisé à la date τB(a,r) ).
Finalement avec (4.5) qui utilise la loi de la sortie brownienne BτB(a,r) de la sphère, on a
Z
u(a) = Ea [u(BτB(a,r) )] = u(y) λa,r (dy)
∂B(a,r)

ce qui établit la formule de la moyenne donc l’harmonicité par la Proposition 4.5, c’est à
dire l’équation de Laplace sur D. 

Régularité du bord
Pour avoir une solution au problème de Dirichlet (4.8) à partir de (4.9), il reste à voir
la continuité (4.10) sur ∂D. Pour cela, on utilise la notion de régularité du bord telle que
décrite dans [KS, p. 245].

Définition 4.8 (Régularité) On rappelle que σD = inf(t > 0 : Bt 6∈ D) est le temps de


sortie de D d’un mouvement brownien B.
(1) Un point x ∈ ∂D est régulier pour D si Px (σD = 0) = 1.
4.2. Problème de Dirichlet 77

(2) Le domaine D est régulier si tous ses points frontières le sont :


Px (σD = 0) = 1 ∀x ∈ ∂D. (4.11)

En d’autres termes, la régularité demande que le mouvement brownien partant de ∂D sorte


immédiatement de D.
Remarque 4.9 — Un point x est dit irrégulier si Px (σD = 0) < 1. Comme {σD = 0} ∈
B
F0+ , la loi du zéro/un de Blumenthal assure que, pour ces points, Px (σD = 0) = 0.
— La condition de régularité est locale : x ∈ ∂D est régulier pour D si et seulement si
x l’est pour B(x, r) ∩ D pour r > 0.
Exemple 4.10 (Régularité) — Un domaine D ⊂ R2 de bord une courbe simple C 1 est
régulier. De même , un domaine D ⊂ Rd de bord une variété différentiable de classe
C 1 est régulier.
— En dimension 1, tout point de ∂D est régulier. En effet, par exemple pour 0, le
mouvement brownien réel issu de 0 visite R∗+ et R∗− en des temps arbitrairement
proches de 0, ce qui garantit σD = 0. Ainsi, on verra avec le Théorème 4.12 que
le problème de Dirichlet en dimension 1 est résoluble avec une solution linéaire par
morceaux donnée par (4.9).
— En dimension d ≥ 2, un ouvert privé d’un point intérieur (par exemple Rd \ {0})
n’est pas régulier.
— Pour d ≥ 2, D = {x ∈ Rd : 0 < kxk < 1}. Pour x ∈ D, le mouvement brownien
partant de x quitte D par S1 = {x ∈ Rd : kxk = 1}, pas par l’origine. Ainsi u donnée
par (4.9) est déterminée seulement par les valeurs de f sur la frontière extérieure S1
et va coı̈ncider (à part à l’origine) avec la fonction harmonique
u
e(x) = Ex [f (BτB(0,1) )] = Ex [f (BσD )], x ∈ B(0, 1).
En posant u(0) = f (0), u est continue en 0 si et seulement si f (0) = u
e(0).
— Quand d ≥ 3, il est possible d’avoir ∂D connecté et avec des points irréguliers.
Proposition 4.11 (Régularité du bord) Soit d ≥ 2 et a ∈ ∂D. Les assertions suivantes
sont équivalentes.
(1) La condition (4.10) est remplie pour toute fonction mesurable bornée f : ∂D → R,
continue en a.
(2) Le point a est régulier pour D.
(3) Pour tout ε > 0, on a
lim Px (τD > ε) = 0.
x∈D
x→a

Des Théorème 4.7 et Proposition 4.11, on déduit d’abord immédiatement :


Théorème 4.12 (Dirichlet 2) Si le domaine D est régulier, alors la fonction u donnée par
(4.9) est l’unique solution du problème de Dirichlet, ie. u est C 2 sur D et continue sur D
et (4.8) est satisfait.
78 Chapitre 4. ©JCB – M2 Math. – Université de Rennes 1

Conséquences sur le mouvement brownien


On considère l’anneau D de centre 0 et de rayons intérieur r et extérieur R, 0 < r <
R < +∞, ie.
n Xd o
d 2 2
D = x ∈ R : r < kxk = x2i < R2
i=1

et f la fonction donnée sur ∂D par



1 si kxk = r,
f (x) =
0 si kxk = R.

Comme le domaine D est régulier (bord lisse, de classe C 1 ), le Théorème 4.12 assure que
la solution du problème de Dirichlet (D, f ) est donnée par (4.9), soit
 
u(x) = Ex 1{kBτD k=r}

= Px B sort de D par le cercle intérieur , x ∈ D. (4.12)

Lorsque d = 2, on sait par l’Exemple 4.2 que

ln R − ln kxk
x ∈ D 7→ ,
ln R − ln r
est harmonique et comme cette fonction satisfait les conditions aux bords, elle vérifie le
problème de Dirichlet (4.8). Par unicité, elle coı̈ncide avec u en (4.12), ce qui établit en
dimension d = 2 :
 ln R − ln kxk
Px B sort de D par le cercle intérieur = , x ∈ D. (4.13)
ln R − ln r
Lorsque d ≥ 3, on sait par l’Exemple 4.2 que

kxk−d+2 − R−d+2
x ∈ D 7→
r−d+2 − R−d+2
est harmonique et comme cette fonction satisfait les conditions aux bords, elle vérifie l’EDP
de Dirichlet (4.8). Par unicité, elle coı̈ncide avec u en (4.12), ce qui établit en dimension
d≥3:
 kxk−d+2 − R−d+2
Px B sort de D par le cercle intérieur = −d+2 , x ∈ D. (4.14)
r − R−d+2

Quand R → +∞, comme le temps d’atteinte de la sphère extérieure S(0, R) = ∂B(0, R)


tend presque sûrement vers +∞ avec R, on a par convergence monotone :

lim Px B sort de D par le cercle intérieur
R→+∞
4.3. Équation de la chaleur 79

= Px B atteint la boule B(0, r) en temps fini .

Dans (4.13), on constate que

ln R − ln kxk
lim = 1,
R→+∞ ln R − ln r

alors que dans (4.14), on constate que

kxk−d+2 − R−d+2
lim = (r/kxk)d−2 .
R→+∞ r −d+2 − R−d+2

Cela met en évidence deux types de comportements différents du mouvement brownien


(standard) en dimension d selon que d = 2 ou d ≥ 3.
En fait, en tant que processus de Markov, en dimension d = 2, le mouvement brownien est
récurrent : avec probabilité 1, il finit par atteindre la boule B(0, r) pour tout rayon r > 0 et
pour tout point de départ (par invariance par translation) et aussi pour tout rayon positif
(par scaling brownien). Au contraire en dimension d ≥ 3, le mouvement brownien a une
probabilité strictement positive de ne jamais atteindre la boule B(0, r) : il est transitoire.
Il y a en quelque sorte trop de place en dimension d ≥ 3 pour que la « marche au hasard
brownienne » soit sûre de repasser près de l’origine.

4.3 Équation de la chaleur


Les lois de la thermodynamique expliquent que la solution u du problème de Dirichlet
(D, f ) en (4.8) est le champ de température à l’équilibre à l’intérieur D d’un récipient dont
les parois ∂D sont maintenues à température f (cette interprétation suppose que f ≥ 0) .
On s’intéresse maintenant aux équations de Laplace avec évolution dans le temps : par
exemple, pour poursuivre la même interprétation thermodynamique, on considère une
plaque infiniment mince isolée homogène et infinie. La température u(t; y, z) au point (y, z)
à l’instant t se détermine en fonction de la température initiale f comme la solution de
l’EDP
σ2 2 2

∂t u = ∂y,y u + ∂z,z u
2
partant de u(0, ·) = f (·). Le coefficient σ > 0 ne dépend pas de (y, z) et caractérise la
conductance thermique de la plaque.
En dimension d quelconque, on appelle équation de la chaleur, le problème de Cauchy :
u : R+ × Rd 7→ u(t, x) ∈ R
∂t u = 12 ∆u

(4.15)
u(0, ·) = f.
Nous allons relier cette EDP à des objets probabilistes. On considère d’abord la loi de Bt
sachant Fs pour t ≥ s : par indépendance et stationnarité des accroissements brownien, en
80 Chapitre 4. ©JCB – M2 Math. – Université de Rennes 1

écrivant Bt = Bt − Bs + Bs , on constate qu’il s’agit de la loi gaussienne (conditionnelle)


Nd (Bs , (t − s)Id ) de densité au point y, en notant Bs = x, donnée par

p(t − s; x, y) = gt−s (y − x).

où on note
1  kxk2 
gt (x) = √ d exp − densité de N (0, t).
2πt 2t
Ainsi, p(t; x, ·) est la densité de N (x, t). On voit sans difficulté que p = p(t; x, y) vérifie

d ky − xk2
p−1 ∂t p = − + (4.16)
2t 2t2
et que
1 (yi − xi )2
p−1 ∂x2i ,xi p =− +
t t2
pour 1 ≤ i ≤ d, soit en sommant
d d 
−1
X X 1 (yi − xi )2 
p ∆x p = p−1 ∂x2i ,xi p = − +
i=1 i=1
t t2
d ky − xk2
= − + . (4.17)
t t2
En comparant (4.16) et (4.17), on montre que la fonction p est solution de l’équation
progressive (dite forward) (ie. en la variable y de la position future)

1
∂t p = ∆y p, lim p dy = δx (4.18)
2 t&0

où δx est la mesure de Dirac en 0 et aussi par symétrie solution de l’équation rétrograde
(dite backward) (ie. en la variable x de la position passée)

1
∂t p = ∆x p, lim p dx = δy . (4.19)
2 t&0

Ces relations justifient que p est la solution fondamentale de l’équation de la chaleur. (De
ce fait, on appelle p le noyau de la chaleur.)
2
|f (x)|e−c|x| dx < +∞
R
Proposition 4.13 On suppose que la condition initiale f vérifie Rd
pour une constante c > 0. Alors la fonction

u(t, x) = Ex [f (Bt )]

est solution de l’équation de la chaleur (4.15) sur [0, 1/(2c)[×Rd .


4.4. Formule de Feynman-Kac 81
R
Démonstration : Par définition, on a u(t, x) = Rd f (y)p(t; x, y) dy. La propriété d’intégra-
bilité de f permet de dériver sous le signe intégrale pour t ∈ [0, 1/(2c)[ et d’avoir
Z Z Z
2 2
∂t u = f (y)∂t p(t; x, y) dy, ∂xi ,xi u = f (y)∂xi ,xi p(t; x, y) dy, ∆u = f (y)∆x p(t; x, y) dy,

En utilisant (4.19), on a donc :


Z Z
1 1
∂t u = f (y)∂t p(t; x, y) dy = f (y) ∆x p(t; x, y) dy = ∆u,
2 2
c’est à dire : u est solution de (4.15) sur cet intervalle de temps avec la bonne condition
initiale. 

4.4 Formule de Feynman-Kac


On considère l’EDP parabolique linéaire
∂t u = 12 ∆u − ku, (t, x) ∈ R∗+ × Rd ,

(4.20)
u(0, ·) = f.
Le terme supplémentaire k(x) réprésente le taux de dissipation de la chaleur en x dans le
cas où k ≥ 0. Dans le cas où k n’est pas positive, on interprétera plutôt cette équation
(avec f ≥ 0) comme décrivant la densité u(t, x) au temps t et au point x de particules
diffusant dans l’espace qui se multiplient dans les sites tels que k(x) ≤ 0 (à un taux −k)
et qui sont tuées dans les sites tels que k(x) ≥ 0 (à un taux k). Puisque cette équation se
réduit si k = 0 à l’équation de la chaleur, le résultat suivant n’est pas surprenant compte
tenu de la Proposition 4.13 :
Théorème 4.14 (Feynman-Kac) On suppose que f : Rd → R et k : Rd → R sont bo-
réliennes avec f à croissance sous-exponentielle et k bornée. Alors toute solution u(t, x)
de l’EDP parabolique linéaire (4.20) de classe C 1,2 dont le gradient est à croissance sous-
exponentielle (uniformément en temps), est donnée par la formule
  Z t 
u(t, x) = Ex f (Bt ) exp − k(Bs )ds . (4.21)
0

En particulier, une telle solution est unique.


On interprètera mieux cette formule au Chapitre 5 avec la notion de générateur associé à
la diffusion B.
Démonstration : On fixe t ≥ 0 etRon applique R s s ∈]0,t[ à la
 la formule d’Itô au temps
s
fonction s 7→ u(t − s, Bs ) exp − 0 k(Br )dr . Comme s 7→ exp − 0 k(Br )dr est à
variation finie, le terme de crochet est nul et il vient
  Z s 
d u(t − s, Bs ) exp − k(Br )dr
0
82 Chapitre 4. ©JCB – M2 Math. – Université de Rennes 1

  Z s    Z s 
= d u(t − s, Bs ) exp − k(Br )dr + u(t − s, Bs )d exp − k(Br )dr + 0.
0 0

Puis de nouveau avec la formule d’Itô par rapport à la variable s :


 1
d u(t − s, Bs ) = −∂t u(t − s, Bs )ds + ∇u(t − s, Bs )dBs + ∆u(t − s, Bs )ds
2
et pour l’exponentielle
  Z s   Z s 
d exp − k(Br )dr = −k(Bs ) exp − k(Br )dr .
0 0

On a donc
  Z s 
d u(t − s, Bs ) exp − k(Br )dr
0
h 1 i
= − k(Bs )u(t − s, Bs )ds − ∂t u(t − s, Bs )ds + ∇u(t − s, Bs )dBs + ∆u(t − s, Bs )ds
2
 Z s 
× exp − k(Br )dr
0
 Z s 
= ∇u(t − s, Bs ) dBs exp − k(Br )dr
0

en utilisant l’EDP (4.20) satisfaite par u. En intégrant entre s = 0 et s = t, il vient :


 Z t   Z t 
exp − k(Br )dr u(0, Bt ) − u(t, B0 ) = exp − k(Br )dr f (Bt ) − u(t, B0 )
0 0
Z t  Z s 
= exp − k(Br )dr ∇u(t − s, Bs )dBs .
0 0

On passe à l’espérance sous Px , en notant que l’intégrale stochastique est une martingale
L2 d’après les hypothèses de croissance sous-exponentielle de u et de la bornitude pour k ;
elle est donc d’espérance nulle. On obtient alors
  Z t  
Ex exp − k(Br )dr f (Bt ) − u(t, B0 ) = 0
0

soit, puisque B0 = x sous Px ,


  Z t  
u(t, x) = Ex exp − k(Br )dr f (Bt )
0

ce qui établit la formule de Feynman-Kac (4.21). 


4.4. Formule de Feynman-Kac 83

Cas de l’EDP (4.20) sur un domaine


Soit D un domaine borné régulier de Rd , k mesurable bornée sur D. On considère
maintenant l’EDP
∂t u = 21 ∆u − ku, (t, x) ∈ R∗+ × D


u(0, ·) = f sur D
u(·, x) = 0 pour x ∈ ∂D.

Soit u une solution de l’EDP continue sur R+ × D, de classe C 1,2 bornée et à dérivées
bornées. On peut vérifier qu’alors
  Z t 
u(t, x) = Ex f (Bt )1{t<τD } exp − k(Bs )ds
0

où τD est le temps de sortie de D. Pour cela, comme précédemment, on applique la formule
d’Itô à la fonction Z s

s 7→ u(t − s, Bs∧τD ) exp − k(Br∧τD )dr .
0

Noter que pour x ∈ ∂D, τD = 0 sous Px et on récupère la condition au bord u(·, x) = 0


pour x ∈ ∂D.
84 Chapitre 4. ©JCB – M2 Math. – Université de Rennes 1
Chapitre 5

Diffusions

Dans ce chapitre, on introduit en Section 5.1 les solutions d’EDS appelées diffusions.
On introduit les principaux outils pour les étudier, générateur, semi-groupe, en Section 5.2.
En Section 5.3, on relie l’étude des diffusions à des EDP via le générateur de la diffusion.
Dans ce chapitre, le mouvement brownien est un exemple fil rouge et simple de diffusion, et
on généralise aux diffusions les résultats vus pour le mouvement brownien au Chapitre 4.

5.1 Générateur d’une diffusion


Définition 5.1 (Processus de diffusion) On appelle processus de diffusion un processus vé-
rifiant la propriété de Markov forte et à trajectoires continues du type considéré dans le
Théorème 3.19.

En général, les diffusions qu’on considèrera seront des solutions d’EDS homogènes. Étant
donné un mouvement brownien standard B en dimension m et a : Rd → Rd et σ : Rd → Rm
des fonctions lipschitziennes. On considère l’EDS homogène

dXt = a(Xt ) dt + σ(Xt ) dBt (E0 (a, σ))

D’après le Théorème 3.8, il y a existence et unicité forte pour toute condition initiale
X0 = x. Il y aussi unicité faible par le Théorème 3.13 et d’après le Théorème 3.19, cette
solution vérifie la propriété de Markov. Les solutions d’EDS homogène du type (E0 (a, σ))
sont donc des diffusions comme en Déf. 5.1.

Exemple 5.2 (Diffusion) Les exemples suivants sont des cas particulier d’EDS homogène
(E0 (a, σ)) avec des coefficients lipschitziens. Il s’agit donc de diffusion :
— Le mouvement brownien est solution de (E0 (a, σ)) avec a = 0, σ = Id.
— Le mouvement brownien géométrique est solution de dXt = Xt dBt donc de type
(E0 (a, σ)) en dimension 1 avec a = 0 et σ(x) = x.
— Dans le modèle de Black et Scholes, l’EDS considérée est dXt = rXt dt + Xt dBt ,
donc du type (E0 (a, σ)) avec a(x) = rx et σ(x) = x.

85
86 Chapitre 5. ©JCB – M2 Math. – Université de Rennes 1

— Le processus d’Ornstein-Ulhenbeck est solution de l’équation de Langevin

dXt = −aXt dt + σ dBt

du type (E0 (a, σ)) avec a(x) = −ax et σ(x) = σ.

Pour étudier les diffusion, on introduit son générateur (infinitésimal) :


Définition 5.3 (Générateur infinitésimal) Soit X diffusion solution forte de l’EDS E0 (a, σ).
On appelle générateur (infinitésimal) de X, l’opérateur elliptique du deuxième ordre qui as-
socie à f , fonction de classe C 2 sur Rd ,
d d d
X 1 XX
Lf (x) = ai (x)∂xi f (x) + (σσ ∗ )i,j (x)∂x2i ,xj f (x). (5.1)
i=1
2 i=1 j=1

où σ ∗ désigne la matrice transposée de σ.


Par exemple, pour X = B mouvement brownien, on prend a = 0 et σ = Id, le générateur
est alors L = 21 ∂x,x
2
en dimension 1 ou L = 12 ∆ en dimension d.

Remarque 5.4 Avec des notations symboliques, on a


1
L = a · ∇x + kσ ∗ ∇x k2 .
2
Pd
D’abord on note que kσ ∗ ∇x k2 = (σ ∗ ∇x ) · (σ ∗ ∇x ) = ∇∗x σσ ∗ ∇x et (σ ∗ ∇x )k = i=1

σk,i ∂ xi =
Pd
i=1 σi,k ∂xi . Ainsi,

d
X d X
X d 2 d X
X d
∗ 2 ∗
kσ ∇x k = (σ ∇x )2k = σi,k ∂xi = σi,k ∂xi σj,k ∂xj
k=1 k=1 i=1 k=1 i,j=1
d
X d
X  d
X
= σi,k σj,k ∂xi ∂xj = (σσ ∗ )i,j ∂x2i ,xj .
i,j=1 k=1 i,j=1

Étant donnée l’EDS E0 (a, σ), on peut lui associer le générateur L donné par (5.1). Réci-
proquement si on dispose d’un opérateur L de la forme
d d d
X 1 XX
Lf (x) = ai (x)∂xi f (x) + ci,j (x)∂x2i ,xj f (x)
i=1
2 i=1 j=1

avec c = (ci,j (x))1≤i,j≤d une matrice symétrique, on commence par trouver une matrice
(racine carrée) σ ∈ Md,m (R) telle que c = σσ ∗ et L prend alors la forme (5.1). On peut alors
considérer l’EDS associée E0 (a, σ) et il existera une diffusion associée à L si on peut prouver
l’existence de solution faible pour E0 (a, σ), satisfaisant la propriété de Markov. Pour cela,
5.1. Générateur d’une diffusion 87

on peut utiliser les résultats généraux du Chapitre 3 sous les hypothèses lipschitziennes pour
a et σ (Théorème 3.8, Théorème 3.19). Plus généralement pour la recherche de solution
faible, on dispose aussi de la formule d’Itô, du théorème de Girsanov (Proposition 3.10) ou
de la formulation de problème de martingale (cf. Chapitre 6).
Une fois une solution faible obtenue pour E0 (a, σ), cette solution admet nécessairement L
pour générateur par la Définition 5.3.
En général, la donnée du générateur X en (5.1) est donc équivalente à l’EDS E0 (a, σ).
Il est important de pouvoir associer aux processus de diffusion des martingales (locales)
continues. C’est l’objet du théorème suivant à l’aide du générateur L de X.
Théorème 5.5 Soit X une solution forte de E0 (a, σ) de générateur L et f dans le domaine
de l’opérateur L. Alors Z t
f (Xt ) − Lf (Xs ) ds, t ≥ 0, (5.2)
0
est une martingale locale.

Démonstration : On commence par noter que comme dhB (k) , B (l) it = δk,l dt, on a :
m
X
(i) (j)
dhX , X it = σi,k (Xt )σj,l (Xt )dhB (k) , B (l) it
k,l=1
Xm
= σi,k (Xt )σj,k (Xt ) dt
k=1
= (σσ ∗ )i,j (Xt ) dt.

On applique la formule d’Itô à f (Xt ) :


d Z t Z t
X 1 X
f (Xt ) = f (X0 ) + ∂xi f (Xs )dXs(i) + ∂ 2 f (Xs )dhX (i) , X (j) is
i=1 0 2 1≤i,j≤d 0 xi ,xj
d Z d Z m
!
X t X t X
= f (X0 ) + ai (Xs )∂xi f (Xs ) ds + ∂xi f (Xs ) σi,k (Xs ) dBs(k)
i=1 0 i=1 0 k=1
Z t
1 X
+ (σσ ∗ )i,j (Xs )∂x2i ,xj f (Xs ) ds
2 1≤i,j≤d 0
Z t X m Z
d X t
= f (X0 ) + Lf (Xs ) ds + σi,k (Xs )∂xi f (Xs ) dBs(k) .
0 i=1 k=1 0

Finalement,
Z t d X
X m Z t
f (Xt ) − Lf (Xs )ds = f (X0 ) + σi,k (Xs )∂xi f (Xs ) dBs(k) (5.3)
0 i=1 k=1 0
88 Chapitre 5. ©JCB – M2 Math. – Université de Rennes 1

est bien une martingale locale car en arrêtant l’intégrale au temps d’arrêt
 Z t 
2
Sn = inf t ≥ 0 : kXt k ≥ n, ∃(i, j), σi,j (Xs ) ds ≥ n ,
0

qui tend vers +∞ par hypothèse sur σ, on a bien une vraie martingale. 

Si f est assez régulière, (5.2) est même une vraie martingale et en prenant l’espérance avec
X0 = x, on obtient : Z t
E[f (Xt )] = f (x) + E[Lf (Xs )]ds. (5.4)
0

L’opérateur L pour X permet d’interpréter de nombreux résultats probabilistes en analyse


et réciproquement. Ce pont, jeté entre probabilités et analyse, se révèle particulièrement
fécond et constitue à lui seul une motivation importante pour l’étude des EDS. Le Théo-
rème 5.9 qui suit en est une illustration.

5.2 Semi-groupe d’une diffusion


Définition 5.6 (Noyau de transition) On associe à l’EDS E0 (a, σ) un noyau de transition
donné par
Pt f (x) = Ex [f (Xt )], t ≥ 0. (5.5)

Ce noyau donne la distribution de la variable aléatoire Xt sous Px . En particulier, P0 est


l’opérateur identité : P0 f (x) = f (x).

Exemple 5.7 (Mouvement brownien) Dans le cas du mouvement brownien B, on voit dans
le Chapitre 4 que le noyau est le semi-groupe de la chaleur :
Z
Pt f (x) = Ex [f (Bt )] = E0 [f (x + Bt )] = f (y)p(t, x, y) dy.

Dans le cas général, il s’agit encore d’un semi-groupe :

Théorème 5.8 (Propriété de semi-groupe) Le noyau de transition (Pt )t≥0 en (5.5) vérifie
la propriété de semi-groupe :
Pt+s = Pt ◦ Ps . (5.6)

Démonstration : La propriété de Markov forte pour la diffusion donne


  
Ex f (Xt+s )|Fs = EXs f (Xt )].

On a alors
   
Pt+s f (x) = Ex f (Xt+s ) = Ex Ex [f (Xt+s )|Fs ]
5.2. Semi-groupe d’une diffusion 89
   
= Ex EXs [f (Xt )] = Ex Pt f (Xs )
= Ps Pt f )(x) = (Ps ◦ Pt )f (x).

On a observé en Section 4.3 que le semi-groupe du mouvement brownien vérifie l’équation


de la chaleur (4.15). Cette observation se généralise pour une diffusion avec le Théorème 5.9
avec une EDP exprimée par le générateur de la diffusion.

Théorème 5.9 (Dérivation et générateur) Le semi-groupe (Pt )t≥0 est dérivable par rapport
à t et sa dérivée est le générateur de la diffusion, ie. pour f de classe C 2 assez régulière :

∂t Pt f (x) = Pt (Lf )(x) = L(Pt f )(x). (5.7)

En particulier, ∂t Pt f (x)|t=0 = Lf (x).

Remarque 5.10 Ce résultat explique la terminologie générateur infinitésimal pour L, puis-


qu’on peut écrire symboliquement (5.7) sous la forme

∂t Pt
∂ t Pt = Pt L ⇐⇒ =L ⇐⇒ Pt = exp(tL)
Pt
puisque P0 = Id. Réciproquement étant donné un générateur L, on lui associe un semi-
groupe Pt = exp(tL), t ≥ 0, par le théorème de Hille-Yosida.

Démonstration : On suppose que la fonction f est régulière de façon que la martingale locale
du Théorème 5.5 soit une vraie martingale. Elle est d’espérance nulle et donc l’espérance
dans la formule d’Itô (5.3) donne pour h ≥ 0
h Z t+h i
Ex f (Xt+h ) − Lf (Xs ) ds = f (x)
0
h Z t i
Ex f (Xt ) − Lf (Xs ) ds = f (x)
0

et donc
 h Z t+h i
Ex [f (Xt+h )] = Ex f (Xt )] = Ex Lf (Xs ) ds .
t

Comme Lf (Xs ) est continue et bornée lorsque f est assez régulière, d’après le théorème
de convergence dominée, la fonction de t 7→ Pt f (x) = Ex [f (Xt ] est dérivable à droite et de
dérivée
Pt+h f (x) − Pt f (x) Ex [f (Xt+h )] − Ex [f (Xt ]
∂t Pt f (x) = lim = lim
h&0 h h&0 h
90 Chapitre 5. ©JCB – M2 Math. – Université de Rennes 1
 Z t+h 
1
= lim E Lf (Xs ) ds = Ex [Lf (Xt )] = Pt (Lf )(x)
h&0 h t
ce qui donne la première partie de (5.7). La dérivabilité précédente a été montrée à droite
seulement. Pour conclure complètment sur la dérivabilité, on observe que Pt [Lf ](x) =
Ex [Lf (Xt )] est une fonction continue de t par convergence dominée (et régularité de f ).
Ainsi la fonction Z t
t 7→ Ps (Lf )(x) ds
0

est dérivable de dérivée Pt (Lf )(x). Comme la différence de deux fonctions qui ont la même
dérivée à droite est nécessairement constante, il existe c ∈ R tel que
Z t
Pt f (x) = Ps (Lf )(x) + c.
0

En faisant t = 0, on trouve c = f (x) et cela achève de prouver complètement la dérivabilité


dans (5.7). Comme P0 = Id, on déduit immédiatement,

∂t Pt f (x)|t=0 = P0 (Lf )(x) = Lf (x).

Pour la deuxième partie de (5.7), on utilise la propriété de semi-groupe (5.6) pour avoir

Pt+h f (x) − Pt f (x) Ph P t f − Pt f Ph g − g


= (x) = (x)
h h h
en notant g = Pt f . En passant à la limite h & 0, on a
Pt+h f (x) − Pt f (x)
∂t Pt f (x) = lim = ∂u Pu g(x)|u=0 = Lg(x) = L(Pt f )(x)
h&0 h
ce qui établit la deuxième partie de (5.7). 

Lorsque le semi-groupe (Pt )t≥0 admet une densité pt (x, y), c’est à dire
Z
Pt f (x) = pt (x, y)f (y) dy,

alors cette densité vérifie l’équation de convolution


Z
pt (x, y)ps (y, z)dy = ps+t (x, z). (5.8)

En effet, l’équation de convolution est l’analogue sur les densités de la propriété de semi-
groupe (5.6) :
Z
Pt+s f (x) = Ex [f (Xt+s ] = f (z)pt+s (x, z) dz (5.9)
5.2. Semi-groupe d’une diffusion 91
Z
(Pt ◦ Ps )f (x) = (Ps f )(y)pt (x, y) dy
Z Z 
= f (z)ps (y, z) dz pt (x, y) dy
Z Z 
= f (z) pt (x, y)ps (y, z)dy dz. (5.10)

La comparaison de (5.9) et de (5.10) pour toute fonction f assure (5.8). La densité pt (x, y)
est la loi de Xt lorsque la diffusion part de x, aussi on appelle x la variable du passé e y
celle du futur. Les équations en x sont dites rétrogrades et celle en y sont dite progressives.
Dans le cas du mouvement
√ brownien, le noyau de la chaleur admet une densité pt (x, y) =
2
exp(−(y − x) /(2t))/ 2πt et vérifie les équations progressive (4.18) et rétrograde (4.19)
vues au Chapitre 4. On généralise ci-dessous ces équations pour les semi-groupes avec
densité de diffusions générales.

Théorème 5.11 (Équation de Kolmogorov) On suppose que le semi-groupe (Pt )t≥0 admet
une densité pt (x, y). Alors :
(1) Cette densité vérifie l’équation de Kolmogorov progressive en (t, y) (dans le sens des
distributions) :
∂t pt (x, y) = L∗y pt (x, y)

(5.11)
limt→r pt (x, y)dy = δx
où L∗ est l’opérateur adjoint de L défini par
d d
X 1X 2
L∗y f (y) =− ∂yi [ai (y)f (y)] + ∂ [(σ(y)σ(y)∗ )i,j f (y)].
i=1
2 i,j=1 yi ,yj

(2) La densité pt (x, y) satisfait aussi l’équation de Kolmogorov rétrograde en (t, x) :



∂t pt (x, y) = Lx pt (x, y)
(5.12)
limt→r pt (x, y)dx = δy .

Démonstration : (1) Pour toute fonction f régulière à support compact, par définition de
Pt et par convergence dominée, on a :
Z  Z
∂t Pt f (x) = ∂t Ex [f (Xt )] = ∂t f (y)pt (x, y)dy = f (y)∂t pt (x, y) dy. (5.13)
Rd Rd

Avec (5.7), pour toute fonction f régulière à support compact, on a :

∂t Pt f (x) = Pt Lf (x)
Z
= pt (x, y)Lf (y) dy
Rd
92 Chapitre 5. ©JCB – M2 Math. – Université de Rennes 1

Z d d
!
X 1X
= pt (x, y) ai (y)∂yi f (y) + (σ(y)σ(y)∗ )i,j ∂y2i ,yj f (y) dy
Rd
i=1
2 i,j=1
Z d d
!
X 1X 2
= − ∂yi [ai (y)pt (x, y)] + ∂yi ,yj [(σ(y)σ(y)∗ )i,j pt (x, y)] f (y) dy
Rd i=1
2 i,j=1
(5.14)
Z
= L∗y pt (x, y)f (y) dy (5.15)
Rd

avec quelques intégrations par parties pour obtenir (5.14), il n’y a pas de termes de bord
car f est supposée à support compact. L’équation progressive (5.11) s’obtient alors en
comparant (5.13) et (5.15).
(2) Puis pour toute fonction f régulière à support compact, d’après (5.7), on a
Z  Z
∂t Pt f (x) = L(Pt f )(x) = L f (y)pt (·, y) dy (x) = f (y)Lx [pt (x, y)] dy.

En comparant avec l’expression


Z  Z
∂Pt f (x) = ∂t pt (x, y)f (y) dy = ∂t pt (x, y)f (y) dy,

il vient l’équation rétrograde (5.12) (avec des dérivées dans le sens des distributions). 

5.3 Diffusion et EDP


Avec la formule de Dynkin, on généralise l’observation du Théorème 5.5 en en prouvant
une version analogue pour les temps d’arrêt.

Théorème 5.12 (Formule de Dynkin) Soit (Xt )t≥0 une diffusion homogène de générateur
d
X d
X
L= ai (x)∂xi + (σσ ∗ )i,j (x)∂x2i ,xj , x ∈ Rd ,
i=1 i,j=1

puis τ un temps d’arrêt intégrable (Ex [τ ] < +∞) et f ∈ Cc2 (Rd , R). Alors
Z τ 
 
Ex f (Xτ ) = f (x) + Ex Lf (Xs ) ds . (5.16)
0

Démonstration : Pour simplifier la preuve, on considère le cas d = m = 1. Avec la formule


d’Itô, comme dans la preuve du Théorème 5.5, on a
Z τ  Z τ 
0
Ex [f (Xτ )] = f (x) + Ex Lf (Xs ) ds + Ex σ(Xs )f (Xs ) dBs . (5.17)
0 0
5.3. Diffusion et EDP 93

Il suffit donc de montrer que l’espérance de l’intégrale stochastique est nulle. Mais pour
toute fonction h bornée par M , et N ∈ N, on a
Z τ ∧N  Z N 
Ex h(Xs ) dBs = Ex 1{s<τ } h(Xs ) dBs = 0
0 0

car 1{s<τ } , h(Xs ) sont Fs -mesurables, h est bornée et on a une vraie martingale avec
Rt 
0
1 {s<τ } h(X s ) dBs 0≤t≤N
, nulle en 0 donc centrée. Puis
"Z
τ Z τ ∧N 2 # Z τ 
2
Ex h(Xs ) dBs − h(Xs ) dBs = Ex h(Xs ) ds
0 0 τ ∧N

≤ M 2 Ex [τ − τ ∧ N ]

qui tend vers 0 quand n → +∞ par convergence dominée, en vertu de l’hypothèse Ex [τ ] <
+∞. On a donc
Z τ ∧N  Z τ 
0 = lim Ex h(Xs ) dBs = Ex h(Xs ) dBs , (5.18)
N →+∞ 0 0

ce qui conclut la preuve en reportant cette conclusion dans (5.17) pour h = σf 0 (bornée
car σ et f 0 sont continues sur le support compact de f ).

EDP de type Dirichlet


On considère D un ouvert de Rd et τ le temps de première sortie de D d’une diffusion
homogène de générateur L. On considère alors le problème avec condition au bord :

Lu = θ, x ∈ D
(5.19)
u = ψ, x ∈ ∂D.

Exemple 5.13 (Mouvement brownien et problème de Dirichlet) Dans le cas du mouve-


ment Brownien, on a L = 21 ∆, et le choix θ = 0, ψ = f retrouve le problème de Dirichlet
(4.8) étudié au Chapitre 4.

On suppose que le problème (5.19) admet une unique solution, ce sera le cas par exemple
lorsque le domaine D et les fonctions θ, ψ sont assez réguliers. On suppose également que
le temps de sortie τ est intégrable et on montre alors que la solution u de (5.19) s’écrit
nécessairement  Z τ 
u(x) = Ex ψ(Xτ ) − θ(Xs ) ds . (5.20)
0

En effet, en appliquant formule de Dynkin (5.16) à la solution u de (5.19), on a


Z τ 
u(x) = Ex [u(Xτ )] − Ex Lu(Xs ) ds
0
94 Chapitre 5. ©JCB – M2 Math. – Université de Rennes 1
Z τ 
= Ex [ψ(Xτ )] − Ex θ(Xs ) ds
0

puisque Xτ ∈ ∂D et donc u(Xτ ) = ψ(Xτ ) et pour 0 < s < τ , Xs ∈ D et Lu(Xs ) = θ(Xs ).


Noter que la condition Ex [τ ] < +∞ requise pour appliquer (5.16) est satisfaite si le pro-
blème (5.19) pour ψ = 0 et θ = 1 admet une solution u e bornée : en effet dans ce cas, on
applique (5.16) avec le temps d’arrêt intégrable τ ∧ N pour N ≥ 1 :

 
Z τ ∧N 
u e(Xτ ∧N ) − Ex
e = Ex u Lu(Xs ) ds . (5.21)
0

Comme on a toujours Xs ∈ D pour s < τ ∧ N , on a Lu(Xs ) = 1 ci dessus et


Z τ ∧N 
Ex Lu(Xs ) ds = Ex [τ ∧ N ] % Ex [τ ], N → +∞
0

où la limite s’obtient par convergence monotone. Puis comme u e est supposée bornée, par
convergence dominée lorsque N → +∞ :
     
Ex u e(Xτ ∧N ) → Ex ue(Xτ ) = Ex ψ(Xτ ) = 0

puisque Xτ ∈ ∂D et ψ = 0. On a donc en passant à la limite dans (5.21), on a Ex [τ ] =


u
e(x) < +∞.
En prenant d’autres conditions aux bords dans (5.19), on obtient d’autres informations sur
X : par exemple pour θ = 0 et ψ = 1A où A est une partie de ∂D, alors (5.20) se réduit à
 
u(x) = Ex 1A (Xτ ) = Px (la diffusion X quitte D par A).

Ainsi la résolution de (5.19) donne des informations sur le temps de sortie τ et le lieu de
sortie Xτ de la diffusion X de D.

Exemple 5.14 (Mouvement brownien géométrique) On considère la diffusion

dXt = Xt dBt

de solution le mouvement brownien géométrique Xt = X0 exp(Bt − t2 /2) (par la formule


d’Itô, cf. Chapitre 3). On suppose X0 > 0 si bien que Xt > 0 pour tout t ≥ 0. Pour cette
diffusion, le générateur est L = 21 x2 ∂x,x
2
.
On considère le problème (5.19) pour ce L, D =]a, b[, ∂D = {a, b}, θ = 0 et ψ(a) = 0,
ψ(b) = 1. Ici le temps de sortie τ de ]a, b[ s’écrit τ = τa ∧ τb où τa et τb sont les temps
d’atteinte de a et b. Comme les solutions de
1
Lu(x) = x2 u00 (x) = 0 ⇐⇒ u00 (x) = 0 ⇐⇒ u(x) = c1 x + c2
2
5.3. Diffusion et EDP 95

avec les conditions au bord, on trouve u(x) = x−a


b−a
, x ∈ [a, b]. Mais par la formule de Dynkin
en (5.20) on doit avoir  
u(x) = Ex 1{Xτ =b} = Px (τb < τa ),
et on a donc
x−a
, x ∈ [a, b].
Px (τb < τa ) =
b−a
En particulier comme τa % τ0 = +∞ (puisque Xt > 0 pour tout t ≥ 0), par convergence
monotone, on a
x−a x
Px (τb < ∞) = lim Px (τb < τa ) = = , x < b.
a→0 b−a b
Il y a donc une probabilité strictement positive que le mouvement brownien géométrique
X n’atteigne pas le niveau b.

Exemple 5.15 (Black et Scholes) Pour r ∈ R, on considère la diffusion

dXt = rXt dt + Xt dBt

de solution Xt = X0 exp(rt + Bt − t2 /2) (par la formule d’Itô, cf. Chapitre 3) en supposant


X0 > 0 donc Xt > 0 pour tout t ≥ 0. Le générateur de cette diffusion est
1
L = rx∂x + x2 ∂x2 .
2
On considère le problème (5.19) avec D =]a, b[, ∂D = {a, b} et θ = 0, ψ(a) = 0, ψ(b) = 1.
On note toujours τ = τa ∧ τb le temps de sortie de ]a, b[ avec τa et τb les temps d’atteinte
de 0 < a < b.
Pour r 6= 1/2, les solutions de Lu = 0 sont u(x) = c1 x1−2r + c2 , c1 , c2 ∈ R puisque Lu = 0
s’écrit rxu0 + 12 x2 u00 = 0 soit

u00 −2r
= ⇒ ln(u0 ) = c − 2r ln x ⇒ u0 = cx−2r ⇒ u = c1 x1−2r + c2 .
u0 x
Avec les conditions au bord, on obtient
x1−2r − a1−2r
u(x) = .
b1−2r − a1−2r
En notant toujours τ = τa ∧ τb avec τa et τb les temps d’atteinte de 0 < a < b et en
appliquant la formule de Dynkin (5.20) avec θ = 0 et ψ(a) = 0, ψ(b) = 1, on a aussi
 
u(x) = Ex 1{Xτ =b} = Px (τb < τa ).

Par l’unicité de la solution de l’équation différentielle Lu = 0, on a


x1−2r − a1−2r
Px (τb < τa ) = , x ∈ [a, b].
b1−2r − a1−2r
96 Chapitre 5. ©JCB – M2 Math. – Université de Rennes 1

Pour r < 1/2, on a lima→0 a1−2r = 0 et τa % τ0 = +∞ (puisque Xt > 0 pour tout t ≥ 0).
Par convergence monotone, on a alors :

x1−2r − a1−2r  x 1−2r


Px (τb < +∞) = lim Px (τb < τa ) = lim = , 0 < x < b.
a→0 a→0 b1−2r − a1−2r b
Ainsi, la probabilité que X n’atteigne jamais b en partant de x ∈]0, b[ est
 x 1−2r
Px (τb = +∞) = 1 − > 0.
b
Pour r > 1/2, on a lima→0 a1−2r = 0 et de la même façon :

x1−2r − a1−2r
Px (τb < +∞) = lim Px (τb < τa ) = lim = 1, 0 < x < b.
a→0 a→0 b1−2r − a1−2r

Dans ce cas, la probabilité que X n’atteigne jamais b partant de x ∈]0, b[ est nulle.
Noter que si r = 1/2, on peut encore résoudre

1 1
Lu = xu0 + x2 u00 = 0,
2 2
soit
u00 1 c1
Lu = 0 ⇒ 0
= − ⇒ ln |u0 | = c1 − ln x ⇒ u0 = ⇒ u = c1 ln x + c2
u x x
ln x−ln a
et obtenir avec les conditions au bord considérées u(x) = ln b−ln a
, ce qui donne

ln x − ln a
Px (τb < τa ) = ,
ln b − ln a
et en passant à la limite a → 0 obtenir Px (τb < +∞) = 1.
Quand r ≥ 1/2, on précise le temps d’atteinte d’un niveau τb en calculant son espérance.
Pour cela, on considère maintenant le problème (5.19) avec θ = −1 et ψ = 0, c’est à dire

1 + rxu0 + 21 x2 u00 = 0, 0 < x < b


 
Lu(x) = −1, 0 < x < b
⇐⇒
u(x) = 0, x = b u(x) = 0, x = b.
(5.22)
0 1 2
D’abord pour r > 1/2, on commence par résoudre l’équation en v = u : 1+rxv + 2 x v = 0.
L’équation sans second membre rxv + 12 x2 v = 0 a pour solution v = C/x2r . On résout avec
le second membre par variation de la constante on supposant que C = C(x). Cela donne
C 0 (x) = −2x2r−2 soit C(x) = −2x2r−1 + c et donc

C(x) 2 c1
u0 = v = 2r
=− + 2r
x (2r − 1)x x
5.3. Diffusion et EDP 97

et
2
u=− ln x + c1 x1−2r + c2 . (5.23)
2r − 1
Avec les conditions au bord u(a) = u(b) = 0, on trouve les constantes c1 , c2 :

2 ln b − ln a
c1 = 1−2r
2r − 1 b − a1−2r
2 (ln a)b1−2r − (ln b)a1−2r
c2 = .
2r − 1 b1−2r − a1−2r

Mais avec θ = −1 et ψ = 0, et τ = τb , la formule de Dynkin (5.20) s’écrit


Z τ 
u(x) = Ex 1 ds = Ex [τ ] = Ex [τa ∧ τb ]. (5.24)
0

Les deux solutions (5.23) et (5.24) doivent coı̈ncider.


2
Quand a → 0, on a a1−2r → +∞ et donc c1 → 0 et c2 → − 2r−1 ln b, et aussi τa % τ0 = +∞
et par convergence monotone Ex [τa ∧ τb ] → E[τb ]. En passant à la limite dans l’égalité de
(5.23) et de (5.24), on a
2 b
E[τb ] = ln .
2r − 1 x

Noter que Ex [τb ] = T pour b = x exp (r − 1/2)T : cela montre que en une durée T ,
la solution atteint un niveau exponentiel en T , c’est à dire les solutions tendent à croı̂tre
exponentiellement.

Quand r = 1/2, on considère l’équation 1 + 12 xu0 + 21 x2 u00 = 0. On commence par résoudre


l’équation sans second membre pour v = u0 : xv + x2 v 0 = 0, de solution v = C/x. On résout
avec le second membre par la méthode de la variation de la constante en supposant que
C = C(x). Cela donne C 0 = −2/x, soit C = −2(ln x) + c1 et donc u0 = v = cx1 − 2 lnxx et
2
u = c1 ln x − ln x + c2 . Avec les conditions au bord, on détermine les constatntes c1 , c2 :

c1 = ln a + ln b, c2 = −(ln a)(ln b)

soit
2
u = (ln a + ln b) ln x − ln x − (ln a)(ln b). (5.25)
 
Par unicité de la solution (5.25) doit coı̈ncider avec la solution E[τ ] = E τa ∧ τb  obtenue
par la formule de Dynkin (5.20). Quand a → 0, on a τa % τ0 = +∞ et E τa∧ τb → E[τb ]
par convergence monotone. Puis quand a → 0, (5.25) donne u ≈ (ln a) ln xb → +∞ pour
x < b. On en déduit que pour r = 1/2, on a Ex [τb ] = +∞ pour tout niveau b > 0.
98 Chapitre 5. ©JCB – M2 Math. – Université de Rennes 1

Formule de Feynman-Kac
Parfois, il n’est pas utile de connaı̂tre explicitement tout le semi-groupe de transition
(Pt )t≥0 mais, en utilisant des EDP rétrogrades, seulement certaines intégrales.

Théorème 5.16 (Feynman-Kac) Soit g une fonction continue. S’il existe une solution ré-
gulière u(t, x) à l’EDP rétrograde

∂t u(t, x) + Lu(t, x) = 0,
(5.26)
u(T, x) = g(x),
alors elle doit s’écrire u(t, x) = E[g(XT )|Xt = x].

L’intérêt d’une telle formule est de pouvoir donner une solution d’EDP sous forme d’es-
pérance. On peut alors simuler la solution de l’EDP à l’aide de méthodes de Monte-Carlo
pour approximer les espérances.
Démonstration : Comme pour (5.3), on applique la formule d’Itô à u(s, Xs ) entre les dates
t et T et on utilise que u vérifie l’EDP (5.26) :
Z T Z t
u(T, XT ) = u(t, Xt ) + ∂s u(s, Xs ) ds + Lu(s, Xs ) ds
t 0
d X
X m Z T
+ σi,k (s, Xs )∂xi u(s, Xs ) dBs(k) (5.27)
i=1 k=1 t
d X
X m Z T
= u(t, Xt ) + σi,k (s, Xs )∂xi u(s, Xs ) dBs(k) .
i=1 k=1 t

RT (j)
Avec assez de régularité, les intégrales t σi,j (s, Xs )∂xi u(s, Xs ) dBs sont de vraies mar-
tingales. En prenant l’espérance conditionnelle, on a
E[u(T, XT )|Xt = x] = E[u(t, Xt )|Xt = x]
Xd X m hZ T i
+ σi,k (s, Xs )∂xi u(s, Xs ) dBs(k) Xt = x

E
i=1 k=1 t

= E[u(t, x)|Xt = x]
Xd X m h Z T −t i
+ Ex σi,k (s, Xs )∂xi u(s, Xs ) dBs(k) (5.28)
i=1 k=1 0

= u(t, x)
en utilisant la propriété de Markov pour (5.28) puis la propriété de martingale pour annu-
ler l’espérance correspondante. Comme u(T, XT ) = g(XT ) par la condition finale de l’EDP
(5.26), on a bien la conclusion cherchée. 

On peut également traiter la même EDP avec un terme de dissipation :


5.3. Diffusion et EDP 99

Corollaire 5.17 Soit g une fonction continue. S’il existe une solution régulière v(t, x) à
l’EDP rétrograde 
∂t v(t, x) + Lv(t, x) − k(t, x)v(t, x) = 0,
(5.29)
v(T, x) = g(x),
alors elle s’écrit
 Z T  
v(t, x) = E exp − k(s, Xs ) ds g(XT )|Xt = x .
t

Démonstration : Comme dans la preuve précédente et dans celle du Theorème 4.14, on


applique laR formule d’Itô(de la même façon que pour (5.3)) au produit de
R s processus v(s,
 Xs )
s
et exp − t k(u, Xu )du et on utilise l’EDP (5.29). Comme exp − t k(u, Xu )du est à
variation finie, on a pour commencer une dérivation sans terme de variation quadratique
  Z s 
d v(s, Xs ) exp − k(u, Xu )du
t
 Z s   Z s 

= dv(s, Xs ) exp − k(u, Xu )du − v(s, Xs )k(s, Xs ) exp − k(u, Xu )du ds
t t
 Z s 

= dv(s, Xs ) − v(s, Xs )k(s, Xs )ds exp − k(u, Xu )du . (5.30)
t

Mais avec la formule d’Itô de nouveau :


d X
X m Z T
dv(s, Xs ) = ∂s v(s, Xs )ds + Lv(s, Xs )ds + σi,k (s, Xs )∂xi v(s, Xs ) dBs(k)
i=1 k=1 t

c’est à dire en utilisant l’EDP (5.29) :


d X
X m Z T
dv(s, Xs ) − v(s, Xs )k(s, Xs )ds = σi,k (s, Xs )∂xi v(s, Xs ) dBs(k)
i=1 k=1 t

En reportant dans (5.30) et en intégrant pour x ∈ [t, T ], on a


 Z T 
v(T, XT ) exp − k(u, Xu )du − v(t, Xt )
t
Z T   Z s 
= d v(s, Xs ) exp − k(u, Xu )du
t t
Z T d X
X m Z T  Z s 
= σi,k (s, Xs )∂xi v(s, Xs ) exp − k(u, Xu )du dBs(k)
t i=1 k=1 t t

En prenant l’espérance conditionnelle, avec la propriété de Markov, et la propriété de


martingale, on a :
"Z d Xm Z T
#
T X  Z s 
σi,k (s, Xs )∂xi v(s, Xs ) exp − k(u, Xu )du dBs(k) | Xt = x

E
t i=1 k=1 t t
100 Chapitre 5. ©JCB – M2 Math. – Université de Rennes 1
"Z d X
m Z
#
T −t X T  Z s 
= Ex σi,k (s, Xs )∂xi v(s, Xs ) exp − k(u, Xu )du dBs(k)
0 i=1 k=1 t t

= 0

et il vient

v(t, x) = E[v(t, Xt )|Xt = x]


  Z T  

= E v(T, XT ) exp − k(u, Xu )du Xt = x

t
  Z T  

= E g(XT ) exp − k(u, Xu )du Xt = x .
t


Chapitre 6

Problèmes de martingale

Dans ce chapitre, on résout des EDS (solutions faibles) en montrant que certains pro-
cessus sont des martingales. Ce type d’approche a été introduit par Stroock et Varadhan
(1969) et on commence par l’illustrer par un exemple très simple.
Exemple 6.1 Étant donné un mouvement brownien B, on considère l’EDS
dXt = dBt , X0 = 0.
La seule solution est évidemment X = B, la solution faible est donc la mesure de Wiener
W sur
(Ω0 , F 0 ) = C(R+ , R), B(C(R+ , R))


muni de la filtration (Ft0 )t≥0 engendrée par le processus canonique Xt0 (ω 0 ) = ω 0 (t).
Avec le théorème de Lévy (Théorème 1.8), on observe que la mesure de Wiener W est
la seule probabilité sur (Ω0 , F 0 , (Ft0 )t≥0 ) sous laquelle Xt0 et Xt02 − t sont des martingales
locales.
Dans le cas particulier de cet Exemple 6.1, la résolution faible (existence et unicité faibles)
de l’EDS a consisté à identifier une probabilité (la mesure de Wiener W) sous laquelle
certains processus sont des martingales (locales). Cette approche, appelée problème de
martingale, est développée dans ce chapitre. Après une introduction en Section 6.1, on
relie EDS et problème de martingale en Section 6.2. En Section 6.3, on généralise les
résultats aux équations différentielles fonctionnelles stochastiques. Dans les Sections 6.4 et
6.5, on donne des résultats d’existence et d’unicité pour les EDS obtenus par problèmes de
martingale.

6.1 Introduction et notations


Étant donné un mouvement brownien m dimensionnel B, des fonctions mesurables
a(t, x) ∈ Rd et σ(t, x) ∈ Md,m (R) pour t ∈ R+ et x ∈ Rd , on considère dans ce chapitre
l’EDS
dXt = a(t, Xt ) dt + σ(t, Xt ) dBt . (E(a, σ))

101
102 Chapitre 6. ©JCB – M2 Math. – Université de Rennes 1

On ne suppose plus les hypothèses lipschitziennes du Chapitre 3 et on cherche une solution


faible à l’EDS E(a, σ), c’est à dire un triplet

X, B, (Ω, F, (Ft )t≥0 , P)

tel que B est un (Ft )-mouvement brownien et X est un processus (Ft )-adapté, à trajectoires
continues vérifiant presque sûrement :
Z t
2

|ai (s, Xs )| + σi,j (s, Xs ) ds < +∞, 1 ≤ i ≤ d, 1 ≤ j ≤ m, t ≥ 0, (6.1)
0
Z t Z t
Xt = X 0 + a(s, Xs ) ds + σ(s, Xs ) dBs , t ≥ 0. (6.2)
0 0

 t ≥ 0, si bien que lorsqu’on


Noter que pour une telle solution, Xt est bien définie pour tout
considère les temps d’arrêt Sn = inf t ≥ 0 : kXt k ≥ n , on a Sn → +∞ ps quand
n → +∞.
Une solution faible de E(a,
 σ) peut être vue comme une loi sur l’espace (canonique)
d d
C(R+ , R ), B(C(R+ , R ) et cette loi s’appelle alors une mesure-solution.
 Dans ce cha-
pitre, on montre qu’une probabilité sur C(R+ , Rd ), B(C(R+ , Rd ) est mesure-solution de
E(a, σ) si et seulement si c’est la solution d’un problème de martingale. Pour cela, on
suppose que l’EDS E(a, σ) satisfait l’hypothèse :

Les fonctions a et σ sont boréliennes et localement bornées. (loc)

On note c = σσ ∗ la fonction de R+ × Rd dans l’espace des matrices d × d symétriques


positives, ie. pour i, j = 1, . . . , m :
m
X
ci,j (t, x) = σi,k (t, x)σj,k (t, x). (6.3)
k=1

La fonction c est borélienne et sous (loc) elle est aussi localement bornée.
On associe à l’EDS E(a, σ) le générateur (5.1), ie.
d d
X 1X
Lf (t, x) = ai (t, x)∂xi f (x) + ci,j (t, x)∂x2i ,xj f (x), f ∈ C 2 (Rd ).
i=1
2 i,j=1

Si f ∈ C 1,2 (R+ × Rd ), on applique L · (t, ·) à f (t, ·) et on pose


d d
X 1X
Lf (t, x) = ai (t, x)∂xi f (t, x) + ci,j (t, x)∂x2i ,xj f (t, x).
i=1
2 i,j=1

Une première observation reliant l’EDS E(a, σ) à des martingales est donnée dans la pro-
position suivante :
6.1. Introduction et notations 103

Proposition 6.2 Soit X, B, (Ω, F, (Ft )t≥0 , P) une solution faible de l’EDS E(a, σ). Pour
toute fonction f (t, x) ∈ C 1,2 (R+ × Rd ),
Z t
Mtf

= f (t, Xt ) − f (0, X0 ) − ∂t f + Lf (s, Xs ) ds (6.4)
0

est une martingale locale continue. De plus si g ∈ C 1,2 (R+ × Rd ) alors


d Z
X t
f g
hM , M it = ci,j (s, Xs )∂xi f (s, Xs )∂xj g(s, Xs ) ds. (6.5)
i,j=1 0

Puis si f ∈ Cc1,2 (R+ × Rd ) et les coefficients σi,j sont bornés sur le support de f alors
M f ∈ L2 (B).

Démonstration : La formule d’Itô appliquée à f (t, Xt ) s’écrit


Z t d X
X m Z t
σi,j (s, Xs )∂xi f (s, Xs ) dBs(j) .

f (t, Xt ) = f (0, X0 ) + ∂t f + Lf (s, Xs ) ds +
0 i=1 j=1 0

Elle exprime donc M f comme une somme d’intégrales stochastiques :


d X
X m Z t
Mtf = Mti,j avec Mti,j = σi,j (s, Xs )∂xi f (s, Xs ) dBs(j) .
i=1 j=1 0

On considère les temps d’arrêt


 Z t 
2
Sn = inf t ≥ 0 : kXt k ≥ n ou σi,j (s, Xs ) ds ≥ n pour un (i, j) .
0

Rt
Comme presque sûrement pour chaque (i, j), on a 0
σi,j (s, Xs )2 ds < +∞, on a
h i h i
i,j Sn i,j Sn i,j i,j
E h(Mt ) , (Mt ) it = E hMt , Mt it∧Sn
h Z t∧Sn i
= E σi,j (s, Xs )2 ∂xi f (s, Xs )2 ds ≤ K 2 n,
0

R t pour s ≤2 t ∧ Sn on a kXs k ≤ n domaine sur lequel ∂xi,ji f (s, x) est bornée par K, et
car
σ (s, Xs ) ds < n pour t ≤ Sn . Comme Sn % +∞, M est une martingale locale à
0 i,j
trajectoires continues et donc aussi les processus
d X
X m
(Mtf )Sn = Mt∧S
f
n
= i,j
Mt∧S n
i=1 j=1
104 Chapitre 6. ©JCB – M2 Math. – Université de Rennes 1

Le crochet (6.5) vient de l’expression obtenue pour M f et de hB (i) , B (j) it = δi,j t :


Xd X m Z · Z · 
f g (j) (l)
hM , M it = σi,j (s, Xs )∂xi f (s, Xs ) dBs , σk,l (s, Xs )∂xk g(s, Xs ) dBs
i,k=1 j,l=1 0 0 t
d X
X m Z t
= σi,j (s, Xs )σk,l (s, Xs )∂xi f (s, Xs )∂xk g(s, Xs )dhB (j) , B (l) is
i,k=1 j,l=1 0

d X
X m Z t

= σi,j (s, Xs )σj,k (s, Xs )∂xi f (s, Xs )∂xk g(s, Xs ) ds
i,k=1 j=1 0

d Z
X t
= (σσ ∗ )i,j (s, Xs )∂xi f (s, Xs )∂xk g(s, Xs ) ds.
i,k=1 0

De plus, si f est à support compact sur lequel chaque σi,j est borné alors l’intégrande dans
M i,j est borné et M f ∈ L2 (B) car dans ce cas E[hM f , M f it ] < +∞ pour chaque t ≥ 0. 

En particulier, en appliquant la Proposition 6.2 aux fonctions fi (x) = xi et fi,j (x) = xi xj ,


1 ≤ i, j ≤ d, il vient que M (i) := M fi et M (i,j) := M fi,j sont des martingales locales. En
observant que
Lfi (t, x) = ai (t, x),
Lfi,j (t, x) = ai (t, x)xj + aj (t, x)xi + ci,j (t, x),
ces martingales locales s’écrivent :
Z t
(i) (i) (i)
Mt = Xt − x0 − ai (s, Xs ) ds, (6.6)
0
Z t
(i,j) (i) (j) (i) (j)
ai (s, Xs )Xs(j) + aj (s, Xs )Xs(i) + ci,j (s, Xs ) ds.

Mt = Xt Xt − x0 x0 − (6.7)
0

Ces processus joueront un rôle particulier dans la résolution de problèmes de martingale


dans la section suivante.

6.2 EDS et problème de martingale


On a vu dans la Proposition 6.2 qu’à une solution faible d’EDS E(a, σ) est associée une
martingale (locale). Cette section établit une sorte de réciproque en montrant l’existence
faible pour E(a, σ) en trouvant des martingales. Comme a priori on ne dispose pas de
solution explicite, ie. de triplet X, B, (Ω, F, (Ft )t≥0 , P) où B est un (Ft )-mouvement
brownien et pour lequel X est solution satisfaisant (6.1)–(6.2), on exprime le problème de
martingales sur l’espace canonique
(Ω0 , F 0 ) = C(R+ , Rd ), B(C(R+ , Rd )) .

6.2. EDS et problème de martingale 105

On munit cet espace canonique de la filtration (Ft0 )t≥0 engendrée par le processus canonique
donné par Xt0 (ω 0 ) = ω 0 (t).

Définition 6.3 (Problème de martingale) On appelle problème de martingale la recherche


0
d’une probabilité P0 sur (Ω0 , F 0 ) sous laquelle M f définie par
Z t
0f
Mt = f (Xt0 ) − f (X00 ) − Lf (Xs0 ) ds (6.8)
0

est une martingale continue pour toute f ∈ Cc2 (R+ , Rd ). Lorsqu’on cherche P0 sous la-
0
quelle M f est une martingale locale continue pour toute f ∈ C 2 (R+ , Rd )), on parle de
problème de martingale locale. Une probabilité P0 qui convient est dite solution du problème
de martingale (locale).

Remarque 6.4 Si P0 est solution d’un problème de martingale alors P0 est solution du
problème de martingale locale correspondant.
En effet, pour f ∈ C 2 (R d
 ) (sans support compact), pour chaque k ≥ 1, on pose Sk =
inf t ≥ 0 : kw(t)k ≥ k pour w ∈ C0 (R+ , Rd ) et on considère gk ∈ Cc2 (Rd ) qui coı̈ncide
0
avec f sur {x ∈ Rd : kxk ≤ k}. Par hypothèse, M gk est une martingale sous P0 , et
0 0
Mtgk = Mt f pour t ≤ Sn . Cela assure que (M f )Sn est une martingale locale (à trajectoires
0
continues) et donc M f est une martingale locale (à trajectoires continues).

Proposition 6.5 Si le triplet X, B, (Ω, F, (Ft )t≥0 , P) est solution faible de l’EDS E(a,
 σ)
0 0 d d
satisfaisant (loc) alors la probabilité PX sur (Ω , F ) = C(R+ , R ), B(C(R+ , R )) est
solution du problème de martingale (6.8).

Démonstration : On suppose que (Ω, F, (Ft )t≥0 , P) est un espace de probabilité sur lequel B
est (Ft )-mouvement brownien et X processus (Ft )-adapté à trajectoires continues presque
sûrement, de loi P0 , vérifiant (6.1)–(6.2) sur Ω.
D’après la Proposition 6.2 pour f, g ∈ Cc2 (Rd ), M f et M g sont des martingales, de crochet
donné par
X d Z t
f g
hM , M it = ci,j (s, Xs )∂xi f (s, Xs )∂xj g(s, Xs ) ds.
i,j=1 0

0
Il s’agit de transférer cette observation aux martingales M f analogues de M f sur l’espace
Ω0 = C(
rit+ , Dd ). On effectue le transfert par le processus solution X : Ω → C(R+ , Rd ) = Ω0 .
Plus précisément en notant N = {ω ∈ Ω : la fonction t 7→ Xt (ω) n’est pas continue}, on
considère Φ : Ω → Ω0 donnée par

Xt (ω) si ω 6∈ N
Φ(ω)(t) =
0 si ω ∈ N
106 Chapitre 6. ©JCB – M2 Math. – Université de Rennes 1

alors P0 = P ◦ X −1 = P ◦ Φ−1 . Noter que comme la filtration est complète et X est (Ft )-
adapté et à trajectoires continues (à gauche) alors X est un processus prévisible. Il s’ensuit
que Φ respecte les filtrations : pour A0 ∈ Ft0 , Φ−1 (A0 ) ∈ Ft .
D’après (loc) et comme f ∈ Cc2 (Rd ), le processus M f est borné sur chaque intervalle de
temps, c’est donc une (vraie) martingale.
0
D’après les définitions de Φ, des processus M f , et M f , hors du négligeable N , on a
0f
Mf = M ◦ Φ. (6.9)
0f
Comme P(N ) = 0, l’égalité (6.9) reste vraie P-ps et M est une martingale en utilisant le
lemme qui suit. 

Lemme 6.6 Soit (Ω, F, (Ft )t≥0 , P) et (Ω0 , F 0 , (Ft0 )t≥0 ) et Φ : Ω → Ω0 qui respecte les filtra-
tions. On pose P0 = P ◦ Φ−1 . Alors si M est une martingale continue sur (Ω, F, (Ft )t≥0 , P),
le processus continu M 0 sur Ω0 associé à M par M = M 0 ◦ Φ en dehors de N (bien défini
P0 -ps) est une martingale sur (Ω0 , F 0 , (Ft0 )t≥0 , P0 ).
Démonstration :[Lemme 6.6] En effet, si s < t et A0 ∈ Fs0 , on a A = Φ−1 (A0 ) ∈ Fs (car Φ
respecte les filtrations) et par transfert de Ω sur Ω0 à l’aide de l’application mesurable Φ :

E0 [(Mt0 − Ms0 )1A0 ] = E[(Mt − Ms )1A ] = 0.

Ainsi M 0 est une martingale sur (Ω0 , F 0 , (Ft0 )t≥0 , P0 ). 

Comme

(Mtf )Tn (Mtg )Tn − hM f , M g iTt n


 0 X d Z t 
0g
f Tn0
= (Mt Mt ) − ci,j (s, ws )∂xi f (s, ws )∂xj g(s, ws ) ds ◦ Φ
i,j=1 0

est aussi une martingale alors Lemme 6.6 assure aussi que
d Z t
0f 0g
X
hM , M it = ci,j (s, ws )∂xi f (s, ws )∂xj g(s, ws ) ds.
i,j=1 0

Le résultat principal qui suit établit la réciproque de la Proposition 6.5. Pour cette réci-
proque, il suffit de considérer les fonctions fi (x) = xi et fi,j (x) = xi xj . On utilise alors
les notations suivantes pour les analogues de M fi , M fi,j sur Ω0 comme en (6.6), (6.7) pour
i, j = 1, . . . , d
Z t
0 (i) 0f 0 (i) (i)
Mt := Mt = Xt − x0 −
i
ai (s, Xs0 ) ds,
0
6.2. EDS et problème de martingale 107
Z t
0 (i,j) 0f 0 (i) 0 (j) (i) (j)
ai (s, Xs )Xs(j) + aj (s, Xs )Xs(i) + ci,j (s, Xs ) ds

Mt := M i,j
= Xt Xt − x 0 x0 −
0

ce sont des processus à trajectoires continues et (Ft0 )-adaptés sur Ω0 . De plus, on note
Z t Z t
0 (i) 0 (i,j)
0
At = ai (s, Xs ) ds, Ct = ci,j (s, Xs0 ) ds. (6.10)
0 0

Théorème 6.7 (Problème de martingale) On suppose l’hypothèse (loc) satisfaite pour l’EDS
E(a, σ). Une probabilité P0 sur (Ω0 , F 0 ) est mesure-solution si et seulement si les processus
0 0 0 (i)
M (i) et M (i,j) sont des martingales locales sous P0 avec M0 = 0 P0 -ps pour tout 1 ≤ i ≤ d
(soit P0 (X00 = x) = 1).
0
sur (Ω0 , F 0 ) et une solution faible X, B,

Remarque 6.8 Une probabilité P mesure-solution
(Ω, F, (Ft )t≥0 , P) sont reliées par P0 = PX .
Des résultats précédents, on déduit : la Proposition 6.5 et du Théorème 6.7, on déduit
immédiatement :
Théorème 6.9 (EDS et problème de martingale) Pour une EDS E(a, σ) satisfaisant la
condition (loc), les assertions suivantes sont équivalentes :
(A) Il existe une solution faible de l’EDS E(a, σ).
(B) Il existe une solution au problème de martingale locale (6.8).
(C) Il existe une solution au problème de martingale (6.8).
Démonstration : L’implication (A) ⇒ (C) est due à la Proposition 6.5, (C) ⇒ (B) vient
de la Remarque 6.4. Enfin, on a (B) ⇒ (A) par le Théorème 6.7. 

Démonstration :[Théorème 6.7] Le sens direct est donné par la Proposition 6.5. Pour la
réciproque, étant donné une mesure-solution P0 , il s’agit de trouver un espace Ω sur lequel
X 0 (de loi P0 ) est encore défini et est solution de E(a, σ), ie. vérifie (6.1)–(6.2). Pour cela, on
0
procède par étapes avec du travail préliminaire : étape 1 : on commence remplacer M (i,j)
0 (i,j)
par une autre martingale locale N ; étape 2 : extension de l’espace de probabilité ;
étape 3 : algèbre linéaire ; étape 4 : preuve de la condition suffisante.

0 (i,j)
Étape 1 (équivalence de martingales locales). Plutôt que de considérer M , on préfère
0
considérer N (i,j) donné pour i, j = 1, . . . , d par
0 (i,j) 0 (i) 0 (j) 0 (i,j)
Nt = Mt Mt − Ct . (6.11)
0 (i) 0 (j)
Noter que dans ce sens de la preuve, on sait que M , M sont des martingales locales,
mais on ne connaı̂t pas leur crochet comme dans la Proposition 6.2 ; on ne peut donc pas
0
affirmer que N (i,j) est aussi une martingale locale. Cependant, du point de vue du problème
0 0
de martingale, il est équivalent de considérer M (i,j) ou N (i,j) :
108 Chapitre 6. ©JCB – M2 Math. – Université de Rennes 1

0 0 0 (i,j)
Lemme 6.10 Lorsque M (i) , M (j) sont des martingales locales, le processus N est une
0
martingale locale si et seulement si M (i,j) en est une. Dans ce cas, on a :
0 (i) 0 (j) 0 (i,j)
hM ,M it = Ct . (6.12)
0 (i,j)
Démonstration :[Lemme 6.10] D’abord, Nt s’écrit
0 (i,j) 0 (i,j) 0 (i) 0 (j) 0 (j) 0 (i) 0 (i,j)
Nt = Mt − X0 Mt − X0 Mt + Kt (6.13)

avec le terme correctif


Z t Z t
0 (i,j) 0 (i) 0 (i) 0 0 (j)
0
Kt = (Xs − Xt )aj (s, Xs ) ds + (Xs(j) − Xt )ai (s, Xs0 ) ds
0 0
Z t  Z t 
+ ai (s, Xs0 ) ds aj (s, Xs0 ) ds .
0 0

Comme par intégration par parties classique,


Z t  Z t 
0 0
ai (s, Xs ) ds aj (s, Xs ) ds
0 0
Z t Z t  Z t Z t 
0 0
= ai (u, Xu ) du aj (s, Xs ) ds + 0
aj (s, Xs ) du ai (s, Xs0 ) ds,
0 s 0 s

le terme correctif s’écrit


Z t Z t 
0 (i,j) 0 (i) 0 (i)
Kt = Xs − Xt + ai (s, Xs0 ) ds aj (s, Xs0 ) ds
0 s
Z t Z t 
0 (j) 0 (j)
+ Xs − Xt + 0
aj (s, Xs ) ds ai (s, Xs0 ) ds
Z t0 s
Z t
0 (i) 0 (i) 0 0 (j)
0
= (Ms − Mt )aj (s, Xs ) ds + (Ms(j) − Mt )ai (s, Xs0 ) ds (6.14)
0 0
Z t Z s  Z t Z s 
0 0 (i) 0 0
= − aj (s, Xs ) ds dMs − ai (s, Xs ) ds dMs(j) (6.15)
0 0 0 0

où (6.14) utilise


Z t
0 (i) 0 (i) 0 0 (i)
Xs − Xt + ai (s, Xs0 ) ds = Ms(i) − Mt ,
Z st
0 0 (j) 0 0 (j)
Xs(j) − Xt + aj (s, Xs0 ) ds = Ms(j) − Mt ;
s

et enfin, (6.15) est obtenue par intégration


R· par parties avec la formule d’Itô (Corollaire 1.2)
pour XY avec X = M 0 et Y = 0 a(s, Xs0 ) ds, sans terme de crochet puisque Y est ici à
variation finie.
6.2. EDS et problème de martingale 109

Par (6.13) et (6.15), on a donc


0 (i,j) 0 (i,j) 0 (i) 0 (j) 0 (j) 0 (i)
Nt = Mt − X Mt − X0 Mt
Z t Z s 0  Z t Z s 
0 0 (i) 0 0
− aj (s, Xs ) ds dMs − ai (s, Xs ) ds dMs(j) .
0 0 0 0

0 0
Comme les M (i) , M (j) en (6.6) sont des martingales locales par hypothèse, il suit que
0 0
N (i,j) est une martingale locale si et seulement si M (i,j) en est une.
0 (i,j)
Lorsque N est une martingale locale, par sa définition (6.11), il vient de suite (6.12). 

Étape 2 (extension de l’espace de probabilité). Pour cela, on considère un espace auxiliaire


(Ω00 , F 00 , (Ft00 )t≥0 , P00 ) sur lequel est défini un mouvement brownien m-dimensionnel B 00 (par
exemple Ω00 peut être l’espace de Wiener m-dimensionnel). On pose alors
\
Ω = Ω0 × Ω00 , F = F 0 ⊗ F 00 , Ft = (Fs0 ⊗ Fs00 ), P = P0 ⊗ P00 . (6.16)
s>t

Avec un abus de notation, on étend toutes les fonctions sur Ω0 ou Ω00 de manière usuelle à
Ω en gardant le même symbole, par exemple

Xt0 (ω 0 , ω 00 ) = Xt0 (ω 0 ), Bt00 (ω 0 , ω 00 ) = Bt00 (ω 00 ).

Par construction, B 00 est indépendant de Ω0 .


Soit U 0 et U 00 des martingales locales sur (Ω0 , F 0 , (Ft0 )t≥0 , P0 ) et (Ω00 , F 00 , (Ft00 )t≥0 , P00 ). On
les suppose réduites respectivement par (Tn0 )n≥1 et (Tn00 )n≥1 . Pour tous s ≤ t et A0 ∈ Fs0 ,
A00 ∈ Fs00 , on a
 0T 0  0T 0  0 0  0 0
E Ut n 1A0 ×A00 = E0 Ut n 1A0 P00 (A00 ) = E0 UsTn 1A0 P00 (A00 ) = E UsTn 1A0 ×A00
   
 0 T 0 00 T 00  0T 0   00 T 00  0 0   00 00
E Ut n Ut n 1A0 ×A00 = E0 Ut n 1A0 E00 Ut n 1A00 = E0 UsTn 1A0 E00 Us Tn 1A00
  
 0 0 00 00
= E UsTn Us Tn 1A0 ×A00 .

(6.17)
0T 0 00 T 00
Ainsi, U 0 et U 00 sont des martingales locales sur (Ω, F, (Ft )t , P). Comme Ut n Ut n
est aussi
une martingale, alors
0T 0 00 T 00 Tn0 ∧Tn00 0 T 0 ∧T 00 00 T 0 ∧T 00 Tn0 ∧Tn00
Ut n Ut n
= Ut n n
Ut n n
= Ut0 Ut00

est une martingale (car martingale arrêtée) et donc U 0 U 00 est une martingale locale car
Tn0 ∧ Tn00 → +∞ (Tn0 → +∞, Tn00 → +∞). Par conséquent, hU 0 , U 00 it = 0.
0 0
En appliquant ce qui précède à U 0 = M (i) , N (i,j) et à U 00 = B 00 , il s’ensuit sur cet espace
0
produit (Ω, F, (Ft )t≥0 , P) donné en (6.16) que B 00 est un mouvement brownien et les M (i)
0 (i,j) 0 (i) 00 (j)
et N sont des martingales locales avec hM , B i = 0 d’après (6.17).
110 Chapitre 6. ©JCB – M2 Math. – Université de Rennes 1

Étape 3 (algèbre linéaire). On utilise maintenant des résultats élémentaires d’algèbre li-
néaire : on rappelle que si c = σσ ∗ est de rang ζ (≤ d, m) alors σ est aussi de rang ζ. La
dégénérescence de σσ ∗ est la difficulté qui oblige à construire un mouvement brownien sur
une extension Ω de l’espace Ω0 .
Soit c0 = σ ∗ σ une matrice de taille m × m symétrique positive (de rang ζ). Elle s’écrit
c0 = ΠΛΠ∗ où Π est orthogonale de taille m × m et Λ est diagonale avec Λi,i > 0 si i ≤ ζ
et Λi,i = 0 si i > ζ. Soit alors Λ0 la matrice diagonale avec

Λ0i,i = 1/Λi,i si i ≤ ζ et Λ0i,i = 0 si i > ζ.

On a ΛΛ0 = Λ0 Λ = Im,ζ en notant Im,ζ la matrice diagonale de taille m × m ayant 1 pour les
ζ premiers éléments diagonaux et 0 pour les suivants. Soit enfin σ 0 = Λ0 Π∗ σ ∗ une matrice
de taille m × d. On a alors
0
σ 0 cσ ∗ = (Λ0 Π∗ σ ∗ )(σσ ∗ )(σΠΛ0 ) = (Λ0 Π∗ )(ΠΛΠ∗ )(ΠΛΠ∗ )(ΠΛ0 ) = Λ0 ΛΛΛ0 = Im,ζ . (6.18)

Enfin commePΛ = Π∗ c0 Π = Π∗ σ ∗ σΠ = (σΠ)∗ (σΠ), en regardant les termes diagonaux pour


k > ζ, on a dj=1 (σΠ)2j,k = 0 si k > ζ. Ainsi, (σΠ)j,k = 0 pour tout j ∈ J1, dK si k > ζ, ce
qui s’écrit encore σΠ = σΠIm,ζ . Par suite, il vient :

σΠσ 0 c = σΠ(Λ0 Π∗ σ ∗ )(σσ ∗ ) = σΠΛ0 Π∗ (ΠΛΠ∗ )σ ∗


= (σΠ)(Λ0 Λ)Π∗ σ ∗ = σΠIm,ζ Π∗ σ ∗
= σΠΠ∗ σ ∗ = σσ ∗ = c. (6.19)

Étape 4 (suffisance). On montre maintenant que  la condition du Théorème 6.7 est suffi-
sante. Il s’agit de constuire un triplet solution X, B, (Ω, F, (Ft )t≥0 , P) tel que P0 est la

loi PX de X.
Comme la fonction matricielle σ est borélienne sur R+ × Rd , il en est de même pour son
rang ζ. On peut aussi vérifier qu’on peut choisir pour les matrices Π et Λ des fonctions
boréliennes. De même, les fonctions Λ0 et σ 0 sont boréliennes.
0
On introduit la fonction borélienne α = supi≤m,j≤d |σi,j |. La fonction σ 0 /α étant bornée
(avec la convention 0/0 = 0), on peut définir pour tout i = 1, . . . , m les intégrales
d Z t 0
(i)
X σi,j 0
Ut = (s, Xs0 )dMs(j) . (6.20)
j=1 0 α
0 0 0 (i,j)
Comme par hypothèse du sens indirect M (i) , M (j) , M sont des martingales, le Lemme 6.10
0 0 0 (i,j)
(étape 1) assure que (6.12) : hM (i) , M (j) it = Ct .
On a alors
t d 0 0
σi,k σj,l
Z
0 (k) 0 (l)
X
(i) (j) 0
hU , U it = 2
(s, Xs )dhM , M is
0 k,l=1
α
6.2. EDS et problème de martingale 111

t d 0 0
σi,k σj,l ck,l
Z X
= 2
(s, Xs0 ) ds
0 k,l=1
α
t 0
(σ 0 cσ ∗ )i,j
Z
= 2
(s, Xs0 ) ds
0 α
Z t
1
= δi,j 1 0
0 2 {ζ(s,Xs )≥i}
ds
0 α(s, Xs )
0
en utilisant σ 0 cσ ∗ = Im,ζ obtenue en (6.18) à l’étape 3. Cela assure que les intégrales
stochastiques Z t
(i)
Vt = α(s, Xs0 )dUs(i) (6.21)
0
sont bien définies avec en plus
Z t
(i) (j)
hV ,V it = δi,j 1{ζ(s,Xs0 )≥i} ds. (6.22)
0

Dans la suite, on utilise


Z t
0 (i) 0
(j)
hM , V it = α(s, Xs0 )dhM (i) , U (j) is
0
d Z t 0
X σj,k 0 0
= α(s, Xs0 ) (s, Xs0 )dhM (i) , M (k) is (Déf. (6.20) de U (j) )
k=1 0
α
d Z t
0 (i) 0 (k)
X
0
= σj,k (s, Xs0 )dhM ,M is
k=1 0
d
Z tX
0
= σj,k (s, Xs0 )ci,k (s, Xs0 ) ds (par (6.12) avec la notation (6.10))
0 k=1
Z t
0
= (cσ ∗ )i,j (s, Xs0 ) ds. (6.23)
0

On rappelle que B 00 est un mouvement brownien sur Ω et qu’il est indépendant de l’espace
facteur Ω0 . Pour i ≤ m, on définit les P-martingales locales continues suivantes
Z t m Z t
00 (i)
(i) (i) (i)
X
Zt = Vt + 1{ζ(s,Xs0 )<i} dBs et Bt = Πi,k (s, Xs0 )dZs(k) . (6.24)
0 k=1 0

Noter que, par indépendance sur les espaces facteurs Ω0 et Ω00 comme en (6.17), on a
0 00 00
hM (i) , B (k) i = 0 et donc par (6.20), il vient hU (i) , B (k) i = 0 puis par (6.21) aussi
00 00 00
hV (i) , B (k) i = 0. Avec (6.22) et hB (i) , B (j) it = δi,j t (mouvements browniens indépen-
dants), on obtient
Z t
(i) (j) (i) (j)
hZ , Z it = hV , V it + δi,j 1{ζ(s,Xs0 )<i} ds
0
112 Chapitre 6. ©JCB – M2 Math. – Université de Rennes 1
Z t Z t
= δi,j 1{ζ(s,Xs0 )≥i} ds + δi,j 1{ζ(s,Xs0 )<i} ds = δi,j t,
0 0

et donc
m Z
X t
(i) (j)
hB , B it = (Πi,k Πj,l )(s, Xs0 )dhZ (k) , Z (l) is
k,l=1 0
Xm Z t
= (Πi,k Πj,k )(s, Xs0 ) ds
k=1 0
Z t
= (ΠΠ∗ )i,j (s, Xs0 ) ds = δi,j t
0

puisque ΠΠ∗ = Im . Par conséquent, Z et B sont des (Ft )-mouvements browniens m-


dimensionnels (Théorème 1.8 (Lévy)). En particulier, B est le mouvement brownien cherché
sur Ω pour résoudre l’EDS E(a, σ) sur (Ω, F, (Ft )t≥0 , P) comme en (6.2). Pour le voir, on
considère les processus pour i ∈ J1, dK :
Z t m Z t
(i) 0 (i) X
0
Yt = Xt − x − (i)
ai (s, Xs ) ds − σi,j (s, Xs0 ) dBs(j)
0 j=1 0
m Z t
0 (i) X
= Mt − σi,j (s, Xs0 ) dBs(j) .
j=1 0

Ce sont des martingales locales continues nulles en 0 et il s’agit de voir qu’elles sont indis-
0 0
tinguables de 0 pour établir que X 0 = (X (1) , . . . , X (d) ) est solution de E(a, σ) comme en
(i)
(6.2). Comme Y0 = 0, on le montre en établissant ci-dessous que le crochet hY (i) , Y (i) it
est identiquement nul.
On a
m Z t
0 (i) 0 (i)
X
hY (i)
,Y (i)
it = hM ,M it + σi,k (s, Xs0 )σi,l (s, Xs0 )dhB (k) , B (l) is
k,l=1 0
m Z t
0 (i)
X
−2 σi,k (s, Xs0 )dhM , B (k) is . (6.25)
k=1 0

D’abord, avec (6.11) et (6.10), on a


Z t
0 (i) 0 (i)
hM ,M it = ci,i (s, Xs0 ) ds. (6.26)
0

Ensuite, pour le deuxième terme de (6.25), on a :


m Z t
X
σi,k (s, Xs0 )σi,l (s, Xs0 )dhB (k) , B (l) is
k,l=1 0
6.2. EDS et problème de martingale 113

m Z
X t m
Z tX Z t
= 2
σi,k (s, Xs0 ) ds = 2
σi,k (s, Xs0 ) ds = ci,i (s, Xs0 ) ds. (6.27)
k=1 0 0 k=1 0

0 (i) 00 (k)
Puis pour le troisième terme de (6.25) : d’abord, comme hM ,B i ≡ 0, on a par
(i)
définition de B 00 puis de Zk en (6.24) :
m Z t
0 (i) 0
X
(j)
hM , B it = Πj,k (s, Xs0 )dhM (i) , Z (k) is
k=1 0
m Z t  
0 (i) 0 (i) 00 (k)
X
= Πj,k (s, Xs0 ) dhM ,V (k)
is + 1{ζ(s,Xs0 )<k} dhM ,B is
k=1 0
m Z t
0 (i)
X
= Πj,k (s, Xs0 )dhM , V (k) is
k=1 0
m Z t
0
X
= (Πj,k (cσ ∗ )i,k )(s, Xs0 ) ds (d’après (6.23))
k=1 0
Z t
0
= (cσ ∗ Π∗ )i,j (s, Xs0 ) ds. (6.28)
0

Et donc le dernier terme de (6.25) s’écrit avec (6.28) :


m Z t m Z t
0 (i) 0
X X
0 (k)
σi,k (s, Xs )dhM , B is = σi,k (s, Xs0 )(cσ ∗ Π∗ )i,k (s, Xs0 ) ds
k=1 0 k=1 0
Z t
0
= (cσ ∗ Π∗ σ ∗ )i,i (s, Xs0 ) ds
Z0 t
= ci,i (s, Xs0 ) ds (6.29)
0

car par symétrie de c et avec (6.19) obtenu dans l’étape 3


0 0 0
cσ ∗ Π∗ σ ∗ = c∗ σ ∗ Π∗ σ ∗ = (σΠσ c)∗ = c∗ = c.

Finalement avec (6.26), (6.27) et (6.29), (6.25) s’écrit


Z t Z t Z t
0
(i) (i)
hY , Y it = ci,i (s, Xs ) ds + ci,i (s, Xs ) ds − 2 (σΠσ 0 c)i,i (s, Xs0 ) ds = 0.
0
0 0 0

(i)
Comme en plus Y0 = 0 P-ps, on en déduit que Y (i) est P-indistinguable de 0. Cela signifie
que X 0 considéré comme processus sur l’extension (Ω, F, (Ft )t≥0 , P) est solution de l’EDS
E(a, σ) relativement au mouvement brownien B construit en (6.24).
Comme par construction P0 est la loi de X 0 , cela signifie aussi que P0 est mesure-solution
de l’EDS E(a, σ) et on a le résultat cherché, achevant de prouver le Théorème 6.7. 
114 Chapitre 6. ©JCB – M2 Math. – Université de Rennes 1

Ci-dessous, on justifie que sous de bonnes conditions, on peut construire la solution faible
directement sur l’espace canonique Ω0 = C(R+ , Rd ) sans étendre l’espace Ω0 en Ω = Ω0 ×Ω00 ,
comme dans la preuve du Théorème 6.7.

Corollaire 6.11 On considère l’EDS E(a, σ) avec m = d. On suppose l’hypothèse (loc)


satisfaite et on suppose en plus que la fonction σ est inversible d’inverse σ −1 localement
borné. Il existe une probabilité P0 mesure-solution sur (Ω0 , F 0 ) = (C(R+ , Rd ), B(C(R+ , Rd )))
si et seulement s’il existe un (Ft0 )-mouvement brownien d-dimensionnel B 0 sur (Ω0 , F 0 , P0 )
tel que X 0 soit solution faible de E(a, σ) relativement à B 0 , et de loi P0 = PX .

Démonstration : Le sens indirect est immédiat puisqu’alors X 0 , B 0 , (Ω0 , F 0 , (Ft0 )t≥0 , P0 )




est solution faible et donc P0 = PX est mesure-solution.


Pour le sens direct, on construit un triplet solution directement sur (Ω0 , F 0 ). On reprend
l’étape 4 de la preuve précédente mais sans les étapes 2 et 3 qui ne sont plus nécessaires. En
effet dans l’étape 4 de la preuve du Théorème 6.7, comme par hypothèse σ est inversible,
on peut prendre presque sûrement ζ(x, t) = m et Λ0 = Λ−1 .
Avec ζ(x, t) = m et Λ0 = Λ−1 , les définitions en (6.24) se spécialisent en Z (i) = V (i)
et donc B ne dépend pas de B 00 . C’est donc un mouvement brownien directement sur
(Ω0 , F 0 , (Ft0 )t≥0 , P0 ) (et pas seulement sur Ω comme dans l’étape 4 du Théorème 6.7). En
d’autres termes, on n’a pas besoin d’introduire l’espace auxiliaire Ω00 et les processus Y (i)
sont définis sur Ω0 également. On construit alors la solution faible directement avec B 0 = B
sur Ω0 . 

6.3 Équation différentielle fonctionnelle stochastique


Dans cette section, on considère des EDS plus générales en laissant les coefficients
dépendre de la trajectoire X et pas seulement de la valeur Xt en t. On se contente d’indiquer
la généralisation des résultats précédents et on renvoie à [KS, Section 5.4] pour plus de
détails.
Étant donné des fonctions progressivement mesurables ai (t, w), σi,j (t, w), t ∈ R+ , w ∈
C(R+ , Rd ), on considère l’équation différentielle fonctionnelle stochastique (EDfS)

dXt = a(t, X) dt + σ(t, X) dBt . (EDfS)

Ici, les coefficients a et σ dépendent de toute la trajectoire de la solution X et pas seulement


de sa valeur en t. On associe à l’EDfS un opérateur L0 modifié donné pour f ∈ C 2 (Rd ) par

d d
X 1X
L0 f (t, w) = ai (t, w)∂xi f (w(t)) + ci,j (t, w)∂x2i ,xj f (w(t)), t ∈ R+ , w ∈ C(R+ , Rd ).
i=1
2 i,j=1
6.3. Équation différentielle fonctionnelle stochastique 115

Le triplet X, B, (Ω, F, (Ft )t≥0 , P) est solution faible de EDfS si, en plus des conditions
habituelles de mesurabilité, on a, à la place de (6.1)–(6.2) : ps
Z t
2

|ai (s, X)| + σi,j (s, X) ds < +∞, 1 ≤ i ≤ d, 1 ≤ j ≤ m, t ≥ 0, (6.30)
0
Z t Z t
Xt = X 0 + a(s, X) ds + σ(s, X) dBs , 0 ≤ t < +∞. (6.31)
0 0

Soit µ une mesure de probabilité sur B(Rd ). On considère les conditions :


(A) Il existe une solution faible à l’EDfS de distribution initiale µ ;
(B) Il existe une solution P0 au problème de martingale locale associé à L0 avec P0 (w(0) ∈
A) = µ(A), A ∈ B(Rd ) ;
(C) Il existe une solution P0 au problème de martingale associé à L0 avec P0 (w(0) ∈ A) =
µ(A), A ∈ B(Rd ).

Théorème 6.12 Les conditions (A) et (B) sont équivalentes et impliquées par (C). De plus,
(A) implique (C) si l’une des deux conditions supplémentaires suivantes est satisfaite :
(A1) Les fonctions σi,j sont de la forme σi,j (t, w) = σ
ei,j (t, w(t)) avec les fonctions σ
ei,j (t, y)
localement bornées.
(A2) Pour tout T ≥ 0, il existe KT < +∞ tel que kσ(t, w)k ≤ KT pour tout t ∈ [0, T ] et
w ∈ C(R+ , Rd ).

Démonstration : L’équivalence de (A) et (B) résulte d’un théorème analogue au Théo-


rème 6.9 pour EDfS. L’implication (C) ⇒ (B) vient de la Remarque 6.4.

Sous l’hypothèse (A1), la partie diffusion de l’EDfS devient celle d’une EDS classique et
elle est traitée comme dans la Proposition 6.2 à l’aide de la formule d’Itô.
Sous l’hypothèse (A2), on peut encore raisonner comme dans la preuve de la Proposition 6.2
et on récupère de vraies martingales sur tout [0, T ] sdont sur tout R+ grâce à la borne sur
la norme de σ. 

Dans la suite, on utilise le résultat suivant pour la solution de EDfS :


Lemme 6.13 Soit ai (t, w) et σi,j (t, w), 1 ≤ i ≤ d, 1 ≤ j ≤ m, des fonctionnelles progressi-
vement mesurables de R+ × C(R+ , Rd ) dans R satisfaisant
 
ka(t, w)k + kσ(t, w)k ≤ K 1 + max kw(s)k , 0 ≤ t < +∞, w ∈ C(R+ , Rd ), (6.32)
2 2 2
0≤s≤t

où K est une constante positive. Si X, B, (Ω, F, (Ft )t≥0 , P) est une solution faible de
l’EDfS avec E[kX0 k2m ] < +∞ pour m ≥ 1, alors pour tout T ∈]0, +∞[, on a
h i
E max kXs k2m ≤ C(1 + E[kX0 k2m ])eCt , 0 ≤ t < T, (6.33)
0≤s≤t
116 Chapitre 6. ©JCB – M2 Math. – Université de Rennes 1

E kXt − Xs k2m ≤ C(1 + E[kX0 k2m ])(t − s)m ,


 
0 ≤ s < t < T, (6.34)

où C est une constante positive qui ne dépend que de m, T, K et d.

Démonstration : On note C(m, d) pour une constante qui ne dépend que de m et d (et qui
peut varier de ligne en ligne). Par convexité de x ∈ R+ 7→ x2m , on a
Z t 2m Z t 2m !

kXt k2m ≤ C(m, d) kX0 k2m + a(u, X)du + σ(u, X) dBu
.
0 0

Par l’inégalité d’Hölder, on a


Z t 2m d Z
X t 2 !m Z t m
m 2
a(u, X)du =
ai (u, X)du ≤ t ka(u, X)k du
0 i=1 0 0
Z t
≤ t2m−1 ka(u, X)k2m du.
0

On considère le temps d’arrêt Sk = inf t ≥ 0 : kXt k ≥ k . On a Sk → +∞ ps et ps :

max kXs k2m (6.35)


0≤s≤t∧Sk
Z t∧Sk
Z s∧Sk
2m !

≤ C(m, d) kX0 k2m + t2m−1 ka(u, X)k2m du + max σ(u, X) dBs .
0 0≤s≤t 0

Par les inégalités BDG (1.16) puis Hölder, on a


" Z s∧Sk 2m # Z t∧Sk m
2
E max σ(u, X) dBu
≤ C(m, d)E kσ(u, X)k du
0≤s≤t 0 0
Z t∧Sk 
m−1 2m
≤ C(m, d)t E kσ(u, X)k du .
0

En prenant l’espérance dans (6.35), il vient alors pour tout 0 ≤ t ≤ T :


 
2m
E max kXs k
0≤s≤t
 Z t∧Sk 
2m 2m 2m
≤ C(m, d) E[kX0 k ] + C(T )E (ka(u, X)k + kσ(u, X)k )du
0
 Z t∧Sk  m 
2m 2
≤ C(m, d) E[kX0 k ] + C(T )E (2K) 1 + max kXv k du
0 0≤v≤u
 Z t h i 
2m 2m
≤ C(m, d) E[kX0 k ] + (2K)T C(T ) + (2K)C(T ) E max kXv k du
0 0≤v≤u∧Sk
6.3. Équation différentielle fonctionnelle stochastique 117

en utilisant la croissance sous-linéaire (6.32) supposée. En posant


 
2m
ψk (t) = E max kXs k ,
0≤s≤t∧Sk

on déduit pour une constante C = C(m, d, T, K) :


 Z t 
2m
ψk (t) ≤ C 1 + E[kX0 k ]+ ψk (u)du , 0 ≤ t ≤ T.
0

Par le lemme de Grönwall (Lemme 3.7), il vient alors pour une constante C :

ψk (t) ≤ C 1 + E[kX0 k2m ] eCt ,



0 ≤ t ≤ T.

Comme Sk % +∞, la borne (6.33) vient finalement par convergence monotone quand
k → +∞ :
   
2m 2m
≤ C 1 + E[kX0 k2m ] eCt , 0 ≤ t ≤ T.

E max kXs k = lim E max kXs k
0≤s≤t k→+∞ 0≤s≤t∧Sk

Pour (6.34), on fixe 0 ≤ s < t ≤ T et on part de


Z t Z t
Xt − Xs = a(u, X)du + σ(u, X) dBu
s s

ce qui mène par convexité à


Z t 2m Z t 2m !
2m

kXt − Xs k ≤ C(m, d)
a(u, X)du + σ(u, X) dBu
.
s s

On procède alors comme précédemment pour (6.35) avec la croissance sous-linéaire (6.32)
et le lemme de Grönwall pour avoir
Z t  
E kXt − Xs k2m ≤ C(t − s)m−1 2m
 
1 + E max kXθ k du
s 0≤θ≤u
Z t
m−1
1 + C(1 + E[kX0 k2m ])eCu du

≤ C(t − s)
s
≤ C(1 + Ce ) 1 + E[kX0 k2m ] (t − s)m ,
CT


en utilisant la borne (6.33) déjà prouvée, ce qui établit (6.34). 


118 Chapitre 6. ©JCB – M2 Math. – Université de Rennes 1

6.4 Existence de solution faible d’EDS


Le résultat suivant est le principal résultat d’exsitence de Stroock-Varadhan pour les
EDS. L’existence est obtenue grâce à un problème de martingale :
Théorème 6.14 (Skorohod (1965), Stroock et Varadhan (1969)) On considère l’EDS E(a, σ)
homogène
dXt = a(Xt ) dt + σ(Xt ) dBt (E0 (a, σ))
avec les fonctions ai , σi,j : R → R bornées et continues 1 ≤ i ≤ d, 1 ≤ j ≤ m. Pour toute
loi initiale µ sur B(Rd ) satisfaisant pour un certain m > 1 :
Z
kxk2m µ(dx) < +∞, (6.36)
Rd

il existe une solution faible à l’EDS E0 (a, σ).


(n)
Démonstration : Pour tout entier j ≥ 0 et n ≥ 1, on considère les dyadiques tj = j2−n
et on introduit les fonctions ψn données par
(n)  (n) (n) 
ψn (t) = tj si t ∈ tj , tj+1 .

On définit alors de nouveaux coefficients de dérive et de diffusion sur R+ × C(R+ , Rd ) par


a(n) (t, w) = a w(ψn (t) , σ (n) (t, w) = σ w(ψn (t)) , 0 ≤ t < +∞, w ∈ C(R+ , Rd ).
 

Soit (Ω, F, P) un espace de probabilité et B un mouvement brownien m-dimensionnel sur


cet espace. On considère ξ un vecteur aléatoire de loi µ, indépendant de B, et on considère
la filtration brownienne augmentée (complétée) (Ft )t≥0 .
(n)
Pour tout n ≥ 1, on définit le processus à trajectoires continues X (n) = (Xt )t≥0 donné
(n)
par X0 = ξ et
(n) (n) (n)  (n) (n)   (n) (n)
Xt = X (n) + a X (n) (t − tj ) + σ X (n) Bt − Bt(n) , tj < t ≤ tj+1 , j ≥ 0.
tj tj tj j

Alors par construction X (n) résout l’EDfS


(n)
dXt = a(n) (t, X (n) )dt + σ (n) (t, X (n) ) dBt (6.37)
(n)
avec X0 = ξ, soit
Z t Z t
(n) (n) (n)
Xt =ξ+ a (s, X ) ds + σ (n) (s, X (n) ) dBs , 0 ≤ t < +∞.
0 0

Pour passer à la limite (en loi), on montre que la suite P (n) des processus X (n) est tendue.
En effet, pour 0 < T < +∞, le Lemme 6.13 appliqué à X (n) solution de l’EDfS (6.37) avec
des coefficients a(n) et σ (n) uniformément bornés assure
 (n)
sup E kXt − Xs(n) k2m ≤ C 1 + E[kξk2m ] (t − s)m , 0 ≤ s < t ≤ T.
 
(6.38)
n≥1
6.4. Existence de solution faible d’EDS 119

pour une constante C = C(m, T, d, kak, kσk). Comme m > 1, la borne (6.38) assure
le critère de tension de Kolmogorov
 pour obtenir que la suite (P (n) )n≥1 est tendue sur
C(R+ , Rd ), B(C(R+ , Rd )) . Le théorème de Prohorov assure alors la relativement compa-
cité de la suite (P (n) )n≥1 : il existe une sous-suite (P (nk ) )k≥1 qui converge en loi. Quitte
(n)
à reindexer la suite, on peut supposer que (P )n≥1 converge en loi vers une mesure de
∗ d d

probabilité P sur C(R+ , R ), B(C(R+ , R )) .
On montre alors que P ∗ est mesure-solution de l’EDS E(a, σ). Pour cela, par le Théo-
rème 6.12 il suffit de montrer que P ∗ solutionne un problème de martingale, c’est à dire :
pour tout 0 ≤ s < t < +∞ et f ∈ Cc2 (Rd ),
P ∗ w ∈ C(R+ , Rd ) : w(0) ∈ A = µ(A), A ∈ B(Rd )

(6.39)
h i
t
E ∗ f (w(t)) − f (w(s)) − s Lf (u, w(u))du|Fs0 = 0 P ∗ -ps.
R
(6.40)

Pour toute f ∈ Cb (Rd ), la convergence en loi de P (n) vers P ∗ assure


Z
∗ (n)
E [f (w(0))] = lim E [f (w(0))] = f (x)µ(dx)
n→+∞ Rd

car X (n) (0) ∼ µ, et (6.39) est établie.


Pour établir (6.40), on commence par observer que comme par hypothèse du Théorème 6.14
la fonction σ est bornée, alors σ (n) aussi et l’EDfS (6.37) vérifie la condition (A2) du
Théorème 6.12. Dès lors par ce Théorème 6.12, la mesure-solution P (n) de (6.37) vérifie un
problème de martingale : pour toute fonction f ∈ Cc2 (Rd ) et n ≥ 1
Z t
f (w(t)) − f (w(0)) − L(n) f (u, w)du
0

est une (Ft0 )-martingale où on a noté pour le générateur associé à X (n) :
d d d r
(n)
X (n) 1 X X X (n) (n)
L f (t, w) = ai (t, w)∂xi f (w(t)) + σi,j (t, w)σk,j (t, w)∂x2i ,xk f (w(t)).
i=1
2 i=1 k=1 j=1

Ainsi, avec 0 ≤ s < t < +∞ et g : C(R+ , Rd ) → R une fonction continue bornée et


Fs0 -mesurable, on a
 Z t  
(n) (n)
E f (w(t)) − f (w(s)) − L (u, f )(w)du g(w) = 0. (6.41)
s

Pour obtenir (6.40), on passe à la limite n → +∞ dans (6.41) en utilisant le lemme suivant :
Lemme 6.15 Soit (Pn )n≥1 une suite de mesures de probabilité sur un espace topologique
(E, B(E)) qui converge en loi vers une probabilité P . On suppose que (fn )n≥1 est une suite
uniformément bornée de fonctions continues fn : E → R qui converge uniforménent sur
tout compact de E vers f . Alors
Z Z
lim fn dPn = f dP.
n→+∞ E E
120 Chapitre 6. ©JCB – M2 Math. – Université de Rennes 1

Démonstration :[Lemme 6.15] On note M une borne uniforme de fn , n ≥ 1. Comme fn → f


uniformément sur tout compact, on a f ∈ Cb (E) et aussi kf k∞ ≤ M puisque pour tout x
et K un voisinage compact de x ∈ E

|f (x)| ≤ |f (x) − fn (x)| + |fn (x)| ≤ sup |f (y) − fn (y)| + M.


y∈K

En faisant n → +∞, on obtient |f (x)| ≤ M pour tout x ∈ E, soit kf k∞ ≤ M . Comme


Pn =⇒ P , la suite (Pn )n≥1 est tendue donc pour tout ε > 0, il existe un compact K tel
que Pn (K c ) ≤ ε pour tout n ≥ 1. On a
Z Z Z Z Z

fn dPn − f dP ≤ |fn − f | dPn + f dPn − f dP

E E
Z Z ZE ZE

≤ |fn − f | dPn + |fn − f | dPn + f dPn − f dP
K Kc E E
Z Z

≤ sup |fn (x) − f (x)| Pn (K) + 2M Pn (K c ) + f dPn −

f dP .
x∈K E E
R R
Comme f ∈ Cb (E), la convergence Pn =⇒ P assure limn→+∞ E
f dPn = E
f dP et donc
Z
lim sup |fn − f | dPn ≤ 2M ε,
n→+∞
R R
soit limn→+∞ E
fn dPn = E
f dP . 

Pour 0 ≤ s < t < +∞ fixés, on utilise le lemme précédent avec la convergence P (n) =⇒ P ∗
et les fonctions Z t
Fn (w) = f (w(t)) − f (w(s)) − L(n) (u, f )(w)du (6.42)
s
et Z t
F (w) = f (w(t)) − f (w(s)) − L(u, f )(w)du. (6.43)
s

On commence par remarquer que Fn , F , et même g fonction Fs0 -mesurable, sont définies
sur la restriction C([0, t], Rd ) de C(R+ , Rd ) et
Z Z
(n)
Fn g dP = Fn g dP (n)
C(R+ ,Rd ) C([0,t],Rd )

(n)
où pour simplifier on note encore P (n) pour la restriction P|C([0,t],Rd ) . De même, on a
F g dP ∗ = C([0,t],Rd ) F g dP ∗ . On applique alors le Lemme 6.15 avec E = C([0, t], Rd ),
R R
C(R+ ,Rd )
P (n) =⇒ P ∗ , fn = Fn g et f = F g.
Comme g : C([0, t], Rd ) → R est une fonction bornée, il s’agit de voir que Fn en (6.42)
converge uniformément sur les compacts de C([0, t], Rd ) vers F en (6.43).
6.5. Unicité faible avec problème de martingale 121

Étant donné K ⊂ C([0, t], Rd ) un tel compact, le théorème d’Arzéla-Ascoli assure que
M := sup kw(u)k < +∞, lim sup max |w(u) − w(v)| = 0.
w∈K,0≤u≤t n→+∞ w∈K |u−v|≤2−n
0≤u,v≤t

Comme a et σ sont uniformément continues sur {x ∈ Rd : kxk ≤ M }, pour ε > 0, on peut


trouver un entier n(ε) tel que pour n ≥ n(ε) :
 
(n) (n)
sup ka (s, w) − a(w(s))k + kσ (s, w) − σ(w(s))k ≤ ε.
0≤s≤t
w∈K

La convergence uniforme sur K de Fn en (6.42) vers F en (6.43) suit. Par ailleurs, les
fonctions Fn sont uniformément bornées grâce aux hypothèses sur les fonctions a et σ.
Finalement, le Lemme 6.15 s’applique et donne
Z Z
(n)
E [Fn g] = (n)
Fn g dP −→ F g dP ∗ = E ∗ [F g].
C([0,t],Rd ) C([0,t],Rd )

Comme par (6.41) on a E (n) [Fn g] = 0, on a E ∗ [F g] = 0 pour toute fonction g : C(R+ , Rd ) →


R continue, bornée, Fs0 -mesurable, prouvant la propriété de martingale (6.40).
Finalement, (6.39) et (6.40) sont établis et le Théorème 6.12 assure que P ∗ est mesure-
solution de E(a, σ), ce qui achève la preuve du Théorème 6.14. 

6.5 Unicité faible avec problème de martingale


Le Théorème 6.14 de Stroock et Varadhan est un résultat d’existence qui admet une
version pour l’unicité :
Théorème 6.16 (Stroock et Varadhan (1969)) On suppose que les coefficients a(x) et σ(x)
de l’EDS E(a, σ) homogène sont tels que pour toute f ∈ Cc∞ (Rd ), le problème de Cauchy

∂t u(t, x) = Lu(t, x), (t, x) ∈ R+ × Rd ,
(6.44)
u(0, x) = f (x), x ∈ Rd ,
a une solution uf ∈ C(R+ × Rd ) ∩ C 1,2 (R+ × Rd ) qui est bornée sur toute bande [0, T ] × Rd .
Alors, pour tout x ∈ Rd , il y a au plus une seule solution au problème de martingale
homogène associé et donc unicité faible pour l’EDS E(a, σ) d’après le Théorème 6.12.
Démonstration : cf. [KS, p. 327]. 

On prouve maintenant le Théorème de Yamada-Watanabe énoncé au Chapitre 3 (Théo-


rème 3.5) : on considère l’EDS
dXt = a(t, Xt )dt + σ(t, Xt )dBt (6.45)
où a : R+ × Rd , σ : R+ × Rd → Rd×m sont boréliennes et B est un mouvement brownien
(standard) m-dimensionnel.
122 Chapitre 6. ©JCB – M2 Math. – Université de Rennes 1

Théorème 6.17 (Yamada-Watanabe (1971)) On suppose que les coefficients a, σ vérifient


(loc).
(1) L’unicité trajectorielle implique l’unicité faible.
(2) Toute solution sur un espace quelconque (Ω, F, (Ft )t≥0 , P) relativement à un (Ft )-
mouvement brownien B est en fait adaptée à la filtration (FtB )t≥0 engendrée par ce
mouvement brownien (ie. X est solution forte).

La réciproque du Théorème 6.17 est fausse comme déjà vu dans le contre-exemple de la


Remarque 3.4 justifiant qu’il peut y avoir existence et unicité faibles sans qu’il y ait unicité
trajectorielle.
Pour prouver le Théorème 6.17, on commence par deux résultats préliminaires. On note
(Ω00 , F 00 , (Ft00 )t≥0 , P00 ) l’espace de Wiener m-dimensionnel (ie. Ω00 = C(R+ , Rm )) avec le
processus canonique w00 . La probabilité P00 est alors l’unique probabilité faisant de w00 un
mouvement brownien. On pose
\
Ω = Ω0 × Ω00 , F = F 0 ⊗ F 00 , F t = Fs0 ⊗ Fs00 .

(6.46)
s>t

Comme précédemment, toute fonction sur Ω0 ou Ω00 se prolonge avec la même notation
sur Ω. Soit P une probabilité sur (Ω, F) dont la seconde marginale est égale à P00 , ie.
P(Ω0 × A00 ) = P00 (A00 ) ; il existe alors une désintégration de P selon P00 par

P(dw0 , dw00 ) = P00 (dw00 )Q(w00 , dw0 ) (6.47)

où Q est une probabilité de transition de (Ω00 , F 00 ) dans (Ω0 , F 0 ) qui est unique aux P00 -
négligeables près.
Dans le lemme suivant, on suppose donnée une solution X de l’EDS (6.45) sur un espace
(Ω, F, (Ft )t≥0 , P) relativement à un mouvement brownien B. On note P la loi du couple
(X, B), c’est à dire l’image de P sur (Ω, F) par l’application ψ : ω → Ω définie par
ψ(ω)(t) = (Xt (ω), Bt (ω)) lorsque les trajectoires t 7→ Xt (ω) et t 7→ Bt (ω) sont continues
et par ψ(ω)(t) = (0, 0) (par exemple) sinon sur l’ensemble P-négligeable N où ce n’est pas
vrai. Comme B est un mouvement brownien, la seconde marginale de P est P00 .
0 0 (i,j)
Lemme 6.18 Sous les hypothèses précédentes, les processus M (i) et N en (6.11) et
Z t
0 (i,j) 0 (i) 0 (j)
U = Mt Bt − σi,j (s, Xs0 ) ds (6.48)
0

pour i = 1, . . . , d et j = 1 . . . , m, sont des P-martingales. De plus, pour tout A ∈ Ft , la


variable aléatoire Z
00
Q1A (w ) = 1A (w0 , w00 )Q(w00 , dw0 ) (6.49)
Ω0

est P-ps égale à une variable aléatoire Ft00 -mesurable.


6.5. Unicité faible avec problème de martingale 123

0 0
Démonstration : L’assertion concernant les processus M (i) et N (i,j) se montre exactement
0
comme dans les Lemme 6.6 et Lemme 6.10. La démonstration pour U (i,j) est analogue
lorsqu’on remarque que les
Z t
(i) (j)
U (i,j)
= Mt Bt − σi,j (s, Xs0 ) ds
0

0 (i,j)
sont des P-martingales locales avec U (i,j) = U ◦ Φ comme dans le Lemme 6.6.
Pour la seconde assertion, comme la filtration (Ft00 )t≥0 est continue à gauche, par un argu-
ment de classe monotone, il suffit de la voir pour A = A0 × A00 , avec A0 ∈ Ft0 et A00 ∈ Ft00 .
Dans ce cas, on a Q1A (w00 ) = 1A00 (w00 )Q(w00 , A0 ) donc en fait il suffit de montrer que Q(·, A0 )
est Ft00 -mesurable si A0 ∈ Ft0 . Cela revient à montrer que

E00 1B Q(·, A0 ) = E00 Q(·, A0 )P00 (B|Ft00 )


   
(6.50)

pour tout B ∈ F 00 , ou même, par un autre argument de classe monotone, pour B = C ∩ D


00
avec C ∈ Ft00 et D ∈ F (t) = σ(Br00 − Bt00 : r ≥ t). Étant donné (6.47) et comme les
00
tribus Ft00 et F (t) sont indépendantes sous P00 (car B 00 est un mouvement brownien) donc
P00 (B|Ft00 ) = P00 (D)1C , compte tenu de (6.47), (6.50) est alors équivalent à :

P A0 × (C ∩ D) = P(A0 × C)P00 (D).



(6.51)

Le membre de gauche ci-dessus est P ψ −1 (A × (C ∩ D)) . Mais à l’ensemble négligeable




N près, ψ −1 (A × (C ∩ D)) est A0 ∩ A1 où A0 est l’ensemble Ft -mesurable où le couple de


trajectoires (X· (ω), B· (ω)) est dans A × C. Et A1 est l’ensembles des w tels que la trajec-
toires B· (w) est dans D. Ainsi, A1 est dans la tribu engendrée par σ(Br − Bt : r ≥ t) et est
donc indépendant de Ft . Par suite, le membre de gauche de (6.51) vaut P(A0 )P(A1 ). Un
raisonnement analogue montre que le membre de droite est aussi égale à (6.51). 

Soit maintenant deux solutions faibles de l’EDS (6.45) :

X1 , B1 , (Ω1 , F1 , (Ft1 )t≥0 , P1 ) X2 , B2 , (Ω2 , F2 , (Ft2 )t≥0 , P2 ) .


 
et

Les lois P01 = P1 ◦ X1−1 et P02 = P2 ◦ X2−1 sont mesures-solution. Pour chaque i = 1, 2, P0i
est associée comme ci-dessus à une probabilité Pi sur l’extension (Ω, F, (F t )t≥0 ) en (6.46),
avec Pi de seconde marginale P00 , et se désintègre selon (6.47) avec une probabilité Qi . On
considère alors l’espace produit
\
Ω = Ω0 × Ω0 × Ω00 , F = F 0 ⊗ F 0 ⊗ F 00 , Ft = Fs0 ⊗ Fs0 ⊗ Fs00 ,

(6.52)
s>t

muni de la probabilité

P(dw10 , dw20 , dw00 ) = Q1 (w00 , dw10 )Q2 (w00 , dw20 )P00 (dw00 ). (6.53)
124 Chapitre 6. ©JCB – M2 Math. – Université de Rennes 1

Enfin, une fonction sur Ω00 admet une extension sur Ω notée de la même, façon, tandis
qu’une fonction U sur Ω admet deux extensions différentes notées

U (1)(w10 , w20 , w00 ) = U (w10 , w00 ), U (2)(w10 , w20 , w00 ) = U (w20 , w00 ).


Lemme 6.19 Si M est une martingale locale continue sur Ω, F, (F t )t≥0 , Pi , son extension
M (i) est une martingale sur (Ω, F, (Ft )t≥0 , P).
Démonstration : On montre le résultat pour i = 1. Quitte à localiser, on peut considérer
que la martingale locale M est bornée et est donc une vraie martingale. Il s’agit alors de
montrer que si s ≤ t alors pour tout A ∈ Fs , on a
   
E M (1)t 1A = E M (1)s 1A . (6.54)

Par un argument de classe monotone et continuité à droite, il suffit même de considérer


A = A1 × A2 × A00 avec Ai ∈ Fs0 et A00 ∈ Fs00 . Dans ce cas par la définition de P en (6.53),
et de P1 en (6.47), on a
Z Z
P (dw )1A00 (w )Q2 (w , A2 ) Q1 (w00 , dw10 )1A1 (w10 )Mt (w10 , w00 )
00 00 00 00
 
E M (1)t 1A =
   
= E1 1A00 Q2 (·, A2 )1A1 Mt = E1 1A00 Q2 (·, A2 )1A1 Ms

où la dernière égalité vient de ce que Q2 (·, A2 ) est Fs00 -mesurable, par le Lemme 6.18 puisque
A002 ∈ Fs00 . Le même calcul en partant de E[M (1)s 1A ] aboutit au même résultat, prouvant
(6.54). 

À l’aide des Lemme 6.18 et Lemme 6.19, on donne maintenant la preuve du Théorème 6.17.
Démonstration :[Théorème 6.17] Comme juste précédemment, on suppose que P01 et P02
sont deux mesures-solutions, et on reprend les notations de ci-dessus. Par applications des
0 0 0
Lemme 6.18 et Lemme 6.19, on voit que les processus M (i) (k), N (i,j) (k), U (i,j) (k) sont
des martingales locales continues et nulles en 0 sur (Ω, F, (Ft )t≥0 , P) en (6.52)–(6.53) pour
k = 1, 2. En particulier, on a
Z t
0 (i) 0 (j)
hM (k), M (k)it = ci,j (s, X 0 (k)s ) ds
0

et Z t
0 (i) 00 (j)
hM (k), B (k)it = σi,j (s, X 0 (k)s ) ds.
0
00
Par suite, B est un (Ft )-mouvement brownien pour P, et si on pose
Z t m Z t
00
(i)
X
0
(i) (i)
Y (k)t = X (k)t − x0 − ai (s, X (k)s ) ds − σi,j (s, X 0 (k)s )dBs (j)
0 j=1 0
6.5. Unicité faible avec problème de martingale 125

m Z t
0 (i) 00
X
= M (k)t − σi,j (s, X 0 (k)s )dBs (j) ,
j=1 0

on vérifie immédiatement pour cette martingale locale que


* m Z
+
·
0 (i) 0 (i) 0 (i) 00 (j)
X
hY (i) (k), Y (i) (k)it = hM (k), M (k)it − 2 M (k), σi,j (s, S 0 (k)x )dBs
j=1 0
t
* m Z m Z ·
+
·
00 00
X X
+ σi,j (s, X 0 (k)s )dBs (j) , σi,j (s, X 0 (k)s )dBs (j)
j=1 0 j=1 0
t
Z t m Z
X t
= ci,i (s, X 0 (k)s ) ds − 2 σi,j (s, S 0 (k)x )σi,j (s, X 0 (k)s ) ds
0 j=1 0
m Z t
X
+ σi,j (s, X 0 (k)s )2 ds
j=1 0

= 0,

par définition de ci,j en(6.3). Il s’ensuit que Y (i) (k) = 0 et donc X 0 (k) est solution de l’EDS
(6.45) sur l’espace (Ω, F, (Ft )t≥0 , P) relativement au mouvement brownien B 00 .
On applique alors l’hypothèse d’unicité trajectorielle : les deux processus X 0 (1) et X 0 (2)
sont P-indistinguables. En d’autres termes, P(w10 6= w20 ) = 0. Par suite, étant donné la
définition de P en (6.53), pour P00 -presque chaque w00 en dehors d’un négligeable N , on a
Z Z
0 0
0 = P(w1 6= w2 ) = Q2 (w , dw2 )Q1 (w , dw1 )1{w10 6=w20 } = Q2 (w00 , dw20 )Q1 (w00 , {w20 }c ).
00 0 00 0

On a donc Q1 (w00 , {w20 }c ) = 0 pour Q2 (w00 , ·)-presque tout w20 . Comme Q1 est une proba-
bilité, pour w00 6∈ N , il s’agit d’une masse de Dirac,

Q1 (w00 , ·) = δf (w00 ) (dw10 ), (6.55)

pour une certaine application f : Ω00 → Ω0 . Il en est de même de Q2 : pour une certaine
application g : Ω00 → Ω0 :
Q2 (w00 , ·) = δg(w00 ) (dw20 ).
Les deux applications f et g sont P0 -ps égales puisque par (6.53), on a
Z
1 = P(w1 = w2 ) = 1{w10 =w20 } Q1 (w00 , dw10 )Q2 (w00 , dw20 )P00 (dw00 )
0 0

Z
= 1{w10 =w20 } δf (w00 ) (w10 )δg(w00 ) (w20 )P00 (dw00 ) = P00 (f (w00 ) = g(w00 )).

Par suite, Q1 (w00 , ·) = Q2 (w00 , ·) si w00 6∈ N et donc P01 = P02 par leur définition en (6.47),
prouvant l’unicité faible cherchée.
126 Chapitre 6. ©JCB – M2 Math. – Université de Rennes 1

De plus, de (6.55), on a X 0 = f (B 00 ) P1 -ps et il est clair que w00 7→ f (w00 )t est Ft00 -mesurable :
par suite, sous P01 , le processus solution X 0 est en fait adapté à la filtration engendrée par
B 00 .
Si maintenant, on considère une solution X relative à un mouvement brownien B sur un
espace de probabilité quelconque, la loi du couple (X, B) est P1 comme en (6.47) et comme
X 0 = f (B 00 ) P1 -ps, il en découle que X = f (B) ps sur l’espace sur lequel ces processus sont
définis. Ainsi, X est adapté à (FtB )t≥0 , c’est à dire la solution est forte. 
Bibliographie

[App] David Applebaum. Lévy Processes and Stochastic Calculus. Cambridge series in
advanced mathematics, vol. 93, 2004.
[BC] Bernard Bercu, Djalil Chafaı̈. Modélisation stochastique et simulation. Dunod, 2007.
[JCB-mesure] Jean-Christophe Breton. Intégrale de Lebesgue. Notes de cours, L3 Mathé-
matiques, Université de Rennes 1, 2016.
[JCB-proba] Jean-Christophe Breton. Fondement des Probabilités. Notes de cours, L3 Ma-
thématiques, Université de Rennes 1, 2014.
M1 Mathématiques, Université de Rennes 1, 2019.
[JCB-proc] Jean-Christophe Breton. Processus stochastiques. Notes de cours, M2 Mathé-
matiques, Université de Rennes 1, 2019.
[Bil2] Patrick Billingsley. Convergence of Probability measures. 2nd Edition, Wiley series
in probabilities and mathematical statistics, 1999.
[Chung] Kai Lai Chung. A course in probability theory. 3rd Edition, Academic Press, 2001.
[CM] Francis Comets, Thierry Meyre. Calcul stochastique et modèles de diffusions. Dunod,
2006.
[CT] Rama Cont, Peter Tankov. Financial modelling with Jump Processes. Chapman &
Hall, 2003.
[Dav] Youri Davydov. Cours de DEA ”Processus stochastiques”. Université Lille 1, 1999–
2000.
[DM] Claude Dellacherie, Pierre-André Meyer. Probabilités et potentiels. Hermann, 1975.
[EGK] Nicole El Karoui, Emmanuel Gobet, Etienne Pardoux. Introduction au calcul sto-
chastique. École Polytechnique, 2001.
[Fel] William Feller. An introduction to probability theory and its applications. Vol. 1. 3rd
Edition, Wiley series in probabilities and mathematical statistics, 1968.
[Gal] Léonard Gallardo. Mouvement brownien et calcul d’Itô. Coll. Méthodes mathéma-
tiques. Ed. Hermann. 2008.
[Gué] Hélène Guérin. Processus à temps continu. Notes de cours, M2 Mathématiques, Uni-
versité de Rennes 1, 2009.
[Kal] Olav Kallenberg. Foundations of modern probability. 2nd Edition, Springer Series in
Statistics. Probability and its Applications, 2002.

127
128 Bibliographie

[KS] Ioannis Karatzas, Steven E. Shreve. Brownian motion and stochastic calculus. Sprin-
ger, 1987.
[Kin] John Kingman. Poisson processes. Oxford University Press, 1993.
[LG0] Jean-François Le Gall. Introduction au mouvement brownien. Gazette des Mathé-
maticiens, vol. 40, 1989.
[LG1] Jean-François Le Gall. Mouvement brownien, martingales et calcul stochastique.
Spinger, Coll. Mathématiques et applications, vol. 71, 2013. Voir les notes de cours
M2 Mathématiques de l’Université Paris sud-Orsay.
[Lif] Michel Lifshits. Gaussian random functions, Kluwer, 1995.
[Mal] Florent Malrieu. Processus de Markov et inégalités fonctionnelles. Notes de cours de
Master 2, 2005–2006.
[Pro] Philipp Protter. Stochastic integration and differential equations. Springer, 1995.
[RY] Daniel Revuz, Marc Yor. Continuous martingales and Brownian motion. Springer,
1991.
[Tud] Ciprian Tudor. Cours de calcul stochastique. Notes de cours M2 Mathématiques,
Université Lille 1, 2011.

Vous aimerez peut-être aussi