Explorer les Livres électroniques
Catégories
Explorer les Livres audio
Catégories
Explorer les Magazines
Catégories
Explorer les Documents
Catégories
M2–Probabilités et Finance
Calcul Stochastique
Philippe Bougerol
14 Octobre 2009
1
TABLE DES MATIÈRES
2. Intégration de Lebesgue . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
2.1. Mesures . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
2.2. Intégration . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
2.3. Espaces L1 , L1 , L2 , L2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
2.4. Espérance conditionnelle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
2.5. Densités, Probabilités équivalentes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
2.6. Uniforme intégrabilité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
2.7. Divers . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
2.8. Convergence en probabilité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
2.9. Tribu engendrée . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
2.10. Lois . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
2.11. Mesure produit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
2.12. Processus . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
2.13. Indépendance . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
3. Mouvement Brownien . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
3.1. Loi gaussienne . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
3.2. Vecteur gaussien . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28
3.3. Famille gaussienne . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
3.4. Définition du mouvement brownien . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
3.5. Filtrations et Brownien . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30
3.6. Propriété de Markov forte du mouvement brownien . . . . . . . . . . . . . . 32
3.7. Existence et Simulation du Mouvement brownien . . . . . . . . . . . . . . . . 36
4 TABLE DES MATIÈRES
3.8. Appendice 1 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36
3.9. Appendice 2 : Construction de P. Lévy du mouvement brownien . . 37
4. Martingales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39
4.1. Martingales, définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39
4.2. Martingales à temps discret . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40
4.3. Martingale continue à droite . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42
4.4. Formulaire sur l’espérance conditionnelle . . . . . . . . . . . . . . . . . . . . . . . . 45
5. Crochet de martingales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49
5.1. Cas discret . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49
5.2. Premiers pas, à temps continu . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51
5.3. Crochet comme variation quadratique . . . . . . . . . . . . . . . . . . . . . . . . . . 52
5.4. Martingale locale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 54
5.5. Processus à variation finie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 57
5.6. Crochet de deux martingales locales . . . . . . . . . . . . . . . . . . . . . . . . . . . . 58
6. Intégrale stochastique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61
6.1. Intégrale stochastique par rapport à une martingale de carré intégrable
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61
6.2. Cas d’une martingale locale. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 65
6.3. Semimartingales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 66
6.4. Formule d’Itô . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 69
7. Applications de la formule d’Ito . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 73
7.1. Sur le Brownien multidimensionnel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 73
7.2. Martingales exponentielles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 75
7.3. Théorème de représentation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 77
7.4. Girsanov . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 79
8. Equations différentielles stochastiques . . . . . . . . . . . . . . . . . . . . . . . . . . 83
8.1. Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 83
8.2. Solutions fortes d’E.D.S. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 84
8.3. Localisation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 86
8.4. Propriété de Markov . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 87
8.5. Processus de Markov . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 88
8.6. EDS et EDP . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 89
CHAPITRE 1
INTRODUCTION AU CALCUL
STOCHASTIQUE
1.1. Modélisation
On cherche à modéliser (construire des modèles) et faire des calculs sur des
phénomènes évoluant dans le temps qui dépendent du hasard.
La valeur Xt du phénomène à l’instant t, peut être observée à cet instant,
mais pas prédite avant. Entre les instants t et t+h une part de hasard s’ajoute.
On s’intéresse au cas le plus fréquent où la fonction t 7→ Xt est continue. Pour
faire simple supposons que Xt est à valeurs dans R. On va avoir, pour t, h ≥ 0,
Xt+h = Xt + ∆ht
où ∆ht est aléatoire. L’idée fondamentale est qu’au moins dans un premier
temps, pour h très très (infinitésimalement...) petit, ∆ht peut s’écrire
∆ht = Ht εht
où εht est une variable aléatoire indépendante de tout ce qui précède et de loi
ne dépendant que de h (et donc pas de t) et où Ht est une fonction continue
de t, ”observable à l’instant t”, par exemple une fonction de Xt . On va voir
que c’est très opérationel.
C’est assez naturel. Dans le cas déterministe (c’est à dire sans hasard), et
si Xt est dérivable, on a bien ce type de modélisation en prenant pour Ht la
dérivée à l’instant t et en prenant εht = h.
2 CHAPITRE 1. INTRODUCTION AU CALCUL STOCHASTIQUE
1.2. Bruit
Le fait d’avoir pris h ≥ 0 (infinitésimalement) petit entraı̂ne des contraintes.
Si on remplace h par h = h1 + h2 , avec h1 , h2 ≥ 0, on a
Xt+h = Xt + Ht εht
= Xt+h1 +h2 = Xt+h1 + Ht+h1 εht+h
2
1
nous amène à (et l’on va voir que c’est vraiment ça la propriété clef, plus
encore que d’être gaussien)
mh1 +h2 = mh1 + mh2 , σh21 +h2 = σh21 + σh22
donc (par exemple si ces coefficients sont continus), il existe a ∈ R et σ ≥ 0
tels que mh = ah et σh2 = σ 2 h.
On voit donc que l’on peut écrire
εht = ah + σ(Bt+h − Bt )
où Bt est un mouvement brownien sur un espace de probabilité (Ω, A, P),
c’est à dire un processus (=famille de variables aléatoires) continu formé de
v.a. gaussiennes telles que Bt ∼ N (0, t) et Bt+h − Bt est indépendant de
Br , 0 ≤ r ≤ t.
On était parti de
Xt+h = Xt + Ht εht
donc on a, au moins infinitésimalement,
Xt+h = Xt + Ht (ah + σ(Bt+h − Bt )).
1.3. UN ”PRIMER” SUR L’INTÉGRALE D’ITO 3
Z t
= E([ (Hs(n) − Hs(m) ) dBs ]2 )
0
Z t
= E( (Hs(n) − Hs(m) )2 ds)
0
Z t
= E((Hs(n) − Hs(m) )2 ) ds
0
Rt (n)
par le lemme. L’espace L2 (Ω, F, P) étant complet (Hilbert), cette suite 0 Hs dBs
converge. On appelle
Z t
Hs dBs
0
sa limite. Elle vérifie, par passage à la limite, comme au dessus
Proposition 1.3.2. —
Z t
E( Hs dBs ) = 0,
0
Z t Z t
E(( Hs dBs ) ) = E( Hs2 ds).
2
0 0
Preuve:
n−1
!2
X
E( f (Btnk )[(Btnk+1 − Btnk )2 − (tnk+1 − tnk )] )
k=0
n−1
X n−1
X
= E( f (Btnk )f (Btnr )[(Btnk+1 −Btnk )2 −(tnk+1 −tnk )][(Btnr+1 −Btnr )2 −(tnr+1 −tnr )])
k=0 r=0
n−1
X
= E(f (Btnk )2 [(Btnk+1 − Btnk )2 − (tnk+1 − tnk )]2 )+
k=0
X
+2 Ef (Btnk )f (Btnr )[(Btnk+1 −Btnk )2 −(tnk+1 −tnk )][(Btnr+1 −Btnr )2 −(tnr+1 −tnr )])
0≤k<r<n
n−1 n−1
X 1 X 00 k
= f 0 (Btnk )(Btnk+1 − Btnk ) + f (θn )(Btnk+1 − Btnk )2
2
k=0 k=0
où θnk
est entre B et B tn
k
. tn
k+1
Comme ça ne dépend pas de n c’est égal à sa limite quand n → +∞.
Supposons par exemple f 0 borné et prenons la limite de chacun des deux
termes de la somme dans L2 . Pour le premier, on remarque d’abord que
n−1
X Z t
0
f (Btk )(Btk+1 − Btk ) =
n n n Zsn dBs
k=0 0
où
n−1
X
Ztn = f 0 (Btnk )1[tnk ,tnk+1 ] (t).
k=0
Donc, en utilisant la proposition,
n−1
X Z t
E([ f 0 (Btnk )(Btnk+1 − Btnk ) − f 0 (Bs ) dBs ]2 )
k=0 0
8 CHAPITRE 1. INTRODUCTION AU CALCUL STOCHASTIQUE
Z t
= E([ (Zsn − f 0 (Bs )) dBs ]2 )
Z0 t
= E([ (Zsn − f 0 (Bs ))2 ds])
0
qui tend vers 0 par le théorème de convergence dominée usuel. Donc, dans L2 ,
n−1
X Z t
0
f (Btk )(Btk+1 − Btk ) →
n n n f 0 (Bs ) dBs .
k=0 0
INTÉGRATION DE LEBESGUE
2.1. Mesures
Un espace mesurable est la donnée (Ω, F) d’un ensemble Ω et d’une tribu
F sur cet ensemble :
Définition 2.1.1. — Une classe de parties F d’un ensemble Ω est une tribu
si
(i) elle est stable par complémentaire,
(ii) elle est stable par réunion dénombrable,
(iii) elle contient Ω.
Pour comparaison une topologie est une classe d’ouverts : c’est à dire, par
définition, une classe de parties de Ω stable par union quelconque, intersection
finie, contenant Ω et ∅
Définition 2.1.2. — Une mesure sur un espace mesurable (Ω, F) est une
application m : F → R+ ∪ {+∞} telle que
(i) m(∅) = 0.
(ii) m(A ∪ B) = m(A) + m(B) si A ∈ F, B ∈ F sont disjoints.
(iii) si (An , n ∈ N) est une suite croissante d’éléments de F, m(An ) →
m(∪An ).
On dit que m est σ-finie si on peut écrire Ω comme une réunion dénombrable
d’ensembles de mesure finie ; m est une probabilité si m(Ω) = 1.
10 CHAPITRE 2. INTÉGRATION DE LEBESGUE
Définition 2.1.3. — On dit qu’une propriété est vraie p.p. (presque partout)
ou p.s. (presque surement) si elle est vraie en dehors d’un ensemble de mesure
nulle.
2.2. Intégration
Soit (Ω, F, m) un espace mesurable muni d’une mesure. Une fonction f :
Ω → R est étagée si on peut l’écrire sous la forme
n
X
f= rk 1Ak
k=1
Lemme 2.2.1. — Si (fn ) est une suite de fonctions mesurables, alors supn∈N fn
est mesurable.
Si (fn ) est une suite de fonctions mesurables, pour la même raison, inf n∈N fn
et donc
lim sup fn := lim sup fk = inf sup fk
n→+∞ k≥n n∈N k≥n
où le sup est pris sur l’ensemble des fonctions étagées g qui vérifient 0 ≤ g ≤ f .
Si f est mesurable on dit que f est intégrable si f + := max(f, 0) et f − :=
− min(f, 0) sont d’intégrale finie et on pose alors
Z Z Z
f dm = f dm − f − dm.
+
Lemme 2.2.6 (de Fatou). — Soit (fn ) une suite de fonctions mesurables
positives, Z Z
lim inf fn dm ≤ lim inf fn dm.
2.3. Espaces L1 , L1 , L2 , L2 .
On note L1 l’ensemble des fonctions intégrables, L2 l’ensemble des fonctions
de carré intégrable, i.e. des fonctions mesurables f : Ω → R̄ telles que
Z
|f |2 dm < +∞,
est négatif.
14 CHAPITRE 2. INTÉGRATION DE LEBESGUE
Définition 2.3.2. — La suite (fn ) est de Cauchy dans Lp si pour tout ε > 0
il existe N > 0 tel que pour m, n ≥ N,
kfn − fm k ≤ ε.
Preuve: Ecrivons la preuve pour p = 1. Soit (fn ) une suite de Cauchy. Pour
tout k ∈ N, il existe Nk tel que, pour n, m ≥ Nk ,
kfn − fm k ≤ 2−k .
Si on prend nk = max(N0 , · · · , Nk ) on voit que
kfnk+1 − fnk k ≤ 2−k .
Donc,
∞
Z X ∞ ∞
X X 1
|fnk+1 − fnk | dm = kfnk+1 − fnk k ≤ < +∞.
2k
k=1 k=0 k=0
P∞
Par le Lemme 2.2.2, k=0 |fnk − fnk+1 | est fini presque partout, et la série
P∞
k=0 (fnk − fnk+1 ) est donc convergente (car absolument convergente). On a
p−1
X
fnp = fn0 + (fnk+1 − fnk )
k=0
donc, si on pose
∞
X
f = fn0 + (fnk+1 − fnk ),
k=0
on voit que fnp tend vers f presque partout. On a pu donc extraire une sous
suite convergeant p.p. De plus si n ≥ Nk et p ≥ k, kfn − fnp k ≤ 2−k donc, en
appliquant le lemme de Fatou,
Z Z
|fn − f | dm ≤ lim inf |fn − fnp | dm ≤ 2−k
p→+∞
2.3. ESPACES L1 , L1 , L2 , L2 . 15
d’où kfn − f k tend vers 0. Ceci prouve le 1, et aussi le 2 puisque qu’une suite
convergeante est de Cauchy de façon évidente, et qu’on peut donc lui extraire
une sous suite convergeant p.p.
Par rapport à la topologie il y a une petite difficulté car
R
Lemme 2.3.4. — Si f est mesurable |f | dm = 0 si et seulement si f = 0
p.p.
Cela résulte immédiatement de la très importante inégalité suivante
Lemme 2.3.5 (Inégalité de Markov). — Si f est une fonction mesurable
positive et T > 0, R
f dm
m(f ≥ T ) ≤ .
T
Donc kf k = 0, n’entraı̂ne pas que f est nulle (partout). Donc k · k n’est pas
une norme, mais seulement une semi-norme, et d(f, g) = kf − gk pas vraiment
une distance. Ce n’est pas génant (et si on veut une norme on remplace Lp
par l’ensemble Lp des classes de fonctions égales presque partout).
Un role particulier est joué par L2 (ou L2 ) car il a une structure géométrique
plus riche que les autres. On peut y définir les angles et surtout l’orthogonalité,
à partir du produit scalaire : pour f, g ∈ L2
Z
hf, gi = f g dm.
Un espace vectoriel muni d’un produit scalaire dans lequel les suites de Cauchy
convergent est appelé un espace de Hilbert. L2 est un espace de Hilbert. Une
propriété fondamentale des espaces de Hilbert est le théorème suivant.
Théorème 2.3.6 (Théorème de projection dans un Hilbert)
Soit V un sous espace vectoriel fermé dans un espace de Hilbert H. Pour
tout x ∈ H il existe un unique élément v ∈ V appelé la projection de x sur V
caractérisé par
– v∈V
– hx − v, wi = 0, pour tous w ∈ V .
En appliquant ce théorème ou en reprenant sa preuve on voit que
Théorème 2.3.7 (Théorème de projection dans L2 )
Soit V un sous espace vectoriel fermé de L2 (au sens où toute limite de
suite dans V est p.s. égale à un élément de V ). Pour tout f ∈ L2 , il existe un
élément v ∈ V appelé la projection de x sur V vérifiant
1. v ∈ V
16 CHAPITRE 2. INTÉGRATION DE LEBESGUE
2. hx − v, wi = 0, pour tous w ∈ V .
Si v 0 est un autre élément de V vérifiant cette propriété v = v 0 p.p.
Souvent lorsqu’on dit qu’une v.a. réelle a la densité φ, on sous entend que sa
loi a la densité φ par rapport à la mesure de Lebesgue.
Preuve:
Z Z Z
|X| dP ≤ |X| dP + |X| dP
{|X+X 0 |>R} {|X+X 0 |>R,|X|>R/2} {|X+X 0 |>R,|X|≤R/2}
Z Z
≤ |X| dP + |X| dP
|X|>R/2} {|X 0 |>R/2,|X|≤R/2}
Z Z
≤ |X| dP + |X 0 | dP
|X|>R/2} {|X 0 |≥R/2}
peut être rendu inférieur à ε pour R assez grand et de même pour l’intégrale
de X 0 .
Lemme 2.6.4. — Une suite de v.a. Xn telle que supn E(Xn2 ) < +∞ est
uniformément intégrable.
|Xn |
Preuve: On utilise que 1{|Xn |>R} ≤ R donc
E[Xn2 ]
E[|Xn |1{|Xn |>R} ] ≤ .
R
2.7. Divers
Lemme 2.7.1 (de Borel Cantelli). — Soit (An ) une suite de sous ensembles
mesurables de Ω telle que ∞
P
n=0 m(An ) < +∞. Alors
+∞
X
1An < +∞ p.s.
k=0
Lemme 2.9.4. — Toute fonction mesurable de E dans R̄+ est la limite crois-
sante d’une suite de fonctions étagées.
20 CHAPITRE 2. INTÉGRATION DE LEBESGUE
En effet,
n2n −1
X k
f = lim n1{n≤f } + 1 k k+1
n→+∞ 2n { 2n ≤f < 2n }
k=0
(lorsque f est finie on peut se passer du premier terme).
Pour s’habituer aux notations, utilisons le vocabulaire des probabilités.
Donnons nous une famille (Ei , Ei ), i ∈ I, d’espaces mesurables.
Intuitivement, la tribu σ{Xi , i ∈ I} est formée des ensembles que l’on peut
décrire à l’aide des Xi . Pour une seule application X : Ω → Rd , σ(X) est
exactement la classe des ensembles {X ∈ A}, où A est un borélien de Rd .
Donnons nous pour toute la suite un espace de probabilité (Ω, F, P). Une
variable aléatoire est la même chose qu’une application mesurable mais la
plupart du temps à valeurs dans E = R ou Rd . Le lemme suivant est très
utile.
Une façon agréable d’exprimer le lemme précédant est de dire qu’une va-
riable aléatoire Y est σ(X1 , X2 , · · · , Xn )-mesurable si et seulement si elle
s’écrit
Y = φ(X1 , X2 , · · · , Xn )
pour une application borélienne φ.
Le maniement des tribus engendrées est souvent délicat. Un outil sophis-
tiqué :
2.9. TRIBU ENGENDRÉE 21
2.10. Lois
On se donne un espace de probabilité (Ω, F, P) et un ensemble E, muni
d’une tribu E.
est mesurable et
Z Z Z Z
{ f (x, y) dm1 (x)}dm2 (y) = { f (x, y) dm2 (y)}dm1 (x)
sous l’une des deux hypothèses suivantes (i) f est à valeurs positives (ii) f est
intégrable
2.12. Processus
On appelle processus à temps continu une famille de variables aléatoires
indéxée par R+ et processus à temps discret une famille de variables aléatoires
indexée par N, donc une suite de v.a..
Considérons un processus Xt , t ∈ R+ , à valeurs dans un espace E muni d’une
tribu E. La loi de ce processus, vu comme une v.a. à valeurs dans l’ensemble
+
produit E R , muni de la tribu produit, est complêtement déterminée par les
lois finies dimensionnelles de
(Xt1 , · · · , Xtn ), t1 < · · · < tn , n ∈ N.
Soit (Ω, F, P) un espace de probabilité. On représente ce que l’on ”connait”
à l’instant t par une tribu Ft . Ceci amène à poser
24 CHAPITRE 2. INTÉGRATION DE LEBESGUE
2.13. Indépendance
La notion la plus importante en probabilité est sans conteste la notion
d’indépendance. Elle recouvre à la fois une notion intuitive (le résultat du
loto est indépendant de la température, etc ...) et une notion mathématique.
Il est nécessaire de bien posséder ces deux aspects et de comprendre qu’ils
signifient la même chose. Un bon utilisateur des probabilités est quelqu’un qui
sait exploiter l’indépendance, ou la non indépendance, dans les événements
de la vie courante. Même si le plus souvent on ne s’intéresse qu’à l’indépend-
ance d’événements ou de variables aléatoires, il s’avère plus efficace de définir
l’indépendance de tribus. Un espace de probabilité (Ω, A, P) est toujours fixé.
Définition 2.13.1. — On dit que des tribus A1 , · · · , An contenues dans A
sont indépendantes si, pour tout A1 ∈ A1 , · · · , An ∈ An ,
P(A1 ∩ A2 · · · ∩ An ) = P(A1 )P(A2 ) · · · P(An ).
Des variables aléatoires X1 , · · · , Xn sont dites indépendantes si les tribus
engendrées σ(X1 ), · · · , σ(Xn ) le sont. On dit qu’une famille infinie de sous
tribus (ou de variables aléatoires) est formée de tribus indépendantes lorsque
2.13. INDÉPENDANCE 25
toute sous famille finie a cette propriété. Donnons quelques résultats utiles au
maniement de l’indépendance. Le premier est très important et son énoncé
est à bien comprendre, malgré son aspect compliqué. Nous en donnons deux
formes.
Proposition 2.13.2 (Lemme de regroupement). — (Forme 1). Soit I
un ensemble d’indices, et Ai , i ∈ I, des sous tribus indépendantes de A.
Alors, si I1 , I2 , · · · , In sont des parties disjointes de I, les tribus σ(Ai , i ∈
I1 ), σ(Ai , i ∈ I2 ), · · · , σ(Ai , i ∈ In ) sont indépendantes.
(Forme 2). Soit X1 , X2 , · · · , Xn , · · · des variables aléatoires indépendantes.
Alors si 0 < n1 < n2 < n3 < · · · les variables aléatoires φ1 (X1 , · · · , Xn1 ),
φ2 (Xn1 +1 , · · · , Xn2 ), · · · sont indépendantes, pour toute application φ1 : Rn1 →
R, φ2 : Rn2 −n1 → R, · · · , mesurable.
Donnons un exemple simple mais typique d’utilisation : si X, Y, U, V sont
quatre variables aléatoires réelles indépendantes, alors X + Y et U V sont ind-
épendantes.
Théorème 2.13.3. — Deux variables aléatoires X, Y sont indépendantes si
et seulement si P(X,Y ) = P(X) ⊗ P(Y ) .
Corollaire 2.13.4. — Si les variables aléatoires X, Y sont indépendantes,
alors pour toute fonction φ mesurable positive (ou telle que φ(X, Y ) soit
intégrable) on a
Z Z
E[φ(X, Y )] = φ(x, y) dP(X) (x)dP(Y ) (y).
MOUVEMENT BROWNIEN
1. cf. Appendice
28 CHAPITRE 3. MOUVEMENT BROWNIEN
Pour λ ∈ Rd , notons
d
X
hλ, Xi = λi Xi
i=1
le produit scalaire. En appliquant le lemme à M = λt on voit que
λt KX λ = varhλ, Xi ≥ 0.
En particulier, KX est une matrice symétrique semi-définie positive, donc
diagonalisable de valeurs propres positive ou nulles.
{σ ≤ τ } ∩ {σ ≤ t} = {σ ∧ t ≤ τ ∧ t} ∩ {σ ≤ t} ∈ Ft . On procède de même
pour {σ = τ }.
(ii) On a {supn τn ≤ t} = ∩n {τn ≤ t} ∈ Ft .
(iii) Si {τ < t} ∈ Ft , pour tout t ≥ 0, {τ ≤ t} = ∩ε>0 {τ < t+ε} ∈ Ft+ = Ft . Si
τn est une suite de temps d’arrêt qui décroit vers τ , {τ < t} = ∪n {τn < t} ∈ Ft ,
donc τ est un temps d’arrêt.
Soit (Xt ) un processus adapté à (Ω, Ft ) à valeurs dans un espace métrique
(E, d), par exemple Rk avec la norme usuelle. La distance d définit une topo-
logie et on munit E de la tribu borélienne. On associe à un sous ensemble A
de E,
(3) τA (ω) = inf(t ≥ 0, Xt (ω) ∈ A),
τA est appelé le temps d’entrée dans A.
Proposition 3.6.3. — Si A est fermé et X à trajectoires continues, τA est
un temps d’arrêt.
Preuve: Posons d(x, A) = inf a∈A d(x, a). Cette fonction est continue car, pour
tout x, y ∈ E et a ∈ A
d(x, a) ≤ d(x, y) + d(y, a)
donc d(x, A) ≤ d(x, y) + d(y, A) ce qui assure que |d(x, A) − d(y, A)| ≤ d(x, y).
On utilise alors que
1
{τA ≤ t} = ∩n ∪s<t,s∈Q+ {d(Xs , A) ≤ } ∈ Ft .
n
Proposition 3.6.4. — Si A est ouvert et X à trajectoires continues à droite,
τA est un temps d’arrêt de Ft+ .
Preuve: En effet
{τA < t} = ∪s<t,s∈Q+ {Xs ∈ A}
Lemme 3.6.5. — Si X est un processus continu à droite adapté à (Ft ),
l’application (s, ω) 7→ Xs (ω) est mesurable de ([0, t] × Ω, B([0, t]) ⊗ Ft ) dans
E.
(n) Pn−1
Preuve: Pour tout n, posons Xs = k=0 X k+1 ∧t 1{ k ∧t≤s< k+1 ∧t} . Alors
n n n
(n)
(s, ω) 7→ Xs (ω) est mesurable de ([0, t] × Ω, B([0, t]) ⊗ Ft ) dans E. Il en
est donc de même de la limite X de X (n) quand n → +∞.
Proposition 3.6.6. — Si X est un processus adapté continu à droite et τ un
temps d’arrêt, Xτ 1τ <∞ est Fτ -mesurable.
34 CHAPITRE 3. MOUVEMENT BROWNIEN
On voit donc que, bien que le brownien passe une infinité de fois par tout
les points, il met un temps d’espérance infinie pour atteindre un point donné.
La propriété suivante est assez étonnante !
3.8. Appendice 1
Donnons une excellente approximation de la fonction de repartition de la
loi normale sous la forme d’un programme C.
// standard normal density function
double ndf(double t)
{
return 0.398942280401433*exp(-t*t/2);
}
double nc(double x)
{
double result;
if (x<-7.)
result = ndf(x)/sqrt(1.+x*x);
else if (x>7.)
result = 1. - nc(-x);
else
{
result = 0.2316419;
static double a[5] = {0.31938153,-0.356563782,1.781477937,
-1.821255978,1.330274429};
result=1./(1+result*fabs(x));
result=1-ndf(x)*(result*(a[0]+result*
(a[1]+result*(a[2]+result*(a[3]+result*a[4])))));
if (x<=0.) result=1.-result;
}
return result;
}
MARTINGALES
De plus
E( max Mk2 ) ≤ 4E(Mn2 ).
0≤k≤n
où p−1 + q −1 = 1.
De plus
E( sup Mt2 ) ≤ 4E(MT2 ).
0≤t≤T
Preuve: Puisque Mt2 est une sous martingale, E(Mt2 ) est une fonction crois-
sante. Par hypothèse, elle est bornée. Donc elle converge lorsque t → +∞. On
en déduit que, pour tout ε > 0, il existe N tel que, si s, t ≥ N
E((M∞ − Ms )2 ) < ε
E(sup(Mt+s − Ms )2 ) ≤ 4E((MT +s − Ms )2 ) ≤ 4ε
t≤T
E(sup(Mt+s − Ms )2 ) ≤ 4ε.
t≥0
que
E(sup(Mt − M∞ )2 ) ≤ 16ε.
t≥s
Il existe donc une sous suite ni telle que, p.s., supt≥0 (Mt+ni − M∞ ) → 0, ce
qui entraine que Mt → M∞ , p.s.
Preuve: Remarquons d’abord que pour tout ε > 0, il existe α > 0 tel que, si
P(A) < α alors E(|X|1A ) ≤ ε. En effet, par Lebesgue dominé, E(|X|1{|X|≥M } )
tend vers 0 lorsque M → +∞.On choisit M pour lequel E(|X|1{|X|≥M } )) < ε/2
et ensuite α > 0 tel que αM < ε/2. On a alors
E(|X|1A ) ≤ E(|X|1A 1{|X|≥M } ) + E(|X|1A 1{|X|≤M } )
On utilisera très souvent les inégalités suivantes qui montrent que l’applica-
tion T : Lp → Lp donnée par T (X) = E(X|F) est continue pour p = 1, 2, ∞.
46 CHAPITRE 4. MARTINGALES
CROCHET DE MARTINGALES
Le lemme simple suivant est la clé des calculs que nous ferons.
donc
E(A2n ) ≤ 2E(Mn4 ) + 2E(Mn2 − An )2 ≤ 34K 4 .
On a alors, en appliquant cette fois le lemme à la martingale S(H, M )
n
X
E[S(H, M )2n ] = 2
E(Hk−1 (Mk − Mk−1 )2 )
k=1
n
X n
X
2
= E(Hk−1 E((Mk − Mk−1 )2 |Fk−1 )) = 2
E(Hk−1 (Ak − Ak−1 ))
k=1 k=1
n
X
≤ E(sup |Hk |2 (Ak − Ak−1 )) = E(sup |Hk |2 An )
k=1 k k
√
≤ ||An ||2 || sup |Hk |2 ||2 ≤ 34K 2 || sup |Hk |2 ||2
k k
où l’on a utilsé Cauchy Schwarz à la dernière ligne. On peut donc prendre
c = 6K 2 .
où 0 ≤ t0 < t1 · · · < tn et où Hti est une v.a. Fti –mesurable bornée. On note
E l’ensemble de ces processus élémentaires.
Alors
(i) H · M est une (Ft )-martingale continue, nulle en 0.
(ii) Si M est bornée, il existe une constante C > 0, ne dépendant que de la
borne de M , telle que, pour tout T > 0,
Preuve: Puisque M est une martingale, E(Mr |Fs ) = Mr∧s pour tous r, s, ≥ 0.
On en déduit que si 0 ≤ ti ≤ s ≤ t,
donc encore
(H · M )T = S(G, N )n
Preuve: On regarde Z t
(n)
Xt = Ms(n) dMs
0
où
n−1
(n)
X
Mt = Mtni 1[tni ,tni+1 [ (t).
i=0
(n)
On sait par la Proposition 5.2.1 que Xt est une martingale. En appliquant
(n) (m)
cette proposition à la martingale Xt − Xt on voit qu’il existe C > 0 telle
que
(n) (m)
E[ sup (Xt − Xt )2 ] ≤ C|| sup (M (m) (s) − M (n) (s))2 ||2
0≤t≤T 0≤s≤T
(m)
≤ 2C|| sup (M (s) − M (s)) ||2 + 2C|| sup (M (n) (s) − M (s))2 ||2
2
0≤s≤T 0≤s≤T
(en utilisant (a + b)2 ≤ 2(a2 + b2 )). Par continuité de t 7→ Mt (ω) et donc
uniforme continuité sur [0, T ], et le théorème de convergence dominée, le
dernier terme tend vers 0. On peut donc trouver une sous suite nk , k ≥ 1,
telle que
(n ) (n )
E( sup (Xt k − Xt k+1 )2 ) ≤ 1/2k
0≤t≤T
(n )
On en déduit que Xt k
converge uniformément sur [0, T ] vers un processus
(n)
X qui sera donc continu. Toute la suite Xt converge vers Xt dans L2 . En
particulier X est une martingale. Il reste à montrer que
At := Mt2 − 2Xt
est croissant. On a
j
(n)
X
(5) Atnj = Mt2nj − 2Xtn = M02 + (Mtni − Mtni−1 )2 .
j
i=1
Soit 0 ≤ r ≤ s ≤ T et pour chaque n, notons in ≤ jn les entiers tels que
(n)
tin ≤ r ≤ tnin+1 , tnjn ≤ s ≤ tnjn+1 .
On a
(n)
Xr(n) − Xtn = Mtnin (Mr − Mtnin ) → 0
in
Lemme 5.3.2. — Si (Mt ) est une martingale bornée, on a pour t > s > 0,
E((Mt − Ms )2 |Fs ) = E(hM, M it − hM, M is |Fs ).
Si M est un processus adapté non nul en 0, on dit que c’est une martingale
locale si Mt − M0 l’est. Il résulte du théorème d’arrêt que
Théorème 5.4.2. — Une martingale locale arrétée est une martingale locale.
Théorème 5.4.5. — Une martingale locale M telle que sup0≤s≤t |Ms | est
dans L1 est une martingale.
hM τn , M τn it = hM τm , M τm it
si t ≤ τn . On peut donc définir sans ambiguité hM, M i en posant
hM, M it = hM τn , M τn it , pour tout n tel que τn ≥ t.
On remarque que
Preuve: Supposons (i). On peut réduire M avec Tn = inf{t; |Mt | = n}. Alors
(n)
Nt = (MtTn )2 − hM Tn , M Tn it
(n)
est une martingale locale nulle en 0 telle que sup0≤s≤t |Ns |, majoré par
n + hM, M it , est dans L1 . C’est donc une vraie martingale par le théorème
(n)
5.4.5. Donc E(Nt ) = 0 c’est à dire
(6) E(MT2n ∧t ) = E(hM, M iTn ∧t ).
En particulier
E(MT2n ∧t ) ≤ E(hM, M it )
ce qui assure que la suite MTn ∧t , n ∈ N, est uniformément intégrable. On en
déduit que Mt est une martingale comme limite dans L1 des martingales MtTn .
Par Fatou
E(Mt2 ) ≤ lim inf E(MT2n ∧t ) ≤ lim inf E(hM, M iTn ∧t ) = E(hM, M it ) < +∞.
n→+∞ n→+∞
Donc Mt est de carré intégrable. Ce qui montre (ii). Dans ce cas, par Doob
sup0≤s≤t Ms2 est dans L1 . La martingale locale Mt2 −hM, M it est majorée pour
t ∈ [0, T ] par hM, M iT + sup0≤t≤T Mt2 . C’est donc une vraie martingale par le
théorème 5.4.5.
Supposons maintenant (ii). Soit Sn = inf{t ≥ 0; hM, M it = n}. Alors
MS2n ∧t − hM, M iSn ∧t est une martingale locale dont le sup sur [0, T ] est
intégrable, donc une martingale donc
E(hM, M iSn ∧t ) = E(MS2n ∧t ).
Par Doob E(hM, M iSn ∧t ) ≤ 4E(Mt2 ). En faisant tendre n → +∞ on voit que
(i) est vrai.
Alors
E(sup Mt2 ) ≤ 4E(hM, M i∞ ).
t≥0
5.5. PROCESSUS À VARIATION FINIE 57
Si ces quantités sont finies, Mt est une martingale, elle converge p.s. et dans
L2 vers une v.a. M∞ quand t → +∞ et pour tous temps d’arrêts σ, τ
E(Mτ |Fσ ) = Mτ ∧σ .
Preuve: Soit (τn ) une suite de temps d’arrêt réduisant M . Par Doob, pour
tout T > 0,
E(sup(Mtτn )2 ) ≤ 4E((MTτn )2 ) = 4E(hM τn , M τn iT )
t≤T
On a donc
E( sup Mt2 ) ≤= 4E(hM, M iT ∧τn )
t≤T ∧τn
On peut appliquer deux fois le théorème de convergence monotone, en faisant
tendre T puis n vers l’infini, pour obtenir
E(sup Mt2 ) ≤ 4E(hM, M i∞ )
t≥0
Si cette quantité est finie, Mt est une martingale convergente par le théorème
de convergence 4.3.3. Par le théorème d’arrêt,
E(Mτ ∧n |Fσ ) = Mτ ∧n∧σ .
et on peut appliquer le théorème de convergence dominée pour l’espérance
conditionnelle (ou la continuité dans L2 ) pour faire tendre n vers l’infini.
Attention : si M est une vraie martingale, E(Mt2 ) = E(hM, M it ), donc
sup E(Mt2 ) = E(hM, M i∞ ).
t≥0
Si par contre M est seulement une martingale locale ceci peut être faux, comme
le montre le contre exemple de la fin de la section précédente Mt = 1/||Bt+1 ||
où B est le brownien de R3 .
Insistons, l’inégalité de Doob sous la forme
E(sup Mt2 ) ≤ 4E(MT2 )
t≤T
i=1
pn
X
≤ E(sup |Ntnj − Ntnj−1 | |Ntni − Ntni−1 |)
j i=1
≤ E(sup ||Ntnj − Ntnj−1 |UT ∧τk + VT ∧τk |)
j
≤ kE(sup |Ntnj − Ntnj−1 ]) → 0
j
Si M et N sont bornés, il résulte de la formule (4) que si 0 = tn0 < tn1 <
· · · < tnpn = T sont des subdivisions dont le pas tend vers 0. Alors
pn
X
(8) hM, N iT = lim (Mtni − Mtni−1 )(Ntni − Ntni−1 )
n→+∞
i=1
On en déduit :
c’est à dire
Z t Z t Z t
2 2
( Hs dhM, N is ) ≤ Hs dhM, M is dhN, N is .
0 0 0
Proposition 5.6.4 (Kunita Watanabe). — L’application
Z t
H ∈ E 7→ Hs dhM, N is
0
Rt
se prolonge par continuité à tout processus H tel que 0 Hs2 dhM, M iu < ∞ et
si on note de la même façon ce prolongement, il vérifie encore
Z t Z t
2
( Hs dhM, N is ) ≤ hN, N it Hs2 dhM, M is .
0 0
CHAPITRE 6
INTÉGRALE STOCHASTIQUE
Preuve: Il faut montrer que HT2 est complet. Considérons une suite de Cauchy
(n)
M (n) . Alors MT est une suite de Cauchy dans L2 (Ω, F, P), qui est complet.
Il existe donc une variable aléatoire, que nous noterons MT , dans L2 (Ω, F, P)
telle que
(n)
E((MT − MT )2 ) → 0
quand n → +∞. Posons, pour tout t ≤ T , Mt = E(MT |Ft ). Il est clair que
(Mt ) est une martingale, et par continuité dans L2 de l’espérance condition-
(n)
nelle, que Mt → Mt dans L2 . Par Doob
(n) (m)
E( sup (Ms(n) − Ms(m) )2 ) ≤ 4E((MT − MT )2 )
0≤t≤T
62 CHAPITRE 6. INTÉGRALE STOCHASTIQUE
tend vers 0 quand n, m → +∞. On peut extraire une sous suite nk telle que
(n )
Mt k converge uniformément. La limite sera donc continue. Or cette limite
est nécessairement Mt . Ceci montre que Mt est une martingale continue. Donc
(n)
M ∈ HT2 et ||M (n) − M ||2H2 = E((MT − MT )2 ) → 0.
T
Montrons que Xt ∈ L1
: Par l’inégalité de Kunita Watanabe (Proposition
5.6.4),
Z t Z t
1/2
|Ks | dhM, M is ≤ hM, M it ( Ks2 dhM, M is )1/2 ;
0 0
on voit, après avoir appliqué Cauchy Schwarz, que
Z t Z t
(9) E( |Ks | dhM, M is ) ≤ E(hM, M it )E( Ks2 dhM, M is ) < +∞.
0 0
Donc Xt ∈ L1 .
Soit Z une v.a. Fs –mesurable bornée. Pour 0 ≤ s ≤ t ≤ T ,
le processus Hr = Z1[s,t[ (r) est dans E donc, par hypothèse, orthogonal à K
donc
Z T Z t
0 = E( Hr Kr dhM, M ir ) = E(Z Kr dhM, M ir ) = E(Z(Xt − Xs )).
0 s
Ceci entraine que X est une martingale. Comme elle est à variation finie, elle
est nulle par la Proposition 5.5.2. Donc K doit être aussi nul dans L2 (M )T .
P
Rappelons maintenant que lorsque H = Hti 1[ti ,ti+1 [ ∈ E et M est une
P
martingale, on a défini l’intégrale stochastique (H · M )t = Hti (Mti+1 ∧t −
Mti ∧t )
6.1. INTÉGRALE STOCHASTIQUE PAR RAPPORT À UNE MARTINGALE DE CARRÉ INTÉGRABLE
63
n−1
X
= E( Ht2i (Mti+1 − Mti )2 )
i=0
n−1
X
= E( Ht2i E((Mti+1 − Mti )2 |Fti ))
i=0
n−1
X
= E( Ht2i E(hM, M iti+1 − hM, M iti |Fti ))
i=0
n−1
X
= E( Ht2i (hM, M iti+1 − hM, M iti ))
i=0
Z T n−1
X
= E( Ht2i 1[ti ,ti+1 [ (s)dhM, M is )
0 i=0
Z T
= E( Hs2 dhM, M is ).
0
On voit donc que l’application I(H) = H · M est une isométrie de E, sous
espace de L2 (M )T , dans HT2 . Comme E est dense et HT2 complet, on peut
prolonger cette isométrie à HT2 tout entier. En effet, si H ∈ HT2 , il existe par
densité une suite H (n) ∈ E telle que H (n) → H. Par isométrie la suite H (n) · M
est de Cauchy dans HT2 , donc converge vers un élément que l’on note H · M :
6.3. Semimartingales
On se fixe (Ω, F, (Ft ), P).
Définition 6.3.1. — On appelle semimartingale (continue) un processus
adapté Xt s’écrivant
Xt = X0 + Mt + Vt
où M est une martingale locale et V un processus à variation finie, nuls en 0,
continus adaptés.
Vu la Proposition 5.5.2, cette décomposition est unique. On l’appelle la
décomposition canonique.
Définition 6.3.2. — Le crochet de 2 semimartingales Xt = X0 + Mt +
Vt , Yt = Y0 + Nt + Ut où M et N sont les parties martingales, est par définition
hX, Y i = hM, N i.
L’exemple fondamental de semimartingale (mais ce n’est pas le seul, penser
au sup du brownien St = max0≤s≤t Bs ) est donné par les processus d’Ito : on
considère un Ft –mouvement brownien B = (B (1) , · · · , B (d) ) à valeurs dans Rd
issu de 0 ; par définition,
6.3. SEMIMARTINGALES 67
où X0 ∈ F0 , où φk et α sont des processus progressifs réels tels que, pour tout
RtP Rt
t > 0, 0 (φks )2 ds + 0 |αs | ds < +∞ p.s.
Un processus d’Ito multidimensionnel est un processus dont les compo-
santes sont des processus d’Ito réels (par rapport au même Ft –brownien d-
PRt k Rt
dimensionnel B). Soient Xt = X0 + 0 φ dB k + 0 αs ds et Yt = Y0 +
PRt k k
0 ψ dB un processus d’Itô de dimension 2. On a
Xd Z t
(11) hX, Y it = φks ψsk ds.
k=1 0
et
n −1
pX
(Xtni+1 − Xtni )2 → hX, Xit
i=0
en probabilité.
6.4. FORMULE D’ITÔ 69
Ppn −1
Preuve: On pose Usn = i=0 Utni 1[tni ,tni+1 [ (s). On a
n −1
pX Z t
Utni (Xtni+1 − Xtni ) = Usn dXs .
i=0 0
Vu la continuité, Un
tend vers U en restant borné pour chaque ω puisque
n
|Us | ≤ max0≤r≤t |Ur |. Il suffit d’appliquer le théorème précédent pour obtenir
la première limite.
Ecrivons X = X0 + M + A où M est une martingale et A à variation finie,
n −1
pX
(Xtni − Xtni−1 )2 =
i=0
n −1
pX n −1
pX n −1
pX
2 2
(Mtni − Mtni−1 ) + (Atni − Atni−1 ) + 2 (Mtni − Mtni−1 )(Atni − Atni−1 )
i=0 i=0 i=0
et
n −1
pX
|(Atni − Atni−1 )2 + 2(Mtni − Mtni−1 )(Atni − Atni−1 )| ≤
i=0
n −1
pX
( sup |Atnj − Atnj−1 | + 2|Mtnj − Mtnj−1 |)| |(Atni − Atni−1 )|
1≤j≤n i=0
tend vers 0, par continuité de M et de A et en utilisant l’inégalité (7). Posons
τk = inf(s ≥ 0, |Ms | ≥ k). En écrivant
n −1
pX
P(| (Mtni − Mtni−1 )2 − hX, Xit | > ε)
i=0
n −1
pX
= P(| (Mtτnk − Mtτnk )2 − hX τk , X τk it | > ε, t < τk ) + P(t ≥ τk )
i i−1
i=0
Ppn τk
on obtient la convergence en probabilité puisque i=1 (Mtn − Mtτnk )2 →
i i−1
hX τk , X τk it par le théorème 5.3.1.
donc
n −1
pX m −1
pX X
| (X tn
i+1
−X tn
i
)2 fin − (Xtni+1 − Xtni )2 fjm |
i=0 j=0 {i;tm n m
j ≤ti <tj+1 }
n −1
pX
≤ [ sup sup |fin − fjm |] (Xtni+1 − Xtni )2 .
0≤j<pm tm n m
j ≤ti <tj+1 i=0
En appliquant la Proposition 6.3.7, on voit que ceci tend vers 0 en probabilité
par uniforme continuité de f 00 sur [0, t] pour m, n → +∞. On fixe m pour
lequel c’est petit pour tout n ≥ m. En appliquant à nouveau la Proposition
6.3.7,
m −1
pX X m −1
pX
lim fjm (Xtni+1 − Xtni ) = 2
fjm (hX, Xitm
j+1
− hX, Xitm
j
)
n→+∞
j=0 {i;tm n m
j ≤ti <tj+1 }
j=0
Z t
= Hm (s) dhX, Xis
0
en posant Hm (s) = fjm lorsque tm
j ≤ s < tm
j+1 . Par Lebesgue dominé, ceci tend
vers Z t Z t
lim Hm (s) dhX, Xis = f 00 (Xs ) dhX, Xis
m→+∞ 0 0
6.4. FORMULE D’ITÔ 71
Lemme 7.1.1. — Si τ est un temps d’arrêt tel que Wtτ ne s’annule jamais,
f (Wtτ ) est une martingale locale.
Preuve: Soit τn = inf{t; ||Wt∧τ || ≤ 1/n}, avec kxk > 1/n. Par Ito, f (Wtτ ∧τn )
est une martingale locale. De plus τn → +∞ car Wt∧τ ne s’annule pas.
Par contre pour d ≥ 3, puisque ce n’est plus ln ||x|| mais ||x||2−d qui est
harmonique, on obtient à la place de l’équation (13),
R2−d − ||x||2−d
P(Tr < TR ) = .
R2−d − r2−d
En faisant tendre R vers +∞, on obtient que, partant de x,
||x||2−d
P(Tr < +∞) = .
r2−d
On a donc, pour tout M > 0,
M 2−d
P(lim inf |Bt | ≥ r) ≥ P(kBt+TM k ≥ r, ∀t ≥ 0) ≥ 1 − →1
t→+∞ r2−d
quand M tend vers l’infini si d > 2.
Lemme 7.2.2. — Soit M une martingale locale et E(M ) = exp(M − 21 hM, M i).
Si E(E(M )T ) = 1 pour un T > 0, alors E(M )t , t ≤ T, est une (vraie) martin-
gale.
Preuve: Par le théorème précédent, pour tout λ réel, E(iλM ) est une martin-
λ2 T
gale locale bornée sur [0, T ] par e 2 donc une martingale : pour 0 < s < t,
E[E(iλMt )|Fs ] = E(iλMs )
autrement dit,
1 1
E[exp(iλMt − λ2 t)|Fs ] = exp(iλMs − λ2 s)
2 2
d’où
1
E[exp(iλ(Mt − Ms ))|Fs ] = exp(− λ2 (t − s))
2
et l’on conclue facilement.
7.2.3. Dubins-Schwarz. —
Preuve: Ne traitons que le cas plus simple où hM, M i est strictement croissant
et hM, M i∞ = ∞. Dans ce cas, pour chaque ω ∈ Ω, la fonction t ∈ R+ 7→
hM, M it (ω) ∈ R+ est bijective. Notons t ∈ R+ 7→ σt (ω) ∈ R+ l’inverse de
cette fonction (qui vérifie donc hM, M iσt = σhM,M it = t). Chaque σt est un
temps d’arrêt car
{σt ≤ s} = {hM, M iσt ≤ hM, M is } = {t ≤ hM, M is }
est Fs –mesurable. Pour n ∈ N, M σn est une vraie martingale car
hM σn , M σn it ≤ hM, M iσn = n.
et par Doob
E(sup(Mtσn )2 ) ≤ lim E(sup(Mtσn )2 ) ≤ 4E(hM, M iσn ) = n.
t≥0 T →+∞ t≤T
et limt→+∞ Mt /hM, M it = 0.
b. Sur hM, M i∞ < +∞, Mt converge quand t → +∞.
X + X −
Notons µ+ et µ+ les probabilités sur Rn images de E(X + ) dP et E(X − ) dP
par le vecteur (Bt1 − Bt0 , · · · , Btn − Btn−1 ). Ces deux probabilités ont la
même transformée de Fourier donc sont égales. Autrement dit pour tout
A ∈ σ(Btj − Btj−1 , j = 1, · · · , n), E(1A X) = 0. Par classe monotone, c’est
vrai pour tout A ∈ FT . Donc X = 0.
Notons H̃ l’ensemble des Z de L2 (FT ) admettant la représentation (14).
C’est un fermé car si Zn → Z dans L2 et
Z T
Zn = E(Zn ) + Ksn dBs
0
78 CHAPITRE 7. APPLICATIONS DE LA FORMULE D’ITO
la suite Zn − E(Zn ) est de Cauchy donc K n est de Cauchy dans L2T (B), qui
est complet. Si Kn → K, alors
Z T
Z = E(Z) + Ks dBs .
0
Pn
Montrons que chaque v.a. U est dans H̃. Posons Gt = j=1 λj 1[tj−1 ,tj [ (t),
Rt Rt RT
i Gs dBs + 21 G2s ds − 12 G2s ds
Mt = e 0 0 et γ = e 0 . Remarquons que γ n’est pas
aléatoire et que dMt = iGt Mt dBt . On a
RT RT RT RT
Gs dBs + 12 G2s ds − 12 G2s ds
U = ei 0 Gs dBs
= ei 0 0 e 0 = γMt
donc
Z T
U = γ[1 + iGt Mt dBt ]
0
Z T
U = E(U ) + iγGt Mt dBt
0
ce qui montre que U est dans H̃. Finalement H̃ est fermé et contient un sous
ensemble dense dans L2T (B), il lui est donc égal. Ceci montre l’existence de
la représentation (14). Pour l’unicité, si (14) est vrai pour K et K 0 , alors
RT RT 0
0 Ks dBs = 0 Ks dBs donc
Z T Z T
0
E( 2
(Ks − Ks ) dBs ) = E(Ks − Ks0 )2 ds = 0
0 0
et Ks = Ks0 ,
p.s.
Considérons maintenant une martingale locale M , nulle en 0 que l’on réduit
par τn en martingales de carré intégrable. Puisque MTτn est dans L2 (Ω, FT ), il
existe un processus K (n) tel que
Z T
MTτn = Ks(n) dBs
0
7.4. Girsanov
7.4.1. Probabilités équivalentes. — Sur un espace probabilisable (Ω, F)
on dit que deux probabilités P et Q sont équivalentes si il existe une v.a. Z
strictement positive telle que pour tout A ∈ F
Z
Q(A) = 1A Z dP.
caractéristique par exemple, on voit aussi que les intégrales stochastiques sont
les mêmes pour P et pour Q.
Preuve: d’après le critère de Lévy, il suffit de voir que B̃t est une martingale
locale de processus croissant t ce qui est immédiat par le théorème.
Preuve: Soit λ > 0. On choisit t0 = 0 < t1 · · · < tn = T avec λ(ti+1 −ti ) < µ et
on pose φi = φ1[ti ,ti+1 [ . Alors, écrivons, en utilisant que pour toute probabilité
R R
p,exp |f | dp ≤ exp |f | dp (conséquence de l’inégalité de Jensen),
Z ti+1
RT 2 1
E(eλ 0 φi (s) ds ) = E(exp[ (ti+1 − ti )λφ(s)2 ds])
ti+1 − ti ti
Z ti+1 Z ti+1
1 1
≤ E( exp(ti+1 − ti )λφ(s)2 ds) ≤ E exp µφ(s)2 ds
ti+1 − ti ti ti+1 − ti ti
7.4. GIRSANOV 81
est fini, donc avec Novikov en prenant λ = 1/2 (ou sa forme faible prouvée en
prenant λ = 6), on voit que
Zt
E( i+1 |Fti ) = 1
Zti
Donc de proche en proche,
Zt Ztn
E(ZT ) = E(Zt0 1 · · · ) = 1.
Zt0 Ztn−1
CHAPITRE 8
EQUATIONS DIFFÉRENTIELLES
STOCHASTIQUES
8.1. Introduction
Notons Mp×d (R) l’ensemble des matrices p × d à coefficients dans R. Soient
σ : Rp → Mp×d (R) et b : Rp → Rp deux fonctions mesurables localement
bornées (i.e. bornées sur chaque boule) définies sur Rp . Pour x ∈ Rp , on
considère l’équation différentielle stochastique (E.D.S.)
Etant donné un mouvement Brownien d dimensionnel sur (Ω, (Ft ), P), muni de
sa filtration, on appelle solution (forte) de cette équation un processus adapté
continu Xt tel que, en coordonnées, pour i = 1, · · · , p, pour tout t ≥ 0,
d Z t Z t
(i) (i)
X
Xt = X0 + σij (Xs ) dBs(j) + bi (Xs ) ds
j=1 0 0
Rt
Preuve: On pose G(t) = a + b 0 g(s) ds. Alors g(t) ≤ G(t). Si g est continue,
G est une fonction dérivable et
(e−bt G(t))0 = −be−bt G(t) + e−bt G0 (t) = −be−bt G(t) + be−bt g(t) ≤ 0
(on peut prendre comme norme, par exemple, ||σ(x)|| = ( i,j σi,j (x)2 )1/2 et
P
On a donc
∞
X ∞
X
E( sup[Xtn+1 − Xtn ]2 ) = gn (T ) < +∞.
n=0 t≤T n=0
On en déduit que X n converge p.s. vers une solution X de l’équation.
8.3. Localisation
On dit que b et σ sont localement lipschitziennes si pour tout N > 0 il existe
0 > 0 tel que, si ||x|| ≤ N, ||y|| ≤ N ,
KN , KN
0
||b(x) − b(y)|| ≤ KN ||x − y||, ||σ(x) − σ(y)|| ≤ KN ||x − y||.
C’est le cas par exemple dans le cas fondamental où les fonctions b et σ sont
de classe C 1 , par le théorème des accroissements finis.
Théorème 8.3.1. — On suppose que b et σ sont localement lipschitziennes.
Alors pour tout x ∈ Rp il existe un temps d’arrêt ξ ≤ + ∞ et un processus X
tel que pour tout t < ξ, Xt est solution de l’E.D.S.,
dXt = σ(Xt ) dBt + b(Xt ) dt, X0 = x;
et, lorsque ξ < +∞, lim supt→ξ− ||Xt || = +∞.
Si, de plus il existe K > 0 tel que, pour tout x ∈ Rp ,
(16) ||σ(x)|| + ||b(x)|| ≤ K(1 + ||x||)
alors ξ = +∞ p.s.
Preuve: Pour tout n > 0 on se donne une fonction φn : Rp → R dérivable,
égale à 1 sur {x; ||x|| ≤ n} et à 0 sur {x; ||x|| ≥ n + 1}. Les fonctions bn = bφn
et σn = σφn sont lipschitziennes. Il existe donc une unique solution X (n) de
l’E.D.S.
(n) (n) (n) (n)
dXt = σn (Xt ) dBt + bn (Xt ) dt, X0 = x.
(n)
On prend n ≥ ||x||. Soit τn = inf{t ≥ 0; ||Xt || ≥ n}. Si m ≥ n , soit
(m) (m) (m) (m)
τnm = inf{t ≥ 0; ||Xt || ≥ n}. Alors bm (Xt∧τnm ) = b(Xt∧τnm ) et σm (Xt∧τnm ) =
(m)
σ(Xt∧τnm ). Comme pour la preuve de l’unicité dans la preuve du théorème
8.2.1 on en déduit que pour tout m ≥ n,
(m) (n)
Xt∧τnm = Xt∧τn
en particulier τnm ≥ τn . On peut donc poser, dès que τn ≥ t,
(n)
Xt = Xt
8.4. PROPRIÉTÉ DE MARKOV 87
lorsque f est C 2 à support compact où a = σσ ∗ . On dit que X est une diffusion.
∂f
Puisque f est à support compact , ∂x i
(Xs )σi,j (Xs ) est borné, donc l’intégrale
stochastique est une martingale, d’espérance nulle. On a alors
Z t Z t
Pt f (x) = f (x) + Ex ( Lf (Xs ) ds) = f (x) + Ps Lf (x) ds
0 0
Donc
t
Pt f (x) − f (x)
Z
1
Lf (x) = lim = lim Ps Lf (x) ds = P0 Lf (x) = Lf (x).
t→0 t t→0 t 0
Lφ(x) = 0, x ∈ D;
φ(x) = f (x), x ∈ ∂D.
Théorème 8.6.1. — La solution φ admet la représentation
φ(x) = Ex (f (Xτ )), x ∈ D;
où X est la diffusion associée à (15) et τ = inf{t ≥ 0; Xt ∈ ∂D} est supposé
fini p.s.
Preuve: On considère la solution X de (15) partant de x ∈ D. Par Ito,
Z t∧τ X Z t Z t∧τ
∂φ
φ(Xt∧τ ) = φ(x) + (Xs )σi,j (Xs ) dBj (s) + Lφ(Xs ) ds
0 0 ∂xi
i,j 0
Rt
Vu que ∇x v est bornée et que 0 ≤ Zs ≤ 1, E( 0 Zs ∇x v σ(Xs ) dBs ) = 0.
D’autre part ∂v ∂u
∂s (s, x) = − ∂s (t − s, x) et donc
∂v ∂u
(s, x) + (L − c)v(s, x) = − (t − s, x) + (L − c)u(t − s, x) = −g(t − s, x).
∂s ∂s
On a donc
Z t
E(v(t, Xt )Zt ) − E(v(0, X0 )Z0 ) = E(− g(t − s, Xs )Zs ds),
0
mais, puisque u(0, Xt ) = φ(Xt ),
E(v(t, Xt )Zt ) − E(v(0, X0 )Z0 ) = E(u(0, Xt )Zt ) − u(t, x) = E(φ(Xt )Zt ) − u(t, x)
et l’on obtient
Z t
u(t, x) = E(φ(Xt )Zt ) + E( g(t − s, Xs )Zs ds).
0