Vous êtes sur la page 1sur 25

Ecole Nationale des Sciences Appliquées

d'Agadir

Finance et Ingénierie Décisionnelle

Cours :

Calcul stochastique pour la nance


Brahim EL ASRI

2019-2020
Table des matières

1 Calcul stochastique 3
1.1 Variation totale et variation quadratique . . . . . . . . . . . . . . . . . . 3
1.2 Martingales locales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
1.3 Semimartingales continues . . . . . . . . . . . . . . . . . . . . . . . . . . 9
1.4 Intégrale stochastique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
1.5 Calcul d'Itô . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
1.5.1 Processus d'Itô . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
1.5.2 Formule d'Itô . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
1.5.3 Exemples d'utilisation de la formule d'Itô . . . . . . . . . . . . . . 20
1.6 Equations diérentielles stochastiques . . . . . . . . . . . . . . . . . . . . 22

2
Chapitre 1
Calcul stochastique

Dans ce chapitre, nous allons donner un sens à 0t f (s, w)dBs pour une classe de
processus f (s, w) adapté à la ltration Ft . On va commencer par construire l'intégrale
stochastique sur un ensemble de processus dits élémentaires.

1.1 Variation totale et variation quadratique


Dénition 1.1.1. On dénit la variation innitésimale d'ordre p d'un processus X sur
[0, T ] associée à une subdivision Πn = (t1 , . . . , tn ) de [0, T ] avec tn1 < . . . < tnn ) par :

n
VTp (Πn ) = |Xti − Xti−1 |p .
i=1

Si VTp (Πn ) a une limite dans un certain sens (convergence Lp , convergence p.s.) lorsque :
πn := ||Πn ||∞ = max |ti − ti−1 | −→ 0,
i≤n

la limite ne dépend pas de la subdivision choisie et nous l'appellerons variation d'ordre


p de X sur [0, T ]. En particulier :
 si p = 1, la limite s'appellera variation totale de X sur [0, T ],
 si p = 2, la limite s'appellera variation quadratique de X sur [0, T ] notée ⟨X⟩T .
Propriété 1.1.1. La limite de variation innitésimale d'ordre p ne dépend pas de la
subdivision choisie.
Démonstration. Supposons que la variation innitésimale d'ordre p a une limite lorsque
le pas de la subdivision tend vers 0. Considérons deux subdivisions diérentes. Alors la
nouvelle subdivision composée de l'union des 2 précédentes converge également et les
deux subdivisions précédentes sont des subdivisions extraites de celle-ci qui convergent
donc vers la même limite.
Proposition 1.1.1. La variation quadratique sur [0, T ] du mouvement brownien existe
dans L2 (Ω) (la variation
∑ innitésimale converge en ||.||2 ) et vaut T . De plus, si la sub-
division Πn satisfait n=1 Πn < +∞, on a la convergence au sens presque sûr. On a
donc :
⟨B⟩T = T.

3
Démonstration. On rappelle d'abord que si Z ∼ N (0, σ2 ) alors E[Z 2 ] = σ2 et Var[Z 2 ]
= 2σ 4 .
La variation innitesimale d'ordre 2 du Mouvement Brownien est donnée par :

n
VT2 (Πn ) = |Bti − Bti−1 |2 .
i=1

On a Bti − Bti−1 ∼ N (0, ti − ti−1 ), alors :



n ∑
n
E[VT2 (Πn )] = E[(Bti − Bti−1 )2 ] = (ti − ti−1 ) = T.
i=1 i=1

et grace à l'indépendance on a :

n ∑
n
Var[VT2 (Πn )] = Var[(Bti − Bti−1 )2 ] = 2 (ti − ti−1 )2 ≤ 2T πn −→ 0, si πn → 0,
i=1 i=1

avec πn = max|ti − ti−1 |. Donc ||VT2 (Πn ) − T ||2 = Var[VT2 (Πn )] → 0, quand πn → 0.
Alors La variation quadratique sur [0, T ] du mouvement brownien existe dans L2 (Ω) est
vaut T.
Pour obtenir la convergence presque sûre, il sut d'utiliser l'inégalité de Markov, pour
tout ϵ :
Var[VT2 (Πn )] 2T πn
P(|VT2 (Πn ) − T | > ϵ) ≤ ≤ .
ϵ ϵ

∞ ∑

Donc si πn < ∞, on a pour tout ϵ, P(|VT2 (Πn ) − T | > ϵ) < ∞, Borel-Cantelli
n=1 n=1
entraîne la convergence presque sûre de VT2 (Πn ) vers T .2


Proposition 1.1.2. Pour toute subdivision Πn satisfaisant πn < ∞, la variation
n=1
innitésimale d'ordre 1 sur [0, T ] du mouvement Brownien associée à cette subdivision
converge presque sûrement vers +∞. Donc, la variation totale du mouvement Brownien
vaut +∞ p.s. :
VT1 = sup VT1 (Πn ) = ∞, p.s.
Πn



Démonstration. Soit Πn une suite de subdivision de [0, T ] satisfaisant πn < ∞.
n=1
Alors, sur presque tout chemin w, on a la relation :

n ∑
n
VT2 (Πn )(w) = |Bti (w) − Bti−1 (w)| ≤ 2
sup |Bu (w) − Bv (w)||Bti (w) − Bti−1 (w)|.
i=1 i=1 |u−v|≤πn

Alors
VT2 (Πn )(w) ≤ sup |Bu (w) − Bv (w)|VT1 (Πn )(w).
|u−v|≤πn

4
Le terme VT2 (Πn ) tend vers T car on a la converge presque sûrement.
On a sup |Bu (w) − Bv (w)| tend vers 0 car le mouvement brownien a des trajectoires
|u−v|≤πn
uniformément continues sur [0, T ]. Donc VT1 (Πn )(w) tend vers +∞. (si non contradiction
avec VT2 (Πn ) tend vers T ).2
Remarque 1.1.1. La variation quadratique du mouvement brownien est non nulle, elle
vaut T dans L , mais que sa variation totale est innie presque surement.
2

Dénition 1.1.2. un processus X est un processus à variation bornée sur [0, T ] s'il est
variation bornée trajectoire par trajectoire :

n
sup |Xti − Xti−1 | < ∞, p.s.
Πn
i=1

Proposition 1.1.3. Un processus est à variation bornée si et seulement s'il est la dif-
férence de deux processus croissants.
Démonstration. S'il est à variation bornée, notons pour tout t ≤ T

n
Xt∗ = sup |Xti − Xti−1 | < ∞, p.s.
Π(t) i=1

où les Π(t) sont des subdivisions de [0, t]. Alors on peut écrire Xt sous la forme suivante :
Xt + Xt∗
Xt∗ − Xt
Xt = Yt − Zt , avec Yt = et Zt =
.
2 2
il reste à montrer que Yt et Zt sont deux processus croissants. Soit t ≥ s, alors,
2(Ys − Yt ) = (Xs∗ − Xt∗ ) + (Xs − Xt ).

En utilisant que sup(A) − sup(B) ≤ sup(A − B), alors :


∑n ∑
n
Xs∗ − Xt∗ ≤ sup[ |Xti − Xti−1 |1ti ≤s − |Xti − Xti−1 |] ≤ −|Xt − Xs |,
Π(t) i=1 i=1

donc
2(Ys −Yt ) = (Xs∗ −Xt∗ )+(Xs −Xt ) = (Xs∗ −Xt∗ )+(Xs −Xt ) ≤ −|Xt −Xs |+(Xs −Xt ) ≤ 0.

Alors Yt est un processus croissant de la même manière on montre que Zt est un processus
croissant.
Réciproquement, si X et de la forme Y − Z avec Y et Z croissants, on a, pour toute
subdivision de [0, t] :

n ∑
n ∑
n
|Xti − Xti−1 | ≤ |Yti − Yti−1 | + |Zti − Zti−1 | = Yt − Y0 + Zt − Z0 < ∞.
i=1 i=1 i=1

Donc X est à variation bornée.2

5
Proposition 1.1.4. Si X est un processus à variation bornée à trajectoires continues,
alors sa variation quadratique est nulle presque surement ⟨X⟩T = 0.

Démonstration. On a
VT2 (Πn ) ≤ sup |Xu − Xv |VT1 (Πn ).
|u−v|≤πn

X est continu sur le compact [0, T ], le sup tend vers 0 et la variation totale de X est
nie donc le terme de gauche ( variation quadratique) est nulle p.s.2
Remarque 1.1.2. la variation quadratique, ⟨αX⟩T = α2 ⟨X⟩T , pour α ∈ R.

Dénition 1.1.3. Soient X et Y deux processus tels que X , Y et X + Y ont des


variations quadratiques nies dans L2 . On dénit alors la covariation quadratique entre
les processus
1
⟨X, Y ⟩ = (⟨X + Y ⟩ − ⟨X⟩ − ⟨Y ⟩)
2
Par construction, cette dénition rend l'application (X, Y ) → ⟨X, Y ⟩ bilinéaire :
Relation de bilinéarité : ⟨X + Y, X + Y ⟩ = ⟨X, X⟩ + 2⟨X, Y ⟩ + ⟨Y, Y ⟩
Relation scalaire : ⟨αX, βY ⟩ = αβ⟨αX, Y ⟩.

Proposition 1.1.5. Soit X un processus à variation bornée continu ayant une varia-
tion quadratique dans L2 et Y un processus à variation quadratique nie dans L2 , alors
X + Y est à variation nie dans L2 et l'on a :

⟨X + Y ⟩ = ⟨Y ⟩ et ⟨X, Y ⟩ = 0.

Démonstration. X est un processus à variation bornée, alors ⟨X⟩ = 0. Alors


⟨X + Y, X + Y ⟩ = 2⟨X, Y ⟩ + ⟨Y, Y ⟩.

On a la relation,
∑ ∑ ∑ ∑ ∑
E[( △Xi △Yi )2 ] ≤ E[( △Xi2 )( △Yi2 )] ≤ || △Xi2 ||2 || △Yi2 ||2 ≤ 0

Ce qui donne ⟨X, Y ⟩ = 0.2

1.2 Martingales locales


Dénition 1.2.1. Un processus adapté à trajectoires continues M = (Mt , t ≥ 0) tel
que M0 = 0 p.s. est une martingale locale (continue) s'il existe une suite croissante
(τn , n ∈ N) de temps d'arrêt telle que τn ↗ ∞ et pour tout n le processus arrêté M τn
est une martingale uniformément intégrable. Plus généralement, lorsque M0 ̸= 0, on dit
que M est une martingale locale (continue) si Mt = M0 + Nt , où le processus N est une
martingale locale issue de 0.

6
Proposition 1.2.1. 1. Une martingale locale positive M telle que M0 ∈ L1 est une
surmartingale.
2. Une martingale locale M bornée, ou plus généralement telle qu'il existe une variable
Z ∈ L1 telle que, pour tout t ≥ 0, |Mt | ≤ Z , est une martingale.

Démonstration.
1) Soit τn un temps d'arrêt et Mt = M0 + Nt , N est une martingale locale, alors ∀s ≤ t,
on a pour tout n,
Ns∧τn = E[Nt∧τn |Fs ].
En ajoutant des deux cotés la variable M0 , on trouve
Ms∧τn = E[Mt∧τn |Fs ].

Puisque M est à valeurs positives, on peut faire tendre n vers ∞ et appliquer le lemme
de Fatou (pour les espérances conditionnelles) qui donne
Ms ≥ E[Mt |Fs ].

En prenant s = 0, on voit que E[Mt ] = E[M0 ] < ∞, donc Mt ∈ L1 pour tout t ≥ 0.


L'inégalité précédente montre alors que M est une surmartingale.
2) On a
Ms∧τn = E[Mt∧τn |Fs ]
par convergence dominée la suite Mt∧τn converge dans L1 vers Mt (car M est bornée ou
plus généralement dominée par une variable intégrable)., donc on peut passer à la limite
n → ∞ pour trouver Ms = E[Mt |Fs ]. 2

Théorème 1.2.1. Soit M une martingale locale avec M0 = 0.


1. Si M est une martingale bornée dans L2 , alors E[⟨M ⟩∞ ] < ∞, et Mt2 − ⟨M ⟩t est
une martingale uniformément intégrable.
2. Si E[⟨M ⟩∞ ] < ∞, alors M est une martingale bornée dans L2 .
3. Il y a équivalence entre :
(a) M est une martingale de carré intégrable (E[Mt2 ] < 1∞).
(b) E[⟨M ⟩t ] < ∞, pour tout t ≥ 0.
Si ces conditions (a) et (b) sont satisfaites, alors Mt2 − ⟨M ⟩t est une martingale.

Démonstration.
1) Si M est une martingale continue bornée dans L2 , d'après l'inégalité de Doob on a,
E[sup Mt2 ] ≤ 4 sup E[Mt2 ] < ∞.
t≥0 t≥0

car M est une martingale uniformément intégrable. Soit τn un temps d'arrêt


τn = inf{t ≥ 0, ⟨M ⟩t ≥ n}.

7
On en déduit que la martingale locale Mt∧τ 2
n
− ⟨M ⟩t∧τn est dominée par la variable
intégrable n + sup Mt . En conséquence cette martingale locale est une vraie martingale
2
t≥0
(Proposition 1.2.1 (ii)) et on a
E[⟨M ⟩t∧τn ] = E[Mt∧τ
2
n
].
En utilisant le théorème de convergence monotone pour le terme de gauche, le théorème
de convergence dominée pour celui de droite) et en faisant tendre t vers l'inni, on a :
E[⟨M ⟩τn ] = E[Mτ2n ].
Ensuite faisant tendre n vers l'inni on trouve, avec les mêmes arguments,
E[⟨M ⟩∞ ] = E[M∞
2
] < ∞.
Mt2 −⟨M ⟩t est une martingale uniformément intégrable car elle est dominée par sup Mt2 +
t≥0
⟨M ⟩∞ .
2)On pose E[⟨M ⟩∞ ] < ∞. Notons
γn = inf{t ≥ 0, |Mt | ≥ n}.
Alors la martingale locale Mt∧γ
2
n
− ⟨M ⟩t∧γn est une martingale uniformément intégrable,
car elle est dominée par la variable intégrable n2 + ⟨M ⟩∞ . On a M0 alors
E[Mt∧τ
2
n
] = E[⟨M ⟩t∧τn ].
En utilisant le lemme du Fatou on a :
E[Mt2 ] ≤ E[⟨M ⟩∞ ] < ∞.
Alors M ∈ L1 . En passant à la limite pour
E[Mt∧τn |Fs ] = Ms∧τn , s ≤ t,
on en déduit que M est une martingale. De plus, M est bornée dans L2 .
3) Il sut d'utiliser 1) et 2).2
Théorème 1.2.2. (Décomposition de Doob Meyer) Si M est une martingale continue
de carré intégrable (E[Mt2 ] < ∞) pour tout t), alors ⟨M ⟩ est l'unique processus croissant
continu nul en 0 tel que M 2 − ⟨M ⟩ soit une martingale.
Démonstration. Voir Théorème 1.2.1
Remarque 1.2.1. Si M = B est un mouvement brownien et ⟨B⟩t = t, alors Mt2 − ⟨B⟩t
est une martingale.
Propriété 1.2.1. Si τn un temps d'arrêt on a
⟨M τn , M τn ⟩t = ⟨M, M ⟩t∧τn ,
car Mt∧τ
2
n
− ⟨M, M ⟩t∧τn est une martingale locale comme martingale locale arrêtée.
Théorème 1.2.3. Soit M une martingale locale (continue) issue de 0. Alors si M est
un processus à variation nie, M est indistinguable de 0.

8
1.3 Semimartingales continues
Dénition 1.3.1. Un processus X = (Xt , t ≥ 0) est une semimartingale continue s'il
s'écrit sous la forme
Xt = X0 + Mt + At , (1.3.1)
où M est une martingale locale (nulle en t = 0) et A est un processus à variation nie.

Propriété 1.3.1. La décomposition ci-dessus 1.3.1 est unique à indistinguabilité près.

Démonstration. Si Xt′ = X0′ + Mt′ + A′t est une autre semimartingale continue. On a
A et A′ sont des processus à variation nie, Alors :

⟨A, A⟩t = ⟨A′ , A′ ⟩t = 0,


donc

⟨X, X⟩t = ⟨M, M ⟩t


et
⟨X ′ , X ′ ⟩t = ⟨M ′ , M ′ ⟩t
Alors si Xt = Xt′ implique Mt = Mt′ , de la même façon At = A′t .2

1.4 Intégrale stochastique


Dans ce paragraphe on cherche à donner un sens à la variable aléatoire :
∫ T
θs dBs . (1.4.1)
0

Posons l'intégrale suivant : ∫ T


g(s)df (s).
0

Si f est dérivable et g est régulière, alors


∫ T ∫ T
g(s)df (s) = g(s)f ′ (s)ds. (1.4.2)
0 0

Si f n'est pas dérivable mais simplement à variation bornée, alors en utilisant l'intégrale
de Stieljes on a,
∫ T ∑
n−1
g(s)df (s) = lim g(ti )(f (ti+1 − f (ti )). (1.4.3)
0 πn →0
i=0

Dans notre cas, le mouvement brownien n'est pas à variation bornée aussi n'est pas
dérivable donc, on ne peut pas dénir l'integrale (1.4.1) comme dans (1.4.2) et (1.4.3).
Comme il est a variation quadratique nie, il est naturel de dénir l'intégrale par rapport

9
au mouvement brownien comme une limite dans L2 (convergence au sens de ||.||2 ) de
cette variable aléatoire.
∫ T ∑
n−1
θs dBs = lim θti (Bti+1 − Bti ),
0 πn →0
i=0

la convergence est au sens de la convergence des variables aléatoires dans L2 (Ω). Pour cela
nous allons donc devoir imposer au processus θ d'être L2 (Ω, [0, T ]). On prend également
à l'intégrant θ d'être F -adapté an que θti soit indépendant de Bti+1 − Bti . Nous allons
demander de la régularité aux processus que nous manipulons. Nous leur demanderons
d'être presque surement Continus A Droite avec Limite A Gauche (CADLAG). Alors
nous allons construire l'intégrale stochastique sur l'ensemble :
L2F (Ω, [0, T ]) = {(θt )0≤t≤T processus CADLAG F − adapté t.q. θ ∈ L2 (Ω, [0, T ])}.
Nous allons construire tout d'abord l'intégrale stochastique sur l'ensemble des pro-
cessus élémentaires.
Dénition 1.4.1. Un processus (θt )0≤t≤T est appelé processus élémentaire s'il existe
une subdivision 0 = t0 ≤ t1 ≤ . . . ≤ tn = T et un processus discret (θi )0≤i≤n−1 avec θi
mesurable par rapport à Fti et dans L2 (Ω) tel que :


n−1
θt (w) = θi (w)1]ti ,ti+1 ] (t).
i=0

On note E l'ensemble des processus élémentaires qui est un sous espace de L2F (Ω, [0, T ]).
Dénition 1.4.2. Avec les même notations, l'intégrale stochastique entre 0 et t ≤ T
d'un processus élémentaire θ ∈ E est la variable aléatoire dénie par :
∫ t ∑
k−1
θs dBs = θi (Bti+1 − Bti ) + θi (Bt − Btk ) pour t ∈]tk , tk+1 ],
0 i=0

∫ t ∑
n−1
θs dBs = θi (Bt∧ti+1 − Bt∧ti ) pour t ≤ T.
0 i=0

Pour s, t ∈ [0, T ] on dénit naturellement,


∫ t ∫ s ∫ t
θu dBu = θu dBu + θu dBu .
0 0 s

Proposition 1.4.1. Sur l'ensemble des processus élémentaires E , l'intégrale stochastique


satisfait les propriétés :
∫t
1. θ → 0 θs dBs est linéaire.
∫t
2. t → 0 θs dBs est continue p.s.
∫t
3. ( 0 θs dBs )0≤t≤T est un processus F -adapté.

10
∫t ∫t ∫t
4. E[ 0 θs dBs ] = 0 et V ar( 0 θs dBs ) = E[ 0 θs2 ds].
5. propriété d'Isométrie :
∫ t ∫ t
E[( θs dBs ) ] = E[ θs2 ds].
2
0 0

6. On a
∫ t ∫ t ∫ t
E[ θu dBu |Fs ] = 0 et E[( θu dBu ) |Fs ] = E[ θu2 du|Fs ].
2
s s s

7. On a le résultat plus général :


∫ t ∫ l ∫ t∧l
E[( θu dBu )( ϕu dBu )|Fs ] = E[ θu ϕu du|Fs ].
s s s

∫t
8. ( θs dBs )0≤t≤T est une F -martingale.
0
∫t ∫t
9. Le processus (( 0 θs dBs )2 − 0 θs2 ds)0≤t≤T est une F -martingale.
10. la variation quadratique de l'intégrale stochastique est donnée par :
∫ t ∫ t ∫ t
⟨ θs dBs , θs dBs ⟩ = θs2 ds.
0 0 0

11. La covariation quadratique entre 2 intégrales stochastiques est donnée par :


∫ t ∫ l ∫ t∧l
⟨ θs dBs , ϕs dBs ⟩ = θs ϕs ds.
0 0 0

Démonstration.
1) La linéarite de l'intégrale est immédiate.
2) On a
∫ t ∑
n−1
θs dBs = θi (Bt∧ti+1 − Bt∧ti ) pour t ≤ T,
0 i=0

et les trajectoires du Mouvement Brownien sont continues. Alors l'intégrale stochastique


est continue.

3) La v.a. 0t θs dBs est Ft -mesurable comme somme de v.a. Ft -mesurables, donc l'inté-
grale stochastique est un processus F -adapté.
4)Prenons t =∫ tk quitte à rajouter un point à la suite (ti )0≤i≤n . Alors, le calcul de
l'espérance de 0t θs dBs donne :
∫ t ∑k−1 ∑
k−1
E[ θs dBs ] = E[ θi (Bti+1 − Bti )] = E[θi E[(Bti+1 − Bti )|Fti ]] = 0,
0 i=0 i=0

11
car θi est Fti -mesurable
∫t
et E[(Bti+1 − Bti )|Fti ] = 0 (B est une martingale).
L'espérance de 0 θs dBs égale 0, alors le calcul de la variance, s'écrit :
∫t ∫t ∑
k−1
V ar( 0 θs dBs ) = E[( 0 θs dBs )2 ] = E[( θi (Bti+1 − Bti ))2 ]
i=0

k−1 ∑
k−1
= E[θi2 (Bti+1 − Bti )2 ] + 2 E[θi θj (Bti+1 − Bti )(Btj+1 − Btj )]
i=0 i<j

On a
E[θi2 (Bti+1 − Bti )2 ] = E[E[θi2 (Bti+1 − Bti )2 |Fti ]]
= E[θi2 E[(Bti+1 − Bti )2 |Fti ]]
= E[θi2 E[(Bti+1 − Bti )2 ]] = E[θi2 (ti+1 − ti )]
∫t
= E[ tii+1 θi2 ds].

k−1 ∫t
Alors E[θi2 (Bti+1 − Bti )2 ] = E[ 0 θs2 ds].
i=0
Si i < j, on a :
E[θi θj (Bti+1 − Bti )(Btj+1 − Btj )] = E[E[θi θj (Bti+1 − Bti )(Btj+1 − Btj )|Ftj ]]
= E[θi θj (Bti+1 − Bti )E[(Btj+1 − Btj )|Ftj ]]
= 0,
B est une martingale alors E[(Btj+1 − Btj )|Ftj ] = 0. En regroupant ces résultats on
obtient : ∫ t ∫ t
V ar( θs dBs ) = E[ θs2 ds].
0 0

5) La propriété d'isométrie est immédiate (d'après la propriété (4)).


6)On suppose s = tj et t = tk
∫t ∑
k−1
E[ 0
θu dBu |Fs ] = E[ θi (Bti+1 − Bti )|Ftj ]
i=0

j−1 ∑
k−1
= E[ θi (Bti+1 − Bti )|Ftj ] + E[ θi (Bti+1 − Bti )|Ftj ]
i=0 i=j

j−1 ∑
k−1
= θi (Bti+1 − Bti ) + E[θi E[(Bti+1 − Bti )|Fti ]|Ftj ]
∫i=0
s
i=j
= 0
θu dBu .
∫t
Alors 0
θu dBu est une martingale. Pour Le deuxième calcul on a :
∫t ∑
k−1
E[( s θu dBu )2 |Fs ] = E[( θi (Bti+1 − Bti ))2 |Ftj ]
i=j

k−1 ∑
k−1
= E[θi2 (Bti+1 − Bti )2 |Ftj ] + 2 E[θi θl (Bti+1 − Bti )(Btl+1 − Btl )|Ftj ]
i=j i<l

k−1 ∑
k−1
= E[θi2 E[(Bti+1 − Bti )2 |Fti ]|Ftj ] + 2 E[θi θl (Bti+1 − Bti )E[(Btl+1 − Btl )|Ftl ]|Ftj ]
i=j i<l

k−1
= E[θi2 (ti+1 − ti )|Ftj ] + 0
i=j
∫t
= E[( s θu2 du|Fs ].

12
7) Pour θ et ϕ dans E et l ≤ t on a 2ab = (a + b)2 − a2 − b2 , alors :
∫t ∫l
2E[( s θu dBu )( s ϕu dBu )|Fs ]
∫t ∫t ∫l
= E[( s (θu + ϕu 1u≤l )dBu )2 |Fs ] − E[( s θu dBu )2 |Fs ] − E[( s ϕu dBu )2 |Fs ]
∫t ∫t ∫l
= E[ s (θu + ϕu 1u≤l )2 du|Fs ] − E[ s θu2 du|Fs ] − E[ s ϕ2u du|Fs ]
∫ t∧l ∫l
= 2E[ s
θu ϕu du|Fs ] = 2E[ s θu ϕu du|Fs ].
∫ ∫
8) ( 0t θs dBs )t≤T est F -adapté. La propriété d'isométrie nous donne que 0t θs dBs est
dans L2 (Ω) et donc dans L1 (Ω) . La première partie de la propriété 6 nous donne la
propriété de martingale de l'intégrale stochastique.
∫ ∫
9) Soit Mt = ( 0t θs dBs )2 − 0t θs2 ds. Mt est F -adapté comme somme discrète de pro-
cessus F -adaptés, Mt est dans L1 (Ω) comme somme de 2 éléments de L1 (Ω). Il reste la
propriété de martingale de M
∫t ∫t
E[Mt |Fs ] = E[( 0
θu dBu )2 − 0
θu2 du|Fs ]
∫s ∫t ∫s ∫t ∫t
= E[( 0
θu dBu )2 + ( s
θu dBu )2 + 2( 0
θu dBu )( s θu dBu ) − 0 θu2 du|Fs ]
∫s ∫s ∫t ∫t ∫t
=( 0
θu dBu )2 + 2( 0
θu dBu )E[( s
θu dBu )|Fs ] + E[( s θu dBu )2 |Fs ] − E[ 0 θs2 du|Fs ]
∫s ∫t ∫t
=( 0
θu dBu )2 + 0 + E[ s θu2 du|Fs ] − E[ 0 θu2 du|Fs ]
∫s ∫s ∫t ∫t
=( 0
θu dBu )2 − 0
θu2 du + E[ s θu2 du|Fs ] − E[ s θu2 du|Fs ]

= Ms .

10) On a Mt = 0t θs dBs est une martingale et M ∈ L2 (Ω). Alors d'après la décomposition
de Doob Meyer ⟨M, M ⟩ est l'unique processus croissant
∫t continu∫ nul en 0 tel que M 2 −⟨M ⟩
soit une martingale. le résultat du dessus donne ( 0 θs dBs )2 − 0t θs2 ds est une martingale.
Alors ∫ t ∫ t ∫ t
⟨ θs dBs , θs dBs ⟩ = θs2 ds.
0 0 0

11) Le résultat vient directement de la dénition de la covariation quadratique par les


même calculs que dans (8).2
Remarque 1.4.1. l'intégrale stochastique d'un élément de E est une martingale continue
de carré intégrable. Nous noterons M2 ([0, T ]) l'ensemble des martingales continues de
carré intégrable :

M2 ([0, T ]) = {M, F − martingales telles que, E[Mt2 ] < ∞, t ∈ [0, T ]}.

13
Maintenant, on va étendre la dénition de l'intégrale stochastique à des processus
adaptés ayant un moment d'ordre 2 :
∫ T
L2F (Ω, [0, T ]) = {(θt )0≤t≤T processus CADLAG F − adapté t.q. E[ θs2 ds] < ∞}.
0

Lemme 1.4.1. l'ensemble des processus élémentaires E est dense dans L2F (Ω, [0, T ]) au
sens de la convergence en norme quadratique. Autrement dit, pour tout θ ∈ L2F (Ω, [0, T ]),
il existe une suite θn d'éléments de E telle que
∫ T
′ 1
||θ − θ||2 = E[
n
(θs − θsn )2 ds] 2
0

Démonstration. Admis.

Théorème 1.4.1. Il existe une unique application linéaire I de L2F (Ω, [0, T ]) dans
M ([0, T ]) qui coincide avec l'intégrale stochastique sur l'ensemble des processus élé-
2

mentaires M et vérie la propriété d'isométrie :


∫ t
E[I(θ)t ] = E[ θs2 ds],
2
0

pour tous t ∈ [0, T ].


Démonstration. Admis.

Proposition 1.4.2. Sur L2F (Ω, [0, T ]) l'intégrale stochastique satisfait les même proprié-
tés que celles énoncées dans E :
∫t
1. θ → 0 θs dBs est linéaire.
∫t
2. t → 0 θs dBs est continue p.s.
∫t
3. ( 0 θs dBs )0≤t≤T est un processus F -adapté.
∫t ∫t ∫t
4. E[ 0 θs dBs ] = 0 et V ar( 0 θs dBs ) = E[ 0 θs2 ds].
5. propriété d'Isométrie :
∫ t ∫ t
E[( θs dBs ) ] = E[ θs2 ds].
2
0 0

6. On a
∫ t ∫ t ∫ t
E[ θu dBu |Fs ] = 0 et E[( θu dBu ) |Fs ] = E[ θu2 du|Fs ].
2
s s s

7. On a le résultat plus général :


∫ t ∫ l ∫ t∧l
E[( θu dBu )( ϕu dBu )|Fs ] = E[ θu ϕu du|Fs ].
s s s

14
∫t
8. ( θs dBs )0≤t≤T est une F -martingale.
0
∫t ∫t
9. Le processus (( 0 θs dBs )2 − 0 θs2 ds)0≤t≤T est une F -martingale.
10. la variation quadratique de l'intégrale stochastique est donnée par :
∫ t ∫ t ∫ t
⟨ θs dBs , θs dBs ⟩ = θs2 ds.
0 0 0

11. La covariation quadratique entre 2 intégrales stochastiques est donnée par :


∫ t ∫ l ∫ t∧l
⟨ θs dBs , ϕs dBs ⟩ = θs ϕs ds.
0 0 0

Démonstration.
En utilisant le lemme (1.4.1), théorème 1.4.1 et la proposition 1.4.1 on montre la proposition.2

Proposition 1.4.3. Si le processus θ n'est pas aléatoire mais simplement une fonction
f du temps, en plus des propriétés précédentes, l'intégrale stochastique alors appelée
intégrale de Wiener est Gaussienne :
∫ t ∫ t
f (s)dBs ∼ N (0, f 2 (s)ds).
0 0

Remarque 1.4.2. On peut relaxer l'hypothèse d'intégrabilite portant sur L2F (Ω, [0, T ]).
Posons
∫ T
L2F , loc (Ω, [0, T ]) = {(θt )0≤t≤T processus F − adapté t.q. θs2 ds < ∞, p.s}.
0

Lors de cette généralisation, on perd le caractère martingale de l'intégrale stochastique,


elle devient une Martingale locale. Il lui manque juste de bonnes conditions d'intégrabilité
pour être une vraie martingale.

1.5 Calcul d'Itô


Nous allons maintenant introduire un calcul diérentiel sur ces intégrales stochas-
tiques. On appelle ce calacul "calcul d'Itô" et l'outil essentiel en est la "formule d'Itô".
La formule d'Itô donne, en particulier, la façon de diérencier t → f (Bt ) si f est une
fonction deux fois continûment diérentiable. Supposons que on cherche "diérencier"
t → Bt2 et l'exprimer en∫fonction de "dBt ". ∫ tPour une fonction f (t) diérentiable avec
f (0) = 0, on a f (t)2 = 2 0 f (s)f ′ (s)ds = 2 0 f (s)df (s). En utilisant la même démarche
t

l'intégrale stochastique du MB et de la forme Bt2 = 2 0t Bs dBs , d'après ce qui précéde,
∫t ∫t 2
0
Bs dBs est une martingale (car E[ 0
Bs ds] < ∞,) nulle en zéro. Si elle était égale à Bt2
elle serait positive, et une martingale nulle en 0 ne peut être positive que si elle nulle.

Commençons par préciser la dénition de la classe de processus pour laquelle on peut


énoncer la formule d'Itô.

15
1.5.1 Processus d'Itô

Dénition 1.5.1. Un processus d'Itô est un processus de la forme


∫ t ∫ t
Xt = X0 + φs ds + θs dBs (1.5.1)
0 0

avec X0 F0 -mesurable, φ et θ deux processus F -adaptés vériant les conditions d'inté-


grabilité :
∫ T ∫ T
|φs | ds < ∞ p.s.
2
et |θs |2 ds < ∞ p.s.
0 0
On note de manière innitésimale :

dXt = φt dt + θt dBt .

L'étude que nous avons menée jusqu'à maintenant nécessitait des conditions d'inté-
grabilité plus fortes sur les processus φ et θ. An de pouvoir présenter ici la démontration
de certains résultats de cette partie, nous aurons besoin d'imposer les conditions d'inté-
grabilités (CI) suivantes :
∫ T ∫ T
(CI) E[ |φs | ds] < ∞
2
et E[ |θs |2 ds] < ∞.
0 0

∫Proposition
t
1.5.1. Si M est une martingale continue qui s'écrit sous la forme Mt =
0 s
φ ds avec φ ∈ L2F (Ω, [0, T ]), alors P-p.s.

Mt = 0, ∀t ∈ [0, T ].

Démonstration.
Par dénition M0 = 0 et comme M est une martingale :

n
E[Mt2 ] = E[( M it − M (i−1)t )2 ]
n n
i=1

n
= E[ (M it − M (i−1)t )2 ]
n n
i=1
∫ it
∑n n
= E[ ( φs ds)2 ].
(i−1)t
i=1 n

Grâce à l'inégalite de Cauchy-Schwartz, on obtient :


∫ it ∫ it ∫ it
n n n
( φs ) ds ≤
2 2
1 ds φ2s ds
(i−1)t (i−1)t (i−1)t
n
∫ n
it
n
n
≤ t
n
φ2s ds.
(i−1)t
n

16
Soit en sommant terme à terme :
∫ it

n n
E[Mt2 ] ≤ E[( t
n
φ2s ds]
(i−1)t

i=1
t
n

= t
n
E[ φ2s ds] −→ 0 (n −→ ∞).
0
On en déduit que Mt est nul p.s. grâce à la continuité de M .2
Corollaire 1.5.1. La décomposition en processus d'Itô vériant les conditions (CI) est
unique.

Démonstration.
Supposons qu'un processus d'Itô se décompose de deux manières diérentes :
∫ t ∫ t ∫ t ∫ t
Xt = X0 + φs ds + θs dBs = X0′ + φ′s ds + θs′ dBs ,
0 0 0 0

alors, on a la relation :
∫ t ∫ t
(φs − φ′s )ds = (θs − θs′ )dBs ,
0 0

le terme de droite est une martingale continue, grâce à la proposition précédente on a


∫ t
(φs − φ′s )ds = 0 ∀t ∈ [0, T ].
0

Alors φ = φ′ . De plus, la propriété d'Isométrie de l'intégrale stochastique nous indique


que :
∫ t ∫ t

E[ (θs − θs )dBs ] = E[ (θs − θs′ )2 ds] = E[0].
0 0

Donc on a également θ = θ .2 ′

Corollaire 1.5.2. Un processus d'Itô vériant les conditions (CI) est une martingale si
et seulement si "sa partie en ds" φ est nulle.

Démonstration.
Soit ∫ t ∫ t
Xt = X0 + φs ds + θs dBs
0 0
∫ ∫
si X est une martingale et vériant (CI), alors, Xt −X0 − 0t θs dBs = 0t φs ds est une mar-

tingale continue. Donc d'après la proposition précédente nous indique que 0t φs ds = 0
pour tout t presque surement et φ = 0.
La réciproque est facile.2

17
Remarque 1.5.1. Ces résultats se généralise au cas ou les processus φ, θ ∈ L2F, loc ne
vérient pas les conditions d'intégrabilité (CI)

Proposition 1.5.2. La variation quadratique sur [0, t] d'un processus d'Ito X donné
par (1.5.1) vaut :
∫ t ∫ t
⟨X⟩t = ⟨ θs dBs ⟩ = θs2 ds.
0 0

Démonstration. ∫ t ∫t
On peut vérier que φs ds est à variation nie, alors ⟨ 0
φs ds⟩ = 0. Donc d'après les
0
resultats précédent
∫ t ∫ t
⟨X⟩t = ⟨ θs dBs ⟩ = θs2 ds.2
0 0

Proposition 1.5.3. La covariation quadratique entre 2 processus d'Itô X 1 et X 2 donnés


par :
dXti = φit dt + θti dBt , i = 1, 2
vaut :
∫ t
⟨X , X ⟩t =
1 2
θs1 θs2 ds.
0

Démonstration.
Par dénition, la covariation quadratique est donnée par :

⟨X 1 , X 2 ⟩ = 12 (⟨X 1 + X 2 ⟩ − ⟨X 1 ⟩ − ⟨X 2 ⟩)
∫ t ∫ t ∫ t
= 2 ( (θs + θs ) ds −
1 1 2 2
(θs ) ds −
1 2
(θs2 )2 ds
∫ t0 0 0
1 2
= θs θs ds
0

1
⟨X 1 , X 2 ⟩t = (⟨X 1 + X 2 ⟩t − ⟨X 1 ⟩t − ⟨X 2 ⟩t ).2
2

1.5.2 Formule d'Itô

Théorème 1.5.1. Admis

1. Soit (Xt )0≤t≤T un processus d'Itô et f une fonction deux fois continûment dié-
rentiable ( on dit dans ce cas f est de classe C 2 (R)), on a :
∫ t ∫ t
′ 1
f (Xt ) = f (X0 ) + f (Xs )dXs + f ′′ (Xs )d⟨X⟩s .
0 2 0

18
2. De même si (t, x) −→ f (t, x) est une fonction deux fois diérentiable en x et une
fois diérentiable en t, ces dérivées étant continues en (t, x) ( on dit dans ce cas
f est de classe C 1,2 ([0, T ] × R) ), on a :
∫ t ∫ t ∫ t
1
f (t, Xt ) = f (0, X0 ) + fs′ (s, Xs )ds + fx′ (s, Xs )dXs + ′′
fxx (s, Xs )d⟨X⟩s .
0 0 2 0

3. Pour un processus d'Itô multidimensionnel avec f ∈ C 1,2 ([0, T ] × Rd )


∫ t ∑ d ∫ t
∂f ∂f
f (t, Xt ) = f (0, X0 ) + (s, Xs )ds + (s, Xs )dXsi
0 ∂t i=1 0 ∂xi
∑ d ∫ t
d ∑ 2
1 ∂ f
+ (s, Xs )d⟨X i , X j ⟩s .
2 i=1 j=1 0 ∂xi ∂xj

Une des conséquence de la formule d'Itô est la formule d'intégration par parties
stochastique, dans le cas des processus d'Itô.
Proposition 1.5.4. Formule d'intégration par partie
Soient X et Y deux processus d'Itô, on a :
∫ t ∫ t ∫ t
Xt Yt = X0 Y0 + Xs dYs + Ys dXs + d⟨X, Y ⟩s .
0 0 0

Soit en notation innitésimale :

d(XY )t = Xt dYt + Yt dXt + d⟨X, Y ⟩t .

Démonstration.
On a, d'après la formule d'Itô :
∫ t ∫ t
2
(Xt + Yt ) = (X0 + Y0 ) + 2 2
(Xs + Ys )d(Xs + Ys ) + d⟨X + Y, X + Y ⟩s ,
0 0
∫ t ∫ t
Xt2 = X02 +2 Xs dXs + d⟨X, X⟩s
0 0
et ∫ t ∫ t
Yt2 = Y02 +2 Ys dYs + d⟨Y, Y ⟩s .
0 0

D'où, en faisant la diérence entre la première ligne et les deux suivantes :


∫ t ∫ t ∫ t
2Xt Yt = 2X0 Y0 + 2 Xs dYs + 2 Ys dXs + 2 d⟨X, Y ⟩s ,
0 0 0

car
1
⟨X, Y ⟩t = (⟨X + Y ⟩t − ⟨X⟩t − ⟨Y ⟩t ).2
2

19
1.5.3 Exemples d'utilisation de la formule d'Itô

Exemple 1.5.1. On cherche le calcul de dBt2 . posons Xt = Bt et f (x) = x2 , f ∈


2
C (R).
En utilisant la formule d'Itô
∫ t ∫ t
′ 1
f (Bt ) = f (B0 ) + f (Bs )dBs + f ′′ (Bs )d⟨B⟩s .
0 2 0

B0 = 0 ,f ′ (x) = 2x, f ′′ (x) = 2 et ⟨B⟩s = s, alors :


∫ t ∫
2 1 t
Bt = 2Bs dBs + 2ds.
0 2 0
Donc ∫ t
Bt2 −t= 2Bs dBs .
0
∫ t
Comme E[ 2Bs dBs ] < ∞, on retrouve le fait que Bt2 − t est une martingale.
0

Exemple 1.5.2. Soit


dXt = φt dt + θt dBt ,
avec φ et θ deux processus F -adaptés vériant les conditions d'intégrabilité (CI) et f ∈
C 2 (R). En utilisant la formule d'Itô on a :

∫ t ∫
′ 1 t ′′
f (Xt ) = f (X0 ) + f (Xs )dXs + f (Xs )d⟨X⟩s
∫0 t 2∫ 0 ∫
t
′ ′ 1 t ′′
= f (X0 ) + f (Xs )φs ds + f (Xs )θs dBs + f (Xs )θs2 ds,
0 0 2 0

avec d⟨X⟩s = θs2 ds et dXs = φs ds + θs dBs


Exemple 1.5.3. Modèle de Black et Scholes
Nous allons maintenant nous intéresser aux solutions (St )t≥0 de :
∫ t
St = x0 + Ss (µds + σdWs ).
0

On écrit souvent ce type d'équation sous la forme :

dSt = St (µdt + σdWt ), S0 = x0 . (1.5.2)


∫ t ∫ t
On cherche un processus adapté (St )t≥0 tel que les intégrales Ss ds et Ss dWs aient
0 0
un sens, et qui vérie pour chaque t :
∫ t
St = x0 + Ss (µds + σdWs ), p.s.
0

20
Posons Yt = ln(St ) où St est une solution de l'équation précédente. Appliquons la formule
d'Itô à f (x) = ln(x). On obtient en supposant que St est positif :
∫ t ∫
dSs 1 t 1 2 2
ln(St ) = ln(S0 ) + + − σ Ss ds,
0 Ss 2 0 Ss2
soit en utilisant (1.5.2) :
∫ t ∫ t
σ2
Yt = Y0 + (µ − )ds + σdWs .
0 2 0
On en déduit que :
σ2
Yt = ln(St ) = ln(S0 ) + (µ − )t + σWt .
2
Alors
σ2
St = x0 exp((µ − )t + σWt )
2
est solution de (1.5.2). Vous pouvez vérier ça facilement. On vient donc de démontrer
l'existence d'une solution de (1.5.2). Nous allons maintenant prouver que cette solution
est unique. pour cela nous allons utiliser la formule d'intégration par parties.
Supposons que Xt en soit une autre solution de (1.5.2). Posons :
S0 σ2
Zt = = exp((−µ + )t − σWt ),
St 2
µ′ = −µ + σ 2 et σ ′ = −σ. Alors

σ ′2
Zt = exp((µ′ − )t + σ ′ Wt ),
2
le calcul fait précédement prouve que :
∫ t ∫ t
′ ′
Zt = 1 + Zs (µ ds + σ dWs ) = 1 + Zs ((−µ + σ 2 )ds − σdWs ).
0 0

Grâce à la formule d'intégration par parties pour les processus d'Itô :


d(XZ)t = Xt dZt + Zt dXt + d⟨X, Z⟩t .
On a
d⟨X, Z⟩t = −σ 2 Xt Zt dt.
On en déduit que :
d(XZ)t = Xt Zt ((−µ + σ 2 )dt − σdWt ) + Xt Zt (µdt + σdWt ) − Xt Zt σ 2 dt = 0
Xt Zt est donc égal à X0 Z0 , ce qui entraîne que :
∀t ≥ 0, P p.s. Xt = x0 Zt−1 = St .
Les processus Xt et Zt étant continus, ceci prouve que :

P p.s. ∀t ≥ 0, Xt = x0 Zt−1 = St .
On vient ainsi de démontrer l'unicité de la solution de(1.5.2).

21
Remarque 1.5.2. 1. Le processus St de l'exemple précédent servira de modèle stan-
dard pour le prix d'un actif nancier. On l'appelle modèle de Black et Scholes.
2. Lorsque µ = 0, St est une martingale,ce type de processus porte le nom de martin-
gale exponentielle.

Théorème 1.5.2. Théorème de Girsanov


Soit h ∈ L2F (Ω, [0, T ]). On suppose que le processus (Dt )0≤t≤T déni par
∫ t ∫
1 t
Dt = exp( hs dBs − |hs |2 ds)
0 2 0

est une martingale. Soit P∗ la mesure de densité DT par rapport à P sur FT ( dP
dP |Ft
= Dt ).
∫ t
Introduisons le processus Bt∗ = Bt − 0 hs ds. Alors, sous la probabilité P∗ , B ∗ est un
mouvement brownien standard.

Remarque 1.5.3. Lorsque E[exp( 12 0t |hs |2 ds)] < ∞, D est une martingale. Ce critère
est connu sous le nom de condition de Novikov.

1.6 Equations diérentielles stochastiques


Le but des équations diérentielles stochastiques est de fournir un modèle mathéma-
tique pour une équation diérentielle perturbée par un bruit aléatoire. Partons d'une
équation diérentielle ordinaire de la forme
y ′ (t) = b(y(t)),

soit encore sous forme diérentielle,


dyt = b(yt )dt.

Une telle équation est utilisée pour décrire l'évolution d'un systéme physique. Si l'on
prend en compte les perturbations aléatoires, on ajoute un terme de bruit, qui sera
de la forme σdWt , où W désigne un mouvement brownien et σ est pour l'instant une
constante qui correspond à l'intensité du bruit. On arrive àune équation diérentielle
"stochastique" de la forme :
dyt = b(yt )dt + σdWt .
On généralise cette équation en autorisant σ à dépendre de l'état à l'instant t :
dyt = b(yt )dt + σ(t)dWt .

Remarquons que le sens donné à cette équation dépend de la théorie de l'intégrale sto-
chastique développée dans les paragraphes précédents.

Ces équations permettent de construire la plupart des modèles d'actifs utiles en nances,
aussi bien lorsque l'on cherche à modéliser des actifs que des taux d'intérêt. Nous allons
étudier quelques propriétés des solutions de ces équations.

22
On note formelement l'EDS sous la forme suivant :
{
dXt = b(t, Xt )dt + σ(t, Xt )dWt
(1.6.1)
X0 = Z.

Le théorème suivant donne des conditions susantes sur b et σ pour avoir un résultat
d'existence et d'unicité pour (1.6.1).
Théorème 1.6.1. Si b et σ sont des fonctions continues, telles qu'il existe une constante
K > 0 avec :
1. |b(t, x) − b(t, y)| + |σ(t, x) − σ(t, y)| ≤ K|x − y|
2. |b(t, x)| + |σ(t, x)| ≤ K(1 + |x|)
3. E[Z] < +∞.
Alors, pour tout T ≥ 0, (1.6.1) admet une soultion unique dans l'intervalle [0, T ]. De
plus cette solution (Xs )0≤s≤T vérie :

E[ sup |Xs |2 ] < +∞.


0≤s≤T

L'unicité signie que si (Xt )0≤t≤T et (Yt )0≤t≤T sont deux solutions de (1.6.1), alors :

P p.s. ∀0 ≤ t ≤ T, Xt = Yt .

Démonstration.
La preuve consiste à utiliser la méthode itérative de Picard comme dans le cas détermi-
niste.
Pour X ∈ S 2 = {(Xs )0≤s≤T , processus continu et Ft − adapté, tel que E[sup |Xs |2 ] <
s≤T
+∞}, posons, pour tout t ∈ [0, T ],
∫ t ∫ t
ϕ(X)t = Z + b(r, Xr )dr + σ(r, Xr )dWr .
0 0

Le processus ϕ(X) est bien déni et est continu si XinS 2 .


Si X et Y sont deux éléments de S 2 , comme (a + b)2 ≤ 2a2 + 2b2 , on a, pour tout
0 ≤ t ≤ u ≤ T,
∫ t ∫ t
|ϕ(X)t −ϕ(Y )t | = 2 sup |
2
(b(r, Xr )−b(r, Yr ))dr| +2 sup |
2
(σ(r, Xr )−σ(r, Yr ))dWr |2 .
t≤u 0 t≤u 0

Utilisant les propriétés de l'intégrale stochastique, il vient :


∫ t ∫ t
E[sup |ϕ(X)t −ϕ(Y )t | ] ≤ 2E[(
2
|b(r, Xr )−b(r, Yr )|dr) ]+8E[ ||σ(r, Xr )−σ(r, Yr )||2 dr].
2
t≤u 0 0

L'inégalité de Hölder donne alors la majoration


∫ t ∫ t
E[sup |ϕ(X)t −ϕ(Y )t | ] ≤ 2T E[ |b(r, Xr )−b(r, Yr )| dr)]+8E[ ||σ(r, Xr )−σ(r, Yr )||2 dr].
2 2
t≤u 0 0

23
Comme les fonctions b et σ sont Lipschitz en espace, on obtient, pour tout u ∈ [0, T ],
∫ u
E[sup |ϕ(X)t − ϕ(Y )t | ] ≤ 2K (T + 4)E[
2 2
sup |Xt − Yt |2 dr].
t≤u 0 t≤r

De plus, notant 0 le processus nul, on a, comme (a + b + c)2 ≤ 3(a2 + b2 + c2 ),


∫ t ∫ t
|ϕ(0)t | = 3Z + 3 sup |
2 2
b(r, 0)dr| + 3 sup |
2
σ(r, 0)dWr |2 .
t≤T 0 t≤T 0

d'où l'on tire en utilisant l'inégalité de Doob et la croissance linéaire de b et σ ,


E[sup |ϕ(0)t |2 ] = 3(E[Z 2 ] + K 2 T 2 + 4K 2 T ). (1.6.2)
t≤T

Les estimations précédent montrent alors que le processus ϕ(X) appartient à S 2 dès que
X appartient à S 2 .
On dénit alors par récurrence une suite de processus de S 2 en posant
X 0 = 0, et X n+1 = ϕ(X n ).
On obtient très facilement à l'aide de la formule précédente, pour tout n ≥ 0, notant C
à la place de 2K 2 (T + 4),
C nT n
E[sup |Xtn+1 − Xtn |2 ] ≤ E[sup |Xt1 |2 ].
t≤T n! t≤T

Soit encore, notant D le majorant de l'inégalité (1.6.2),


C nT n
E[sup |Xtn+1 − Xtn |2 ] ≤ D .
t≤T n!
Il résulte de cette dernière inégalité que
∑ ∑ √ ∑ (CT ) n2
∥ sup |Xtn+1 − Xtn | ∥ L1 ≤ ∥ sup |Xtn+1 − Xtn | ∥L2 ≤ D √ < ∞.
n≥0
t≤T
n≥0
t≤T
n≥0
n!

Ainsi, la série sup |Xtn+1 −Xtn | converge P-p.s. et donc P-p.s., X n converge unifor-
n≥0 t≤T
mément sur [0, T ] vers un processus X continu. De plus X ∈ S 2 puisque la convergence
a lieu dans S 2 voir l'inégalité précédente. On vérie très facilement que X est solution
de l'EDS en passant à la limite dans la dénition X n+1 = ϕ(X n ).
Pour montrer l'unicité, si X et Y sont deux solutions de l'EDS dans S 2 alors X = ϕ(X)
et Y = ϕ(Y ). Les résultats précédents donne alors, pour tout u ∈ [0, T ],
∫ u
E[sup |Xt − Yt | ] ≤ 2K (T + 4)E[
2 2
sup |Xt − Yt |2 dr],
t≤u 0 t≤r

le lemme de Gronwall montre que


E[sup |Xt − Yt |2 ] = 0,
t≤T

ce qui prouve que X et Y sont indistinguables. 2

24
Lemme 1.6.1. Lemme de Gronwall
Soit g : [0, T ] → R une fonction continue telle que, pour tout t
∫ t
g(t) ≤ a + b g(s)ds, a ∈ R, b ≥ 0.
0

Alors, pour tout t, g(t) ≤ a exp(bt).

Exemple 1.6.1. Processus d'Ornstein-Ulhenbeck Le procesus d'Ornstein-Ulhenbeck


est la solution unique de l'équation suivante :
{
dXt = −cXt dt + σdWt
(1.6.3)
X0 = x.

On peut expliciter cette solution. En eet, posons Yt = Xt ect et écrivons la formule


d'intégration par parties :

dYt = ect dXt + Xt d(ect ) + d⟨X, ect ⟩t .

On a ⟨X, ect ⟩t = 0 (car ect est à variation ni). On en déduit que dYt = σect dWt alors :
∫ t
−ct −ct
Xt = xe + σe ecs dWs .
0
On peut calculer la moyenne et la variance de Xt :
∫ t
−ct −ct
E[Xt ] = xe + σe E[ ecs dWs ] = xe−ct
0
∫t ∫t
(en eet E[ 0 (ecs )2 ds] < +∞, et donc 0 ecs dWs est une martingale nulle à l'instant 0
donc de moyenne nulle ). De même

V ar(Xt ) = E[Xt2 ] + (E[Xt ])2


∫ t
−2ct
= E[(σe ecs dWs )2 ]
0
∫ t
= σ 2 e−2ct E[( ecs dWs )2 ]
0
∫ t
2 −2ct
=σ e E[ e2cs ds]
0

1 − e−2ct
= σ2 .
2c
On peut démontrer que Xt est une variable aléatoire gaussienne.

25

Vous aimerez peut-être aussi