Vous êtes sur la page 1sur 79

Processus et Calcul Stochastique

Youssef Ouknine

MFE
Africa Business School

23 février 2022
Table des matières

1 Notions sur les processus stochastiques 3


1.1 Quelques exemples . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
1.2 Notions de continuité des processus . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.3 Loi des processus . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
1.3.1 Tribu prévisible . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7

2 Espérance conditionnelle 8
2.1 Martingales à temps discret . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
2.1.1 Quelques propriétés élémentaires des martingales . . . . . . . . . . . . . . . . . 12
2.2 Application en finance : pricing des options . . . . . . . . . . . . . . . . . . . . . . . . . 13
2.2.1 Le modèle de Cox, Ross et Rubinstein . . . . . . . . . . . . . . . . . . . . . . . 13
2.3 Calcul des prix des options européennes . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
2.3.1 Algorithme du pricing des options européennes pour le modèle CRR . . . . . . . 15
2.4 Calcul des prix des options américaines . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
2.4.1 Notion de temps d’arrêt . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
2.4.2 Martingales, sous–martingales et surmartingales en temps continu . . . . . . . . 19
2.5 Martingales locales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
2.5.1 Temps d’arrêt en temps continu . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
2.5.2 Propriétés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
2.6 Théorème d’arrêt . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21

3 Mouvement Brownien réel 23


3.1 Rappels sur les variables gaussiennes . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
3.2 Propriété de Markov du Brownien . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
3.2.1 Equation de la chaleur . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
3.3 Propriété de martingale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27

4 Processus à variation finie 29


4.1 Intégrale de Stieltjes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29

5 Construction de l’intégrale stochastique de Itô 33


5.1 Quelques propriétés de l’intégrale stochastique. . . . . . . . . . . . . . . . . . . . . . . . 36
5.2 Inégalité maximale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37
5.3 Formule de changement de variable : formule de Itô . . . . . . . . . . . . . . . . . . . . 38
5.4 Quelques exemples d’applications de la formule de Itô . . . . . . . . . . . . . . . . . . . 38
5.5 Crochet d’un processus de Itô . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39
5.5.1 Version multidimensionnelle de la formule de Itô . . . . . . . . . . . . . . . . . . 40
5.6 Évaluation d’intégrales stochastiques . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41
5.6.1 Application de la formule de Itô . . . . . . . . . . . . . . . . . . . . . . . . . . . 41

1
2

6 Équations différentielles stochastiques 43


6.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43
6.2 Quelques examples . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45
6.3 Inégalité de Bellman–Gronwall . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48
6.4 Théorème d’existence et d’unicité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 50
6.4.1 Théorème d’unicité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 50
6.4.2 Théorème d’existence . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51
6.5 Théorème de comparaison . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55
6.6 Solutions explicites de certaines EDS . . . . . . . . . . . . . . . . . . . . . . . . . . . . 56

7 Application aux modèles à temps continu en finance 58


7.1 Théorème de Girsanov . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61
7.2 Actifs contingents et complétude . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 64
7.3 Réplications d’options et marchés complets . . . . . . . . . . . . . . . . . . . . . . . . . 64
7.4 Caractérisation des marchés complets . . . . . . . . . . . . . . . . . . . . . . . . . . . . 66
7.5 Evaluations des prix d’options et réplications de portefeuilles . . . . . . . . . . . . . . . 67
7.6 Modèle de Black & Scholes à paramètre dépendant du temps . . . . . . . . . . . . . . . 68
7.6.1 Absence d’arbitrage . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 68
7.6.2 Complétude . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 68
7.7 Réplications de portefeuille . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 71
7.7.1 Modèle de Black & Scholes classique à paramètre constants . . . . . . . . . . . . 73
7.8 Application aux modèles de taux d’intérêt . . . . . . . . . . . . . . . . . . . . . . . . . 75
7.8.1 Modèle de Vasicek . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 75
7.8.2 Modèle de Black–Scholes à volatilité stochastique . . . . . . . . . . . . . . . . . 76
7.8.3 Modèle de Cox–Ingersoll–Ross . . . . . . . . . . . . . . . . . . . . . . . . . . . . 77
Chapitre 1

Notions sur les processus stochastiques

On se donne (Ω, F, P ) un espace de probabilité complet i.e. si B ∈ F tel que P (B) = 0 et A ⊂ B,


alors A ∈ F.
Une base stochastique est la donnée de (Ω, F, (Ft )t≥0 , P ) où {Ft , t ≥ 0} est une famille de sous tribus
de F telle que Fs ⊂ Ft pour tout s ≤ t. {Ft , t ≥ 0} s’appelle une filtration.
Hypothèses (conditions habituelles) : On dit que (Ω, F, (Ft )t≥0 , P ) satisfait les conditions habituelles si :
F0 contient tous les P –négligeables de F et Ft est continue à droite i.e. Ft = ∩s>t Fs .

Définition 1.0.1 Un processus stochastique X := {Xt , t ≥ 0} est une collection de v.a. Xt , t ≥ 0 :

Xt : Ω −→ Rn
ω 7−→ Xt (ω).

On dira que le processus {Xt , t ≥ 0} est adapté à Ft si ∀ t ≥ 0 Xt est Ft –mesurable.


L’application (pour ω ∈ Ω fixé)
X· (ω) : R+ −→ Rn
t 7−→ Xt (ω)
s’appelle une trajectoire du processus.

Soit X· = {Xt , t ∈ I} un processus aléatoire indexé par I.


– Si I = N ou I = Z, on dit que X· est une suite aléatoire.
– Si I = R ou I = R+ , on dit que X· est une fonction aléatoire.
– Si I = Zd ou I = Rd , on dit que X· est un champ aléatoire.
– Si I est fini, X· est simplement un vecteur aléatoire.

1.1 Quelques exemples


Processus de Bernoulli. Il s’agit d’une somme cumulée Sn de variables aléatoires indépendantes de
Bernoulli (ξi )i∈N , pouvant prendre deux valeurs, par exemple 0 et 1 avec : P (ξi = 1) = 1−P (ξi = 0) = p.
n
X
Sn = ξi .
i=1

Soit (ξi )i∈N une suite de v.a. i.i.d. On pose pour t ≥ 0, Xt = ξ[t] où [t] désigne la partie entière de
t. On définit aussi
[nt]
X X
t
Sn = ξi , Xt = ξi
i=1 i≤t

3
4

On définit aussi un autre processus plus intéressant par


1 X
BtN = √ ξi
N i≤N t

k √1 ξk+1 ,
Pour tk = N
on aura BtN0 = 0, BtNk+1 = BtNk + N
ainsi pour s < t

1 X
BtN − BsN = √ ξk
N sN <k≤N t

t−s X
= p ξk
N (t − s) sN <k≤N t

Si les ξk suivent la loi normale centrée réduite (N (0, 1)), le théorème limite centrale entraı̂ne que
BtN − BsN converge en loi lorsque N tend vers l’infini vers une variable aléatoire ξs,t qui suit une loi
normale N (0, t − s).

Définition 1.1.1 (Modification) Soient X et Y deux processus stochastiques, définis sur le même
espace de probabilité. On dira que X est une modification de Y si

∀ t≥0 P [Xt = Yt ] = 1.

i.e. ∀ t ≥ 0, il existe Nt négligeable tel que ∀ ω ∈


/ Nt on ait Xt (ω) = Yt (ω)

Remarque 1.1.1 En général la notation N sera réservée aux ensembles négligeables

Définition 1.1.2 (Indistinguabilité) Deux processus stochastiques X et Y sont dits indistinguables


si
P [Xt = Yt ∀ t ≥ 0] = 1.
i.e. Il existe N négligeable tel que ∀ ω ∈
/ N et ∀ t ≥ 0, on a Xt (ω) = Yt (ω).

Exemple 1.1.1 Considérons une v.a. positive T de distribution de probabilité continue. Prenons

0 sur {T 6= t}
Xt ≡ 0 et soit Yt =
1 sur {T = t}.

Alors Y est une modification de X, car pour tout t ≥ 0 on a P[Xt = Yt ] = P [T 6= t] = 1, mais d’autre
part P [Xt = Yt ∀ t ≥ 0] = 0.

Exemple 1.1.2 On prend pour (Ω, F, P ) l’espace de probabilité ([0, 1], B([0, 1], dx) où dx la mesure
de Lebesgue sur [0, 1]. Soit {Xt , t ≥ 0} le processus défini par : (ω, t) ∈ [0, 1] × R+ Xt (ω) = ω + at, i.e.
les trajectoires de {Xt , t ≥ 0} sont des demi–droites de pente a et d’ordonnée ω à l’origine.
Soit {Yt , t ≥ 0} le processus défini sur le même espace par : (ω, t) ∈ [0, 1] × R+ , Yt (ω) = ω + at si t = ω
et Yt (ω) = 0 si t 6= ω. Dans ce cas les trajectoires de {Yt , t ≥ 0} sont des demi–droites identiques de
pente 1 + a passant par 0 si t = ω et nulles ailleurs.
Y est une modification de X mais il n’est pas indistinguable de X.

Dans toute la suite, on travaille sur une base stochastique satisfaisant les conditions habituelles,
modulo la relation d’équivalence :

X R Y ⇐⇒ X et Y sont indistinguables.
5

1.2 Notions de continuité des processus


Soit E est un espace métrique muni d’une distance d, on munit E de sa tribu borelienne E pour en
faire un espace mesurable. Soit T un intervalle (non vide) de R. Il existe plusieurs notions de continuité
des processus stochastiques.

Définition 1.2.1 Soit X = (Xt )0≤t≤T un processus stochastique indexé par T sur à valeurs dans
(E, E).
1. X est continu en probabilité sur T si ∀ t ∈ T ε > 0 lims→t,s∈T P (d(Xt , Xs ) > ε) = 0.
2. X est continu en moyenne d’ordre p ≥ 1 si ∀ t ∈ T E[|Xt |p ] est fini et l’application t 7→ Xt est
continue de T dans l’espace normé Lp (Ω, F, P ) i.e. lims→t,s∈T E[|Xt − Xs |p ] = 0
3. X est presque sûrement à trajectoires continues s’il existe N négligeable tel que ∀ ω ∈
/ N
l’application t 7→ Xt (ω) soit continue.
4. X est dit continu à droite et limité à gauche (càdlàg) s’il existe N négligeable tel que ∀ ω ∈
/N
l’application t 7→ Xt (ω) soit continue à droite et limitée à gauche. i.e.

lim Xs (ω) = Xt (ω) et lim Xs (ω) existe et est finie.


s&t s%t

Théorème 1.2.1 Si X et Y sont càdlàg et X est une modification de Y alors X et Y sont indistin-
guables .

Preuve. Soient NX l’ensemble des ω tel que X· (ω) ne soit pas continue à droite et NY l’ensemble des
ω tel que Y· (ω) ne soit pas continue à droite.
Soit M = {ω ∈ Ω : ∃ q ∈ Q tel que Xq (ω) 6= Yq (ω)} = ∪q∈Q {ω ∈ Ω : Xq (ω) 6= Yq (ω)}.
On pose N = NX ∪ NY ∪ M, c’est un négligeable.
Soient t ≥ 0 et ω ∈/ N alors Xr (ω) = Yr (ω) pour tout r ∈ Q, faisant tendre r ∈ Q tel (r > t) vers t,
et par la continuité à droite Xt (ω) = Yt (ω), d’où X et Y sont indistinguables.

Remarque 1.2.1 Deux processus indistinguables ont les mêmes trajectoires p.s., en revanche on peut
construire deux processus qui sont une modification l’un de l’autre et telles que les trajectoires du
premier soient continues et celles du second soient discontinues.

Exemple 1.2.1 Soit (Xt : t ∈ [0, 1]) un processus continu défini sur (Ω, F). On pose :

Yt := Xt + 1{U } (t)

où U est une variable aléatoire uniforme sur [0, 1] et définie sur le même espace de probabilité. Comme
{Yt = Xt } = {U 6= t} et que P(U = t) = 0, on en déduit que Y est une modification de X, pourtant
toutes les trajectoires de Y sont discontinues.

Définition 1.2.2 On dit qu’un processus X est progressivement mesurable pour la filtration (Ft , t ≥ 0)
si ∀ t ≥ 0, ∀ A ∈ B(R)

{(ω, s) : 0 ≤ s ≤ t, Xs (ω) ∈ A} ∈ Ft ⊗ B([0, t])

c’est à dire que l’application


X· (·) : (Ω × [0, t], Ft ⊗ B([0, t])) −→ R
Ω × [0, t] 3 (ω, s) 7−→ Xs (ω)

est mesurable.
6

Proposition 1.2.1 [Meyer (1966), p. 68] Si X est un processus mesurable adapté, alors il admet une
modification progressivement mesurable.

Proposition 1.2.2 Si X est un processus mesurable adapté et admet des trajectoires càd ou càg, alors
il est progressivement mesurable.

Preuve : On définit


k k+1
Xsn (ω) = X(k)t2−n (ω) pour s ∈ n t, n t ; X0n (ω) = X0 (ω), k = 0, · · · , 2n − 1
2 2
Il est clair que l’application (ω, s) 7−→ Xsn (ω) est Ft ⊗ B([0, t])–mesurable. Par continuité à gauche,
la suite Xsn (ω) converge vers Xs (ω) pour tout (ω, s) et donc la limite est aussi Ft ⊗ B([0, t])–mesurable.

1.3 Loi des processus


Définition 1.3.1 (Première caractérisation) On se donne un processus (Xt )t∈I défini sur (Ω, F, P )
et à valeurs dans (E, E). Il est ”naturel” de considérer l’application

X: Ω −→ E I
ω 7−→ (Xt (ω))t∈I

où E I désignant l’ensemble des applications de I dans E peut-être muni de la tribu produit E I := ⊗t∈I E,
tribu engendrée par le système C des cylindres :
( )
Y
C= C= Ct : ∀ t ∈ I, Ct ∈ E et Ct = E sauf pour un nombre fini de t
t∈I

Lemme 1.3.1 Soit (Xt )t∈I un processus stochastique défini sur (Ω, F, P ) et à valeurs dans (E, E).
Alors l’application X : ω 7−→ (Xt (ω))t∈I est mesurable de (Ω, F) dans (E I , E I ).

Preuve. Avec les notations précédentes comme E I = σ(C), il suffit de montrer que pour tout C ∈ C,
X −1 (C) ∈ F. Q
Soit donc C = t∈I Ct : ∀ t ∈ I, Ct ∈ E et Ct = E sauf pour un nombre fini de t. On peut noter
t1 < t2 < . . . < tn les indices t pour lesquels Ct 6= E. Alors,

X −1 (C) = {ω ∈ Ω : Xti (ω) ∈ Cti , pour i = 1, . . . , n}


\n \n
= {ω ∈ Ω : Xti (ω) ∈ Cti } = X −1 (Cti )
i=1 i=1

et ce dernier ensemble est bien dans F comme intersection d’élements de F, puisque par définition
d’un processus, chaque ω 7−→ Xti (ω) est mesurable.

Définition 1.3.2 Soit (Xt )t∈I un processus stochastique défini sur (Ω, F, P ) et à valeurs dans (E, E).
On appelle loi du processus aléatoire X, la mesure image PX de P par X, mesure sur l’espace produit
(E I , E I ), i.e.
∀ A ∈ E I , PX (A) = P (X ∈ A)

Proposition 1.3.1 Soit (Xt )t∈I un processus stochastique défini sur (Ω, F, P ) et à valeurs dans
(E, E). La loi de X est entièrement déterminée par la famille constituée par les lois de tout sous–vecteur
aléatoire fini (Xt1 , Xt2 , . . . , Xtn ), i.e. par les P(Xt1 ,Xt2 ,...,Xtn ) (·) pour tout n ∈ N et (t1 , t2 , . . . , tn ) ∈ I n .
7

1.3.1 Tribu prévisible


Définition 1.3.3 On appelle tribu prévisible (ou tribu des processus prévisibles) la tribu notée P
engendrée par les processus X qui sont adaptés, continus à gauche et limités à droite (càglàd).

Proposition 1.3.2 (i) La tribu P est engendrée par les processus X adaptés et continus
(ii) La tribu P est engendrée par {1A 1]s,t] : A ∈ Fs s < t}

Définition 1.3.4 Un processus réel X est dit prévisible si l’application (ω, t) 7→ Xt (ω) définie de
Ω × R+ est mesurable par rapport à P.
Chapitre 2

Espérance conditionnelle

Soit (Ω, F, P ) un Respace de probabilité complet et G une sous tribu de F et soit X une v.a. positive
intégrable (E [X] := Ω XdP < +∞). R
Nous savons que l’application A ∈ G 7→ µ(A) := A XdP = E[X1A ] est une mesure positive absolu-
ment continue par rapport à P i.e. µ  P .
Par le théorème de Radon–Nikodym il existe une v.a. E[X | G], G–mesurable unique, E[X | G] ∈ L1 (G)
telle que Z
∀ A ∈ G µ(A) := E[X | G]dP.
A
c’est à dire Z Z
∀ A∈G XdP = E[X | G]dP.
A A

La variable aléatoire E[X | G] s’appelle l’espérance conditionnelle de X par rapport à G.


Si X une v.a. intégrable (i.e. E|X| < +∞). Alors on définit E[X | G] par

E[X | G] = E[X + | G]−E[X − | G]

où x+ = max(x, 0) et x− = max(−x, 0) = − min(x, 0).

Définition 2.0.1 Soit G une sous tribu de F, l’espérance conditionnelle d’une v.a. intégrable X sa-
chant G est la v.a. E[X | G] (à une classe d’équivalence près) définie par les deux propriétés suivantes :
i) E[X | G] est G–mesurable,
R R
ii) Pour tout A ∈ G, A XdP = A E[X | G]dP .

Propriétés de l’espérance conditionnelle.


Soient G et H deux σ–algèbres telles que G ⊂ H ⊂ F, pour toute v.a. X, Y ∈ L1 (Ω, F, P ) et pour
tout α, β ∈ R on a
a. E[αX + βY | G] = αE[X | G] + βE[Y | G]
b. E[E[X | G]] = E[X],
c. E[X | G] = X si X est G–mesurable
d. E[X | G] = E[X] si X est indépendante de G
e. E[Y X | G] = Y E[X | G] si X, Y ∈ L2 (Ω, F, P ) et Y est G–mesurable.
f. E[X | H | G] = E[X | G]
g. Si X ∈ L2 (Ω, F, P ) alors E[X | G] est la projection de X sur L2 (Ω, G, P ).
h. L’espérance conditionnelle est croissante i.e. si X ≤ Y alors E[X | G] ≤ E[Y | G].
i. (Lemme de Fatou) Si |Xn | ≤ Y où Y est intégrable et si Xn converge p.s. vers X alors E[Xn | G]
converge p.s. vers E[X | G]

8
9

j. (Inégalité de Jensen) Soit Φ une fonction convexe et X une v.a. intégrable telle que Φ(X) soit
intégrable, alors on a
Φ(E [X | G]) ≤ E [Φ(X) | G] .
On peut définir la probabilité conditionnelle d’un événement A ∈ F sachant une tribu B comme
suit
P (A | B ] = E[1A | B ].
Si la σ–algèbre B est engendrée par les variables aléatoires Y1 , . . . , Ym , alors, l’espérance condition-
nelle est représenté par E[X | Y1 , . . . , Ym ) et est une certaine fonction mesurable g(Y1 , . . . , Ym ) de ces
variables. En particulier, si les variables X, Y1 , . . . , Ym ont une loi conjointe absolument continue avec
une densité f (x, y1 , . . . , ym ), alors, l’espérance conditionnelle peut se calculer comme l’espérance par
rapport à la densité conditionnelle :
f (x, y1 , . . . , ym )
f (x | y1 , . . . , ym ) = R
R
f (z, y1 , . . . , ym )dz
c’est à dire Z
E[X | Y1 , · · · , Ym ] = xf (x | Y1 , · · · , Ym )dx.
R

Proposition 2.0.1 Supposons que X est une variable aléatoire de la forme X = f (Y, Z), où f est une
fonction bornée, Y une variable aléatoire indépendante de la σ–algèbre B et Z une variable aléatoire
B–mesurable. Alors l’espérance conditionnelle de X par rapport à la σ–algèbre B est donné par
Z
E[X | B] = E[f (Y, z) | B)|z=Z = f (y, Z)PY (dy),
R

où PY désigne la loi de Y .


Preuve. Remarquons d’abord que E[F (Y, z))|z=Z est la composition de la fonction g(z] = E[F (Y, z))
avec la variable aléatoire Z, et par conséquent, est une variable aléatoire B–mesurable. D’autre part,
si B est un élément de la σ–algèbre B, en tenant compte de l’indépendance des variables Y et Z1B , il
est facile de voir que
 Z 
 
E 1B E[F (Y, z))|z=Z = E 1B f (y, Z)PY (dy)
R
= E[1B f (Y, Z)] = E[1B X).
Rappelons que l’ensemble des variables aléatoires de carré intégrable, noté L2 (Ω, F, P ), est un
espace de Hilbert pour le produit scalaire
hX, Y i = E[XY ].
Alors l’ensemble des variables aléatoires de carré intégrable et B–mesurables, noté L2 (Ω, B, P ) est
un sous espace vectoriel fermé de L2 (Ω, F, P ).
Si X est une variable aléatoire X telle que E[X 2 ] < ∞, son espérance conditionnelle E[X | B ] est
la projection orthogonale de X sur le sous-espace L2 (Ω, B, P ). En effet, nous avons :
(i) E[X | B ] appartient à L2 (Ω, B, P ) car il est B–mesurable et est de carré integrable grâce à la
propriété de l’espérance conditionnelle ).
(ii) X −E[X | B ] est orthogonale au sous-espace L2 (Ω, B, P ). En effet pour tout Z ∈ L2 (Ω, B, P )
nous avons,
E[(X − E[X | B ])Z] = E[XZ] − E[E[X | B ]Z]
= E[XZ] − E[E[XZ | B ]] = 0.
10

Comme conséquence, E[X | B ] est une variable aléatoire dans L2 (Ω, B, P ) qui minimise l’erreur
moyenne quadratique :

E[(X − E[X | B ])2 ] = min E[(X − Y )2 ].


Y ∈L2 (Ω,B,P )

Ceci provient de la relation

E[(X − Y )2 ] = E[(X − E[X | B ])2 ] + E[(E[X | B ] − Y )2 ]

et cela veut dire que l’espérance conditionnelle est l’estimateur optimal ,au sens des moindres carres ,
de X sachant la tribu B.

2.1 Martingales à temps discret


Définition 2.1.1 Une suite de variables aléatoires M = {Mn : n = 0, 1, . . . , N } est une martingale
par rapport à la filtration {Fn : n = 0, 1, . . . , N } si
(i) Les variables Mn sont Fn –mesurables
(ii) Pour tout n = 0, 1, . . . , N , E|Mn | est finie
(iii) Pour tout n = 0, 1, . . . , N − 1, E[Mn+1 | Fn ] = Mn .
La suite {Mn , n ≥ 0} est dite sur–martingale (où sous–martingale) si la propriété (iii) est remplacée
par E[Mn+1 | Fn ] ≤ Mn (ou E[Mn+1 | Fn ] ≥ Mn ).

La propriété de martingale implique que

E[Mn ] = E[M0 ]

pour tout n. D’autre part, la condition (ii) peut s’écrire sous la forme équivalente

E[4Mn | Fn−1 ] = 0.

pour n = 1, . . . , N et où 4Mn = Mn − Mn−1 . Si M est une martingale, alors pour tout n = 0, 1, . . . , N ,

E[MN | Fn ] = Mn .

En effet,

Mn = E[Mn+1 | Fn ] = E[E[Mn+2 | Fn+1 ) | Fn )


= E[Mn+2 | Fn ] = · · · = E[MN | Fn ).

Exemple 2.1.1 (1) Si M0 = 0 et Mn = ξ1 + . . . + ξn où les ξj sont des variables aléatoires centrées
et indépendantes. Soit de Fn la tribu engendrée par (ξ1 , . . . , ξn ). Nous avons

E[Mn+1 | Fn ) = E[Mn + ξn+1 | Fn )


= Mn + E[ξn+1 | Fn )
= Mn + E[ξn+1 ] = Mn .

(2) Considérons les variables aléatoires indépendantes ξj , i = 1, . . . , N , telles que P (ξj = 1) = p et


P (ξj = −1) = 1 − p, où 0 < p < 12 . Alors
 ξ1 +...+ξn
1−p
Mn = , et M0 = 1
p
11

est une martingale par rapport à Fn = σ(ξ1 , . . . , ξn ).


En effet,
 ξ +...+ξn+1 !
1−p 1
E[Mn+1 | Fn ) = E | Fn
p
 ξ !
1 − p n+1
= E Mn | Fn
p
 ξ !
1 − p n+1
= Mn E | Fn
p
 ξ !
1 − p n+1
= Mn E
p
= Mn .

Lemme 2.1.1 Supposons que {Mn , n ≥ 0} est une martingale par rapport à la filtration Gn . Soit
Fn = σ(M0 , . . . , Mn ) ⊂ Gn . Alors {Mn , n ≥ 0} est une martingale par rapport à la filtration Fn .

Preuve. Nous avons d’après une propriété de l’espérance conditionnelle,

E[Mn+1 | Fn ] = E[E[Mn+1 | Gn )|Fn ] = E[Mn | Fn ] = Mn .

Étant donné une martingale M = {Mn : n = 0, 1, . . . , N } et une suite de variable aléatoire


{Yn : n = 0, 1, . . . , N } prévisible, c’est à dire Y0 est constant, et pour chaque n = 1, . . . , N , la variable
Yn est Fn−1 –mesurable, on définit la transformation de la martingale M par Y comme suit
n
X
Xn = Y0 M0 + Yj 4 Mj . (2.1.1)
j=1

Il est facile de voir que si les variables aléatoires Yn , n = 1, . . . , N sont bornées alors Xn est aussi une
martingale. En effet nous avons

E[4Xn | Fn−1 ) = E[Yn 4 Mn | Fn−1 )


= Yn E[4Mn | Fn−1 ] = 0.

Ce résultat reste valable en supposant seulement que E[XN− ) < +∞ où x− = max(−x, 0).
Sous cette hypothèse la démonstration est assez facile. C’est le contenu de la proposition suivante :

Proposition 2.1.1 Soit {Mn : n = 0, 1, . . . , N } une martingale et soit {Yn : n = 0, 1, . . . , N } une


famille prévisible. Soit Xn la suite définie par (2.1.1) et supposons que E[XN− ) < +∞. Alors {Xn :
n = 0, 1, . . . , N } est une martingale.

Preuve. Pour chaque entier naturelle k, on définit la variable aléatoire τ qui prend ses valeurs dans
l’ensemble {0, 1, . . . , N } de la manière suivante :
i) pour n = 1, . . . , N − 1, τk = n si |Yi | ≤ k pour i = 1, . . . , n et |Yn+1 | > k.
ii) τk = 0 si |Y1 | > k
iii) τk = N si |Yi | ≤ k pour i = 1, . . . , N .
La suite arrêtée Xnτk définie par
n
X
Xn∧τk = Y0 M0 + Yj 1{τk ≥j} 4 Mj .
j=1
12

est une martingale car les variables aléatoires Yj 1{τk ≥j} sont bornées par k et sont Fj−1 –mesurables.
Ceci est du au fait que {τk ≥ j} = {|Y1 | ≤ k, . . . , |Yj | ≤ k} ∈ Fj−1 .
La propriété de martingale nous dit que

E[X(n+1)∧τk | Fn ] = Xn∧τk .

En faisant tendre k vers l’infini et le fait que limk→+∞ τk = N , nous déduisons que

E[Xn+1 | Fn ] = Xn

du moment que les variables Xn sont intégrables. Pour démontrer l’intégrabilité de ces variables on
voit de manière recursive que E[Xn− ) < +∞ et E[Xn+ ) < +∞, où x+ = max(x, 0).
1. En utilisant l’inégalité de Jensen on obtient

Xn− 1{τk ≥n+1} = Xn∧τ



1
k {τk ≥n+1}

= E[X(n+1)∧τk | Fn )− 1{τk ≥n+1}



≤ E[X(n+1)∧τ k
| Fn )1{τk ≥n+1}

= E[X(n+1)∧τ k
1{τk ≥n+1} | Fn ).

Par conséquent

E[Xn− 1{τk ≥n+1} ) ≤ E[X(n+1)∧τ k
1{τk ≥n+1} ),
faisant tendre k vers l’infini on obtient

E[Xn− ) ≤ E[Xn+1

) ≤ E[XN− ) < +∞.

2. Lemme de Fatou.

E[Xn+ ) = E[lim inf Xn∧τ


+
k
)
k→∞
+
≤ lim inf E[Xn∧τ k
)
k→∞

 
= lim inf E[Xn∧τk ) + E[Xn∧τ k
)
k→∞

= E[X0 ) + lim inf E[Xn∧τ k
)
k→∞
N
X
≤ E[X0 ) + E[Xn− )
n=1
≤ E[X0 ) + N E[XN− ) < +∞.

2.1.1 Quelques propriétés élémentaires des martingales


1. Si {Mn } est une martingale, alors pour tout m ≥ n nous avons

E[Mm | Fn ] = Mn .

En effet,

Mn = E[Mn+1 | Fn ] = E[E[Mn+2 | Fn+1 ] | Fn ]


= E[Mn+2 | Fn ] = · · · = E[Mm | Fn ].

2. {Mn } est sous–martingale si et seulement si {−Mn } est une sur–martingale.


13

3. Si {Mn } est une martingale et ϕ est une fonction convexe telle que E[|ϕ(Mn )|) < ∞ pour tout
n ≥ 0, alors {ϕ(Mn )} est une sous–martingale. En effet, par l’inégalité de Jensen de l’espérance
conditionnelle nous avons

E[ϕ(Mn+1 ) | Fn ] ≥ ϕ(E[Mn+1 | Fn ]) = ϕ(Mn ).

En particulier, si {Mn } est une martingale telle que E[|Mn |p ] est finie pour tout n ≥ 0 pour un
certain p ≥ 1, alors {|Mn |p } est une sous–martingale.
4. Si {Mn } est une sous–martingale et ϕ est une fonction convexe croissante telle que E[|ϕ(Mn )|)
soit finie pour tout n ≥ 0, alors {ϕ(Mn )} est une sous–martingale. L’inégalité de Jensen et la
croissance de ϕ donne

E[ϕ(Mn+1 ) | Fn ] ≥ ϕ(E[Mn+1 | Fn ]) ≥ ϕ(Mn ).

En particulier, si {Mn } est une sous–martingale, alors {Mn+ } et {Mn ∨ a} sont des sous–
martingales.

2.2 Application en finance : pricing des options


Soit Sn = (Sn0 , Sn1 , . . . , Snd ) le vecteur des prix à l’instant n. La quantité (1 + r)−n (taux d’intérêt
constant) ou plus généralement S10 s’appelle le factor d’actualisation.
n
Il est convenable d’introduire le vecteur des prix actualisé défini par

Sen = (1 + r)−n Sn = 1, (1 + r)−n Sn1 , (1 + r)−n Sn2 , · · · , (1 + r)−n Snd .




Par conséquent la valeur actualisée d’un portefeuille de valeur Vn (φ) sera

Ven (φ) = (1 + r)−n Vn (φ) = φn · Sen

et la condition d’auto–financement peut s’écrire de manière équivalente comme

φn · Sen = φn+1 · Sen

pour n = 0, 1, . . . , N − 1, ou bien
 
Ven+1 (φ) − Ven (φ) = φn+1 · Sen+1 − Sen .

En sommant sur n ceci donne n


X
Ven (φ) = V0 (φ) + φj · 4Sej ,
j=1

pour n = 1, . . . , N .
Observons que Ve0 (φ) = V0 (φ).
Si {Sen : 0 ≤ n ≤ N } est une martingale alors {Ven (φ) : 0 ≤ n ≤ N } est une aussi une martingale.

2.2.1 Le modèle de Cox, Ross et Rubinstein


Le modèle de Cox–Ross–Rubinstein est une version discrétisée du modèle de Black–Scholes dans
laquelle il y a un seul actif à risque, de prix Sn à l’instant n, 0 ≤ n ≤ N , et un actif sans risque de
rendement certain r sur une période, de sorte que Sn0 = (1 + r)n .
14

On fait les hypothèses suivantes sur l’évolution du cours de l’actif risqué : entre deux périodes
consécutives, la variation relative des cours est soit d, soit u, avec −1 < d < u :

Sn (1 + d)
Sn+1 =
Sn (1 + u).

Le cours initial S0 est donné. L’espace naturel des résultats possibles est donc Ω = {1 + d, 1 +
u}N , chaque N –uple représentant les valeurs successives de Sn+1 /Sn , n = 0, 1, . . . , N − 1. On prend
naturellement : F0 = {∅, Ω}, et F = P(Ω). La tribu Fn sera, pour n = 1, . . . , N , la tribu σ(S1 , . . . , Sn )
engendrée par les variables aléatoires S1 , . . . , Sn . L’hypothèse définissant P à une équivalence près est
que tous les singletons de Ω ont une probabilité non nulle.

2.3 Calcul des prix des options européennes


Considérons une option européenne d’ achat sur un actif financier de prix d’exercice K. Le profit
de ce contrat apportera un bénéfice (SN − K)+ . Désignons par Cn le prix de cette option à l’instant
n. Nous avons d’après des méthodes de replications que

Cn = (1 + r)n−N EQ (SN − K)+ | Fn



 !+ 
N
Y
= (1 + r)n−N EQ  Sn Ti − K | Fn . 
i=n+1

D’après les propriétés de l’espérance conditionnelle, Proposition 2.0.1 nous avons Cn = f (n, Sn ) avec
 !+ 
YN
f (n, x) = (1 + r)n−N EQ  x Ti − K 
i=n+1
N −n
X (N − n)! +
= (1 + r) n−N
q j (1 − q)N −n−j x(1 + d)j (1 + u)N −n−j − K .
j=0
j!(N − n − j)!

Alors qu’une option de vente de prix d’exercice K a pour payoff (K − SN )+ , et son prix Pn à l’instant
n est donné par
Pn = (1 + r)n−N EQ (K − SN )+ | Fn .
 

Cette expression peut être obtenue à partir de la relation de parité de call–put :

Cn − Pn = (1 + r)n−N EQ (SN − K)+ | Fn − EQ (K − SN )+ | Fn


    

= (1 + r)n−N EQ [(SN − K) | Fn ]
= Sn − K(1 + r)n−N .

On peut également déterminer un portefeuille qui duplique l’option d’achat. De plus il est unique dans
ce cas. Un tel portefeuille doit vérifier

αn Bn + βn Sn = f (n, Sn ).

Or Sn ne peut prendre que les valeurs Sn−1 (1 + d) et Sn−1 (1 + u). D’où

αn Bn + βn Sn−1 (1 + d) = f (n, Sn−1 (1 + d))


αn Bn + βn Sn−1 (1 + u) = f (n, Sn−1 (1 + u)),
15

et par suite
f (n, Sn−1 (1 + u)) − f (n, Sn−1 (1 + d))
βn =
Sn−1 (u − d)
f (n, Sn−1 (1 + d)) − βn Sn−1 (1 + d)
αn =
(1 + r)n

2.3.1 Algorithme du pricing des options européennes pour le modèle


CRR
La valeur instantanée Cn du portefeuille répliquant un payoff Φ(SN ) (typiquement Φ(x) = (x−K)+
ou (K −x)+ ) si le sous–jacent suit le modèle CRR est donné Cn = f (n, Sn ) où pour tout 0 ≤ n ≤ N −1
f (n + 1, x(1 + u)) f (n + 1, x(1 + d))
f (n, x) = q + (1 − q) et f (N, x) = Φ(x),
1+r 1+r
r−d
avec q = u−d
, de plus

f (n, Sn−1 (1 + u)) − f (n, Sn−1 (1 + d))


βn =
Sn−1 (u − d)
f (n, Sn−1 (1 + d)) − βn Sn−1 (1 + d)
αn =
(1 + r)n

2.4 Calcul des prix des options américaines


Définition 2.4.1 On appelle option d’achat américaine (call américain), resp. option de vente américaine
(put américain), le droit (mais non l’obligation) d’acheter (resp. de vendre) à tout moment entre au-
jourd’hui n = 0 et l’échéance n = N une action à la date N > 0 (échéance) au prix K (prix d’exercice
ou strike) fixé à l’avance. Ces contrats ont un prix ; ils sont échangés sur le marché.

Par défaut on appellera calls et puts les calls et puts européens.


La détermination du prix de ces contrats (call/put américains) est l’objectif principal de cette
section.
Soit (Ω, F, Fn , P ) un espace de probabilité filtré. On définit le payoff d’une option américaine
pouvant être exercée à n’importe quel instant entre 0 et N comme une suite de variable aléatoire
{Zn }0≤n≤N positive et adaptée à la filtration Fn , Zn représente le profit que permet l’exercice de
l’option à l’instant n. Dans le cas d’un call américain sur une unité de l’actif sous–jacent au prix
d’exercice K, Zn = (Sn − K)+ ; dans le cas d’un put américain Zn = (K − Sn )+ . Pour définir la valeur
de l’option américaine associé au processus {Zn }0≤n≤N nous ferons un raisonnement par récurrence
rétrograde à partir de l’échéance N . Il est clair que la valeur de l’option à l’instant N est UN = ZN .
Quel est le prix de vente de l’option à l’instant N − 1 ?
Si l’acheteur exerce immédiatement, il fera le profit ZN −1 , sinon il exercera (éventuellement) à
l’instant N et le vendeur doit être prêt à payer la richesse ZN à l’instant N . Le vendeur doit donc
encaisser à l’instant N − 1 une somme au moins égale à ZN −1 et lui permettant de fournir la richesse
ZN à l’instant N . La somme qui, disponible à l’instant N − 1, permet d’obtenir la richesse ZN à
l’instant N , c’est la valeur à l’instant N − 1 d’une stratégie admissible de valeur finale ZN , c’est-à-dire
0 ZN
SN −1 EQ (ZN | FN −1 ), avec ZN = S 0 , où EQ désigne l’espérance sous la probabilité neutre au risque
e e
N
Q. Il est donc naturel de prendre pour valeur de l’option américaine à l’instant N − 1 la quantité :
  
0
UN −1 = max ZN −1 , SN E
−1 Q Z
eN F N −1
16

De proche en proche, on définit la valeur de l’option américaine à l’instant n par la relation de


récurrence suivante, valable pour n = 1, . . . , N :
  
0 Un
Un−1 = max Zn−1 , Sn−1 EQ Fn−1 .
Sn0
Un
Soit U
en = 0
Sn
la valeur actualisée de l’option américaine. D’où
  
U
en−1 = max Zen−1 , EQ Uen Fn−1 .

2.4.1 Notion de temps d’arrêt


Le détenteur d’une option américaine peut l’exercer à tout moment, jusqu’à la date d’échéance.
La décision d’exercer ou de ne pas exercer à l’instant n se fera au vu des informations disponibles
à l’instant n. Si on se place dans un modèle discret construit sur un espace probabilisé filtré, soit
(Ω, F, (Fn )0≤n≤N , P ) fini, on est conduit à décrire la date d’exercice par une variable aléatoire appelée
temps d’arrêt :

Définition 2.4.2 Une variable aléatoire τ , à valeurs dans {0, 1, 2, . . . , N } est un temps d’arrêt si,
pour tout n ∈ {0, 1, . . . , N }, {τ = n} ∈ Fn .

Proposition 2.4.1 Une variable aléatoire τ est un temps d’arrêt si et seulement si, pour tout n ∈
{0, 1, . . . , N }, {τ ≤ n} ∈ Fn .

Preuve. Facile
Introduisons maintenant la notion de “suite arrêtée à un temps d’arrêt”. Soit {Xn }0≤n≤N une suite
adaptée à la filtration {Fn }0≤n≤N et soit τ un temps d’arrêt. La suite arrêtée à l’instant τ est définie
par :
Xnτ (ω) = Xn∧τ (ω) (ω).
c’est à dire que, sur l’ensemble {τ = j} on a :

τ Xj si j ≤ n
Xn =
Xn si j > n,

et XNτ (ω) = Xτ (ω) (ω) = Xj (ω) sur {τ = j}.


Soit {Xn }0≤n≤N un processus adapté et soit τ un temps d’arrêt. Alors le processus {Xnτ }0≤n≤N est
un processus adapté. Si, de plus, {Xn }0≤n≤N est une martingale (resp. une sur–martingale), alors
{Xnτ }0≤n≤N est une martingale (resp. une sur–martingale). Il suffit remarquer que
n
X
Xn∧τ = X0 + 1{j≤τ } (Xj − Xj−1 ).
j=1

On se donne une suite {Zn }0≤n≤N adaptée, et on se propose d’étudier la suite {Un }0≤n≤N définie par
les relations : 
UN = ZN
(2.4.2)
Un = max (Zn , E (Un+1 | Fn )) ∀ n ≤ N − 1.
La suite {Un }0≤n≤N est appelée enveloppe de Snell de la suite {Zn }0≤n≤N .

Proposition 2.4.2 La suite {Un }0≤n≤N est la plus petite sur–martingale majorant la suite {Zn }0≤n≤N .
17

Preuve. Pour tout n nous avons Un ≥ Zn et Un ≥ E[Un+1 | Fn ) d’où {Un }0≤n≤N est une Fn –sur–
martingale.
Soit {Vn }0≤n≤N une Fn –surmartingale telle que Vn ≥ Zn pour tout n. En particulier VN ≥ ZN = UN .
Si maintenant un n fixé on Vn ≥ Un alors Vn−1 ≥ E[Vn | Fn−1 ) ≥ E[Un | Fn−1 ). Or V domine Z d’où
Vn−1 ≥ Zn−1 = E[Zn−1 | Fn−1 ) par conséquent

Vn−1 ≥ max (Zn−1 , E[Un | Fn−1 )) = Un−1 ,

donc la prepriété est aussi vraie pour n − 1.

Proposition 2.4.3 La variable aléatoire τ0 définie par :

τ0 = inf{n ≥ 0 : Un = Zn }

est un temps d’arrêt et que la suite arrêtée {Unτ0 }0≤n≤N est une martingale.

En effet n
X
Unτ0 = Un∧τ0 = U0 + 1{j≤τ0 } (Uj − Uj−1 ).
j=1

et
τ0
Unτ0 − Un−1 = 1{n≤τ0 } (Un − Un−1 ).
Or {n ≤ τ0 } est le complémentaire de {τ0 < n} = {τ0 ≤ n − 1} qui appartient à Fn−1 il en résulte que
pour tout n ≤ N , 1{n≤τ0 } est Fn−1 –mesurable par suite
τ0
E[Unτ0 − Un−1 | Fn−1 ] = 1{n≤τ0 } E[Un − Un−1 | Fn−1 ] = 0

car sur {n ≤ τ0 } nous avons Un−1 > Zn−1 de sorte que Un−1 = E[Un | Fn−1 ].
La propriété de martingale de la suite {Unτ0 }0≤n≤N permet de montrer le résultat suivant, qui fait
le lien entre enveloppe de Snell et le problème d’arrêt optimal.

Proposition 2.4.4 Le temps d’arrêt τ0 vérifie :

U0 = E[Zτ0 | F0 ] = sup E[Zτ | F0 ]. (2.4.3)


τ ∈T0,N

Preuve. En effet puisque {Unτ0 }0≤n≤N est une martingale

U0 = E[U0τ0 | F0 ] = E[UNτ0 | F0 ] = E[Uτ0 | F0 ] = E[Zτ0 | F0 ].

D’autre part si τ ∈ T0,N , de la propriété de sur–martingale de {Unτ }0≤n≤N on déduit que

U0 = E[U0τ | F0 ] ≥ E[Uτ | F0 ] ≥ E[Zτ | F0 ],

puisque U domine Z.
Si Zn s’interprète comme la somme des gains d’un joueur après n parties d’un jeu de hasard, on
voit que s’arrêter de jouer à l’instant τ0 permet de maximiser le gain moyen sachant F0 .
Dans la suite, nous noterons Tn,N , l’ensemble des temps d’arrêt qui prennent leurs valeurs dans
{n, n + 1, . . . , N }.
18

Remarque 2.4.1 Plus généralement si Un est défini par la relation (2.4.2) nous avons
Un = E[Zτn | Fn ] = sup E[Zτ | Fn ]
τ ∈Tn,N

où τn = inf{k ≥ n : Uk = Zk }.
Si F0 est la tribu triviale alors la relation (2.4.3) devient
U0 = E[Zτ0 ] = sup E[Zτ ].
τ ∈T0,N

Définition 2.4.3 On appelle temps d’arrêt optimal pour la suite {Zn }0≤n≤N tout temps d’arrêt τ ∗ tel
que
E[Zτ ∗ ] = sup E[Zτ ].
τ ∈T0,N

Il en résulte que τ0 est un temps d’arrêt optimal.


Proposition 2.4.5 Un temps d’arrêt τ est optimal si et seulement si

Uτ = Zτ
et {Unτ }0≤n≤N est une martingale.
Preuve. Si Uτ = Zτ et {Unτ }0≤n≤N est une martingale, alors
U0 = U0τ = E[UNτ ] = E[Uτ ] = E[Zτ ].
Soit σ ∈ T0,N , de la proriété de surmartingale de {Unσ }0≤n≤N on déduit que
U0 = E[U0σ ] ≥ E[UNσ ] = E[Uσ ] ≥ E[Zσ ],
puisque U domine Z. Comme τ ∈ T0,N il en résulte que τ est optimal.
Réciproquement, si τ est optimal alors
U0 = sup E[Zσ ] = E[Zτ ] ≤ E[Uτ ]
σ∈T0,N

car U domine Z. Or {Unσ }0≤n≤N est une sur–martingale d’où E[Uτ ] ≤ E[U0 ] = U0 , ce qui implique
E[Zτ ] = E[Uτ ], par suite Uτ = Zτ .
Il reste à montrer {Unτ }0≤n≤N est une martingale. La propriété de surmartingale de {Unτ }0≤n≤N
donne
E[Uτ ] ≤ E[Uτ ∧n ] ≤ E[U0 ] = E[Zτ ] = E[Uτ ]
ainsi E[Uτ ∧n ] = E[Uτ ] i.e. E[Uτ ∧n − Uτ ] = 0 de plus
E[Uτ | Fn ] ≤ Uτ ∧n
d’où
E [Uτ ∧n − E[Uτ | Fn )] = E [Uτ ∧n ] − E[Uτ ] = 0,
E[Uτ | Fn ] = Uτ ∧n , c’est bien la propriété de martingale de {Unτ }0≤n≤N .
La valeur {Un }0≤n≤N d’une option américaine décrite par une suite {Zn }0≤n≤N est définie par les
relations : 
 UN = ZN   
0 Un+1
 Un = max Zn , Sn EQ 0
Fn ∀ n ≤ N − 1.
Sn+1
Nous allons exprimer la suite {U en }0≤n≤N définie par Uen = Un0 (valeur actualisée de l’option) à l’aide
Sn
de l’enveloppe de Snell sous Q de la suite {Zen }0≤n≤N .
Par conséquent h i
Un = sup EQ Zeτ
e Fn .
τ ∈Tn,N
19

Algorithme du pricing des options américaines pour le modèle CRR


La valeur instantanée Un du portefeuille répliquant un payoff Φ(SN ) (typiquement Φ(x) = (x−K)+
ou (K −x)+ ) si le sous–jacent suit le modèle CRR est donné Un = g(n, Sn ) où pour tout 0 ≤ n ≤ N −1
 
g(n + 1, x(1 + u)) g(n + 1, x(1 + d))
g(n, x) = max Φ(x), q + (1 − q) et g(N, x) = Φ(x),
1+r 1+r
r−d
avec q = u−d
, de plus

g(n, Sn−1 (1 + u)) − g(n, Sn−1 (1 + d))


βn =
Sn−1 (u − d)
g(n, Sn−1 (1 + d)) − βn Sn−1 (1 + d)
αn =
(1 + r)n

2.4.2 Martingales, sous–martingales et surmartingales en temps continu


Définition 2.4.4 Soit M = {Mt , t ≥ 0} un processus stochastique dans L1 (Ω, F, P ) i.e. ∀ t ≥ 0,
E|Mt | < +∞.

Martingale sous–martingale
M est dite martingale si M est dite sous–martingale si :
i) M est adaptée à Ft , i’) M est adaptée à Ft ,
ii) ∀ 0 ≤ s < t, E[Mt | Fs ] = Ms . ii’) ∀ 0 ≤ s < t, E[Mt | Fs ] ≥ Ms .

M est dite surmartingale si −M est une sous–martingale.

Propriétés. Si M est une martingale E[Mt ] = E[M0 ], pour tout t.


Si {Mt , 0 ≤ t ≤ T } est une martingale, le processus est complètement déterminé par sa va-
leur terminale : Mt = E[MT | Ft ]. Cette dernière propriété est d’un usage très fréquent en finance
mathématique.

Exemple 2.4.1 Soit Y une v.a. intégrable. On pose Mt = E[Y | Ft ], {Mt , t ≥ 0} est une Ft –
martingale.

Preuve. M est Ft –adapté par définition de l’espérance conditionnelle.


E|Mt | = E|E[Y | Ft ]| ≤ E[E[|Y | | Ft ]] = E|Y | < +∞.
Soit s < t, E[Mt | Fs ] = E[E[Y | Ft ] | Fs ] = E[Y | Fs ] = Ms .

Exemple 2.4.2 Soient Φ une fonction convexe, croissante, (Mt , Ft ) est une sous–martingale telle que
Φ(Mt ) soit intégrale pour tout t ≥ 0. Alors (Φ(Mt ), Ft ) est une sous–martingale.

Théorème 2.4.1 (Dellacherie–Meyer) Soit X = {Xt , t ≥ 0} une sur–martingale.


La fonction t 7→ E[Xt ] est continue à droite si et seulement si il existe une unique modification Y de
X qui soit càdlàg.

Remarque 2.4.2 Si {Xt , t ≥ 0} est une martingale alors t 7→ E[Xt ] = E[X0 ], par conséquent X est
càdlàg.

Dans la suite on suppose que toutes les martingales sont càdlàg.


20

2.5 Martingales locales


2.5.1 Temps d’arrêt en temps continu
Définition 2.5.1 (Temps d’arrêt) Soit τ : Ω → R+ une v.a. τ est dit un temps d’arrêt si {τ ≤
t} ∈ Ft quel que soit t ≥ 0, {τ ≤ t} = {ω ∈ Ω : τ (ω) ≤ t}. On écrit τ est un t.a.

Proposition 2.5.1 Sous les conditions habituelles on a

τ est un (t.a.) ⇐⇒ ∀ t ≥ 0 {τ < t} ∈ Ft .

Preuve. ⇐) Si {τ < t} ∈ Ft alors ∀ t ≥ 0 {τ < t + n1 } ∈ Ft+ 1 , donc


n

1
{τ ≤ t} = ∩n>0 {τ < t + } ∈ ∩n>0 Ft+ 1 = Ft
n n

ce qui implique que τ est un (t.a.)


⇒) Si τ est un (t.a.) i.e. supposons que {τ ≤ t} ∈ Ft ∀ t ≥ 0. Il suffit de démontrer que {τ = t} ∈ Ft
∀ t ≥ 0.      c
1 1 1 1
t− <τ ≤t+ = τ ≤t+ ∩ τ ≤t− ∈ Ft+ 1
n n n n n

par suite  
1 1
{τ = t} = ∩n>0 t − < τ ≤ t + ∈ ∩n>0 ∈ Ft+ 1 = Ft
n n n

{τ < t} = {τ ≤ t}\{τ = t} ∈ Ft
d’où le résultat.

Exemple 2.5.1 Soit X un processus continu, adapté à Ft , soit D un ouvert de R, on pose τ = inf{t >
0 : Xt ∈ D} c’est le temps d’entrée dans D. Alors τ est un (t.a.)

Preuve. Il suffit, d’après la Proposition 2.5.1, de montrer que ∀ t ≥ 0, {τ < t} ∈ Ft . Or {τ < t} =


∪q∈Q∩[0,t] {Xq ∈ D} ∈ Fq ⊂ Ft .

Théorème 2.5.1 Soit X un processus càdlàg et adapté à Ft , soit D un fermé de R, si τ = inf{t >
0 : Xt ∈ D ou Xt− ∈ D}, où Xt− = lims%t Xs , alors τ est un temps d’arrêt.

Théorème 2.5.2 Si τ1 et τ2 sont deux temps d’arrêt alors τ1 ∨ τ2 , τ1 ∧ τ2 , ατ1 , pour α > 1 et τ1 + τ2
sont des temps d’arrêt.

Preuve. On a {τ1 ∨ τ2 ≤ t} = {τ1 ≤ t} ∩ {τ2 ≤ t} et {τ1 ∧ τ2 ≤ t} = {τ1 ≤ t} ∪ {τ2 ≤ t} et


{ατ1 ≤ t} = {τ1 ≤ αt } ∈ F αt ⊂ Ft .
Pour tout t > 0 :

{τ1 + τ2 > t} = {τ1 = 0, τ2 > t} ∪ {τ2 > t, τ1 = 0} ∪ {τ2 ≥ t, τ1 > 0} ∪ {0 < τ2 < t, τ1 + τ2 > t}

les trois premiers événements de cette décomposition sont dans Ft , le quatrième événement peut
s’écrire
{0 < τ2 < t, τ1 + τ2 > t} = ∪r∈Q+ ,0<r<t {r < τ2 < t, τ1 > t − r}
or pour tout r < t, {r < τ2 < t, τ1 > t − r} ∈ Ft .
En particulier si τ est un temps d’arrêt alors τ ∧ t est un temps d’arrêt.
21

Définition 2.5.2 On associe à un temps d’arrêt τ la tribu Fτ dite des événements antérieurs à τ ,
définie par
Fτ = {A ∈ F : A ∩ 1{τ ≤t} ∈ Ft ∀ t ≥ 0}.

Si τ1 et τ2 sont des temps d’arrêt tels que τ1 ≤ τ2 , alors Fτ1 ⊂ Fτ2 .


Soit {Xt , t ≥ 0} un processus et τ un temps d’arrêt fini. On définit Xτ par Xτ (ω) = Xτ (ω) (ω)
Si un processus X est continu et adapté, Xτ est Fτ –mesurable.
Si τ est un temps d’arrêt et soit X = {Xt , t ≥ 0} un processus continu, on note X τ le processus
arrêté Xtτ = Xt∧τ pour tout t ≥ 0.

Définition 2.5.3 Une famille de v.a. {Uα , α ∈ I} est dite uniformément intégrable si
Z
lim sup |Uα |dP = 0,
n→+∞ α∈I {|Uα |≥n}

et on écrit {Uα , α ∈ I} est (U.I.)

Définition 2.5.4 Un processus adapté à trajectoires continues M = {Mt , t ≥ 0} tel que M0 = 0 p.s.
est une martingale locale continue s’il existe une suite croissante de temps d’arrêt {τn , n ∈ N} telle
que τn croit p.s. vers +∞ et pour tout n le processus arrêté M τn est une martingale uniformément
intégrable.

2.5.2 Propriétés
i. Une martingale à trajectoires continues est une martingale locale (τn = n).
ii. Si M est une martingale locale alors pour tout temps d’arrêt τ , M τ est une martingale locale.
iii. L’espace des martingales locales est un espace vectoriel.

Théorème 2.5.3 Soit M une martingale locale continue nulle en zéro i.e. M0 = 0. Alors si M est
un processus à variation finie, M est indistingable de 0 i.e. Mt = 0 pour tout t P –p.s.

2.6 Théorème d’arrêt


Si τ est un temps d’arrêt et M une Ft –martingale, le processus Z défini par Zt := Mτ ∧t est une
Ft –martingale. En particulier, E[Mτ ∧t ] = E[M0 ].

Théorème 2.6.1 (Théorème d’arrêt de Doob) Si M est une Ft –martingale continue et si τ1 et τ2


sont deux temps d’arrêt tels que τ1 ≤ τ2 ≤ K, K étant une constante finie, alors Mτ2 est intégrable et

Mτ1 = E [Mτ2 | Fτ1 ] .

Ce résultat s’étend à tous les temps d’arrêt si la martingale est uniformément intégrable.
Si M est uniformément intégrable, on peut montrer que Mt converge p.s. et dans L1 vers M+∞
quand t → +∞ et que Mτ = E[M+∞ | Fτ ].

Proposition 2.6.1 Si pour tout temps d’arrêt borné τ , E[Xτ ] = E[X0 ], alors le processus X est une
martingale.

Remarque 2.6.1 Attention, si E[Xt ] = E[XR0 ] pour tout t, le processus X n’est pas nécessairement
t
une martingale. Un contre exemple est Xt = 0 Mu du où M est une martingale d’espérance nulle.
22

Si M est une sur–martingale positive et τ un temps d’arrêt, E[Mτ ] ≤ E[M0 ] où on pose M+∞ = 0.
Une martingale locale positive est une sur–martingale. Une martingale locale uniformément intégrable
est une martingale.
La plus part des propriétés des martingales discrètes restent valables en temps continu. En parti-
culier la version continue de l’inégalité maximale de Doob :

Proposition 2.6.2 Soit {Mt , 0 ≤ t ≤ T } une martingale à trajectoires continues. Alors pour tout
p ≥ 1 et λ > 0 nous avons
E [|MT |p ] .
 
P sup |Mt | > λ ≤
0≤t≤T λp
Cette inégalité permet d’estimer le moment d’ordre 2 du sup0≤t≤T |Mt | :
 
E sup |Mt | ≤ 4E[|MT |2 ].
2
0≤t≤T
Chapitre 3

Mouvement Brownien réel

3.1 Rappels sur les variables gaussiennes


Soit On se donne (Ω, F, P ) un espace de probabilité complet. Une variable aléatoire X à valeurs
réelles est dite variable de Gauss ou suit une loi de normale N (0, 1) si
 2
1 x
P (X ∈ dx) = √ exp − dx
2π 2
Estimation de la queue d’une v.a. gaussienne : pour x ≥ 1,
Z +∞  2 Z +∞  2  2
1 z 1 z 1 x
P (X ≥ x) = √ exp − dz ≤ √ z exp − dz ≤ √ exp −
x 2π 2 2π x 2 2π 2
2
Transformation de Laplace-Fourier : pour z ∈ C : E[exp (zX)] = exp( z2 ).
Nous commençons cette section par le critère de continuité de Kolmogorov

Lemme 3.1.1 Soit Γ un cube de Rn et {Xt , t ∈ Γ} un processus stochastique à valeurs réelles. Sup-
posons qu’il existe des constantes k > 1, K > 0 et µ > 0 vérifiant
h i
E |Xt − Xs |k ≤ K |t − s|n+µ ,

où |t − s| désigne la distance euclidienne. Alors


(i) X admet une version continue,
(ii) Il existe des constantes θ et β dépendant seulement de n, k et µ et une variable aléatoire réelle
positive Y telle que
  2/k
µ θ
|Xt − Xs | ≤ Y |t − s| k ln p.s. pour tout (t, s) ∈ Γ2
|t − s|
et
E[Y k ] ≤ βK.

Définition 3.1.1 Un processus stochastique X = {Xt , t ≥ 0} est dit à accroissements indépendants


si ∀ t, h ≥ 0, Xt+h − Xt est indépendant de FtX := σ(Xu , 0 ≤ u ≤ t), (et on écrit Xt+h − Xt ⊥
⊥ FtX )
en particulier on a ∀ f , g boreliennes bornées et ∀ Y v.a. FtX –mesurable on a

E [f (Xt+h − Xt ) g (Y )] = E [f (Xt+h − Xt )] · E [g (Y )]

ou aussi σ(Xt+h − Xt , h ≥ 0) ⊥⊥ FtX .

23
24

Définition 3.1.2 Un processus stochastique X = {Xt , t ≥ 0} est dit à accroissements stationnaires


si :
∀ n > 0, ∀ t1 < t2 , . . . , < tn et ∀ hi > 0, i = 1, 2, . . . , n les deux Rn –variables aléatoires
(Xt1 +h1 − Xt1 , . . . , Xtn +hn − Xtn ) et (Xh1 , . . . , Xhn ) ont la même loi i.e.

loi (Xt1 +h1 − Xt1 , · · · , Xtn +hn − Xtn ) = loi (Xh1 , · · · , Xhn ) .

en particulier ∀ A borelien

P [Xt+h − Xt ∈ A] = P [Xh ∈ A]

Un processus stochastique peut être considéré comme une v.a. à valeurs dans RR+ que l’on note X·
i.e.
X· Ω −→ RR+
ω 7−→ X· (ω)
et pour tout A ∈ B(RR+ ), PX· (A) = P [X·−1 (A)] = P [ω ∈ Ω : X· (ω) ∈ A]. De façon générale la loi PX·
peut être définie à partir des loi(Xt1 , . . . , Xtn ) pour tout n > 0 et pour tout t1 < t2 , . . . , < tn , cela est
une conséquence du fait que B(RR+ ] = σ(∪n>0 ∪0≤t1 <t2 <...<tn σ(R{t1 ,t2 ,...,tn } )).
Dans le but d’étudier les variations des prix dans la Bourse, Bachelier, a met en évidence en 1900
le caractère “markovien” du mouvement Brownien : la position d’une particule à l’instant t + s sachant
le present t dépend de sa position à l’instant t, et pas de sa position avant t.
En 1905, Einstein détermine la densité de transition du mouvement Brownien par l’intermédiaire
de l’équation de la chaleur et relie ainsi le mouvement Brownien et les équations aux dérivées partielles
de type parabolique.

Définition 3.1.3 On dit qu’un processus stochastique B = {Bt , t ≥ 0} est mouvement Brownien réel
si B est à accroissements indépendants, stationnaire et continu sur la base stochastique (Ω, F, (Ft )t≥0 , P )
où Ft = σ(Bs , 0 ≤ s ≤ t) ∨ N .
1 2
De plus loi(Bt ) = √2πt exp(− x2t )dx, par suite E[Bt ] = 0 et Var(Bt ] = E[Bt2 ] = t pour tout t ≥ 0, où
Var désigne la variance.
2
Soit X une variable aléatoire de loi normale N (0, σ 2 ). De l’expression E[exp(λX)] = exp( λ2 σ 2 ),
on déduit les formules suivantes pour les moments de X :

(2k)! 2k
E[X 2k ] = σ et E[X 2k+1 ] = 0, pour tout k ≥ 0
2k k!
Par conséquent
(2k)!
E[(Bt − Bs )2k ] =
k
|t − s|k .
2 k!
Ainsi d’après le lemme 3.1.1 le Brownien admet une version hölderienne d’ordre inférieur strictement
à 12 .

Proposition 3.1.1 Soit B un mouvement Brownien réel.


(i) Pour tout s > 0, le processus {Bts = Bt+s − Bs , t ≥ 0} est un mouvement Brownien indépendant
de FtB ;
(ii) Le processus {−Bt , t ≥ 0} est un mouvement Brownien ;
(iii) Pour tout c > 0, le processus {cBt/c2 , t ≥ 0} est un mouvement Brownien ;
(iv) Le processus {Xt := tB1/t , t > 0}, X0 = 0 est un mouvement Brownien.
25

Preuve. Pour tout s > 0, Bts = Bt+s − Bs est un accroissement du Brownien (Bt )t≥0 donc suit une
loi N (0, s). De plus les accroissements de (Bts )t≥0 sont des accroissements du processus initial (Bt )t≥0
donc sont encore indépendants.
Enfin, t 7−→ Bts est continue pour presque tout ω comme différence d’applications continues. Ce
qui prouve que (Bts )t≥0 est encore un mouvement Brownien.
Concernant l’indépendance de ce nouveau processus avec la tribu Fs , il s’agit de vérifier l’indépendance
de tout sous vecteur fini extrait de (Bts )t≥0 avec tout sous vecteur fini extrait de (Bt )t≤s . Soient donc
n et p deux entiers positifs strictement, 0 < t1 < . . . < tn et 0 < r1 < . . . < rp < s. On considère les
vecteurs Vn = (Bts1 , . . . , Btsn ) et Vp = (Br1 , . . . , Brp ). Ces deux vecteurs forment un vecteur gaussien
(Vn , Vp ) donc l’indépendance équivaut à une matrice de covariance diagonale par blocs :

Propriétés principales
Proposition 3.1.2 Soit B un mouvement Brownien réel. Les propriétés suivantes sont vérifiées :
(i) pour tout ε > 0, on a P –p.s. supt∈[0,ε] Bt > 0 et inf t∈[0,ε] Bt < 0.
(ii) pour tout ε > 0, le mouvement Brownien a un zéro p.s. sur l’intervalle ]0, ε[
(iii) notons Ta le premier temps de passage en a ∈ R∗ , i.e. Ta := inf{t > 0 : Bt = a} (avec inf ∅ = ∞
par convention). Alors on a pour tout a ∈ R∗ , P (Ta < +∞) = 1.
(iv) on a p.s. lim supt7→+∞ Bt = +∞ et lim inf t7→+∞ Bt = −∞
(v) on a p.s. limt7→+∞ Btt = 0.
(vi) Les trajectoires browniennes ne sont pas p.s. dérivables.
Preuve.
(vi) Par la proposition 3.1.1, le mouvement Brownien étant invariant par translation, il suffit de
démontrer la non–dérivabilité en 0, c’est–à–dire montrer que la quantité
Bh − B0 Bh
=
h−0 h
n’admet pas de limite lorsque h → 0. Or, par la propriété de retournement du temps, le processus
{Xt := tB1/t , t > 0}, X0 = 0 est aussi un mouvement Brownien. Ainsi, Xhh a le même comportement
que B 1 , qui n’admet pas de limite lorsque h → 0 d’après le point (iv) de la proposition 3.1.2.
h

Notation et généralisation.
Le processus Xt = x + Bt est appelé mouvement brownien issu de x. On dit que X est un Brownien
généralisé ou un MB de drift µ si Xt = x + µt + σBt où B est un mouvement Brownien. La variable
Xt est une variable gaussienne d’espérance x + µt et de variance σ 2 t.
Les v.a. {Xti+1 − Xti , t0 < t1 < . . . < tn } sont indépendantes.
On notera aussi par Ex [f (Bt )] l’espérance de f (Bt ) quand B est un Brownien issu de x, sans
toujours faire cette précision. Cette quantité est égale à E[f (x + Bt )] où B est un Brownien issu de 0.
De la même façon, nous utiliserons la notation Px (Bt ∈ A) pour P (x + Bt ∈ A) et Px (Bt ∈ dy) pour
la densité de la v.a. Bt où B est un Brownien partant de x.

3.2 Propriété de Markov du Brownien


La propriété de Markov du mouvement Brownien est utilisée sous la forme (un peu plus forte que
la propriété de Markov) : pour tout s, le processus {Wt , t ≥ 0} défini par Wt := Bt+s − Bs est un
mouvement Brownien indépendant de Fs .
Théorème 3.2.1 Pour f une fonction borelienne bornée, pour tout u ≥ t
E [f (Bu ) | Ft ] = E [f (Bu ) | σ(Bt )]
26

Preuve : Soit u ≥ t. On fait apparaı̂tre les accroissements et on utilise les propriétés de l’espérance
conditionnelle :
E [f (Bu ) | Ft ] = E [f (Bu − Bt + Bt ) | Ft ] = C(u − t, Bt )
avec C(u − t, x] = E[f (Bu − Bt + x)] = E[f (Y + x)] où Y a même loi que Bu − Bt , soit une loi
N (0, u − t). Par les mêmes arguments,

E[f (Bu ) | σ(Bt )] = C(u − t, Bt ).

On a très précisément
(y − x)2
Z  
1
C(s, x) = √ f (y) exp − dy
2πs R 2s
Une autre façon de décrire cette propriété est de dire que, pour u > t, conditionnellement à Bt , la v.a.
Bu est de loi gaussienne d’espérance Bt et de variance u − t. Alors

E[1{Bu ≤x} | Ft ] = E[1{Bu ≤x} | σ(Bt )] = E[1{Bu ≤x} | Bt ]

pour u ≥ t.

Proposition 3.2.1 Propriété de Markov forte : Soit T un temps d’arrêt à valeurs finies. On a alors

E[f (BT +s ) | FT ] = E[f (BT +s ) | σ(BT )].

En particulier, pour tout temps d’arrêt fini T , le processus {Wt , t ≥ 0} défini par Wt := Bt+T − BT
est un mouvement Brownien indépendant de FT .

3.2.1 Equation de la chaleur


Soit G(t, x) la densité gaussienne centrée de variance t. On note

(y − x)2
 
1
G(t, x, y) = √ exp − = G(t, x − y)
2πt 2t

la densité de transition du mouvement Brownien. C’est de façon heuristique, la probabilité pour que
le mouvement Brownien soit en y sachant que t instants auparavant, il se trouvait en x, c’est aussi la
densité conditionnelle

P (Bt ∈ [y, y + dy] | Bs = x) = P (x + Bt−s ∈ [y, y + dy])


(y − x)2
 
1
= p exp − dy
2π(t − s) 2(t − s)
= p(s, t, x, y)dy = G(t − s, y − x)

La densité de transition G vérifie les équations suivantes

∂G 1 ∂ 2G ∂G 1 ∂ 2G
(t, x, y) = (t, x, y) et (t, x, y) = (t, x, y).
∂t 2 ∂y 2 ∂t 2 ∂x2
En utilisant cette notation et la stationarité des accroissements du MB, on obtient que pour toute
fonction f borelienne bornée
Z
E[f (BT ) | Bt = x] = f (y)G(T − t, x, y)dy
R
27

Si l’on note u(t, x, f ) la fonction


Z
u(t, x) := u(t, x, f ) = f (y)G(t, x, y)dy = E [f (Bt + x)]
R Z
= E [f (Bt+s ) | Bs = x] = f (x + y)G(t, y)dy
R

cette fonction vérifie (l’équation de la chaleur) en utilisant le théorème de dérivation sous le signe
intégral.
∂u 1 ∂ 2 u
− = 0 et u(0, x, f ) = f (x) (3.2.1)
∂t 2 ∂x2
Remarquons que la régularité de u est héritée de la régularité de la densité gaussienne G et non pas
de f .
Pour calculer E[f (BT )], il suffit de résoudre l’équation aux dérivées partielles (3.2.1) et de remar-
quer que E[f (BT )] = u(T, 0, f ).
La densité p(s, t, x, y) vérifie les équations aux dérivées partielles suivantes
En fixant (s, x) on obtient l’équation de Kolmogorov forward

∂p 1 ∂ 2 p
− = 0 de condition initiale p(s, s, x, y) = δx (y)
∂t 2 ∂y 2

En fixant (s, x) on obtient l’équation de Kolmogorov backward

∂p 1 ∂ 2 p
+ = 0 de condition terminale p(t, t, x, y) = δy (x)
∂s 2 ∂x2

3.3 Propriété de martingale


Remarque 3.3.1
(a) On pose h1 (ω) = Bt/2 (ω) et h2 (ω) = B2t (ω). h1 est Ft –mesurable, mais h2 ne l’est pas.
(b) Le mouvement Brownien {Bt , t ≥ 0} est une martingale par rapport à sa filtration canonique
Ft := FtB .
(c) {Bt2 − t, t ≥ 0} est une Ft –martingale.
(d) Réciproquement, si X est un processus continu tel que {Xt , t ≥ 0} et {Xt2 − t, t ≥ 0} soient des
martingales, alors X est un mouvement Brownien.

Preuve de (c). Soit s < t, nous avons

E[(Bt − Bs )2 | Fs ] = E[Bt2 + Bs2 − 2Bt Bs | Fs ]


= E[Bt2 | Fs ] + Bs2 − 2Bs E[Bt | Fs ]
= E[Bt2 | Fs ] − Bs2 = E[Bt2 − Bs2 | Fs ] = t − s.
2
Proposition 3.3.1 Pour tout λ réel, le processus {exp(λBt − λ2 t), t ≥ 0} est une martingale.
2
Réciproquement, si X est un processus continu tel que {exp(λXt − λ2 t), t ≥ 0} est une martingale,
pour tout λ réel, alors le processus X est un mouvement Brownien.

Démonstration : Par indépendance

λ2 λ2
      
E exp λ(Bt − Bs ) − (t − s) Fs = E exp λ(Bt − Bs ) − (t − s)
2 2
28

L’espérance du second membre se calcule comme une transformée de Laplace d’une variable gaussienne.
On trouve
λ2
  
E exp λ(Bt − Bs ) − (t − s) =1
2
et
λ2 λ2
     
E exp λBt − t Fs = exp λBs − s
2 2
La réciproque est facile et utilise la caractérisation des variables aléatoires gaussiennes au moyen de
leur transformée de Laplace.

Proposition 3.3.2 Soient {Bt , t ≥ 0} et {Wt , t ≥ 0} deux mouvement Brownien indépendants. Le


produit {Bt Wt , t ≥ 0} est une martingale.

Démonstration : On peut le faire en utilisant le résultat suivant : Soit F et G deux tribus, X et Y


deux v.a. telles que σ(X) ∨ F et G sont indépendantes ainsi que σ(Y ) ∨ G et F. Alors E[XY | F ∨ G] =
E[X | F]E[Y | G]. Une autre méthode est d’utiliser que √12 (Bt + Wt ) est une martingale de crochet t,
donc un mouvement Brownien et par suite 12 (Bt + Wt )2 − t est une martingale. En effet

1 1 1
(Bt + Wt )2 − t = (Bt2 − t) + (Wt2 − t) + Bt Wt .
2 2 2
Chapitre 4

Processus à variation finie

Définition 4.0.1 Soit T > 0. Un processus stochastique A : [0, T ] × Ω → R tel que A0 = 0 est dit à
variation finie si P –p.s. pour tout t ∈ [0, T ]
( n )
X
|A|t := sup Ati − Ati−1 < +∞
i=1

où le supremum porte sur toutes les subdivisions 0 = t0 < t1 < . . . < tn = t de [0, t].

|A|t est appelé variation de A sur [0, t] et le processus t 7→ |A|t est appelé la variation totale de
A. Il est claire que |A|· est positif et croissant. Si limt→+∞ |A|t < +∞ alors le processus A est dit à
variations bornée.

Proposition 4.0.1 Tout processus à variation finie est différence de deux processus croissants.

Preuve. les processus (|A|· + A· )/2 et (|A|· − A· )/2 sont positifs croissants et A est égale à leur
différence.
L’importance de cette classe de processus apparaı̂t dans le théorème suivant et permet de définir
l’intégrale d’un processus continu par rapport à un processus à variation finie.

Théorème 4.0.1 Il existe une correspondance bijective entre les mesures aléatoires de Radon µ sur
[0, +∞[ et les processus continus à droite et à variation finie. Cette bijection est définie par

At = µ([0, t]).

Exemple 4.0.1 Toute fonction absolument continue est à variation finie.

4.1 Intégrale de Stieltjes


Rt
Soit f et g deux fonctions réelles continues sur [0, +∞[. Nous voulons donner un sens à 0 f (s)dg(s)
comme limite de somme de Riemann i.e. le problème peut être posé sous la forme suivante. Pour quelle
classe de fonctions f et g peut on avoir
Z t X
f (s)dg(s) = lim f (tj ) (g(tj+1 ) − g(tj )) (4.1.1)
0 n→+∞
πn

où πn est une subdivision de taille n + 1 de [0, t] donnée par πn = {t0 = 0 < t1 < . . . < tn = t} ?

Remarque 4.1.1 L’intégrale de Riemann correspond à g(t) = t.

29
30

Théorème 4.1.1 Soit f une fonction continue et g une fonction à variation finie. L’intégrale de
Stieltjes de f par rapport à g est donnée par la limite suivante
X Z t
lim f (tj ) (g(tj+1 ) − g(tj )) existe et elle notée f (s)dg(s).
n→+∞ 0
πn

Nous allons maintenant caractériser les fonctions g pour lesquelles nous avons le résultat suivant :
pour toute fonction f , continue bornée
X Z t
Sn (f ) = f (tj ) (g(tj+1 ) − g(tj )) converge (sa limite est notée f (s)dg(s)).
πn 0

Le théorème suivant dû à P.A. Meyer (1985) donne la caractérisation cherchée.

Théorème 4.1.2 Sn (f ) converge pour toute fonction f , continue bornée si et seulement si g est à
variation bornée.

La démonstration de ce théorème utilise le théorème de Banach–Steinhaus que nous rappelons ici.

Théorème 4.1.3 Soit E un espace de Banach et K un espace normé. Soit Ln une famille d’opérateurs
bornés de E vers K.
Si ∀ x ∈ E, {||Ln (x)||}n≥0 est borné. Alors {||Ln ||}n≥0 est borné i.e.

sup ||Ln (x)|| ≤ M (x) =⇒ sup ||Ln || ≤ C, (C est une constante).


n n

Preuve du Théorème 4.1.2. La condition P suffisante est donnée par le théorème 4.1.1. Montrons
la condition nécessaire. On pose Ln (f ) = πn f (tj )(g(tj+1 ) − g(tj )), πn est une subdivision fixé de
[0, t]. Ln est un opérateur linéaire. De plus si f est fixé {||Ln (f )||}n≥0 est convergente par hypothèse, par
conséquent {||Ln (f )||}n≥0 est borné. D’où par le Théorème 4.1.3, supn ||Ln || = supn {sup||f ||≤1 ||Ln (f )||} ≤
C i.e. pour tout n > 0 on a sup||f ||≤1 ||Ln (f )||} ≤ C.
Considérons une subdivision πn0 = {ti }f ini de [0, t]. Il existeP une fonction f0 continue bornée telle que
f0 (ti ) = sgn(g(ti+1 )−g(ti )) et ||f0 || ≤ 1. Par suite Ln (f0 ) = πn0 |g(ti+1 )−g(ti )| ≤ C. D’où la variation
total |g| de g est bornée, ce qui complète la preuve.

Théorème 4.1.4 Soit πn une suite de partitions de [a, a + t], a ≥ 0. On suppose que πn est raffinante
i.e. πm ⊂ πn si m > n et que le pas |πn | de πn tend vers 0. Soit B un mouvement Brownien réel, on
pose X 2
Sn (B) = Bti+1 − Bti .
ti ∈πn

Alors
lim Sn (B) = t P –p.s.
n→+∞

Preuve. Nous avons


Xh 2 i
Sn (B) − t = Bti+1 − Bti − (ti+1 − ti )
ti ∈πn
X 2
= Yi où Yi := Bti+1 − Bti − (ti+1 − ti ) .
ti ∈πn
31

Les variables aléatoires Yi sont indépendantes et centrées, donc


!2 !
X X
E (Sn (B) − t)2 = E Yi =E Yi2
ti ∈πn ti ∈πn
2
(Bti+1 − Bti )2
X 
2
= E (ti+1 − ti ) −1
ti ∈πn
ti+1 − ti
X (Bti+1 − Bti )2
= (ti+1 − ti )2 E [Zi ]2 où Zi := − 1.
ti ∈πn
ti+1 − ti

Or les v.a Zi sont centrées et réduites de même loi χ2 .


Il en résulte que
X h 2 i
E (Sn (B) − t)2 ≤ sup |ti+1 − ti | (ti+1 − ti ) E χ2
i
i
≤ |πn | t −→ 0 quand n → +∞.

D’où Sn (B) −P t converge vers 0 dans L2 (Ω), et par suite Sn (B) − t converge vers 0 en probabilité. Or
Pn (B) − t = ti ∈πn Yi et les Yi sont des v.a. indépendantes, donc la convergence en probabilité de
S
ti ∈πn Yi entraı̂ne sa convergence presque sûrement.

Corollaire 4.1.1 La trajectoire brownienne t 7→ Bt (ω) n’est pas à variation bornée sur [a, a + t]
∀ t > 0. i.e. le mouvement Brownien fait une infinité d’oscillations qu’on ne peut pas contrôler sur
[a, a + t].
Autrement {ω ∈ Ω : t 7→ Bt (ω) est à variation bornée sur [a, a + t] pour tout t > 0} est négligeable.

Preuve. Nous allons raisonner par l’absurde. Supposons que t 7→ Bt (ω) était à variation finie sur un
intervalle [a, a+t∗ ]. Comme la fonction t 7→ Bt (ω) est continue, par l’uniforme continuité de t 7→ Bt (ω)
sur [a, a + t∗ ], pour tout ε > 0 il existe un entier N > 0, δ > 0 tel que ∀ n > N et |πn | ≤ δ implique
sup |Bti+1 − Bti | < ε. Ceci impliquerait que limn→+∞ Sn (B) = 0. Ce qui contredirait
q le Théorème 4.1.4.
Pn−1 t
Intuitivement nous avons ∆Bi = Bti+1 − Bti . Alors i=0 |∆Bi | ' n n → +∞.
Nous donnons ci–dessous quelques formules connues dans le cas déterministe et qui s’étendent
aisément aux processus à variation finie.

Proposition 4.1.1 (Formule d’intégration par partie) Soient {Ht , t ≥ 0} et {Gt , t ≥ 0} deux
processus continues et à variation finie, alors pour tout t
Z t Z t
Ht Gt = H0 G0 + Hs dGs + Gs dHs . (4.1.2)
0 0
Rt Rt
En revanche l’intégrale 0
Hs dGs est définie ω par ω i.e. la variable aléatoire ( 0
Hs dGs )(ω) :=
Rt
0
Hs (ω)dGs (ω).

La proposition suivante montre que les fonctions de classe C 1 opèrent sur les processus à variation
finie.

Proposition 4.1.2 (Formule de changement de variable) Soient {At , t ≥ 0} un processus


continu et à variation finie et F une fonction de classe C 1 , alors le processus {F (At ), t ≥ 0} est
à variation finie et Z t
F (At ) = F (A0 ) + F 0 (As )dAs . (4.1.3)
0
32

Preuve. Le résultat est vrai pour F (x) = x, et s’il est vrai pour une fonction F de classe C 1 il
en est de même pour xF (x) comme on peut le voir en utilisant la formule d’intégration par partie
(Proposition 4.1.1). Par conséquent le résultat est vrai pour les polynômes. Puis on complète la preuve
en approximant les fonctions de classe C 1 par une suite de polynômes.

Remarque 4.1.2 a) On peut définir l’intégrale de Stieltjes d’une fonction g continue et à variation
finie par rapport à une fonction h continue par la formule (4.1.2) de la façon suivante
Z t Z t
g(s)dh(s) = h(t)g(t) − h(0)g(0) − hs dg(s). (4.1.4)
0 0

Et la même chose se passe pour les processus ω par ω.


b) Si g est un processusRà variation finie et B est un mouvement Brownien réel, alors on peut définir
t
l’intégrale stochastique 0 g(s)dBs par la formule (4.1.4). Mais cette formule ne permet pas de définir
Rt
l’intégrale stochastique 0 Bs dBs par exemple.
Chapitre 5

Construction de l’intégrale stochastique


de Itô

Soit {ht (ω), t ≥ 0} un processus Ft –adapté. Notre but est de définir une intégrale de h par rapport
à B que nous notons Z T Z T
“ hs (ω)dBs (ω) = hs dBs ”
0 0

Remarquons d’abord que si on fixe ω dans Ω et si on suppose que le processus {hs , s ≥ 0} est continu
RT
alors l’intégrale 0 hs (ω)dBs (ω) est divergente. Sinon la trajectoire brownienne serait à variation finie.
RT RT
Par conséquent “ 0 hs dBs ” sera étudiée comme une variable aléatoire i.e. ( 0 hs dBs )(ω).
Il est raisonnable de commencer, dans un premier temps, par la définition de cet objet pour les
processus simples (élémentaires) et ensuite étendre la définition par des procédés d’approximation
convenable au cas général.
Un processus élémentaire est un processus de la forme
n−1
X
ht (ω) = hj (ω)1]tj ,tj+1 ] (t) pour t ∈ [0, T ]
j=0

où 0 = t0 < t1 < . . . < tn = T et hj , 0 ≤ j ≤ n − 1 sont des variables aléatoires.


Les processus élémentaire jouent le rôle des fonctions en escalier (étagées) dans une intégrale de
Lebesgue. RT
Il est naturel de définir 0 hs dBs par
Z T n−1
X
hs dBs = hj [Btj+1 − Btj ]. (5.0.1)
0 j=0

Mais, sans hypothèses supplémentaires sur les variables aléatoires {hj , 0 ≤ j ≤ n − 1}, l’expression
de droite de la relation (5.0.1) conduit à des difficultés comme le montre l’exemple suivant.

Exemple 5.0.1 On pose


n−1
X
ht (ω) = Btj (ω)1]tj ,tj+1 ] (t)
j=0
n−1
X
gt (ω) = Btj+1 (ω)1]tj ,tj+1 ] (t).
j=0

33
34

RT Pn−1
Alors 0
hs dBs = j=0 Btj [Btj+1 − Btj ], par conséquent
Z T  n−1
X  
E hs dBs = E Btj Btj+1 − Btj = 0,
0 j=0

puisque B est à accroissements indépendants.


Mais
Z T  n−1
X  
E gs dBs = E Btj+1 Btj+1 − Btj
0 j=0
n−1 h
X 2 i
= E Btj+1 − Btj = T.
j=0

Donc, même ci les processus h et g semblent être une approximation raisonnable de ht = Bt , leurs
intégrales correspondantes suivant la formule (5.0.1) sont différentes. Ceci reflète le fait que les varia-
tions de la trajectoire
RT brownienne sont aussi grandes qu’elles ne permettent pas de définir l’intégrale
stochastique 0 hs dBs au sens de Riemann–Stieltjes. En revanche on peut montrer que les trajectoires
browniennes ne sont dérivables en aucun point p.s. (voir Breiman 1968). En particulier la variation
totale du Brownien est infinie p.s.
R1 R1
Question a-t-on 0 sin(B1 )dBs = sin(B1 ) 0 dBs ?
Nous allons maintenant décrire la classe des processus pour laquelle l’intégrale stochastique sera
définie.
On note par L2ad (T ) la classe des processus

h : [0, +∞[×Ω −→ R
(s, ω) 7−→ hs (ω)

telle que
(i) (s, ω) 7−→ hs (ω) soit B ⊗ Fs –mesurable, où B est la tribu borélienne de [0, +∞[
RT
(ii) hs (ω) soit Fs –adapté et E 0 |hs (ω)|2 ds < +∞.
Nous allons donc construire l’intégrale stochastique de Itô d’un élément de L2ad (T ) par rapport à
un mouvement Brownien B de dimension 1.
Pour cela, soit h ∈ L2ad (T ) un processus élémentaire i.e. de la forme :
n−1
X
ht (ω) = htj (ω)1]tj ,tj+1 ] (t).
j=0

Puisque h ∈ L2ad (T ) les variables aléatoires htj (ω) doivent être Ftj –mesurable et par suite
Z T n−1
X
hs dBs := htj (Btj+1 ∧t − Btj ∧t ). (5.0.2)
0 j=0

RT
et la v.a. ( 0 hs dBs )(ω) est donnée par n−1
P
j=0 htj (ω)(Btj+1 (ω) − Btj (ω)).
Nous donnons ci–dessous quelques propriétés qui nous semblent importantes et utile pour la suite.

Lemme 5.0.1 Si h est un processus élémentaire borné et appartenant à L2ad (T ). Alors


35

RT R 2
T RT
1. i) E 0 hs dBs = 0 et ii) E 0 hs dBs = E 0 (hs )2 ds (propriété d’isométrie.)
R 
T RT RT
2. E 0 hs dBs 0 g(s)dBs = E 0 hs g(s)ds

Preuve. Le premier point i) de 1. est déjà fait plus haut. Montrons alors le deuxième point ii). On
pose 4j B = Btj+1 − Btj . Nous avons
Z T 2 " n−1
X
#
E hs dBs = E hti htj 4i B4j B
0 i,j=0
" n−1 #
X  
= E hti htj E 4i B4j B | Fti ∨tj
i,j=0
n−1
X 2
= E htj (tj+1 − tj ) ,
j=0

car, selon le choix de la subdivision, les v.a. hti htj 4i B et 4j B sont indépendantes si i < j et pour
i = j les v.a. (hti )2 et (4j B)2 sont indépendantes.
D’où 2
Z T n−1 Z T
X 2
E hs dBs = E htj (tj+1 − tj ) = E (hs )2 ds.
0 j=0 0

Le même raisonnement est valable pour (ii).


(iii) La propriété de martingale découle de la linéarité de l’espérance conditionnelle et le fait que Bt
est une Ft –martingale.
Ensuite l’idée est d’utiliser la propriété d’isométrie pour étendre la définition de l’intégrale stochas-
tique pour la classe des processus élémentaires aux éléments de L2ad (T ). Nous allons le faire en trois
étapes.
— Étape 1. Soit h ∈ L2ad (T ) un processus borné tel que la fonction t 7−→ ht (ω) soit continue pour
tout ω. Alors il existe un processus élémentaire hn ∈ L2ad (T ) tel que
Z T
E (hs − hns )2 ds converge vers 0 lorsque n → +∞.
0
Pn−1
Preuve. On définit hnt := ht (ω)1]t ,t ] (t). Il est claire que hn ∈ L2ad (T ). Et comme h· (ω)
R T j=0 j n 2 j j+1
est continue pour tout ω, 0 (hs − hs ) ds converge vers 0 lorsque n → +∞ pour chaque ω fixé.
RT
Par suite E 0 (hs − hns )2 ds → 0 quand n → +∞, par le théorème de convergence dominée.
— Étape 2. Soit h ∈ L2ad (T ) un processus borné. Alors il existe un processus borné hn ∈ L2ad (T )
tel que la fonction t 7−→ hnt (ω) soit continue pour tout ω et pour tout n, et
Z T
E (hs − hns )2 ds converge vers 0 lorsque n → +∞.
0

Preuve. Supposons que |ht (ω)| ≤ M pour tout (t, ω). Pour tout n, soit ϕn une fonction continue
positive sur R telle que : R +∞
(i) ϕn (x) = 0 si x ≤ − n1 ou x ≥ n1 , (ii) −∞ ϕn (s)ds = 1.
Rt
On définit hnt (ω) = 0 ϕn (t − s)hs (ω)ds. Alors la fonction t 7−→ hnt (ω) est continue pour tout ω
et n, et |hnt (ω)| ≤ M . On voit aussi que hnt (ω) est Ft –mesurable puisque h ∈ L2ad (T ). De plus
RT
0
(hs (ω) − hns (ω))2 ds converge vers 0 lorsque n → +∞ pour tout ω où on a utilisé le fait que
RT
ϕn est une approximation de l’identité. Par suite E 0 (hs − hns )2 ds → 0 quand n → +∞, par
le théorème de convergence dominée.
36

— Étape 3. Soit h ∈ L2ad (T ). Alors il existe une suite de processus {hn : n ≥ 0} ∈ L2ad (T ) tel que
hns est borné pour tout n et
Z T
E (hs − hns )2 ds converge vers 0 lorsque n → +∞.
0

Preuve. On pose 
 −n si ht (ω) < −n
n
ht (ω) = ht (ω) si |ht (ω)| ≤ n
n si ht (ω) > n.

Alors le résultat se déduit par le théorème de convergence dominée. Cela complète la procédure
d’approximation. RT
Nous somme maintenant en mesure de compléter la définition de l’intégrale stochastique 0 hs dBs
pour h ∈ L2ad (T ).
En effet, soit h ∈ L2ad (T ), on peut choisir à l’aide des étapes 1–3, un processus élémentaire hn ∈ L2ad (T )
RT
tel que E 0 (hs − hns )2 ds converge vers 0 lorsque n tend vers +∞. On peut donc définir
Z T Z T
hs dBs := lim hns dBs .
0 n→+∞ 0
RT
Cette limite existe comme étant un élément de L2 (Ω, P ), car la famille { 0 hns dBs , n ≥ 0} forme, grâce
à la formule d’isométrie (assertion (ii) du Lemme 5.0.1) une suite de Cauchy dans L2 (Ω, P ) et la limite
ne dépend pas de la sous–suite choisie. Par conséquent la formule d’isométrie est aussi vraie pour les
éléments de L2ad (T ), i.e.
Z T 2 Z T
E hs dBs = E h2s ds.
0 0
R1 R1
Attention 0 sB1 dBs 6= B1 0 sdBs . On ne peut pas définir avec cette approche l’intégrale stochas-
R1
tique 0 sB1 dBs , car B1 n’est pas prévisible.

5.1 Quelques propriétés de l’intégrale stochastique.



Soit h ∈ L2ad (T ), soit t ∈ [0, T ], alors le processus hs 1[0,t] (s) 0≤s≤T ∈ L2ad (T ) et son intégrale
RT Rt
stochastique est définie par 0 hs 1[0,t] (s)dBs = 0 hs dBs , ainsi on définit le processus stochastique
Rt
( 0 hs dBs , t ∈ [0, T ]) appelé intégrale stochastique indéfinie de h par rapport à B.
2
— SoientR t h et g deuxR r élément Rdet Lad (T ) et soit 0 ≤ s ≤ r ≤ t. Alors
(i) s hu dBu = s hu dBu + r hu dBu ;
Rt Rt Rt
(ii) 0 (ahs + bgs )dBs = a 0 hs dBs + b 0 g(s)dBs (où a et b sont des constantes).
Rt Rt Rt
— Les processus { 0 hs dBs , t > 0} et {[ 0 hs dBs ]2 − 0 h2 (s)ds, t > 0} sont des martingales conti-
nues.

Proposition 5.1.1R Soit h un élément de L2ad (T ) tel que |ht (ω)| ≤ C, (C ne dépend ni t ni de ω). Alors
t
le processus t 7−→ 0 hs dBs admet une version continue. Plus précisément une version hölderienne
d’ordre α < 21 . (même module de continuité que le mouvement Brownien).

Preuve. Elle résulte immédiatement du critère de Kolmogorov (voir Lemme 3.1.1).


37

Remarque 5.1.1 L’intégrale


Rt stochastique qu’on vient de construire
R t s’étend à la classe des processus
prévisible h vérifiant 0 h2s ds est fini P –p.s. mais le résultat i.e. 0 hs dBs est une martingale locale.
Rt
En effet on pose Tn = inf{t ≥ 0 : 0 h2s ds ≥ n} ∧ T , {Tn }n≥0 sont des temps d’arrêt bornés, par
conséquent hns := hs 1[0,Tn ] (s) est intégrable au sens de Itô, puis on ferme l’opération par le principe de
recollement.

Exercice. Nous donnons sous forme d’exercice l’exemple de martingale locale qui n’est
pas martingale.
Soit B un mouvement Brownien réel standard.
Soit le temps d’arrêt
τ = inf 0 ≤ t ≤ 1 : t + Bt2 = 1


et 
2Bt
1{t≤τ } si 0 ≤ t < 1

Xt = (1 − t)2
 0 si t = 1
On veut montrer que le processus
Z t Z t 
1
Mt = exp Xs dBs − Xs2 ds
0 2 0

est une martingale locale mais n’est pas une vraie martingale.
R1
1. Montrer que τ < 1 presque sûrement et donc que 0 Xt2 dt < 1 presque sûrement.
Bt2
2. Montrer en appliquer la formule de Itô au processus t 7→ (1−t)2
, 0 ≤ t < 1 que
Z t Z t Z τ  
1 1 1 1
Xs dBs − Xs2 ds =− −2 − Bt2 dt < −1.
0 2 0 1−T 0 (1 − t)4 (1 − t)3

3. La martingale locale {Mt , 0 ≤ t < 1} n’est pas une martingale : on déduit de (2) que son
espérance est majorée par e−1 < 1. ; cependant pour tout n ≥ 1 et σn = 1 − √1n le processus
{Mtσn , 0 ≤ t < 1} est une martingale.

5.2 Inégalité maximale


On a souvent besoin de majorations de l’intégrale stochastique. L’inégalité dite de Doob est très
utile dans tout la suite " #
Z t 2 Z T 
2
E sup hs dBs ≤ 4E |hs | ds ,
0≤t≤T 0 0
RT p
pour tout h ∈ L2ad (T ). De plus si h ∈ L2ad (T ) tel que E[ 0 |hs |2 ds] 2 est fini alors pour tout p > 1 nous
avons "Z  p2 #
 Z t p T
E sup hs dBs ≤ CT,p E |hs |2 ds .
0≤t≤T 0 0

Elle est appelé inégalité de Burkholder–Davis–Gundy, on utilisera dans la suite l’abréviation (BDG).
38

5.3 Formule de changement de variable : formule de Itô


Dans ce paragraphe nous allons donner une formule analogue à (4.1.3) qui correspond à l’intégrale
stochastique de Itô.
Soit C 1,2 ([0, T ] × R, R) l’ensemble des fonctions f définies sur [0, T ] × R et à valeurs dans R, de classe
C 1 par rapport à t ∈ [0, T ] et de classe C 2 par rapport à x ∈ R.

Théorème 5.3.1 Soit {Xt , t ≥ 0} un processus de Itô i.e. de la forme


Z t Z t
Xt = x + v(s)ds + u(s)dBs
0 0

où u(·) et v(·) sont des processus adaptés avec u(·) ∈ L2ad (T ) tels que
Z t Z t
|v(s)|ds < +∞ et u2 (s)ds < +∞ P –p.s.
0 0

et B un mouvement Brownien réel.


Soit f ∈ C 1,2 ([0, T ] × R, R), alors
Z t Z t
∂f ∂f
f (t, Xt ) = f (0, x) + (s, Xs ) u(s)dBs + (s, Xs ) v(s)ds
0 ∂x 0 ∂x
Z t
1 t ∂ 2f
Z
∂f
+ (s, Xs ) ds + 2
(s, Xs ) u2 (s)ds.
0 ∂t 2 0 ∂x

Si f ∈ C 2 (R, Rd ) et B est un mouvement Brownien à valeurs dans Rd et v ≡ 0 et u ≡ 1 alors


Z t
1 t
Z
f (Bt ) = f (B0 ) + ∇f (Bs ) dBs + 4f (Bs ) ds.
0 2 0

La preuve de cette formule utilise le développement de Taylor jusqu’à l’ordre 2.


Supposons que u = 0. Fixons t > 0 et considérons la subdivision ti = i nt , i = 0, . . . , n de [0, T ]. Le
développement de Taylor d’ordre 2 donne
n
X
f (Xt ) − f (0) = f (Xtj ) − f (Xtj−1 )
j=1
n  
X
0
 1 00  2
= f (Xtj−1 ) Xtj − Xtj−1 + f (Xtj−1 + θ Xtj − Xtj−1 ) Xtj − Xtj−1
j=1
2

où 0 < θ < 1. OnR passe à la limite convenablement. En effet la première sommation converge
t
en probabilité vers 0 f 0 (Xs ) u(s)dBs , alors que la seconde sommation converge en probabilité vers
1 t 00
R
2 0
f (Xs ) u2 (s)ds.

5.4 Quelques exemples d’applications de la formule de Itô


Rt
Exemple 5.4.1 1. Si f (x) = x2 et Xt = Bt , on obtient Bt2 = 2 0
Bs dBs + t, car f 0 (x) = 2x et
f 00 (x) = 2.
39

Rt Rt
2. Si f (x) = x3 et Xt = Bt , on obtient Bt3 = 3 0 Bs2 dBs +3 0 Bs ds, car f 0 (x) = 3x2 et f 00 (x) = 6x.
Plus généralement, si n ≥ 2 est un entier naturel
Z t
n(n − 1) t n−2
Z
n n−1
Bt = n Bs dBs + Bs ds.
0 2 0
a2 a2
3. Si f (t, x] =RE ax− 2 t , Xt = Bt , et Mt = eaBt − 2 t , on obtient la représentation suivante de Y :
t
Mt = 1 + a 0 Ms dBs parce que
∂f 1 ∂ 2f
(t, x) + (t, x) = 0. (5.4.3)
∂t 2 ∂x2
Cette exemple conduit à la remarque suivante :
a) Si une fonction f (t, x) de classe C 1,2 satisfait
R t l’équation2 (5.4.3), alors, le processus f (t, Bt ) est
une martingale pourvue que f satisfait E 0 ( ∂f ∂t
(s, Bs )) ds < +∞ pour tout t ≥ 0.
a2
b) La solution de l’EDS dYt = aYt dBt n’est pas Yt = eaBt , mais Yt = eaBt − 2 t .
2
c) Considérons la fonction f (t, x) = tx2 . Alors ∂f ∂t
= x2 , ∂f
∂x
= 2tx et ∂∂xf2 = 2t. La formule de Itô
donne Z t Z t
2 1
tBt = 2 sBs dBs + Bs2 ds + t2 .
0 0 2
En utilisant l’espérance conditionnelle on peut montrer que tBt2 est une sous martingale. Cette
égalité donne la décomposition de Doob-Meyer de la sous–martingale tBt2 . Il donne aussi
l’évaluation de l’intégrale stochastique
Z t Z t
2 1
2 sBs dBs = tBt − Bs2 ds − t2 .
0 0 2
Exemple 5.4.2 Supposons que f (t) est une fonction continûment différentiable sur [0, T ]. La formule
de Itô appliquée à la fonction f (t)x donne
Z t Z t
f (t)Bt = f (s)dBs + Bs f 0 (s)ds
0 0

et par intégration par partie nous avons


Z t Z t
f (s)dBs = f (t)Bt − Bs f 0(s)ds.
0 0

5.5 Crochet d’un processus de Itô


Soit {Mt , t ≥ 0} une martingale continue de carré intégrable (telle que E[supt Mt2 ] < +∞). On
peut montrer (Voir Revuz–Yor) qu’il existe un processus croissant continu A tel que {Mt2 − At , t ≥ 0}
soit une martingale. Le processus A est appelé le crochet oblique, ou le crochet de M . On le note
très souvent At =< M, M >t ou encore < M >t .
Idée de la démonstration
X 
Mt2 = M02 + 2
Mt∧t k+1
− M 2
t∧tk
X  X
= M02 +

Mt∧tk Mt∧tk+1 − Mt∧tk + Mt∧tk+1 Mt∧tk+1 − Mt∧tk
X  X 2
= M02 + 2 Mt∧tk Mt∧tk+1 − Mt∧tk + Mt∧tk+1 − Mt∧tk
Z t
2
−→ M0 + 2 Ms dMs + At .
0
40

En utilisant ce vocabulaire, nous


R t avons établi
R t que le crochet du Brownien est t et que le crochet de
l’intégrale stochastique (Mt = 0 σs dBs ) est 0 σs2 ds.
Si M et N sont deux martingales locales continues, on définit leur crochet par
1
hM, N it = (hM + N, M + N it − hM, M it − hN, N it ) .
2
C’est l’unique processus à variation finie tel que le processus Mt Nt − < M, N >t est une martingale
locale. Le crochet de deux intégrales stochastiques
Z t Z t Z t
Xt = x + Hs dBs et Yt = y + Hs dBs est hX, Y it = Hs Ks ds.
0 0 0

Proposition 5.5.1 Le crochet de deux martingales continues M et N est défini comme suit :
n
X  
hM, N it = lim Mti+1 − Mti Nti+1 − Nti .
supi |ti+1 −ti |→0
i=1

Il en résulte que si P et Q sont équivalentes, le crochet de M sous P et sous Q sont égaux. On


dit que deux martingales continues sont orthogonales si leur crochet est nul, ou si leur produit est une
martingale.
Si M est une martingale locale continue, on a équivalence entre E [hM iT ] < +∞ et {Mt , t ≤ T )
est une martingale bornée dans L2 (Ω).

5.5.1 Version multidimensionnelle de la formule de Itô


Nous allons maintenant établir la version multidimensionnelle de la formule de Itô. Supposons que
Bt = (Bt1 , Bt2 , . . . , Btm ) est un mouvement Brownien de dimension m. Considérons un processus de
dimension n de la forme
Z t Z t Z t
1 1 1,1 1 1,m m
Xt = X 0 + us dBs + · · · + us dBs + vs1 ds
0 0 0
..
. Z t Z t Z t
Xtn = X0n + usn,1 dBs1 + ··· + un,m m
s dBs + vsn ds.
0 0 0

En forme différentielle on écrit m


X
dXti = ui,k k i
t dBt + vt dt
k=1
ou
dXt = ut dBt + vt dt.
où {vt , t ≥ 0} est un processus de dimension n et {ut , t ≥ 0} est un processus à valeurs dans l’ensemble
des matrices d’ordre n × m et on suppose que les composantes de u appartiennent à L2ad (T ) et celles
de v appartient L1ad (T ). Alors, si f : [0, +∞) × Rn → Rp est une fonction de classe C 1,2 , le processus
Yt = f (t, Xt ) est aussi un processus de Itô de décomposition
n
∂fk X ∂fk
dYtk = (t, Xt )dt + (t, Xt )dXti
∂t i=1
∂x i
n
1 X ∂ 2 fk
+ (t, Xt ) dX i , dX j t
2 i,j=1 ∂xi ∂xj
41

Comme conséquence on en déduit la formule d’intégration par partie suivante :


Supposons que {Xt , t ≥ 0} et {Yt , t ≥ 0} sont des processus de Itô
Z t Z t
Xt Yt = X 0 Y0 + Xs dYs + Ys dXs + hX, Y it .
0 0

5.6 Évaluation d’intégrales stochastiques


Le théorème fondamentale du calcul différentiel classique (de Leibnitz–Newton) dit que si F est
une primitive d’une fonction continue f sur [a, b], alors
Z b
f (x)dx = [F (x)]ba ≡ F (b) − F (a). (5.6.4)
a

Ce résultat est utilisé pour évaluer l’intégrale de f du moment qu’elle possède une primitive. A t-on
un résultat analogue pour le calcul de Itô ? Plus précisément supposons que h ∈ L2ad ([a, b]). Peut–on
Rb
évaluer l’intégrale stochastique a ht dBt ? En général il n’existe pas de formule similaire à (5.6.4).
Cependant si ht est de la forme ht = f (Bt ) pour une fonction continûment dérivable alors la formule
de Itô donne une réponse positive. Nous énonçons un résultat qui donne une autre façon d’écrire une
intégrale stochastique.
∂F
Théorème 5.6.1 Supposons F (t, x) est une primitive en x d’une fonction continue f (t, x). Si ∂t
et
∂f
∂x
sont continues. Alors nous avons la formule d’intégration par partie suivante
Z b Z b 
∂F 1 ∂f
f (t, Bt )dBt = [F (t, Bt )]ba − (t, Bt ) + (t, Bt ) dt. (5.6.5)
a a ∂t 2 ∂x

5.6.1 Application de la formule de Itô


Observons d’abord que le terme de droite de l’égalité ci–dessus est une intégrale de Riemann pour
chaque trajectoire du mouvement Brownien B(t). D’autre part pour obtenir cette formule, nous avons
besoin de l’existence d’une primitive F (t, x) de f (t, x) par rapport à la variable x. Si l’intégrant f ne
dépend pas de t, la formule d’intégration par partie devient
Z b
1 b
Z
b
f (Bt )dBt = [F (Bt )]a − f (Bt )dt.
a 2 a
Nous donnons quelques exemples pour illustrer cette technique d’évaluation d’intégrales stochastiques
Rt
Exemple 5.6.1 Pour évaluer l’intégrale stochastique 0 Bs eBs dBs , remarquons que l’intégrant est
donné par f (Bs ) avec f (x) = xex . Donc
Z
F (x) = xex dx = xex − ex + C,
f 0 (x) = xex + ex .

Il en résulte d’après l’équation (5.6.5)


Z t
1 t
Z
Bs Bt
Bs e dBs = (Bt − 1) e + 1 − (Bs + 1) eBs ds.
0 2 0
42

R t dBs 1
Exemple 5.6.2 L’intégrale stochastique 0 1+B 2 est donnée par f (Bs ) avec f (x) = 1+x2
. D’où les
s
fonctions F (x) et f (x) sont données par

−2x
Z
1
F (x) = dx = c + arctan(x), f (x) = .
1 + x2 (1 + x2 )2

Par l’équation (5.6.5), nous avons


Z t Z t
dBs Bs
2
= arctan(Bt ) + 2 2
ds.
0 1 + Bs 0 (1 + Bs )

Rt Bs
Exemple 5.6.3 Considérons l’intégrale stochastique 0 1+Bs2
dBs . L’intégrant est donné par f (Bs ) avec
x
f (x) = 1+x 2 on en déduit que

1 − x2
Z
x 1 2
F (x) = dx = ln(1 + x ) + c, f (x) = .
1 + x2 2 (1 + x2 )2

Alors en appliquant la formule (5.6.5) on obtient la valeur de l’intégrale stochastique


Z t
1 t 1 − Bs2
Z
Bs 1 2
2
dBs = ln(1 + Bs ) − ds
0 1 + Bs 2 2 0 (1 + Bs2 )2
Rt 1
Exemple 5.6.4 Pour évaluer l’intégrale stochastique 0 eBs − 2 s dBs , on observe d’abord que l’integrant
1
est donné par f (s, Bs ) avec f (t, x] = E x− 2 t . Par suite
Z
1 ∂F 1 1 ∂f 1
F (t, x) = ex− 2 t dx, = − ex− 2 t , = ex− 2 t .
∂t 2 ∂x

D’après la formule (5.6.5) on obtient


Z t
1 1
eBs − 2 s dBs = eBt − 2 t − 1.
0
Chapitre 6

Équations différentielles stochastiques

6.1 Introduction
dx
L’équation différentielle ordinaire dt
= b(t, x) peut être interprété au sens de du calcul de Leibnitz–
Newton par l’équation intégrale Z t
x(t) = x0 + b(s, x(s))ds.
0

Lorsque cette équation est perturbée par la dérivé formelle Ḃt du mouvement Brownien Bt , cette
équation prend la forme
dX
= b(t, X) + σ(t, X)Ḃt
dt
Dans le calcul différentiel de Itô Ḃt dt sont combinés pour former la différentielle dBt .
Considérons un mouvement Brownien {Bt , t ≥ 0} défini sur un espace probabilisé filtré (Ω, F, P ).
Supposons que {Ft , t ≥ 0} est une filtration telle que Bt est Ft –adapté et pour tout 0 ≤ s < t,
l’accroissement Bt − Bs est indépendant Fs . Notre objectif dans ce chapitre est de résoudre l’équation
différentielle stochastique
dXt = b(t, Xt )dt + σ(t, Xt )dBt (6.1.1)
avec une condition initiale X0 , qui est une variable aléatoire F0 mesurable et indépendante du Brownien
Bt .
Les coefficients b(t, x) and σ(t, x) sont appelés respectivement le coefficient de dérive (drift) et le
coefficient de diffusion. Si σ ≡ 0, alors l’équation (6.1.1) devient une EDO
dxt
= b(t, xt ).
dt
Par exemple dans le cas linéaire, b(t, x) = b(t)x, la solution de cette équation est donnée par
Z t 
xt = x0 exp b(s)ds .
0

L’équation différentielle stochastique (6.1.1) a l’interprétation heuristique suivante.


L’accroissement 4Xt = Xt+4t − Xt peut être approché et décomposé en somme de b(t, Xt )4t
plus le terme σ(t, Xt )4Bt qui représente l’impulsion aléatoire. La distribution approximative de cet
accroissement sera une loi normale de moyenne b(t, Xt )4t et de variance σ(t, Xt )2 4t.
Une formulation rigoureuse de cette équation (6.1.1) est obtenue en réécrivant sous forme intégrale
en utilisant l’intégrale stochastique :
Z t Z t
X t = X0 + b(s, Xs )ds + σ(s, Xs )dBs .
0 0

43
44

C’est à dire que la solution sera un processus de Itô {Xt : t ≥ 0}. Les solutions des EDS sont appelés
processus de diffusion.
La motivation originale de K. Itô pour développer la théorie de l’intégration stochastique était de
construire les processus de diffusion en résolvant les équations différentielles stochastiques.
Précisons tout d’abord ce que nous entendons par une solution de l’EDS.

Définition 6.1.1 Étant donné une matrice σ(s, x) borelienne d’ordre n×m un vecteur b(s, x) borelien
dans Rn . On appelle solution faible de l’équation (6.4.4) un terme

(Ω, G, (Gt )t≥0 , P, (Bt )0≤t≤T , (Xt )0≤t≤T )

tels que
1. (Bt )0≤t≤T , et (Xt )0≤t≤T sont des processus continus à valeurs dans Rn , (Bt )0≤t≤T est Gt –
mesurable, (Xt )0≤t≤T est Gt –mesurable, B0 = 0, X0 = ξ,
2. (Bt )0≤t≤T est un mouvement Brownien
Rt Rt
3. 0 |b(s, Xs )|ds et 0 |σ(s, Xs )|2 ds sont finis P –p.s.
4. (Bt )0≤t≤T , et (Xt )0≤t≤T vérifient l’équation (6.4.5).
On dit qu’une solution est forte si le Brownien B est fixé et en plus des conditions ci-dessus
(Xt )0≤t≤T est adapté à la filtration (Ft )t≥0 du Brownien.

Autre définition

Définition 6.1.2 Un processus jointement mesurable (en ω et en t) Xt , 0 ≤ t ≤ T , est dit solution


forte de EDS ci–dessus si Xt satisfait les conditions suivantes Rt :
(1) Le processus σ(t, Xt ) appartient à L2ad (T ), de sorte que 0 σ(s, Xs )dBs a un sens comme intégrale
de Itô pour tout t ∈ [0, T ] ;
(2) Presque toutes les trajectoires du processus b(t, Xt ) appartient à L1 ([0, T ] × Ω)
(3) Pour tout t ∈ [0, T ], Xt vérifie l’équation l’intégrale (6.4.5).

Nous aurons besoin d’imposer des conditions sur les coefficients b(t, x) et σ(t, x) afin d’assurer l’exis-
tence d’une unique solution non explosive de l’équation (6.4.5). Nous rappelons ci-dessous quelques
conditions suffisantes pour l existence et l unicité forte dune solution forte.

Définition 6.1.3 a) Une fonction borelienne f (t, x) définie sur [0, T ] × R est dite Lipschitzienne en
x s’il existe une constante K > 0 telle que

|f (t, x) − f (t, y)| ≤ K|x − y|, ∀ 0 ≤ t ≤ T, x, y ∈ R. (6.1.2)

b) Une fonction borelienne f (t, x) définie sur [0, T ] × R est dite à croissance au plus linéaire en x s’il
existe une constante K > 0 telle que

|f (t, x)| ≤ K(1 + |x|), ∀ 0 ≤ t ≤ T, x ∈ R. (6.1.3)

Remarquons que pour tout x ≥ 0 :

1 + x2 ≤ (1 + x)2 ≤ 2(1 + x2 ).

Donc la condition de (6.1.3) est équivalent à la condition suivante il existe une constante C > 0
telle que
|f (t, x)|2 ≤ C(1 + x2 ), ∀ 0 ≤ t ≤ T, x ∈ R.
45

Remarque 6.1.1
1.- La condition (6.1.3) assure la non explosion de la solution dans l’intervalle [0, T ]. Par exemple,
l’équation déterministe
dxt
= x2t , x0 = 1, 0 ≤ t ≤ 1,
dt
possède l’unique solution
1
xt = , 0 ≤ t < 1,
1−t
qui explose au temps t = 1.
2.- La condition (6.1.2) assure l’unicité de la solution. Par exemple l’équation déterministe

dxt 2/3
= 3xt , x0 = 0,
dt
admet une infinité de solutions : en effet pour tout a > 0, la fonction

0 if t ≤ a
xt =
(t − a)3 if t > a

est une solution. Dans cette exemple le coefficient b(x) = 3x2/3 ne satisfait pas la condition (6.1.2) car
la dérivée de b n’est pas bornée.
3.- Si les coefficients b(t, x) et σ(t, x) sont différentiables en la variable x, la condition (6.1.2) signifie
∂b
que les dérivées partielles ∂x and ∂σ∂x
sont bornées.

6.2 Quelques examples


1. Pont Brownien. Soit Bt un mouvement Brownien. La solution de EDS
Xt
dXt = − dt + dBt pour 0 ≤ t < 1 et B0 = 0
1−t
est Z t
dBs
Xt = (1 − t) (0 ≤ t < 1)
0 1−s
Il en résulte que lim t→1− Xt = 0 presque sûrement. Le processus X est appelé Pont Brownien,
entre 0 et 1.
2. Equation de Langevin
dXt = αdBt − βXt dt, X0 = x0 .
La solution de cette équation est le processus d’Ornstein–Uhlenbeck
Z t
−βt
X t = e x0 + α e−β(t−u) dBu .
0

On utilise la formule de Itô pour établir l’équation différentielle stochastique à valeurs dans R2
   
0 −1 1 1
dVt = Vt dBt − Vt dt, V0 = .
1 0 2 0

La solution Vt le transposé du vecteur (cos Bt , sin Bt ).


46

3. On obtient également par la formule de Itô l’équation différentielle stochastique à valeurs dans
R3
dVt = (KVt + q) dBt + LVt dt, V0 = v0 ,
où K, q, L et v0 sont donnés par
     1   
0 −1 0 0 −2 0 0 1
K =  1 0 0  , q =  0  , L =  0 − 12 0  , v0 =  0  .
0 0 0 1 0 0 0 0
La solution Vt est le transposé du vecteur (cos Bt , sin Bt , Bt ).
4. Soient Bt1 et Bt2 deux mouvements Brownien indépendant. On dérive une équation différentielle
stochastique à valeurs dans R3
dVt = KVt dBt1 + CVt dBt2 + LVt dt, V0 = v0 ,
où K, C, L et v0 sont donnés par
       
1 0 0 0 −1 0 0 0 0 1
K=  1 0 0 , C=
  1 0 0 , L=
  0 0 0 , v0 =
  0 .
1
0 0 1 0 0 0 0 0 2 1
1 1 1
la solution Vt est le transposé du vecteur (eBt cos Bt2 , eBt sin Bt2 , eBt ).
RT
5. Pour tout h ∈ L2ad (T ) i.e. h est prévisible et E 0 h2s ds < +∞, le processus définit par
Rt Rt
Eh (t) = exp( 0 hs dBs − 21 0 h2s ds), est appelé l’exponentielle stochastique et satisfait l’équation
différentielle stochastique
dXt = ht Xt dBt , X0 = 1.
6. Processus de Bessel.
Soient Bt = (B1 (t), B2 (t), . . . , Bd (t)) un mouvement Brownien dans Rd , d ≥ 2, issue de 0. Le
processus Ld−1 défini par
q
Ld−1 (t) = |B(t)| = B12 (t) + B22 (t) + · · · + Bd2 (t)

est appelé processus de Bessel d’indice d − 1. De plus Ld−1 (t) satisfait l’équation différentielle
stochastique
d−1
dXt = dWt + dt, X0 = 0,
2Xt
où W est défini par
d Z t
X Bi (s)
Wt = dBi (s).
i=1 0 |B(s)|
Notons que dans les exemples précédents sauf le dernier les équations sont des équations
linéaires.
7. Oscillateur harmonique stochastique. Ceci correspond à l’EDS
( ·· ·
X = −λ2 X − bX + σξ
·
X(0) = X0 , X(0) = X1 ,
·
où −λ2 X représente la force linéaire de restoration et −bX est le mouillant terme à friction.
Une solution explicite est donnée dans le cas où X1 = 0, b = 0, σ = 1 par
1 t
Z
Xt = X0 cos(λt) + sin(λ(t − s))dWs .
λ 0
47

8. Nous donnons en plus deux autres exemples qui montrent que les solutions des équations
différentielles stochastiques peuvent exploser en temps fini presque sûrement et qu’on peut
avoir plusieurs solutions.
Considérons l’équation différentielle stochastique
dXt = Xt2 dBt + Xt3 dt, X0 = 1,
qui est équivalent à l’équation différentielle stochastique intégrale
Z t Z t
2
Xt = 1 + Xs dBs + Xs3 ds.
0 0

Pour résoudre cette équation on applique la formule de Itô à X1t pour obtenir
 
1 −1 2
d = 2
dXt + (d hXit )
Xt 2Xt 2Xt3
−1 2 3

= X t dX t + X t dt = −dBt .
Xt2
Par conséquent, X1t = −Bt + c. La condition initiale X0 = 1 implique c = 1. D’où la solution
de l’équation est donnée par
1
Xt = .
1 − Bt
Remarquons que Xt explose au temps de sortie du mouvement Brownien Bt dans l’intervalle
(−∞, 1).
9. Considérons maintenant l’équation différentielle stochastique
2/3 1/3
dXt = 3Xt dBt + 3Xt dt, X0 = 0,
ou autrement Z t Z t
Xt = 3 Xs2/3 dBs +3 Xs1/3 ds.
0 0
Pour toute constante fixée a > 0, on définit la fonction θa par θa (x) = (x − a)3 1{x≥a} . Il est
facile de montrer que
θa0 (x) = 3θa (x)2/3 , θa00 (x) = 6θa (x)1/3 .
Par la formule de Itô, nous avons
dθa (Bt ) = 3θa (Bt )2/3 dBt + 3θa (Bt )1/3 dt.
R t 2/3 R t 1/3
De plus, θa (B0 ) = 0. D’où θa (Bt ) est une solution de l’équation Xt = 3 0 Xs dBs + 3 0 Xs ds
pour tout a > 0. Ceci montre que cette équation possède une infinité de solution.
10. Dans le contexte des EDO des exemples de non unicité sont bien connus. En effet l’équation
·
x(t) = |x(t)|γ avec 0 < γ < 1 et x(0) = 0 admet la famille de solutions x(t) = ( t−δκ
)κ pour t ≥ δ
1
et x(t) = 0 pour t ≤ δ et κ = 1−γ et δ > 0.
On observe que les deux derniers exemples sont de simple modifications des exemples classique
dans la théorie des EDO. Les conditions usuelles suffisantes pour l’unicité dans la théorie des EDO
est la propriété de Lipschitz. Également pour les EDS la condition de Lipschitz ainsi que sa forme
locale suffit pour l’unicité. Par conséquent on peut utiliser les mêmes techniques mais adaptés au
cadre fonctionnel pour les EDS ainsi que le calcul stochastique de Itô. Ceci signifie que pour assurer
l’existence et l’unicité d’une solution globale nous devons imposer des conditions de Lipschitz et à
croissance au plus linéaire.
48

6.3 Inégalité de Bellman–Gronwall


Dans cette section nous allons rappeler des inégalités qui seront utilisées dans la suite.
Supposons qu’une fonction ϕ ∈ L1 ([0, T ]) satisfait l’inégalité
Z t
ϕ(t) ≤ f (t) + β ϕ(s)ds, ∀ t ∈ [0, T ],
0

où f ∈ L1 ([0, T ]) et β est une constante positive.


Comment peut on estimer ϕ(t) en termes de f (t) et β ?
On définit la fonction auxiliaire g par
Z t
g(t) = β ϕ(s)ds, 0 ≤ t ≤ T.
0

En dérivant, on obtient
g 0 (t) = βϕ(t) ≤ βf (t) + βg(t)
d’où
g 0 (t) − βg(t) ≤ βf (t).
En multipliant les deux cotés de l’inégalité ci–dessus par le facteur e−βt on aura
d −βt
e g(t) = e−βt g(t) − βg(t) ≤ βf (t)e−βt

dt
qui après intégration entre 0 et t,
Z t
−βt
e g(t) ≤ β f (s)e−βs ds.
0

Par suite, Z t
g(t) ≤ β f (s)eβ(t−s) ds.
0
D’où Z t
ϕ(t) ≤ f (t) + g(t) ≤ f (t) + β f (s)eβ(t−s) ds.
0

Lemme 6.3.1 (Inégalité de Bellman-Gronwall) Supposons que ϕ ∈ L1 ([0, T ]) satisfait l’inégalité sui-
vante Z t
ϕ(t) ≤ f (t) + β ϕ(s)ds, ∀ t ∈ [0, T ],
0
Alors Z t
ϕ(t) ≤ f (t) + β f (s)eβ(t−s) ds.
0

En particulier, si f (t) est une constante α, alors

ϕ(t) ≤ αeβ(t) , ∀ 0 ≤ t ≤ T
49

Soit {θn }+∞ 1


n=1 une suite de fonctions dans L ([0, T ]) satisfaisant l’inégalité
Z t
θn+1 (t) ≤ f (t) + β θn (s)ds, ∀ t ∈ [0, T ] et ∀ n ≥ 1
0
1
où f ∈ L ([0, T ]) et β est une constante positive.
Question. Comment peut on estimer θn+1 (t) en termes de f (t), β, n, and θ1 (t) ?
Pour n = 1 nous avons Z t
θ2 (t) ≤ f (t) + β θ1 (s)ds
0
Put n = 2 nous avons
Z t
θ3 (t) ≤ f (t) + β θ2 (s)ds
0
Z t Z tZ s
2
≤ f (t) + β f (s)ds + β θ1 (u)duds.
0 0 0

En changeant l’ordre d’intégration dans l’inégalité ci–dessus on obtient


Z t Z t
2
θ3 (t) ≤ f (t) + β f (s)ds + β (t − u)θ1 (u)du.
0 0

De façon similaire, nous avons


Z t Z t t
(t − u)2
Z
2 3
θ4 (t) ≤ f (t) + β f (s)ds + β (t − u)f (u)du + β θ1 (u)du.
0 0 0 2
Plus généralement, on peut montrer en utilisant l’induction que pour tout n ≥ 1,
Z t Z t
2
θn+1 (t) ≤ f (t) + β f (s)ds + β (t − u)f (u)du + · · ·
0 0
Z t Z t
(t − u)n−2 n (t − u)n−1
+βn−1 f (u)du + β θ1 (u)du.
0 (n − 2)! 0 (n − 1)!
Notons que
n−2 k
X β (t − u)k
≤ eβ(t−u) .
k=0
k!
Par conséquent
t t
(t − u)n−1
Z Z
β(t−u) n
θn+1 (t) ≤ f (t) + β f (u)e du + β θ1 (u)du.
0 0 (n − 1)!
Lemme 6.3.2 Soit {θn }+∞ 1
n=1 une suite de fonction dans L ([0, T ]) satisfaisant
Z t
θn+1 (t) ≤ f (t) + β θn (s)ds, ∀ t ∈ [0, T ]
0

Alors t t
(t − u)n−1
Z Z
β(t−u) n
θn+1 (t) ≤ f (t) + β f (u)e du + β θ1 (u)du
0 0 (n − 1)!
pour tout n ≥ 1. En particulier si f (t) ≡ α et θ1 (t) ≡ c sont des constantes Alors pour tout n ≥ 1 :
(t)n
θn+1 (t) ≤ αeβ(t) + cβ n
n!
50

6.4 Théorème d’existence et d’unicité


Soit Bt un mouvement Brownien à valeurs dans Rm et {Ft : 0 ≤ t ≤ T } satisfaisant les conditions
habituelles et Bt est Ft –mesurable pour tout t et Bt − Bs est indépendante de Fs pour tout s ≤ t.
Soient b(t, x) et σ(t, x) des fonctions mesurables de t ∈ [0, T ] et x ∈ Rn .
Considérons l’équation différentielle stochastique

dXt = b(t, Xt )dt + σ(t, Xt )dBt , X0 = ξ, (6.4.4)

qui s’interprète comme l’équation stochastique intégrale


Z t Z t
Xt = ξ + b(s, Xs )ds + σ(s, Xs )dBs , 0 ≤ t ≤ T (6.4.5)
0 0

6.4.1 Théorème d’unicité


Lemme 6.4.1 (Unicité) Soient b(t, x) et σ(t, x) deux fonctions mesurable sur [0, T ]×R satisfaisant
(6.1.2). Supposons que ξ est une variable aléatoire F0 –mesurable tel que E[ξ 2 ] < +∞. Alors l’équation
(6.4.5) admet au plus une solution Xt .

Preuve. Soient Xt et Yt deux solutions continues de (6.4.5). On pose Zt = Xt − Yt . Alors Zt est un


processus continue et
Z t Z t
Zt = (b(s, Xs ) − b(s, Ys )) ds + (σ(s, Xs ) − σ(s, Ys )) dBs .
0 0

En utilisant l’inégalité (a + b)2 ≤ 2(a2 + b2 ) on obtient


Z t 2 Z t 2
Zt2 ≤2 (σ(s, Xs ) − σ(s, Ys )) dBs + (b(s, Xs ) − b(s, Ys )) ds (6.4.6)
0 0

Par la formule d’isométrie et la condition (6.1.2) de σ(t, x), nous avons


Z t 2 Z t
E (σ(s, Xs ) − σ(s, Ys )) dBs = E |σ(s, Xs ) − σ(s, Ys )|2 ds
0 0
Z t
2
≤ K E[Zs2 ]ds.
0

D’autre part la condition (6.1.2) de b(t, x) entraı̂ne que


Z t 2 Z t
(b(s, Xs ) − b(s, Ys )) ds ≤ t (b(s, Xs ) − b(s, Ys ))2 ds
0 0
Z t
2
≤ TK Zs2 ds.
0

En reportant dans (6.4.6) on obtient


Z t
E[Zt2 ] 2
≤ 2K (1 + T ) E[Zs2 ]ds.
0

Par le lemme de Bellman–Gronwall, on conclut que E[Zt2 ] = 0 pour tout t ∈ [0, T ]. D’où Zt = 0
presque sûrement pour tout t ∈ [0, T ].
51

6.4.2 Théorème d’existence


Théorème 6.4.1 (Existence) Soient b(t, x) et σ(t, x) deux fonctions mesurables sur [0, T ]×R satis-
faisant (6.1.2) et (6.1.3). Supposons que ξ est une variable aléatoire independante du brownien B et
F0 –mesurable telle que E[ξ 2 ] < +∞. Alors l’équation (6.4.5) admet une unique solution continue Xt .

Preuve. L’unicité découle du Lemme 6.4.1.


Pour l’existence on procède par itération de Picard.
(n)
On définit la suite {Xt }+∞n=1 de processus continu par

(1)
Xt ≡ ξ
Z t Z t
(n+1)
Xt = ξ+ b(s, Xs(n) )ds + σ(s, Xs(n) )dBs pour n ≥ 1.
0 0

(1) (n)
Il est clair que, Xt appartient à L2ad (T ). Supposons par induction que le processus Xt appartient à
L2ad (T ). Alors par la condition (6.1.3)
Z T Z T 2
2 (n) (n)
E σ (t, Xt )dt ≤ CT + CE Xt dt < +∞;
0 0
Z T Z T  2  21
(n)
b(s, Xs(n) ) ds ≤ CT 1+ Xt dt < +∞, a.s.
0 0

(n+1)
Par suite Xt est un processus continu et adapté à la filtration (Ft )t≥0 . De plus |a + b + c|2 ≤
3(a2 + b2 + c2 ), d’où
" Z t 2 Z t 2 #
2
(n+1)
Xt ≤ 3 ξ2 + b(s, Xs(n) )ds + σ(s, Xs(n) )dBs
0 0

qui avec la condition (6.1.3) donne


Z T 2
(n+1)
E Xt dt < +∞.
0

(n+1) (n)
Ceci montre que le processus Xt appartient à L2ad (T ). Par récurrence la suite {Xt }n≥1 appartient
2
à Lad (T ).
(n+1) (n)
Maintenant, nous allons estimer E|Xt − Xt |2 . On pose
Z t Z t
(n+1) (n) (n+1)
Yt = σ(s, Xs )dBs et Zt = b(s, Xs(n) )ds.
0 0

(n+1) (n+1) (n+1)


Avec ces notations on aura Xt = ξ + Yt + Zt . Or (a + b)2 ≤ 2(a2 + b2 ), nous avons
2 2 2
(n+1) (n) (n+1) (n) (n+1) (n)
E Xt − Xt ≤ 2E Yt − Yt + 2E Zt − Zt

Par la condition (6.1.2) de σ,


2
Z t
(n+1) (n) 2
E Yt − Yt = E σ(s, Xs(n) ) − σ(s, Xs(n−1) ) ds
0
Z t
2 2
≤ K E Xs(n) − Xs(n−1) ds.
0
52

La même condition sur b donne


2
Z t
(n+1) (n) 2 2
Zt − Zt ≤ TK Xs(n) − Xs(n−1) ds.
0

En additionnant les termes on obtient pour tout n ≥ 2,


2
Z t
(n+1) (n) 2 2
E Xt − Xt ≤ 2K (1 + T ) E Xs(n) − Xs(n−1) ds.
0

D’autre part, par la condition (6.1.3)


2
Z t
(2) (1) 2
1 + E[ξ 2 ] ds.

E Xt − Xt ≤ 2K (1 + T )
0

En appliquant le lemme 6.3.2,


(n+1) (n)
2 tn
E Xt − Xt ≤ ρβ n
n!
où ρ = 1 + E[ξ 2 ] et β = 2K 2 (1 + T ).
Or pour tout t ∈ [0, T ],
(n+1) (n) (n+1) (n) (n+1) (n)
Xt − Xt ≤ Yt − Yt + Zt − Zt

d’où
(n+1) (n) (n+1) (n) (n+1) (n)
sup Xt − Xt ≤ sup Yt − Yt + sup Zt − Zt
0≤t≤T 0≤t≤T 0≤t≤T

ce qui implique
 
(n+1) (n) 1
sup Xt − Xt > 2
0≤t≤T n
   
(n+1) (n) 1 (n+1) (n) 1
⊂ sup Yt − Yt > 2 ∪ sup Zt − Zt > 2 .
0≤t≤T 2n 0≤t≤T 2n

Par conséquent,
   
(n+1) (n) 1 (n+1) (n) 1
P sup Xt − Xt > 2 ≤ P sup Yt − Yt > 2
0≤t≤T n 0≤t≤T 2n
 
(n+1) (n) 1
+P sup Zt − Zt > 2 .
0≤t≤T 2n

En appliquant l’inégalité de Doob on aboutit à


 
(n+1) (n) 1 4 (n+1) (n)
2
P sup Yt − Yt > 2 ≤ E Y T − YT
0≤t≤T 2n n4
4 2 T
Z 2
(n) (n−1)
≤ 4
K E Xt − Xt dt
n 0
4 2 β nT n
≤ K ρ .
n4 n!
D’autre part,
2
Z t
(n+1) (n) 2 2
Zt − Zt ≤K T Xs(n) − Xs(n−1) ds,
0
53

qui donne directement


2
Z T 2
(n+1) (n) 2 (n) (n−1)
sup Zt − Zt ≤K T E Xt − Xt dt.
0≤t≤T 0

D’où
 
(n+1) (n) 1 4 (n+1) (n)
2
P sup Zt − Zt > 2 ≤ E sup Z − Zt
0≤t≤T 2n n4 0≤t≤T t
4 2 β nT n
≤ K ρ .
n4 n!
Il s’ensuit que
4 2 β nT n
 
(n+1) (n) 1
P sup Xt − Xt > 2 ≤ K ρ .
0≤t≤T 2n n4 n!
1 βnT n
P
Comme la série n≥1 n4 n! est convergente. Le lemme de Borel–Cantelli , donne
 
(n+1) (n) 1
P sup Xt − Xt > 2 i.o. = 0.
0≤t≤T 2n
A la lumière de ceci, pour presque tout ω
n 
X 
(n) (0) (k) (k−1)
Xt = Xt + Xt − Xt
k=1

converge uniformément sur [0, T ] avec la probabilité 1 vers un processus noté Xt . De plus, le processus
Xt est continu et adapté à la filtration {Ft : 0 ≤ t ≤ T } et vérifie
+∞
r
X Tn
kXt k2 ≤ kξk2 + ρβ n .
n=1
n!
RT
où k·k2 est la norme L2 (Ω). Il en s’ensuit que E 0 |Xt |2 dt < +∞. D’où le processus Xt appartient à
(n+1)
L2ad (T ) ⊂ Lad (Ω, L2 ([0, T ])). En passant à la limite dans la définition de Xt on voit que
Z t Z t
Xt = ξ + b(s, Xs )ds + σ(s, Xs )dBs .
0 0

Remarque 6.4.1 Ce résultat reste vrai en dimension supérieure, lorsque Bt est un mouvement Brow-
nien de dimension m, le processus Xt est de dimension n, et les coefficients sont des fonctions

b : [0, T ] × Rn −→ Rn , σ : [0, T ] × Rn −→ Rn×m .

Dans la pratique, ce théorème est parfois insuffisant.


On peut énoncer un théorème sur R :
−1
Théorème 6.4.2 Soit ρ une fonction borelienne
√ de ]0, +∞[ dans lui-même telle que l’intégrale de ρ
au voisinage de 0 diverge (par exemple ρ(x) = x). Si

|σ(s, y) − σ(s, x)|2 ≤ ρ(|y − x|)

et b est lipschitzienne, soit


|b(s, y) − b(s, x)| ≤ Kt |y − x|
pour tout x, y ∈ R et s ≤ t, il existe une unique solution de (6.1.1).
54

On trouvera dans Revuz–Yor (chapitre 9, paragraphe 3) d’autres résultats.

Lemme 6.4.2 Soit b une fonction définie sur R+ × R, localement bornée telle que pour tout t > 0,
x → b(t, x) est dérivable et bx (t, x) ≤ C ∀ t > 0, ∀ x ∈ R. Alors l’EDS :
Z t
Yt = Y0 + Bt + b(s, Ys )ds
0

possède la propriété d’unicité trajectorielle.

Démonstration. Soit Y et Y 0 deux solutions de cette EDS. avec Y0 = Y00 . On a :


Z t
0
Yt − Yt = (b(s, Ys ) − b(s, Ys0 ))ds
0

ce qui donne : Z t
(Yt − Yt0 )2 =2 (Ys − Ys0 )(b(s, Ys ) − b(s, Ys0 ))ds.
0
et par le théorème des accroissements finis on a :

b(s, Ys ) − b(s, Ys0 ) = (Ys − Ys0 )bx (s, ξs ).

donc :
(Ys − Ys0 )(b(s, Ys ) − b(s, Ys0 )) = (Ys − Ys0 )2 bx (s, ξs ) ≤ C(Ys − Ys0 )2 .
Par conséquent : Z t
(Yt − Yt0 )2 ≤ 2C (Ys − Ys0 )2 ds.
0

Par le lemme de Gronwall, on aura (Yt − Yt0 )2


= 0.
Voici aussi un autre résultat sur l’existence et l’unicité de solution forte d’EDS avec un coefficient
de dérive nul :

Lemme 6.4.3 Supposons que σ est localement lipschitzienne et vérifie la condition de croissance au
plus linéaire :
|σ(t, x)|2 ≤ K(1 + |x|2 )
Rt
Alors l’EDS : Xt = 0 σ(s, Xs )dBs possède la propriété d’existence et d’unicité de la solution forte.

Démonstration. L’unicité ne pose pas de problème puisque σ est localement lipschitzienne. Pour
montrer l’existence, nous allons remplacer σ par des fonctions σ n globalement lipschitziennes. Pour
n ≥ 1, soit  
n nx
σ (t, x) = σ(t, x)1{|x|≤n} + σ t, 1{|x|>n} .
|x|
σ n est globalement lipschitzienne et vérifie la condition de croissance au plus linéaire, donc l’EDS
Z t
n
Xt = σ n (s, Xsn )dBs
0

possède une unique solution forte notée X n . Soit

τn = inf{t ≥ 0 : |Xtn | ≥ n}
55

m n
On a ∀ m ≥ n, Xt∧τ n
= Xt∧τ n
puisque σ n = σ m pour |x| ≤ n soit

τ = lim τn
n→+∞

Montrons que τ = +∞ P –p.s. Par l’ absurde, supposons que P (τ < +∞) > 0, donc ∃ T > 0 tel que
P (τ < T ) > 0. Pour t ≤ T soit Mtn = sup |Xsn |, on a
s≤t
" 2 #
  Z s Z t
E sup |Xsn |2 = E sup σ n
(u, Xun )dBu ≤ CE σ 2 (s, Xsn )ds
s≤t s≤t 0 0
Z t Z t  
≤ CE K(1 + |Xsn |2 )ds ≤ CKT + CK n 2
E sup |Xu | ds.
0 0 u≤s

On obtient, d’après le lemme de Gronwall

E (MTn )2 ≤ CKT eCKT


 

Pour tout n ≥ 1, on a :
E [(MTn )2 ]
0 < P (τ < T ) ≤ P (MTn ≥ n) ≤ →0
n2
ce qui est absurde, donc τ = +∞ P –p.s. Soit
n
Xt := lim Xt∧τ n
n→+∞

Pour t ≤ τn , on a : Xtn = Xtm ∀ m ≥ n, donc Xtn = Xt pour t ≤ τn . Pour tout n ≥ 1, On a :


Z t∧τn Z t∧τn
n n n
Xt∧τn = σ (s, Xs )dBs = σ(s, Xs )dBs .
0 0

Et comme Z t∧τn Z t
L2
σ(s, Xs )dBs −→ σ(s, Xs )dBs
0 0
Il existe une sous suite ϕ(n) telle que
Z t∧τϕ(n) Z t
P −p.s.
σ(s, Xs )dBs −→ σ(s, Xs )dBs .
0 0

Par suite Z t
Xt = σ(s, Xs )dBs
0
Donc {Xt , t ≥ 0} est solution de l’EDS.

6.5 Théorème de comparaison


Théorème 6.5.1 Soient

dXi (t) = bi (Xi (t))dt + σ(Xi (t))dBt pour i = 1, 2

où bi est lipschitzienne et |σ(x) − σ(y)| ≤ K|x − y|. Supposons que X1 (0) ≤ X2 (0) et b1 (x) ≤ b2 (x).
Alors X1 (t) ≤ X2 (t).
56

Pour la preuve, le lecteur pourra consulter le livre de Revuz–Yor, (chapitre 9, paragraphe 3).

Théorème 6.5.2 (Dépendance des paramètres). Supposons pour n ≥ 1 que b(n) (t, x), σ (n) (t, x) et ξ (n)
satisfont les hypothèses du théorème d’existence et d’unicité. Supposons de plus que
h i
(n) 2
(a) lim E |X0 − X0 | = 0
n→+∞

et pour tout M > 0,

lim max |b(n) (t, x) − b(t, x)| + |σ (n) (t, x) − σ(t, x)| = 0.
 
(b)
n→+∞ 0≤t≤T
|x|≤M

Supposons que X (n) resoud


(n) (n) (n) (n)
dXt = b(n) (t, Xt )dt + σ (n) (t, Xt )dBt , X0 = ξ (n)

Alors  
(n) 2
lim E max |Xt − Xt | = 0,
n→+∞ 0≤t≤T

où X est l’unique solution de l’ EDS

dXt = b(t, Xt )dt + σ(t, Xt )dBt , X0 = ξ

Exemple 6.5.1 (Petites perturbations des systèmes dynamiques). En particulier, si b est lipschit-
zienne alors pour presque tout ω la trajectoire solution de EDS

dXtε = b(Xtε )dt + εdWt , X0ε = x0

converge uniformément [0, T ] as ε → 0 vers la fonction déterministe solution de l’équation

ẋ(t) = b(x(t)), x(0) = x0 .

6.6 Solutions explicites de certaines EDS


La formule d’ Itô permet de trouver des solutions explicites pour certaines équations différentielles
stochastiques. Considérons par exemple
A) Cas linéaire. Le mouvement Brownien géométrique

σ2
  
Xt = X0 exp µ− t + σBt
2
résoud l’équation différentielle stochastique

dXt = µXt dt + σXt dBt .

Plus généralement, la solution de l’équation différentielle stochastique linéaire homogène

dXt = b(t)Xt dt + σ(t)Xt dBt

où b(t) et σ(t) sont des fonctions continues, est


Z t Z t
σ2
 
Xt = X0 exp σ(s)dBs + b(s) − (s) ds
0 0 2
57

Considérons le modèle de Black-Scholes pour les prix d’un actif financier, avec coefficient dépendant
du temps µ(t) et σ(t) > 0 :
dSt = St (µ(t)dt + σ(t)dBt ) S0 = est donnée.
L’unique solution de cette équation est donnée par
Z t   Z t 
1 2
St = S0 exp µ(s) − σ (s) ds + σ(s)dBs .
0 2 0
RT RT
avec µ et σ sont des fonctions déterministes vérifiant 0 |µ(s)|ds < ∞ et 0 |σ(s)|2 ds < ∞.
Si de plus le taux d’intérêt r(t) est aussi une fonction déterministe, telle
Z T Z T
(µ(s) − r(s))2
|r(s)|ds < ∞ et ds < ∞,
0 0 |σ(s)|2
alors il existe une probabilité dite neutre au risque Q sous laquelle le processus
Z t
µ(s) − r(s)
Wt = Bt + ds
0 σ(s)
est un mouvement Brownien sous Q et le prix actualisé
 Z t 
St = St exp −
e r(s)ds
0

est une (Ft , Q)–martingale de plus


Z t Z t 
1 2
Set = S0 exp σ(s)dWs − σ (s)ds .
0 2 0

B) Processus d’Ornstein-Uhlenbeck. Considérons l’ EDS


dXt = a(m − Xt )dt + dBt , X0 = x,
où a > 0 et m un réel.
La solution de l’équation homogène dxt = −axt dt, x0 = x est xt = xe−at .
On fait le changement de variable Xt = Yt e−at , c’est à dire, Yt = Xt eat . Le processus Yt satisfait
dYt = aXt eat dt + eat dXt = ameat dt + σeat dBt .
D’où,
Z t
at
Yt = x + m(e − 1) + σ eas dBs ,
0
Z t
−at −at
Xt = m + (x − m)e + σe eas dBs .
0
σ2
La loi de Xt est la distribution normale N (m+(x−m)e−at , 2a (1−e−2at )). De plus elle converge lorsque
2
t tends vers l’infini vers N (m, σ2a ). Elle est appelé loi stationnaire ou invariante.
2 2
Si X0 a une distribution N (m, σ2a ), alors pour tout t > 0 la loi de Xt est aussi N (m, σ2a ). En effet
Z t
−at −at
Xt = m + (X0 − m)e + σe eas dBs
0
ainsi
E[Xt ] = m + (E[X0 ] − m)e−at = m
Z t 2
−2at 2 −2at as σ2
Var(Xt ) = e Var(X0 ) + σ e E e dBs = .
0 2a
Chapitre 7

Application aux modèles à temps continu


en finance

On considère un marché financier, construit sur un espace de probabilité (Ω, F, Ft , P ), soit Bt =


(Bt1 , . . . , Btm )
est un mouvement Brownien de dimension m de filtration canonique {Ft }t≥0 := {FtB }t≥0 .
On suppose que les transactions et le changement des prix peuvent avoir lieu en un temps quelconque
t ∈ [0, T ], où T > 0 désigne un horizon fini donné. Par conséquent le marché est maintenant représenté
par un processus stochastique de dimension n + 1 indexé par l’intervalle [0, T ] : St = (St0 , St1 , . . . , Std ),
t ∈ [0, T ] défini sur (Ω, F, P ). Plus précisément, nous allons supposer que le marché est constitué de
n + 1 actifs :
a) Un actif sans risque St0 dont la dynamique des prix est gouvernée par l’équation différentielle
ordinaire Z t
0
St = 1 + r(s)Ss0 ds (7.0.1)
0
b) n actifs risqués dont la dynamique des prix est donnée par la famille de processus {S·i : i = 1, . . . , n}
qui sont des processus de Itô de la forme :
Z t Z t
i i i
St = x + µ (s)ds + σ i (s), dBs (7.0.2)
0 0
i i
sont des processus Ft –adaptés et hσ i (s), dBs i = m
σji (·)j i j
P
où r(·), µ (·) et σ (·) = j=1 σj (s)dBs .
Rt
On suppose que r(·) est borné et que P [ 0 (|µi (s)| + m i 2
P
j=1 (σj (s)) )ds < ∞] = 1 pour tout t.
Dans l’équation (7.0.2) Sti désigne le prix, µi (·) est le taux d’appréciation (rendement) du ième actif et
σ = (σji (·))1≤i≤n,1≤j≤m désigne la matrice de volatilité.
Il est bien connu que la solution de l’équation (7.0.1) est donnée par
Z t 
0
St = exp r(s)ds
0

On définit {At : t ∈ [0, T ]} par  Z t 


1
At = 0 = exp − r(s)ds
St 0
Le processus {At : t ∈ [0, T ]} est appelé le processus d’actualisation, il satisfait également l’équation
différentielle Z t
At = 1 − r(s)As ds pour tout t ∈ [0, T ].
0

Le processus {Set : t ∈ [0, T ]} définit par


Si
Seti = t0 = At Sti est le prix actualisé
St

58
59

pour i = 1, . . . , n. Cette formule est connue sous le nom Actualisation des prix (où changement d’unité
monétaire compté à t = 0).

Définition 7.0.1 Un portefeuille dans ce marché est un processus de dimension n + 1, Ft –adapté


φt = (φ0t , φ1t , . . . , φnt ), où φit est le nombre d’unités de l’actif sous–jacent i tenu à l’instant t vérifiant
Pn R T i 2
i=0 0 |φs | ds est fini p.s.
Le processus de valeur (fonction de valeur) du portefeuille φ· est donné par
n
X
Vtφ = hφt , St i = φit Sti pour tout t ∈ [0, T ].
i=0

Vtφ est aussi appelé richesse et Vetφ = At Vtφ est la richesse actualisée.

Définition 7.0.2 Nous dirons qu’un portefeuille est auto–financé si

dVtφ = hφt , dSt i

ou sous forme intégrale


Z t n Z
X t
Vtφ = V0φ + hφs , dSs i = V0φ + φis dSsi pour t ∈ [0, T ] (7.0.3)
0 i=0 0

où l’intégrale qui apparaı̂t à droite de (7.0.3) est interprété au sens de l’intégrale stochastique de Itô
qui s’obtient en substituant (7.0.1) et (7.0.2) dans (7.0.3).
Cette notion intuitive d’auto–financement signifie qu’une fois le portefeuille constitué il est géré sans
retirer ni emprunter de l’argent.

Remarque 7.0.1 Tout portefeuille constant (indépendant du temps) est auto–financé.

Définition 7.0.3 Un portefeuille auto–financé φ· est dit admissible s’il existe une v.a. K = K(φ) < ∞
tel que
Vtφ ≥ −K pour presque tout (t, ω) ∈ [0, T ] × Ω.

Définition 7.0.4 Une opportunité d’arbitrage est une stratégie auto–finançante (portefeuille admis-
sible) {φt : t ≥ 0} telle que :

V0φ ≤ 0 ≤ VTφ P –p.s. et P [VTφ > 0] > 0.

Définition 7.0.5 (Autrement) On dit qu’il y a opportunité d’arbitrage sur les prix si partant d’une
richesse V0φ ≤ 0, l’investisseur arrive à construire un portefeuille auto–financé {φt : t ≥ 0} tel que

0 ≤ VTφ P –p.s. et E[VTφ ] > 0.

Exemple 7.0.1 Supposons que n = 2 et


 0
 St = 1
S 1 = 1 + t + Bt1 + Bt2
 t2
St = 1 + 3t − 2Bt1 − 2Bt2 .

Alors φt = (−3, 2, 1) est une opportunité d’arbitrage, car Vtφ = 5t.


60

Le prix d’un actif non risqué est souvent appelé numéraire. On peut alors supposer que St0 > 0
pour tout t ∈ [0, T ], ce qui est le cas dans le modèle que nous avons considéré. Par conséquent si on
prend St0 comme l’unité numéraire, le vecteur des prix devient
St1 Stn
 
St = 1, 0 , · · · , 0 = 1, At St1 , · · · , At Stn

e pour t ∈ [0, T ]. (7.0.4)
St St

Le marché {Set : t ∈ [0, T ]} est appelé la normalisation du marché {St : t ∈ [0, T ]}.
Nous dirons qu’un marché financier {Yt : t ∈ [0, T ]} est normalisé si Yt0 ≡ 1.

Lemme 7.0.1 Les assertions suivantes sont équivalentes


(i) Il n’existe pas d’opportunité d’arbitrage sur le marché {St : t ∈ [0, T ]} ;
(ii) Il n’existe pas d’opportunité d’arbitrage sur le marché {Set : t ∈ [0, T ]}.

Preuve. Supposons que {φt : t ∈ [0, T ]} est une opportunité d’arbitrage pour {St : t ∈ [0, T ]}. Soit
D E
Vetφ = φt , Set = At Vtφ

la fonction de valeur correspondante au marché normalisé {Set : t ∈ [0, T ]}. Alors


Z t Z t
φ φ φ φ
Vt = At Vt = A0 V0 +
e As dVs + Vsφ dAs
0 0
Z t Z t
φ
= V0 + As hφs , dSs i − r(s)As Vsφ ds
Z0 t D E
0

= V0φ + φs , dSes .
0

en particulier {φt : t ∈ [0, T ]} est admissible pour {Set : t ∈ [0, T ]}. Or


V0φ ≤ 0 ≤ VTφ P –p.s. et P [VTφ > 0] > 0
par conséquent
Ve0φ ≤ 0 ≤ VeTφ P –p.s. et P [VeTφ > 0] > 0 .
D’où {φt : t ∈ [0, T ]} est une opportunité d’arbitrage pour {Set : t ∈ [0, T ]}.

Lemme 7.0.2 Supposons que {St : t ∈ [0, T ]} est normalisé. Alors il y a opportunité d’arbitrage sur
{St : t ∈ [0, T ]} si et seulement si il existe un portefeuille admissible {φt : t ∈ [0, T ]} tel que
V0φ ≤ VTφ P –p.s. et P [VTφ > V0φ ] > 0. (7.0.5)

Preuve. Supposons que {St : t ∈ [0, T ]} est normalisé et soit {φt : t ∈ [0, T ]} un portefeuille admissible.
On définit φet = (φe0t , φe1t , . . . , φent ) par

φeit = φit , pour i = 1, 2, . . . , n


et on pose
n
X
φe00 = − φi0 S0i ,
i=1
n
X Z t 
φe0t = −φit Sti + φis dSsi .
i=1 0
61

Donc V0φ = 0, et puisque dSt0 = 0 nous avons


e

D E n
X n Z t
X
Vtφ 0
= φt , St = φt + i i
φt St = φeis dSsi .
e
e e
i=1 i=1 0

D’où φe est admissible et satisfait la relation (7.0.5) puisque

Vtφ = Vtφ − V0φ .


e

La notion d’absence d’arbitrage dans les marchés financiers est rattachée à l’existence d’une mesure
de probabilité, équivalente à la probabilité de référence, dite mesure martingale. pour laquelle les prix
actualisés sont des martingales.
Définition 7.0.6 (i) Une mesure de probabilité Q sur FT est dite mesure martingale pour le marché
normalisé ou sur les prix actualisés {Set : t ∈ [0, T ]} si
h i
EQ Set | Fs = Ses pour tout t > s . (7.0.6)

(ii) Si, en plus de (7.0.6), la mesure Q est équivalente à P alors on dit que Q est une mesure martingale
équivalente pour le marché {Set : t ∈ [0, T ]}.
On peut également donner la définition de mesure martingale de la façon suivante.
Définition 7.0.7 Une probabilité Q équivalente à P est dite mesure martingale pour le système des
prix si sous Q les prix actualisés sont des martingales. On appelle cette probabilité Q probabilité neutre
au risque.
Proposition 7.0.1 Supposons qu’il existe une mesure martingale équivalente pour le marché {Set :
t ∈ [0, T ]}. Alors il n’y a pas d’arbitrage dans le marché {St : t ∈ [0, T ]}.

7.1 Théorème de Girsanov


Question. Sous quelles conditions a t–on l’existence de mesure martingale ?
Exemple 7.1.1 Considérons la situation suivante :
On suppose que St = (1, Yt ) où Yt = t + Bt pour t ∈ [0, T ] où {Bt : t ∈ [0, T ]} est un mouvement
Brownien réel. Y a t–il des opportunités d’arbitrage dans le marché {St : t ∈ [0, T ]} ?
Puisque le processus des prix de l’actif risqué {Yt : t ∈ [0, T ]}, peut prendre des valeurs positives et
négatives avec des probabilités positives, on peut s’attendre intuitivement à une réponse négative.
Vérifiant ceci en construisant une probabilité Q qui soit équivalente à P telle que St soit une Q–
martingale.
On pose  
t
Mt = exp −Bt − , t ∈ [0, T ].
2
On définit la mesure Q sur FT par
dQ = MT dP.
Il est claire que Q est équivalente à P : (Mt > 0) de plus
EQ [1] = EP [MT ] = 1
car Mt est une P –martingale (on peut le vérifier en utilisant la formule de Itô).
Par souci de simplification on note E[·] à la place de EP [·] (P la probabilité de référence).
62

Avant de démontrer que St est une Q–martingale, nous rappelons un résultat important sur
l’espérance conditionnelle.

Lemme 7.1.1 (Bayes) Soit Q une probabilité sur F de la forme dQ = F dP où F est une v.a. positive
et F–mesurable. Soit Y une v.a. F–mesurable telle que EQ |Y | < ∞ et soit G ⊂ F une sous tribu de
F. Si EP [F | G] = E[F | G] 6= 0 alors

E[F Y | G]
EQ [Y | G] = .
E[F | G]

Preuve. On a
dQ = F dP sur F et dQ = E[F | G]dP sur G.
En appliquant ce lemme à notre situation, on obtient pour tout s < t < T ,

E[MT Yt | Fs ] E[E[MT Yt | Ft ] | Fs ]
EQ [Yt | Fs ] = =
E[MT | Fs ] Ms
E[Yt E[MT | Ft ] | Fs ] E[Yt Mt | Fs ]
= = .
Ms Ms
Or par application de la formule de Itô on obtient
Z t
Yt Mt = Y0 M0 + Ms (1 − Ys ) dBs ,
0

par suite Yt Mt est une P –martingale et donc EQ [Yt | Fs ] = Ys . Par conséquent le marché ne peut pas
avoir d’arbitrage.
En revanche l’exemple précédent est un cas particulier d’un résultat très important dans la théorie
des martingales, et qui donne une méthode générale pour construire des mesures martingales.

Théorème 7.1.1 (Girsanov) Supposons que {Yt : t ∈ [0, T ]} est un processus de Itô à valeurs dans
Rn i.e. de la forme
Z t m Z
X t
Yti = Y0i + i
µ (s)ds + σji (s)dBsj pour i ∈ {1, . . . , n}.
0 j=1 0

Supposons qu’il existe deux processus u(t) ∈ Rm et ρ(t) ∈ Rn tels que


m
X
σji (t)uj (t) = µi (t) − ρi (t) pour i ∈ {1, . . . , n} (7.1.7)
j=1

et que  Z T 
1 2
E exp ku(s)k ds < ∞.
2 0
On pose  Z t
1 t
Z 
2
Mt = exp − u(s)dBs − ku(s)k ds pour t ∈ [0, T ]
0 2 0
et on définit la mesure Q sur FT par
dQ = MT dP. (7.1.8)
63

Alors Q est une probabilité sur FT qui est équivalente à P et


Z t
Bt :=
e u(s)ds + Bt pour t ∈ [0, T ]
0

est un mouvement Brownien sous Q, de dimension m. De plus en terme de B


et le processus Yt possède
la représentation suivante
Z t m Z
X t
Yti = Y0i + i
ρ (s)ds + esj pour i ∈ {1, . . . , n}.
σji (s)dB
0 j=1 0

En particulier, si ρi (s) ≡ 0 alors Q est une mesure martingale équivalente pour le processus Yt .

Remarque 7.1.1 Notons que la filtration {F̃t : t ∈ [0, T ]} engendrée par {B et : t ∈ [0, T ]} ne coı̈ncide
pas en général avec celle engendrée par {Bt : t ∈ [0, T ]}. On peut voir que F̃t ⊂ Ft (voir Revuz et Yor
(1994)). Mais si u(s) est déterministe alors on a l’égalité Ft = F̃t .

En vertu de la construction explicite du théorème de Girsanov (Théorème 7.1.1) et la Proposition


7.0.1, on peut donner des conditions pour éviter les opportunités d’arbitrage directement en terme des
coefficients r(·), µ(·) et σ(·) dans les équations (7.0.1) et (7.0.2) qui définissent le marché {St : t ∈
[0, T ]}.
Le résultat suivant est une application du théorème de Girsanov.

Théorème 7.1.2 Supposons qu’il existe un processus {u(t) : t ∈ [0, T ]} à valeurs dans Rm Ft –adapté
tel que

σ(t)u(t) = µ(t) − r(t)(St1 , . . . , Stn ) (7.1.9)


où sous forme scalaire
m
X
σji (t)uj (t) = µi (t) − r(t)Sti pour i ∈ {1, . . . , n}
j=1

et   Z T 
1 2
E exp u (s)ds < ∞. (7.1.10)
2 0
Alors il n’y a pas d’arbitrage dans le marché {St : t ∈ [0, T ]}.

Une sorte de réciproque de ce théorème est donné par Karatzas (1996) Theorem 0.4.2 : S’il n’y a
pas d’arbitrage dans le marché {St : t ∈ [0, T ]} alors il existe un processus {u(t) : t ∈ [0, T ]} à valeurs
dans Rm , Ft –adapté vérifiant (7.1.9).

Exemple 7.1.2 a) Supposons que n = m et que la matrice σ est inversible pour presque tout (t, ω).
Alors le système (7.1.9) admet une unique solution

u(t) = σ −1 (t) µ(t) − r(t) St1 , St2 , · · · , Stn


 
(7.1.11)

où σ −1 désigne la matrice inverse de σ.


Par conséquent, si le vecteur u(·) défini par (7.1.11) satisfait la condition (7.1.10), alors le marché
n’a pas d’arbitrage.
b) Remarquons que même lorsque n = m et la matrice σ n’est pas inversible, l’équation (7.1.9) peut
64

avoir des solutions.


En effet, considérons le marché suivant avec n = m = 2 :

St0 = 1 
1 1 2
St = 2t + Bt + Bt (7.1.12)
St2 = −2t − Bt1 − Bt2 .

Alors l’équation (7.1.9) prend la forme


    
1 1 u1 2
=
−1 −1 u2 −2

et admet par exemple (u1 = 2 et u2 = 0) comme solution.


RT
Or E[exp( 12 0 u2 (s)ds)] = E[exp 2T ] < ∞, il en résulte que le marché (7.1.12) n’a pas d’arbitrage.
c) Si on remplace le marché (7.1.12) par

St0 = 1 
St1 = t + Bt1 + Bt2 (7.1.13)
2 1 2 
St = −2t − Bt − Bt .

Alors l’équation (7.1.9) prend la forme


    
1 1 u1 1
=
−1 −1 u2 −2

et cette dernière n’admet pas de solution, et par suite le marché (7.1.13) possède un arbitrage.
En effet, si on prend φt = (0, −1, −1) alors φ est auto–financé (car il est constant) et Vtφ = t pour
tout t ≥ 0, d’où φ est un arbitrage pour le marché (7.1.13).

Remarque 7.1.2 On peut répliquer certain actifs contingent dans des marchés financiers où il y a
présence d’opportunité d’arbitrage, voir par exemple Shiryaev (1998).

7.2 Actifs contingents et complétude


7.3 Réplications d’options et marchés complets
Dans cette section on se place dans un marché financier {St : t ∈ [0, T ]} donné par les équations
(7.0.1) et (7.0.2). Nous commençons par rappeler la définition d’une option européenne d’achat (call
européen).

Définition 7.3.1 Une option européenne d’achat sur un actif donné est un contrat qui donne le droit
(mais non l’obligation) à son détenteur d’acheter une unité de l’actif au prix K (prix d’exercice) à
l’instant T futur (maturité) fixé à t = 0 : lors de la signature du contrat.

Si {St : t ∈ [0, T ]} désigne l’ensemble les prix des stocks dans un marché financier à l’instant t,
alors il y a deux possibilités :
— Si ST > K alors le détenteur de cette option va acheter le stock avec le prix K et le vendre
immédiatement dans le marché (ouvert) avec le prix ST . Il a donc un profit (richesse) (payoff)
ST − K.
— Si ST ≤ K alors le détenteur ne va pas exercer cette option et son profit est donc nul i.e.
(payoff) est 0.
65

Nous pouvons alors exprimer le payoff F qui est une variable aléatoire à l’instant T pour une option
européenne d’achat par :

+ ST − K sur {ω : ST (ω) > K}
F = (ST − K) = (7.3.14)
0 sur {ω : ST (ω) ≤ K}.

Plus généralement on introduit les concepts suivants

Définition 7.3.2 (i) Un actif contingent est une variable aléatoire F qui est FT –mesurable et borné
inférieurement.
(ii) On dit que l’actif contingent F est atteint (ou duplicable) dans le marché {St : t ∈ [0, T ]} s’il existe
un portefeuille admissible φt ∈ Rn+1 et un nombre réel x tels que
Z T n Z
X T
F = VTφ,x := x + hφs , dXs i = x + φis dXsi . (7.3.15)
0 i=0 0

cela veut dire que F est égale à la valeur du processus (fonction) de valeur à l’instant T .
Si un tel portefeuille existe, il est appelé le portefeuille qui réplique (duplique) F .
(iii) Le marché {St : t ∈ [0, T ]} est dit complet si tout actif contingent borné est atteint.

Dans la suite de ce chapitre nous allons essayer de répondre aux questions suivantes :
1. Quels sont les actifs atteints dans un marché financier donné {St : t ∈ [0, T ]} ?
2. Quels sont les marchés complets ?
3. Si un actif contingent F est atteint, comment peut–on définir sa valeur initiale et le portefeuille
qui le réplique ? sont–ils uniques ?
Maintenant nous allons illustrer la situation par un exemple simple.

Exemple 7.3.1 On se place dans un marché donné par St = (1, Bt ), t ∈ [0, T ] où B est un mouvement
Brownien réel.
L’actif F = BT2 est il atteint ? On cherche un portefeuille admissible φt = (φ0t , φ1t ) et un nombre réel x
tels que Z T
F = BT2 = x + φ1s dBs . (7.3.16)
0
Or d’après la formule de Itô on a Z T
BT2 =T+ 2Bs dBs .
0

On en déduit que x = T et φ1t = 2Bt . Puis on choisi φ0t de sorte que le portefeuille soit auto–financé
i.e. on cherche φ0t tel que Z t
φ,x
Vt = x + hφs , dSs i = hφt , St i
0
ce qui est équivalent à Z t
T+ 2Bs dBs = φ0t + 2Bt2 .
0
d’où Z t
φ0t =T+ 2Bs dBs − 2Bt2 = T − t − Bt2 .
0

Enfin, φt = (T − t − Bt2 , 2Bt ) est un portefeuille admissible qui réplique F , donc F est atteint.
66

7.4 Caractérisation des marchés complets


Dans le théorème ci–dessous nous présentons une caractérisation de la complétude d’un marché
{St : t ∈ [0, T ]} en terme de mesure martingale équivalente. Ce résultat est due essentiellement à
Harrison et Pliska (1983).

Théorème 7.4.1 Un marché {St : t ∈ [0, T ]} est complet si et seulement si il existe une et une seule
mesure martingale équivalente Q pour le marché normalisé {Set : t ∈ [0, T ]}.

Le théorème suivant donne un critère direct pour montrer qu’un marché est complet en terme des
coefficients qui définissent l’évolution des prix. (Par exemple les coefficients r, µ, et σ qui apparaissaient
dans les équations (7.0.1) et (7.0.2)).

Théorème 7.4.2 Soit {St : t ∈ [0, T ]} un marché dont la dynamique des prix est donnée par les
équations (7.0.1) et (7.0.2). Supposons qu’il existe un processus {u(t) : t ∈ [0, T ]} à valeurs dans Rm ,
Ft –adapté tel que
σ(t)u(t) = µ(t) − r(t)(St1 , . . . , Stn ) (7.4.17)
et   Z T 
1 2
E exp |u(s)| ds < ∞. (7.4.18)
2 0
Alors le marché {St : t ∈ [0, T ]} est complet si et seulement si la matrice σ(t) ∈ Rn×m admet un
inverse à gauche noté −1 σ(t) ∈ Rm×n .
Autrement dit si et seulement si
rang(σ(t)) = m. (7.4.19)

Pour la démonstration de ce théorème on se réfère à Karatzas (1996) Theorem 0.3.5 et à Øksendal


(1998) Theorem 12.2.5.

Exemple 7.4.1 On considère le marché suivant



St0 = 1 
St1 = x1 + Bt1 + 3Bt2 (7.4.20)
St2 = x2 + t − Bt1 − 2Bt2 .

L’équation (7.4.17) prend la forme


    
1 3 u1 0
=
−1 −2 u2 1

et admet u = (−3, 1) comme unique solution.


De plus on a   Z T   Z T 
1 2 1
E exp u (s)ds = exp 10ds = exp (5T ) < ∞.
2 0 2 0
D’où le marché est complet par le Théorème 7.4.2.

Exemple 7.4.2 Soit {St : t ∈ [0, T ]} un marché financier dont la dynamique des prix est donnée par

St0 = 1 et St1 = σ1 Bt1 + σ2 Bt2 , (7.4.21)


67

où σ1 et σ2 sont des constantes. Dans cette situation l’équation (7.4.18) devient
 
  u1
σ1 σ2 =0
u2

et donc admet une infinité de solutions [u1 , u2 ] ∈ R2 . On voit aussi que rang(σ) ≤ 1 < 2 = m, et dans
ce cas la relation (7.4.19) n’est pas vérifiée. On conclut donc par le Théorème 7.4.2 que le marché
donnée par (7.4.21) n’est pas complet.
Par conséquent il existe des actifs contingents qui ne sont pas atteints dans ce marché. Nous donnons
ci–dessous un tel actif.
On définit F = [BT1 ]2 . La formule de Itô donne
Z T
F = [BT1 ]2 =T+ 2Bs1 dBs1 . (7.4.22)
0

Si F était atteint, il existerait un processus φt ∈ R et x tels que F = VTφ,x et


Z t
Vtφ,x =x+ φs [σ1 dBs1 + σ2 dBs2 ]. (7.4.23)
0

De plus Vtφ,x est borné inférieurement, ce qui implique que {Vtφ,x : t ∈ [0, T ]} est une sur–martingale,
il s’ensuit que x et φ sont uniques par l’unicité de la décomposition de Doob–Meyer (voir Karatzas et
Shreve (1991)). Donc en combinant les équations (7.4.22) et (7.4.23) on obtient grâce au Théorème
2.5.3 que x = T , σ1 φt = 2Bt1 et σ2 φt = 0. Cette contradiction montre que F ne peut pas être atteint
dans ce marché.

7.5 Evaluations des prix d’options et réplications de porte-


feuilles
On se limite aussi dans cette section aux options européenne d’achat. Il s’agit en fait de répondre
aux questions suivantes :
1. A combien vendre cette option à t = 0 ? Ce prix est déterminer de façon que le vendeur
investit cette somme x dans le marché et pouvoir produire le profit F à T (c’est le problème de
couverture).
2. Combien doit être la richesse Vt du vendeur à t ≤ T tel que VT = F ? (c’est le problème de
valorisation (pricing)).
3. Combien un acheteur doit payer à t = 0 pour devenir un détenteur d’une option européenne
d’achat ?
4. Et quelle doit être la somme acceptée par le vendeur pour une telle option ?
On peut aussi considérer la situation où un agent détenteur (l’acheteur) avait une garantie d’un
certain actif contingent à l’instant T au prix (aléatoire) F par le vendeur.
68

7.6 Modèle de Black & Scholes à paramètre dépendant du


temps
Nous allons maintenant discuter en détails un cas spécial pour le modèle général donné par les
équations (7.0.1) et (7.0.2) : On suppose que le marché {St = (St0 , St1 ) : t ∈ [0, T ]} est donné par
Z t
0
St = 1 + r(s)Ss0 ds (7.6.24)
0
Z t Z t
1 1 1
St = S0 + µ(s)Ss ds + σ(s)Ss1 dBs , (7.6.25)
0 0

Ici et dans toute la suite r(s), µ(s) et σ(s) sont déterministes, à valeurs réelles, i.e. ne dépendent pas
de l’aléatoire ω et vérifient les conditions suivantes
Z T
|r(s)| + |µ(s)| + |σ(s)|2 ds < ∞

(7.6.26)
0

et
T
(µ(s) − r(s))2
Z  
ds < ∞. (7.6.27)
0 σ 2 (s)
On peut dire que le modèle donné par les équations (7.6.24) et (7.6.25) est un peu plus général que le
modèle classique de Black & Scholes qui correspond au cas où les coefficients r, µ et σ 6= 0 sont des
constantes.
Ce marché consiste en deux actifs :
1) Actif sans risque de prix {St0 : t ∈ [0, T ]} qui correspond par exemple à une somme déposée à la
banque dont la dynamique des prix est donnée par (7.6.24) ;
2) Actif risqué de prix {St1 : t ∈ [0, T ]} correspondant au stock dont la dynamique des prix est donné
par (7.6.25).
Nous allons donc appliquer la théorie que nous avons vus ci-dessus pour déterminer les propriétés de
ce marché :

7.6.1 Absence d’arbitrage


L’équation (7.4.17) prend la forme
σ(t)St1 u(t) = µ(t)St1 − r(t)St1
qui admet la solution
µ(t) − r(t)
u(t) = . (7.6.28)
σ(t)
En vertu de (7.6.27) on voit que la condition (7.4.18) est vérifiée et on conclut par le Théorème 7.1.2
que le marché n’admet pas d’arbitrage.

7.6.2 Complétude
On voit aussi que les conditions (7.4.17) et (7.4.18) du Théorème 7.4.2 sont satisfaites. Or σ(t) 6= 0
pour presque tout t et donc rang(σ(t)) = 1 = m p.p. tout t. Donc par le Théorème 7.4.2 on déduit
que ce marché est complet.
De plus l’unique mesure martingale équivalente est donnée par
 Z T
1 T
Z 
2
dQ = exp − u(t)dBt − u(t) dt dP := ZT (u)dP (7.6.29)
0 2 0
69

et u est donné par (7.6.28).


Il en résulte d’après le Théorème ?? que le prix de l’option européenne d’achat (cf. Définition 7.3.1)
+
F = ST1 − K

est donné par h + i


p(F ) = q(F ] = EQ AT ST1 − K
RT
avec AT = exp(− 0 r(s)ds) étant le processus d’actualisation. Ce qui donne en utilisant les équations
(7.6.24) et (7.6.25)
h + i
EQ AT ST1 − K
" Z T Z T   + #
1 1 2
= AT EQ S0 exp σ(t)dBt + µ(t) − σ (t) dt − K
0 0 2
" Z T Z T    + #
1
= AT EQ S01 exp σ(t)dBet + r(t) − σ 2 (t) dt − K .
0 0 2

et = Bt + t u(s)ds, où u est donné par (7.6.28), est un mouvement Brownien par rapport à Q.
R
avec B 0
En utilisant la loi du Brownien réel on obtient
Z T +
exp(−y 2 /2Γ)
Z    
1 1 2
p(F ) = q(F ) = AT S0 exp y + r(t) − σ (t) dt − K √ dy
R 0 2 2πΓ
où l’on a utiliser en plus un résultat de représentation de certaines martingales (Théorème de Dubins–
Schwarz) ci–dessous à l’aide du Brownien pris au crochet de celle–ci i.e.
Z T
σ(t)dB et = WR T 2
σ (t)dt
0
0

avec W est un Brownien indépendant de Be et


Z T Z T 2
2
Γ := σ (t)dt = EQ σ(t)dB
et .
0 0

Théorème 7.6.1 (Dubins–Schwarz) Soit M une martingale locale continue nulle en 0 et telle que
hM, M i+∞ = +∞ p.s. Alors il existe un mouvement Brownien W tel que p.s. pour tout t ≥ 0 on a
Mt = WhM,M it .

Voir Revuz et Yor (1994) pour la preuve.


Ceci donne une formule (plus générale) de valorisation des options européenne d’achat pour le modèle
de Black & Scholes.
Notant que le coefficient {µ(t) : t ∈ [0, T ]} n’apparaı̂t pas dans la formule de pricing précédente !

Remarque 7.6.1 Dans le cas classique de Black & Scholes i.e. r, µ et σ 6= 0 sont des constantes (ne
dépendants pas de t, on obtient les formules classique de Black & Scholes

p(F ) = q(F ) = S01 Φ(y) − exp(−rT )KΦ(y − σ T )

où u
ln(S01 /K) + (r + σ 2 /2)T x2
Z  
1
y= √ et Φ(u) = √ exp − dx.
σ T 2π −∞ 2
70

Revenant maintenant à la question : Comment déterminer la valeur initiale x et le portefeuille


qui réplique un actif contingent donné dans un marché gouverné par le modèle de Black & Scholes
ci–dessus ?
Pour se faire, nous allons étudier d’une manière directe la relation entre un portefeuille admissible
φt = (φ0t , φ1t ) et le processus de valeur correspondant

Vtφ = φ0t St0 + φ1t St1 . (7.6.30)

(où φ0t est le montant investit dans l’actif sans risque et φ1t le nombre de part (d’unité) du deuxième
actif).
Puisque φt est auto–financé nous avons (sous forme différentielle)

dVtφ = φ0t dSt0 + φ1t dSt1 . (7.6.31)

De l’équation (7.6.30) on déduit

Vtφ − φ1t St1 


φ

φ0t = 1 1
= At Vt − φt St ,
St0
qui, après substitution dans l’équation (7.6.31), donne
 
dVtφ = Vtφ − φ1t St1 r(t)dt + φ1t dSt1
= Vtφ r(t)dt + φ1t St1 [(µ(t) − r(t)) dt + σ(t)dBt ] .

Ceci peut s’écrire, en fonction du nouveau Brownien B


e (définit ci–dessus), comme suit

dVtφ − Vtφ r(t)dt = φ1t St1 σ(t)dBet . (7.6.32)


Rt
En multipliant l’équation (7.6.32) par At = exp(− 0 r(s)ds) on obtient
 
φ
d At Vt = At φ1t St1 σ(t)dB et .

Ce qui donne après intégration


Z t
At Vtφ = V0φ + As φ1s Ss1 σ(s)dB
es . (7.6.33)
0

Par conséquent pour dupliquer un actif F il suffit de chercher φ1s tel que
Z T
φ
AT F = V0 + As φ1s Ss1 σ(s)dB
es . (7.6.34)
0

Si un tel processus φ1s est déterminé, alors on a montrer l’existence d’un portefeuille φt auto–financé.
Pour démontrer que φt est aussi admissible, on doit vérifier que {Vtφ : t ∈ [0, T ]} est bornée inférieurement.
Pour se faire, on considère la mesure de probabilité Q définie sur FT et donnée par (7.6.28) et (7.6.29).
Alors en prenant l’espérance conditionnelle dans l’équation (7.6.34) sous Q et par rapport à Ft on
obtient Z t
φ es = At Vtφ .
EQ [AT F | Ft ] = V0 + As φ1s Ss1 σ(s)dB
0

On en déduit que Vtφ


est minoré puisque F l’est. D’où φt = (φ0t , φ1t ) est admissible.
Maintenant, si on prend l’espérance sous Q dans (7.6.34), on obtient

V0φ = AT EQ [F ] . (7.6.35)
71

Remarque 7.6.2 Il est clair que la mesure Q est construite de sorte que le processus de valeur
actualisé At Vtφ soit une Q martingale. Notons que l’on peut construire une mesure martingale Q∗ pour
laquelle le processus St0 /St1 (dans le cas d’un marché à deux actifs) soit une martingale. L’avantage de
cette nouvelle probabilité c’est quelle permet de généraliser les formules de valorisation et de réplication
dans le cas de Black & Scholes aux cas de modèle de HJM (Heath, Jarrow and Morton). On se réfère
pour cette approche à Musiela et Rutkowski (1997).

7.7 Réplications de portefeuille


Revenant maintenant au point essentiel de cette section qui est la détermination du processus
{φ1t : t ∈ [0, T ]} dans le cas du modèle de Black & Scholes.
Pour simplifier les notations on pose St = St1 . On suppose qu’il existe une fonction f ∈ C 1,2 ([0, T ] ×
R+ , R) telle que
Vtφ = f (t, St ), t ∈ [0, T [ et g(x) = f (T, x), x ∈ R+
Soit Yt = f (t, St ). Le Théorème 5.3.1 (formule de Itô) nous permet de développer Y sous la forme
Z t Z t
∂f ∂f
Yt = f (0, S0 ) + (s, Ss ) Ss σ(s)dBs + (s, Ss ) µ(s)Ss ds
0 ∂x 0 ∂x
Z t
1 t ∂ 2f
Z
∂f
+ (s, Ss ) ds + 2
(s, Ss ) Ss2 σ 2 (s)ds.
0 ∂t 2 0 ∂x

Notons par L le générateur infinitésimal de la diffusion St défini sur C 1,2 ([0, T ] × R+ , R) par

∂f ∂f 1 ∂ 2f
Lf = µ(t)x (t, x) + (t, x) + σ 2 (t)x2 2 (t, x) .
∂x ∂t 2 ∂x
d’où Z t Z t
∂f
Yt = f (0, S0 ) + Lf (s, Ss ) ds + (s, Ss ) Ss σ(s)dBs . (7.7.36)
0 0 ∂x
Si φ représente une stratégie finançant F i.e. φt = (φ0t , φ1t ) où φ0t est le nombre d’obligations (somme
déposé à la banque) et φ1t est le nombre d’actions tels que

Vtφ = φ0t St0 + φ1t St


Z t
= φ00 S00 + φ10 S0 + φ0s dSs0 + φ1s dSs
0
= f (t, St ) =: Yt .

Ce qui donne une nouvelle écriture de Yt :


Z t Z t
0 0 1
 0 0 1
φ1s Ss σ(s)dBs .

Yt = φ0 S0 + φ0 S0 + φs Ss r(s) + φs Ss µ(s) ds + (7.7.37)
0 0

En comparant les équations (7.7.36) et (7.7.37), on obtient en identifiant les termes en ds et les
coefficients en dBs (il s’agit en revanche d’une application du Théorème 2.5.3)

Lf (s, Ss ) = φ0s Ss0 r(s) + φ1s Ss µ(s), (7.7.38)


∂f
φ1s Ss σ(s) = (s, Ss ) Ss σ(s). (7.7.39)
∂x
72

∂f
Il en résulte que φ1t = ∂x
(t, St ), et en reportant dans l’équation (7.6.30) on obtient

f (t, St ) − St ∂f (t, St )
φ0t = 0
∂x
S
 Z tt  
∂f
= exp − r(s)ds f (t, St ) − St (t, St ) .
0 ∂x
Ainsi nous avons obtenu le portefeuille qui duplique F en fonction du prix implicite.
En reportant dans l’équation (7.7.38)
 
∂f ∂f
Lf (t, St ) = r(t) f (t, St ) − St (t, St ) + (t, St ) St µ(t).
∂x ∂x
En explicitant Lf (t, St ), cette dernière équation s’écrit, après simplification

∂f ∂f 1 ∂ 2f
(t, St ) + σ 2 (t)St2 2 (t, St )

r(t)f (t, St ) = r(t)St (t, St ) + (7.7.40)
 f (T, S ) = g(S ) p.s. ∂x ∂t 2 ∂x
T T

On remarque que µ(t) n’intervient pas dans (7.7.40).


En utilisant le calcul de loi i.e. si on remplace St par x on voit facilement que la fonction f vérifie
l’équation aux dérivés partielles parabolique suivante

∂f ∂f 1 ∂ 2f
(t, x) + σ 2 (t)x2 2 (t, x)

r(t)f (t, x) = r(t)x (t, x) + (7.7.41)
 f (T, x) = g(x) si ∂x ∂t 2
x > 0 (condition au bord)
∂x

Nous résumons le résultat de cette méthode dans le théorème suivant.

Théorème 7.7.1 Soit S 0 le prix d’un actif sans risque dont la dynamique des prix est donnée par

dSt0 = rSt0 dt

et S 1 le prix d’un actif risqué vérifiant

dSt1 = µSt1 dt + σSt1 dBt .

Soit F = g(ST1 ) une variable aléatoire positive et π(F )t son prix implicite. On suppose qu’il existe une
fonction f ∈ C 1,2 ([0, T ] × R+ , R) telle que

π(F )t = f (t, St1 ) pour t < T et g(x) = f (T, x) pour x > 0.

Alors f vérifie l’équation parabolique



∂f ∂f 1 ∂ 2f
(t, x) + σ 2 x2 2 (t, x) ,

rf (t, x) = rx (t, x) + (7.7.42)
 f (T, x) = g(x) ∂x ∂t 2 ∂x
pour x > 0.

Une stratégie finançant F est donnée par φt = (φ0t , φ1t ) où


∂f
φ1t = t, St1

∂x
f (t, St1 ) − St1 ∂f (t, St1 )
φ0t = ∂x
.
St0
73

Remarque 7.7.1 Il n’est en général pas facile de résoudre explicitement l’équation parabolique ci–
dessus. Le calcul stochastique fournit une expression de cette solution.

Soit x et t fixés et Xsx,t le processus indexé par s (t ≤ s ≤ T ), défini par


Z s Z s
x,t x,t
Xs = x + r Xu du + σ Xux,t dBu Q–p.s.
t t

On a le résultat suivant connu sous le nom de la formule de Feymann–Kac :

Théorème 7.7.2 Si g est de classe C 2 sur R+ et g, g 0 et g 00 sont lipschitziennes, alors la fonction

f (t, x) := EQ e−r(T −t) g(XTx,t )


 
(7.7.43)

est l’unique solution lipschitzienne de (7.7.42).

7.7.1 Modèle de Black & Scholes classique à paramètre constants


Dans le cas du modèle de Black & Scholes classique, nous allons utiliser la méthode de représentation
précédente en travaillant sous la probabilité risque–neutre Q définie par dQ = ZT dP , pour retrouver
les formules de valorisation précédentes.
Nous avons vu que, sous Q, le prix de l’actif à risque vérifie

dSt1 = rSt1 dt + σSt1 dB


et .

Si l’on se constitue un portefeuille φt = (φ0t , φ1t ) tel que

Vtφ = φ0t St0 + φ1t St1 ,

on vérifie que sous Q

dVtφ = φ0t St0 rdt + φ1t St1 (rdt + σdB


et )
φ
= Vt rdt + dMt ,

où Mt est défini par dMt = φ1t St1 σdB


et . Sous réserve d’ intégrabilité, Mt est une Q–martingale. Ceci
implique en utilisant la formule de Itô que e−rt Vtφ est une martingale (égale à Mt à une constante
près). On a donc h i
e−rt Vtφ = EQ e−rT VTφ | Ft

ou encore en utilisant que le processus St1 est un processus de Markov,

Vtφ = f (t, St1 ] = EQ e−r(T −t) g(ST1 ) | Ft .


 

Théorème 7.7.3 Le prix implicite de g(ST1 ) est donné par

EQ e−r(T −t) g(ST1 ) | Ft


 

où Q est la probabilité neutre au risque.


74

En particulier pour t = 0, on vérifie par un calcul directe que

f (0, x] = EQ e−rT g(ST1 ) = EP e−rT g(XT )


   

où X vérifie dXt = Xt (rdt + σdBt ) et X0 = x et on retrouve la formule (7.7.43).


Dans le présent modèle de Black–Scholes, la relation (7.7.43) nous permet de poursuivre les calculs
car les coefficients r et σ sont constants.
On sait qu’un processus vérifiant l’équation
Z s Z s
x,t x,t
Xs = x + rXu du + σXux,t dBu
t t

a une loi log–normale i.e. Xsx,t a un logarithme de loi N [ln x + (r − 21 σ 2 )(s − t), σ 2 (s − t)], ou encore
Xsx,t = exp(U ) où U a une loi normale.
On peut ainsi calculer

EP e−r(T −t) g(XTx,t ) = e−r(T −t) EP g(XTx,t )


   
Z
−r(T −t)
= e g(eu )hT −t (u)du,
R

où hT −t (u) est la densité de la loi normale de moyenne ln x + (r − 21 σ 2 )(T − t) et de variance σ 2 (T − t).
Lorsque g est une fonction explicite on peut poursuivre le calcul. Plaçons nous dans le cas où g(x) =
(x − K)+ . Rx R +∞
2 2
Soit Φ(x) = √12π −∞ e−u /2 du = √12π −x e−u /2 du. On a alors en écrivant
Z Z Z
u u
g(e )hT −t (u)du = e hT −t (u)du − K hT −t (u)du,
R {u>ln K} {u>ln K}

σ2
     
1 x
f (t, x) = xΦ √ ln + (T − t) r +
σ T −t K 2
σ2
     
−r(T −t) 1 x
−Ke Φ √ ln + (T − t) r − ,
σ T −t K 2
f (T, x) = (x − K)+ .

Théorème 7.7.4 (Formule de Black–Scholes) Le prix d’un call européen est donné par

f (0, x) = xΦ (d1 ) − Ke−rT Φ (d2 )

où
σ2 √
    
1 x
d1 = √ ln +T r+ , d2 = d1 − σ T
σ T K 2
On a également
f (t, x) = xΦ (d1 (t)) − Ke−r(T −t) Φ (d2 (t)) ,
où
σ2
    
1 x
d1 (t) = √ ln + (T − t) r + ,
σ T −t K 2

d2 (t) = d1 (t) − σ T − t.

Cette méthode donne des formules explicites pour la richesse initiale et le portefeuille, mais elle ne
s’applique pas aux cas non–Markovien comme le cas “knock–out option” i.e. F (ω) = 1{K≤max0≤t≤T St } ..
75

7.8 Application aux modèles de taux d’intérêt


7.8.1 Modèle de Vasicek
Le modèle de Vasicek consiste à supposer que r(t) satisfait EDS

dr(t) = a(b − r(t))dt + σdWt

où a, b et σ sont des constantes. De plus la solution est donnée par


Z t
−at −at −at
r(t) = r(0)e + b(1 − e ) + σe eas dWs .
0

Les variables aléatoires r(t) ont une loi normale de paramètres

E[r(t)] = r(0)e−at + b(1 − e−at )


σ 2 (1 − e−2at )
Var[r(t)] = .
2a
On calculera le prix du zéro–coupon en supposant qu’il existe une probabilité Q équivalente à P qui
rend les prix actualisés des martingales. On pose b∗ = b − q σa et W
ft = Wt + qt avec q constant. Alors

dr(t) = a(b∗ − r(t))dt + σ W


ft . (7.8.44)

Nous voulons calculer   Z T  


P (t, T ] = EQ exp − r(s)ds Ft
t

on obtient
  Z T  
P (t, T ) = EQ exp − r(s)ds Ft
t
 Z T  Z T 
1
= exp −EQ r(s)ds Ft + VarQ r(s)ds Ft
t 2 t
= A(t, T ) exp {−B(t, T )r(t)} ,

où
1 − e−a(T −t)
B(t, T ) =
a
et " #
σ2
(B(t, T ) − T + t)(a2 b∗ − 2
) 2 2
σ B(t, T )
A(t, T ) = exp −
a2 4a
De ceci s’obtient l’expression de R(t, T )

ln A(t, T ) r(t)B(t, T )
R(t, T ) = − + .
T −t T −t
76

7.8.2 Modèle de Black–Scholes à volatilité stochastique


Supposons que la volatilité σ(t) = f (Yt ) est une fonction d’un processus d’Ornstein-Uhlenbeck c’est
à dire, 
dSt = St (µdt + f (Yt )dBt )
dYt = a(m − Yt )dt + dWt ,
où Bt et Wt sont deux mouvements Browniens qui peuvent être corrélés

E [Bt Ws ] = ρ(s ∧ t).

C) Considérons l’ EDS.

dXt = b(t, Xt )dt + c(t)Xt dBt , X0 = x, (7.8.45)

où b(t, x) et c(t) sont des fonctions déterministes continues, telles que b(t, x) satisfait les conditions
(6.1.2) et (6.1.3) en x. Cette équation peut être résolue par la procédure suivante :
a) On pose Xt = Mt Yt , où
Z t
1 t 2
Z 
Mt = exp c(s)dBs − c (s)ds ,
0 2 0

est solution de (7.8.45) pour b = 0 and X0 = 1. Alors Yt = Mt−1 Xt satisfait

dYt = Mt−1 b(t, Mt Yt )dt, Y0 = x. (7.8.46)

b) L’équation (7.8.46) est une équation différentielle ordinaire à coefficient aléatoire, que l’on résout
par la méthode classique. Par exemple, si on suppose que b(t, x) = b(t)x. L’équation (7.8.46) devient
Z t 
dYt = b(t)Yt dt, et Yt = x exp b(s)ds .
0

D’où, Z t Z t Z t 
1 2
Xt = x exp b(s)ds + c(s)dBs − c (s)ds .
0 0 2 0

Yamada et Watanabe ont montré en 1971 que la condition de Lipschitz sur le coefficient de diffusion
peut être affaiblie dans le sens suivant. Supposons que les coefficient b et σ ne dépendent pas du temps,
le dérive b est Lipschitzien et le coerfficient de diffusion σ vérifie la condition de Hölder suivante

|σ(x) − σ(y)| ≤ K|x − y|γ ,

où γ ≥ 12 . Dans ce cas, il existe une unique solution pour l’équation

dXt = b(Xt )dt + σ(Xt )dBt , X0 = x.

Par exemple
dXt = |Xt |γ dBt , X0 = x
possède une unique solution pour tout γ ≥ 21 .
77

7.8.3 Modèle de Cox–Ingersoll–Ross


Dans ce modèle le taux d’intérêt instantané r(t) suit l’équation différentielle stochastique
p
dr(t) = a(b − r(t))dt + σ r(t)dWt , (7.8.47)

où a, b et σ sont des constantes positives.


Nous ne pourrons√ pas appliquer le théorème classique d’existence et unicité de la solution car que
la fonction x 7→ x ne possède pas la propriété de Lipschitz. En effet, la dérivée de cette fonction
n’est pas bornée car il tend vers infini quand x tend vers zero. Malgré ceci, on peut démonter qu’il
existe une unique solution {r(t), t ≥ 0}, pour toute donnée initiale r(0) > 0 fixée.
Dans ce modèle, les variables r(t) n’ont pas une loi normale (comme nous avons vu pour le modèle
de Vasicek) et sont toujours positives.
Si 2ab ≥ σ 2 alors r(t) > 0 pour tout t > 0.
Si 2ab < σ 2 alors il existe un instant aléatoire τ (ω) tel que r(τ (ω)) = 0 avec une probabilité 1.
Ce modèle donne aussi lieu à trois type de courbes T 7→ R(t, T ) qui apparaissent dans le modèle
de Vasicek.
Si on définit le processus {qt , t ≥ 0} par
p
qt = α r(t)

où α ∈ R, par le théorème de Girsanov, il existe nouvelle probabilité Q equivalente a la probabilité de


reference et pour laquelle le processus
Z t p
W
ft = Wt + α r(s)ds
0

serait un mouvement Brownien. De plus l’équation (7.8.47) s’écrit


p
dr(t) = a∗ (b∗ − r(t))dt + σ r(t)dW ft ,

où a∗ = ασ + a et b∗ = aab∗ .
Supposons alors que Q est une probabilité
Rt neutre au risque, sous laquelle les prix des zéro–coupons
actualisés Pe(t, u) = P (t, u) exp(− 0 r(s)ds), forme une martingale par rapport à {Ft : t ∈ [0, u]},
pour tout u ∈ [0, T ].
Sous cette hypothèse, le prix d’un zéro–coupon de maturité T à l’instant t se calcule moyennant
la formule   Z T  
P (t, T ] = EQ exp − r(s)ds Ft
t

Le calcul de cette expression donne (en posant a au lieu de a et b∗ au lieu de b dans le modèle de

Vasicek)
P (t, T ) = A(t, T ) exp {−B(t, T )r(t)} ,
où ! 2ab2
−t)
2γ exp (a+γ)(T
2
σ

A(t, T ) =
(a + γ)(exp(γ(T − t) − 1) + 2γ
et  
2 exp(γ(T − t) − 1)
B(t, T ) =
(a + γ)(exp(γ(T − t) − 1) + 2γ
78


et γ = a2 + 2σ 2 .
Afin de trouver ce résultat il est nécessaire de résoudre l’équation aux dérivées partielle avec une
condition terminale 
∂P ∂P g2 ∂ 2P
+ (f − qg) −

+ rP = 0,
∂t ∂r 2 ∂r2
P (T, T ) = 1. 
On peut résoudre cette équation en cherchant les solutions sous la forme

P (t, T ) = Φ(T − t) exp {−r(t)Ψ(T − t)} .

Les fonctions Φ et Ψ doivent vérifiées


σ2

 Ψ0 = 1 − Ψ2 − aΨ,

0
2

 Φ = −abΦΨ,
Ψ(0) = 1, Φ(0) = 1.

Vous aimerez peut-être aussi