Vous êtes sur la page 1sur 128

EXERCICES DE CALCUL STOCHASTIQUE

DESS IM Evry, option nance


Monique Jeanblanc
Universite dEVRY
Octobre 2002
2
TABLE DES MATI
`
ERES 3
Table des mati`eres
1 Rappels 5
1.1 Tribu . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.2 Variables gaussiennes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
1.3 Esperance conditionnelle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
1.4 Martingales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
1.5 Temps darret . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
1.6 Temps discret . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
1.7 Alg`ebre beta-Gamma . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
1.8 Divers . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
2 Mouvement Brownien 11
2.1 Proprietes elementaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
2.2 Processus Gaussiens . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
2.3 Multidimensionnel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
2.4 Temps datteinte . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
2.5 Scaling . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
2.6 Complements . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
2.7 Finance . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
2.8 Probl`eme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
2.8.1 Partie I : Resultats preliminaires . . . . . . . . . . . . . . . . . . . . . . . . . . 19
2.8.2 Partie II . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
2.8.3 Partie III . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
3 Integrale dIto 23
3.1 Integrale de Wiener . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
3.2 Formule dIto . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
3.3 Cas multidimensionnel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
3.4 Complements . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28
3.5 Brownien geometrique et extensions. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28
3.6 Le crochet . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
3.7 Finance . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30
4 Equations dierentielles stochastiques 33
4.1 Equation lineaire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
4.2 Finance . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36
4.3 Equations dierentielles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37
5 Exemples 39
5.1 Processus de Bessel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39
5.2 Processus de Bessel carre . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40
5.3 Autres processus. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42
5.4 Des calculs . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42
4 TABLE DES MATI
`
ERES
6 Girsanov 45
6.1 Resultats elementaires. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45
6.2 Crochet. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46
6.3 Processus. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46
6.4 Cas multidimensionel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 50
6.5 Temps darret. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51
6.6 Finance . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52
7 Complements 59
7.1 Theor`eme de Levy. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59
7.2 Equations retrogrades . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 60
7.3 Theor`emes de representation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 62
7.4 Temps local. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 62
7.5 Lois . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 63
7.6 Filtrations . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 63
7.7 Options barri`eres . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 64
7.8 Meandres, ponts, excursions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 64
7.9 Divers . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 65
8 Processus `a sauts 67
8.1 Processus de Poisson . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 67
8.2 Poisson compose . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 68
8.3 Formule dIto . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 69
8.4 Defaut . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 69
8.5 Marche complets, incomplets . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 70
1 Rappels, Corriges 73
1.1 Tribu . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 73
1.2 Variables gaussiennes. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 74
1.3 Esperance conditionnelle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 76
1.4 Martingales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 77
1.5 Temps darret . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 78
1.6 Temps discret . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 78
1.7 Alg`ebre beta-gamma . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 79
1.8 Divers . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 79
2 Mouvement Brownien, Corriges 81
2.1 Proprietes elementaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 81
2.2 Processus Gaussien . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 84
2.3 Multidimensionnel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 86
2.4 Temps datteinte . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 87
2.5 Scaling . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 88
2.6 Complements . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 88
2.7 Finance . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 90
3 Integrale dIto, Corriges 91
3.1 Integrale de Wiener . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 91
3.2 Formule dIto . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 92
3.3 Cas multidimensionnel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 95
3.4 Complements . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 95
3.5 Brownien geometrique et extensions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 96
3.6 Le crochet . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 98
3.7 Finance . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 98
4 Equations dierentielles stochastiques, Corriges 101
4.1 Equation Lineaire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 101
4.2 Finance . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 103
4.3 Equations dierentielles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 105
Enonces. 2002-03 5
5 Exemples, Corriges 107
5.1 Processus de Bessel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 107
5.2 Processus de Bessel carre . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 108
5.3 Autres processus . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 109
5.4 Des Calculs . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 109
6 Girsanov, Corriges 111
6.1 Resultats elementaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 111
6.2 Crochet . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 111
6.3 Processus . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 111
6.4 Cas multidimensionnel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 114
6.5 Temps darret . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 114
6.6 Finance . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 115
7 Complements, Corriges 117
7.1 Theor`eme de Levy. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 117
7.2 Equations retrogrades . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 117
7.3 Theor`emes de representation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 118
7.4 Temps local. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 118
7.5 Lois . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 119
7.6 Filtrations . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 120
7.7 Options barri`eres . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 120
7.8 Meandres, ponts, excursions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 121
8 Sauts, Corriges. 123
8.1 Processus de Poisson . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 123
8.2 Poisson compose . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 124
8.3 Marche complets, incomplets . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 125
6 Rappels
Enonces. 2002-03 7
Chapitre 1
Rappels
1.1 Tribu
Exercice 1.1.1 Ensembles appartenant `a une tribu.
1. Montrer que si T est une tribu, et si A et B appartiennent `a T avec A B, alors B A T o` u
B A est lensemble des elements de B qui ne sont pas dans A.
2. Montrer que 11
BA
= 11
B
11
A
.
3. Montrer que si C et D appartiennent `a T, alors CD
def
= C D
c
C
c
D aussi.
Exercice 1.1.2 Exemples de tribus.
1. Decrire la tribu engendree par un ensemble A.
2. Decrire la tribu engendree par deux ensembles A et B disjoints.
Exercice 1.1.3 Fonctions indicatrices.
On note 11
A
la v.a. qui vaut 1 pour A et 0 sinon.
1. Montrer que 11
AB
= 11
A
11
B
.
2. Montrer que, si A B = , on a 11
AB
= 11
A
+ 11
B
.
3. Montrer que 11
AB
= 11
A
+ 11
B
11
AB
.
Exercice 1.1.4 Union et intersection.
Soit T
1
et T
2
deux tribus. Montrer que T
1
T
2
est une tribu. Montrer quen general T
1
T
2
nest pas
une tribu.
Exercice 1.1.5 Tribu grossie par un ensemble.(*)
Soit T une tribu et A nappartenant pas `a T. Montrer que la tribu engendree par T et A est composee
des ensembles B tels que il existe C et D appartenant `a T veriant B = (C A) (D A
c
).
Exercice 1.1.6 Tribu engendree par une v.a.(*)
Soit X une v.a. sur un espace (,(). La tribu engendree par X, notee (X), est la plus petite sous
tribu T telle que X soit mesurable de (,T) dans (IR,B). Elle est engendree par ( = F ,[F =
X
1
(B),B B). Montrer que ( est une tribu. Verier que si Y = h(X) avec h borelienne, alors Y est
(X) mesurable. On admettra que la reciproque est vraie.
Exercice 1.1.7 Lois de v.a.
Soit (X,Y ) un couple de variables independantes et (Z,T) deux variables independantes telles que
X
loi
= Z et Y
loi
= T.
1. Comparer E(f(X)) et E(f(Z)).
2. Comparer E(X
2
Y ) et E(Z
2
T).
3. Comparer E(f(X)g(Y )) et E(f(Z)g(T)).
4. Comparer E(f(X,Y )) et E(f(Z,T)).
8 Rappels
1.2 Variables gaussiennes
Exercice 1.2.1 Moments.
Soit X une v.a.r. de loi ^(0,
2
). Calculer E(X
3
), E(X
4
), E([X[) et E([X
3
[).
Exercice 1.2.2 Moments. Soit X un v.a. normale. Calculer les moments de e
X
.
Exercice 1.2.3 Exponentielles. Soit N une v.a. de loi ^(0,1). Calculer E(exp(aN
2
+bN)). Montrer
que E(exp
a
2
2
N
2
) = E(exp aNN

) avec N et N

i.i.d.
Exercice 1.2.4 Somme de variables gaussiennes independantes.
Soit X et Y deux v.a. gaussiennes independantes. Montrer que X + Y est une variable gaussienne.
Precisez sa loi.
Exercice 1.2.5 Transformee de Laplace.
Soit X une v.a.r. de loi ^(m,
2
).
1. Quelle est la loi de
Xm

? Calculer E[X m[.


2. Montrer que E(e
X
) = exp(m+
1
2

2
). Calculer E(Xe
X
).
3. Soit (x) =
1

2
_
x

y
2
2
dy. Calculer, dans le cas m = 0 et = 1 la valeur de E(11
Xb
exp X)
en fonction de (,,b).
4. Calculer E(expX
2
+X) pour 1 2
2
0.
5. Montrer que E(e
X
f(X)) = e
m+
2

2
/2
E(f(X +
2
) pour f continue bornee.
6. Montrer que, si f est reguli`ere E(f(X)(X m)) =
2
E(f

(X)).
7. Montrer que si G est une va de loi ^(0,1)
E(e
aG
^(bG+c)) = e
a
2
/2
^(
c +ab

1 +b
2
Exercice 1.2.6 Convergence.
Soit (X
n
,n 1) une suite de v.a. gaussiennes qui converge dans L
2
vers X. Quelle est la loi de X?
Exercice 1.2.7 Vecteur gaussien. Soit X un vecteur gaussien `a valeurs dans IR
n
et A une matrice
(p,n). Montrer que AX est un vecteur gaussien. Preciser son esperance et sa variance.
Exercice 1.2.8 Vecteur Gaussien. Soit (X,Y ) un vecteur gaussien centre tel que E(XY ) = 0. Mon-
trer que X et Y sont independantes.
Exercice 1.2.9 Projection.(*)
Rappel : projection dans L
2
: Soit / un sous espace de L
2
() engendre par les variables aleatoires
Y
1
, . . . ,Y
n
, cest-`a-dire si Z /, il existe (a
i
) reels tels que Z =

i
a
i
Y
i
. Soit X L
2
. On appelle
projection de X sur / lunique element PrX de / tel que
E( (X PrX)Z) = 0,Z /
Soit (X
1
,X
2
, . . . ,X
d
,Y
1
, . . . ,Y
n
) un vecteur gaussien centre dans R
d+n
. Montrer que X = (X
1
,X
2
, . . . ,X
d
)
et Y = (Y
1
, . . . ,Y
n
) sont deux vecteurs gaussiens centres.
On suppose d = 1. Montrer que PrX est une v.a. gaussienne (Y ) mesurable, telle que X PrX et Y
sont independantes.
Exercice 1.2.10 Caracterisation de vecteur gaussien. (*) Soit (X,Y ) deux v.a.r. telles que Y
est gaussienne et la loi conditionnelle de X `a Y est gaussienne de moyenne aY + b et de variance
independante de Y , cest-`a-dire que E(exp(X)[Y = y) = exp((ay +b) +

2
2

2
). Montrer que le couple
(X,Y ) est gaussien.
Enonces. 2002-03 9
1.3 Esperance conditionnelle
On travaille sur un espace (,T,P) muni dune sous-tribu de T notee (.
Exercice 1.3.1 Montrer que
E(Y E(X[()) = E(XE(Y [())
Exercice 1.3.2 Montrer que si X L
2
et E(X[() = Y et E(X
2
[() = Y
2
alors X = Y .
Exercice 1.3.3 Soit (X,Y ) independantes, X strictement positive et Z = XY . Calculer E(11
Zt
[X)
en utilisant la fonction de repartition de Y .
Exercice 1.3.4 Soit (X,Y ) independantes, equidristibuees et M = max(X,Y ). Calculer E(11
Xt
[M).
Exercice 1.3.5 Conditionnement et independance.
Soit X,Y deux v.a. telles que la v.a. XY est independante de (, desperance m et de variance
2
. On
suppose que Y est (-mesurable. Calculer E(XY [ (). En deduire E(X[ (). Calculer E( (XY )
2
[ ().
En deduire E(X
2
[ ().
Exercice 1.3.6 Vecteur gaussien (*) Suite de lexercice 1.2.9
Soit (X,Y
1
, . . . ,Y
n
) un vecteur gaussien centre dans IR
1+n
. Montrer que E(X[Y ) = PrX.
On suppose n = 1. Montrer que E(X[Y ) = Y . Determiner .
Exercice 1.3.7 Soit X = X
1
+X
2
. On suppose que X
1
est independante de (, que X
2
est ( mesurable
et que X
1
est gaussienne.
1. Calculer E(X[() et var (X[().
2. Calculer E(e
X
[().
Exercice 1.3.8 Covariance conditionnelle. Soit Z
1
,Z
2
deux variables aleatoires de carre integrable.
On denit
Cov(Z
1
,Z
2
[() = E(Z
1
Z
2
[() E(Z
1
[()E(Z
2
[() .
Montrer que
Cov(Z
1
,Z
2
[() = E[ (Z
1
E(Z
1
[()) Z
2
[( ].
Exercice 1.3.9 Tribu grossie.
Soit A / ( et A T et X une v.a. integrable. On note H la tribu engendree par ( et A. (Voir exercice
1.1.5). On admettra que les v.a. Z qui sont H mesurables secrivent Z = Y
1
11
A
+ Y
2
11
A
c , o` u les v.a. Y
i
sont (-mesurables. Montrer que
E(X[H) =
E(X11
A
[()
E(11
A
[()
11
A
+
E(X11
A
c [()
E(11
A
c [()
11
A
c
Exercice 1.3.10 Linearite. Soit Z = Y +, avec ,= 0. Montrer que E(aX +b[Z) = aE(X[Y ) +b.
Exercice 1.3.11 Grossissement progressif (*) Soit T une tribu. On consid`ere la tribu ( engendree
par 1 o` u est une v.a. `a valeurs dans IR
+
.
1. Montrer que toute v.a. ( mesurable secrit h( 1) o` u h est borelienne.
2. Montrer que, si X est une v.a. T mesurable, E(X[()11
1
= A11
1
o` u A est une constante.
Montrer que A = E(X11
1
)/P(1 ).
Exercice 1.3.12 Conditionnement et independance 1. Soit (
1
et (
2
deux -alg`ebres independantes,
( = (
1
(
2
et (X
i
,i = 1,2) deux variables aleatoires bornees telles que X
i
est (
i
mesurable. Montrer
que E(X
1
X
2
[() = E(X
1
[(
1
)E(X
2
[(
2
).
Exercice 1.3.13 Conditionnement et independance 2. Montrer que si ( est independante de
(X) T, E(X[( T) = E(X[T).
Exercice 1.3.14 Formule de Bayes. Soit dQ = LdP sur (,T) et ( une sous-tribu de T. Montrer
que
E
Q
(X[() = E
P
(X[(), X T
si et seulement si L est ( mesurable.
10 Rappels
Exercice 1.3.15 Soit f et g deux densites strictement positives sur IR. Soit X une v.a. de densite f
sur un espace (,P). Montrer quil existe une probabilite Q sur cet espace telle que X soit de densite g.
Exercice 1.3.16 Independance conditionnelle Soit (T
t
) et ((
t
) deux ltrations.
1. Montrer que les proprietes suivantes sont equivalentes. (H1) for any t, the -algebras T

and (
t
are conditionally independent given T
t
.
(H2) F T

, G
t
(
t
,E(FG
t
[T
t
) = E(F[T
t
) E(G
t
[T
t
)
(H3) t,G
t
(
t
,E(G
t
[T

) = E(G
t
[T
t
)
(H4) t,F T

,E(F[(
t
) = E(F[T
t
).
2. Soit F et G deux ltrations telles que T
t
(
t
. Montrer que
(H) Every F-square integrable martingale is a G-square integrable martingale
equivaut `a (H1).
3. Dans le cas (
t
= T
t
(t ) o` u est un temps aleatoire, montrer que (H1) equivaut `a
(H5) s t,P( s[T

) = P( s[T
t
).
1.4 Martingales
Lespace est muni dune ltration (T
t
).
Exercice 1.4.1 Exemple de base. Soit X une v.a. integrable. Montrer que (E(X[T
t
),t 0) est une
martingale.
Exercice 1.4.2 Surmartingale. On dit que M est une surmartingale si
- M
t
est adapte, integrable
- E(M
t
[T
s
) M
s
, s t
Le processus M est une sousmartingale si M est une surmartingale.
1. Montrer que si M est une martingale et A un processus croissant adapte (A
s
A
t
, s t) alors
M A est une surmartingale.
2. Soit M une martingale. Que peut-on dire de M
2
?
3. Soit M une martingale telle que E(M
2

) < . Montrer que sup


t
E(M
2
t
) < .
4. Montrer quune surmartingale telle que E(Z
T
) = E(Z
0
) est une martingale sur [0,T].
Exercice 1.4.3 Martingale locale. Montrer quune martingale locale positive est une surmartingale.
Exercice 1.4.4 Martingale en fonction de la valeur terminale. Soit X une martingale telle que
X
T
= . Exprimer X
t
en fonction de pour t < T au moyen dune esperance conditionnelle.
Exercice 1.4.5 Un lemme. On trouve dans la litterature (Due) le lemme suivant:
Lemma: Let be an adapted bounded process. Then (Y
t
= M
t

_
t
0

s
ds,0 t T) for some martingale
M if and only if
Y
t
= E[
_
T
t

s
ds +Y
T
[T
t
]
Donner une demonstration de ce lemme.
Exercice 1.4.6 Martingale de carre integrable. Soit (M
t
,t 0) une T
t
-martingale de carre
integrable (telle que M
2
t
soit desperance nie, pour tout t). Montrer que
1. E((M
t
M
s
)
2
[T
s
) = E(M
2
t
[T
s
) M
2
s
pour t > s.
2. E((M
t
M
s
)
2
) = E(M
2
t
) E(M
2
s
) pour t > s.
3. La fonction denie par (t) = E(M
2
t
) est croissante.
Exercice 1.4.7 Projection de martingale. Montrer que si M est une T
t
-martingale, cest aussi
une martingale par rapport `a sa propre ltration (
t
= (M
s
,s t). Soit H
t
T
t
. Montrer que
Y
t
= E(M
t
[H
t
) est une H
t
-martingale.
Exercice 1.4.8 Une sousmartingale. Soit une v.a. positive. Montrer que Z
t
= P( t[T
t
) est
une sousmartingale.
Enonces. 2002-03 11
Exercice 1.4.9 Exemples de martingales.
1. Soit X un PAI. Montrer que X est une martingale et que si X est de carre integrable, X
2
t
E(X
2
t
)
est une martingale.
2. Soit X une chaine de Markov. Montrer que

st
f(X
s
,X
s
)
_
t
0

q
X
s
,j
f(X
s
,j)ds
est une martingale.
Exercice 1.4.10 Soit M une martingale positive continue uniformement integrable et = inft :
M
t
= 0. Montrer que M est nulle sur t > .
1.5 Temps darret
Exercice 1.5.1 Tribu associee `a un temps darret. Soit un temps darret. Montrer que T

est
une tribu.
Exercice 1.5.2 Soit T un temps darret et X une variable aleatoire appartenant `a T
T
, veriant X T.
Montrer que X est un temps darret.
Exercice 1.5.3 Exemple de processus adapte. Soit T un temps darret. Montrer que le processus
X
t
= 11
]0,T]
(t) est adapte.
Exercice 1.5.4 Comparaison de tribus. Soit S et T deux temps darret tels que S T. Montrer
que T
S
T
T
.
Exercice 1.5.5 Propriete de mesurabilite. Soit S un temps darret. Montrer que S est T
S
-mesurable.
Exercice 1.5.6 Soit S et T deux temps darret. Montrer que S T, T S appartiennent `a T
S
.
Exercice 1.5.7 Exemple de processus c`adl`ag. Soit S et T deux temps darret tels que S < T.
Montrer que le processus Z
t
= 11
[S,T[
(t) (egal `a 1 si S t < T et `a 0 sinon) est un processus c`adl`ag.
Exercice 1.5.8 Exemple trivial de temps darret. Montrer quune constante est un temps
darret. Quelle est dans ce cas la tribu T

?
Exercice 1.5.9 Operations sur les temps darret. Montrer que linf (resp. le sup) de deux temps
darret est un temps darret.
Exercice 1.5.10 Caracterisation de martingale.
1. Soit s < t,A T
s
et T = t11
A
c +s11
A
. Montrer que T est un temps darret.
2. Montrer que si E(X
T
) = E(X
0
) pour tout temps darret T, alors le processus X est une martingale.
Exercice 1.5.11 Theor`eme darret. Soit M une martingale continue telle que M
0
= a et lim
t
M
t
=
0. Montrer que sup M
t
loi
=
a
U
o` u U est une v.a. de loi uniforme sur [0,1].
1.6 Temps discret
Lespace est muni dune ltration (T
n
).
Exercice 1.6.1 Soit T
n
une suite de tribu decroissante On suppose que si B T

=
n
T
n
alors
P(B) = 0 ou P(B) = 1. Calculer E([P(A[T
n
) P(A[T
m
)]
2
). En deduire que P(A[T
n
) converge
Exercice 1.6.2 Soit T
n
une suite de tribu croissante et T

=
n
T
n
. Montrer que E(X[T
n
) converge
dans L
2
vers E(X[T

).
Exercice 1.6.3 Processus croissant associe `a une martingale de carre integrable. Soit (X
n
,n
0) une (T
n
)-martingale veriant E(X
2
n
) < pour tout n.
12 Brownien.
1. Montrer que, pour tout p 0, E(X
n+p
[T
n
) = X
n
.
2. Montrer que E((X
n
X
n1
)
2
[T
n1
) = E(X
2
n
[T
n1
) X
2
n1
pour tout n.
3. Montrer quil existe un unique processus (A
n
) tel que
(i) A
n
est T
n1
adapte, (ii) A
0
= 0, (iii) X
2
n
A
n
est une martingale.
Verier que A
n
est un processus croissant.
On montrera que la suite de processus denie par A
0
= 0, A
n
= A
n1
+ E(X
2
n
[T
n1
) X
2
n1
a
les proprietes desirees et que si

A a les memes proprietes, A
n
A
n1
=

A
n


A
n1
.
Exercice 1.6.4 Integrale stochastique. Soit M une martingale et H un processus borne previsible
(soit H
n
est T
n1
-mesurable). 0n note M
k
= M
k
M
k1
.
1. Montrer que (H M)
n
=

n
k=1
H
k
M
k
est une martingale.
2. Soit M et N deux martingales telles que E(M
2
n
) < , E(N
2
n
) < On note [M,N] =

n
k=1
M
k
N
k
.
Montrer que
(M
n
N
n
M
0
N
0
[M,N]
n
; n 0)
est une martingale.
1.7 Alg`ebre beta-Gamma
Exercice 1.7.1 Loi Arc sinus Une variable aleatoire Aa une loi Arc Sinus si sa densite est
1

1 t
11
t[0,1]
.
Montrer que cos
2
()
loi
= A si est uniforme sur [0,2].
Soit N et N

deux variables ^(0,1) independantes. Montrer que


N
2
N
2
+N
2
loi
= A.
Soit C =
N
N

. Montrer que C a une loi de Cauchy et que


1
1 +C
2
a une loi Arc sinus.
1.8 Divers
Exercice 1.8.1 Soit X un processus at M
t
= sup
0st
X
s
. On note une v.a. de loi exponentielle de
param`etre independante de X. Montrer que
E (exp(M

)) = 1 E
__

0
due
u
e
T
u
_
o` u T
u
= inft : X
t
u.
Exercice 1.8.2 Transformee de Laplace et independance. Soit X et Y deux v.a. independantes.
Justier que E(e
(X+Y )
) = E(e
X
)E(e
Y
). La reciproque est-elle vraie?
Exercice 1.8.3 Transformee de Laplace et moments. Soit X et Y deux v.a. bornees telles que
E(e
X)
= E(e
Y
) pour tout . Montrer que X et Y ont meme moments.
Exercice 1.8.4 Markov. Soit X un processus de Markov fort et T
a
= inft : X
t
= a. Montrer que,
pour t < T
P(X
T
dx[X
t
= a) = P(X
T
dx[T
a
= t) .
Exercice 1.8.5 Propriete de Markov Soit B un mouvement Brownien et f une fonction. On note
T
f
= inft : B
t
= f(t). Montrer que P(B
t
f(s)[T
f
= s) =
1
2
11
s<t
. Si f est croissante, montrer que
P(T
f
t) = 2P(B
t
f(T
f
)).
Enonces. 2002-03 13
Chapitre 2
Mouvement Brownien
Dans tout ce qui suit, (B
t
,t 0) est un mouvement Brownien reel (un processus `a accroissements
independants issu de 0, tel que pour t > s B
t
B
s
est une v.a. gaussienne centre de variance t s) et
on note (T
t
) sa ltration naturelle.
Dans certains exercices, il sera precise que B est issu de x.
2.1 Proprietes elementaires
Exercice 2.1.1 Caracterisation. Montrer quun processus X est un mouvement Brownien si et
seulement si
a. Pour tout t
0
< t
1
. . . < t
n
, le vecteur (X
t
0
,X
t
1
, . . . ,X
t
n
) est un vecteur gaussien centre
b. E(X
t
X
s
) = s t
c. X
0
= 0
Exercice 2.1.2 Calcul desperances.
1. Calculer pour tout couple (s,t) les quantites E(B
s
B
2
t
), E(B
t
[T
s
) et E(B
t
[B
s
).
2. On a vu, dans Exe. 1.2.1, que si Z est une v.a. gaussienne centree de variance
2
, on a E(Z
4
) = 3
4
.
Calculer E(B
2
t
B
2
s
).
3. Quelle est la loi de B
t
+B
s
?
4. Soit
s
une variable aleatoire bornee T
s
-mesurable. Calculer pour t s, E(
s
(B
t
B
s
)) et
E[
s
(B
t
B
s
)
2
].
5. Calculer E(11
B
t
a
) et E(B
t
11
B
t
a
) o` u 11
A
() est la v.a. egale `a 1 si A et 0 sinon.
Calculer E(
_
t
0
exp(B
s
)ds) et E(exp(B
t
)
_
t
0
exp(B
s
)ds).
Exercice 2.1.3 Lois. Montrer que E(f(B
t
)) = E(f(G

u +B
tu
)) avec G v.a. independante de B
tu
et de loi gaussienne centre reduite.
Exercice 2.1.4 Soit une variable aleatoire de loi exponentielle de param`etre (soit P( dx) =
e
x
11
x>0
dx) independante de B. Quelle est la loi de B

?
Exercice 2.1.5 Des martingales. Parmi les processus suivants, quels sont ceux qui sont des martin-
gales. ( On pourra utiliser, sans demonstration, que E[
_
t
0
B
u
du[T
s
] =
_
t
0
E[B
u
[T
s
] du.)
1. M
t
= B
3
t
3
_
t
0
B
s
ds.
2. Z
t
= B
3
t
3tB
t
.
3. X
t
= tB
t

_
t
0
B
s
ds.
4. U
t
= sin B
t

_
t
0
B
s
(cos s) ds.
5. U
t
= sin B
t
+
1
2
_
t
0
sin(B
s
) ds.
6. Y
t
= t
2
B
t
2
_
t
0
B
s
ds.
14 Brownien.
Exercice 2.1.6 On suppose b < 0 < a. Montrer que (a B
t
)(B
t
b) + t est une T
t
-martingale. En
deduire E(T
a,b
) o` u T
a,b
= T
a
T
b
.
Exercice 2.1.7 Exponentielle de Brownien. Calculer E(e
x+B
t
) et E(sin(x +B
t
)) en utilisant
E(f(x +B
t
)) = f(x) +
1
2
_
t
0
E(f

(x +B
s
)) ds .
Exercice 2.1.8 Changement de temps. Soit Z
t
= B
A(t)
o` u A est une fonction deterministe continue
strictement croissante.
1. Calculer lesperance et la variance de Z
t
. Ce processus est-il une martingale par rapport `a T
t
?.
2. On denit (
t
= T
A(t)
. Montrer que Z est une G-martingale.
3. Determiner le processus croissant C tel que (Z
t
)
2
C
t
soit une G-martingale.
4. Soit un processus M tel que M est une martingale et il existe A, fonction deterministe continue
strictement croissante telle que M
2
t
A(t) est une martingale. On note C linverse de A, cest-`a-dire
la fonction telle que C(A(t)) = t. Montrer que W
t
= M
C(t)
est un mouvement Brownien.
Exercice 2.1.9 Calcul desperance. Comment calculer E
x
(f(B
t
)g(B
s
))?
Exercice 2.1.10 Calculer
E((
_
1
0
duB
u
+B
1
)
2
)
Exercice 2.1.11 Calcul de transformee de Laplace. Calculer E
x
_
exp(W
2
t
)
_
.
Exercice 2.1.12 Comportement limite.
1. Montrer que lim
t
B
t
t
= 0
2. Montrer que lim
t
P
x
(B
t
< 0) = 1/2. En deduire que pour tout x > 0, si T
0
= inft : B
t
= 0,
on a P
x
(T
0
< ) 1/2. (En fait, on peut montrer que T
0
est ni ps.)
Exercice 2.1.13 Montrer que lintegrale
_
1
0
B
s
s
ds est convergente.
Exercice 2.1.14 Tribu triviale. On admettra quun ensemble appartenant `a la ltration T
0
= T
+
0
a
pour probabilite 0 ou 1.
Si = inft 0 : B
t
> 0, montrer que P( t)
1
2
. En deduire que P( = 0) = 1.
Exercice 2.1.15 Application de la propriete de Markov. Montrer que
E
x
_
_
t
0
h(r,B
r
)dr[T
s
_
=
_
s
0
h(r,B
r
)dr +E
B
s
_
_
ts
0
h(s +u,B
u
)du
_
Exercice 2.1.16 Soit un temps darret, > 0 et u une fonction continue bornee. On pose g(x) =
E
x
__

0
e
t
u(B
t
)dt
_
et f(x) = E
x
__

0
e
t
u(B
t
)dt
_
o` u comme dhabitude lindice x precise que le
Brownien est issu de x.
1. Montrer que g et f sont denies.
2. Montrer que
E
x
__

e
t
u(B
t
)dt
_
= E
x
_
11
<
e

f(B

)
_
.
3. Montrer que si = T
0
, alors g(x) = f(x) f(0)(x) o` u on explicitera .
Exercice 2.1.17 Polynomes dHermite. Les polynomes dHermite H
k
sont denis par e
x

2
2
=

k
k!
H
k
(x). Montrer quil existe H
k
(x,t), polynomes en les deux variables (t,x) tels que e
x

2
2
t
=

k
k!
H
k
(x,t). En deduire la valeur de E(B
k
t
[T
s
).
Enonces. 2002-03 15
Exercice 2.1.18 Des gaussiennes Soit S
t
= exp(t + W
t
). Calculer lesperance et la variance de
_
T
0
S
t
dt et
_
T
0
ln S
t
dt. Ces variables sont-elles gaussiennes?
Exercice 2.1.19 Zeros Montrer que
P(B
u
,= 0, u ]s,t[) =
2

arcsin
_
s
t
Exercice 2.1.20 Filtration Soit (
t
= T
t
(B
1
). Verier que B nest pas une ((
t
)-martingale.
2.2 Processus Gaussiens
Exercice 2.2.1 Montrer que le processus Y
t
=
_
t
0
B
u
du est gaussien. Calculer son esperance et sa
covariance.
Exercice 2.2.2 Expliciter la solution de
dX
t
= aX
t
dt +e
bt
dB
t
Calculer E(X
t
) et V ar(X
t
).
Exercice 2.2.3 Non-existence de processus. Montrer quil nexiste pas de processus X tel que
(s,t),s ,= t, les variables X
t
et X
s
soient independantes, centrees gausssiennes, et E(X
2
t
) localement
borne. On considerera
_
t
0
X
s
ds et on montrera que ce processus serait Gaussien, on calculera son
esperance et sa variance.
Exercice 2.2.4 Le pont Brownien. On denit un pont Brownien par
Z
t
= B
t
tB
1
, 0 t 1.
1. Montrer que Z est un processus gaussien independant de B
1
. Preciser sa loi, cest-`a-dire sa moyenne
et sa fonction de covariance.
2. Montrer que le processus

Z avec

Z
t
= Z
1t
a meme loi que Z.
3. Montrer que le processus Y avec Y
t
= (1 t)B t
1t
,0 < t < 1 a meme loi que Z.
4. Montrer que (Z
t
loi
= (B
t
[B
1
= 0)).
Exercice 2.2.5 Un exemple surprenant. Montrer que Z
t
= B
t

_
t
0
B
s
s
ds est un processus gaussien.
Calculer sa variance et sa covariance. En deduire que Z est un mouvement Brownien. Montrer que Z
nest pas une (T
B
t
)-martingale, o` u (T
B
t
) est la ltration naturelle de B.
Exercice 2.2.6 Pont. Soit B un MB et
t
lespace Gaussien engendre par (B
u

u
t
B
t
,u t). Montrer
que
t
est croissant en t. Montrer que (B
u
,u t) =
t
(B
t
) o` u (G) est lespace engendre par G.
Exercice 2.2.7 Changement de probabilite. Soit B un MB, L
t
= exp(mB
t

m
2
2
t) , et Q denie
sur T
T
par dQ = L
T
dP. Montrer que

B
t
= B
t
mt est, sous Q, un processus gaussien `a accroissements
independants. Montrer que

B
t
est un Q-mouvement Brownien.
Exercice 2.2.8 Soit B un mouvement Brownien, p > 1 et T une v.a. positive. On admettra que
E(sup
t
([B
t
[ t
p/2
)) <
16 Brownien.
1. Montrer que
E(sup
t
([B
t
[ t
p/2
)) = E(sup
s
([B
s
[ s
p/2
))
avec = (
1

)
1/(p1)
.
2. Montrer que E([B
T
[) E(sup
t
([B
t
[ t
p/2
)) +E(T
p/2
).
3. Montrer que
p > 1,C
p
,T, E([B
T
[) C
p
[[T
1/2
[[
p
2.3 Multidimensionnel
Exercice 2.3.1 Soit deux mouvements Browniens B
(1)
et B
(2)
correles de coecient de correlation
. Montrer, sans utiliser la formule dIto pour des processus correles, quil existe un Brownien B
(3)
,
independant de B
(2)
tel que B
(1)
= B
(2)
+
_
1
2
B
(3)
.
Exercice 2.3.2 Somme de browniens. Soit W un mouvement brownien independant de B et
[0,1]. Montrer que (U
t
= W
t
+
_
1
2
B
t
,t 0) est un mouvement Brownien.
Soient B
(1)
et B
(2)
deux browniens independants et (
i
,i = 1,2) deux fonctions deterministes. Montrer
quil existe une fonction
3
telle que le processus B
(3)
deni par

3
(t)dB
(3)
t
=
1
(t)dB
(1)
t
+
2
(t)dB
(2)
t
est un Brownien.
Exercice 2.3.3 Soit B un Brownien n-dimensionnel. Soit f une fonction borelienne bornee. Montrer
que, pour 0 < s < t E
x
(f(B
t
)[T
s
) = (B
s
) avec (x) = E
x
[f(B
ts
)]. En deduire que B
i
B
j
est une
martingale pour i ,= j.
Exercice 2.3.4 Mouvement Brownien dans R
2
.
1. Soit W
1
et W
2
deux mouvements Browniens independants. Le processus W
t
= W
1
(t)+W
2
(t) est-il
un mouvement Brownien? Si oui, justiez la reponse, sinon, expliquez pourquoi. Meme question
avec W
1
(t) +W
2
(t).
2. Soit W
1
et W
2
deux processus. Soit c un reel donne. Montrer que si
_
exp
_
aW
1
(t) +bW
2
(t)
t
2
[a,b]
_
1 c
c 1
_ _
a
b
__
, t 0
_
est une martingale pour tout couple (a,b), W
1
et W
2
sont des MB. Calculer E[exp(aW
1
(t) +
bW
2
(t))].
Exercice 2.3.5 Brownien n-dimensionnel Soit B un MB n-dimensionnel et U une matrice telle que
UU
T
= I. Montrer que (UB
t
,t 0) est un MB.
2.4 Temps datteinte
Dans tous ces exercices, a IR et T
a
= inft : B
t
= a o` u B est un mouvement Brownien.
Exercice 2.4.1 Transformee de Laplace. Montrer que T
a
est un temps darret. Calculer E(e
T
a
)
pour tout reel. Montrer que P(T
a
< ) = 1 et que E(T
a
) = .
Memes questions avec S
t
= exp(B
t
).
Exercice 2.4.2 Montrer (sans calculs) que pour b > a > 0, la v.a. T
b
T
a
est independante de T
a
.
Quelle est la loi de T
b
T
a
? Que peut-on dire du processus (T
a
,a > 0)?
Exercice 2.4.3 Soit a < 0 < b et T = T
a
T
b
. Calculer P(T
a
< T
b
) et E(T).
Exercice 2.4.4 Processus du temps datteinte.
1. Soit f(t) = E(e
rT
a
11
T
a
<t
). On ne cherchera pas `a calculer f ici.
Calculer en fonction de f la quantite E(e
r inf(T,T
a
)
) o` u T est un nombre positif.
Enonces. 2002-03 17
2. Montrer que si 0 < a < b, T
b
T
a
est independant de T
a
et a meme loi que T
ba
.
3. Memes questions si T
a
= inft; t +B
t
= a.
4. Soit S un brownien geometrique( soit S
t
= xexp(t + W
t
)) et
a
= inft : S
t
= a. Calculer
E(
_

0
e
rt
S
t
dt) et E(
_

b
0
e
rt
S
t
dt).
Montrer que si 0 < a < b,
b

a
est independant de
a
et a meme loi que
ba
.
Calculer E(e
r
K
11

K
<T
11

K
>t
).
Exercice 2.4.5 Temps datteinte Soit T un nombre reel. Calculer Z
t
= P(T
a
> T[T
t
). On rappelle
que sup
ut
W
u
loi
= [W
t
[.
Exercice 2.4.6 Premier instant. Soit W un MB issu de 0 et T
d
= d + inft : W
t+d
= 0. Calculer
E(e
T
d
) et E(11
W
d
a
e
T
d
).
Soit T

= d si W
d
a et T

= d +T
d
si W
d
a,W
d+T
d a. Calculer E(e
T

).
Exercice 2.4.7 Self decomposable Montrer quil existe c tel que T
r
loi
= cT
r
+X avec X independante
de c.
Exercice 2.4.8 Soit

T
a
et

T
a
deux v.a. independantes de meme loi que T
a
. Quelle est la loi de

T
a

T
a
+

T
a
(Sans faire de calculs).
Exercice 2.4.9 Loi de linf. Soit I = inf
sT
1
B
s
. Montrer que P(I dx) =
dx
1 +x
2
.
Exercice 2.4.10 Calculer E(e
T
a
) avec T
a
= inft : X
t
= a et X
t
= t + W
t
. Calculer E(e
T
)
pour T = T
a
T
b
.
Exercice 2.4.11 Soit T

a
= infu : M
u
B
u
> a avec M
u
= sup
tu
B
t
. Montrer que M
T

a
a une loi
exponentielle.
Exercice 2.4.12 Temps datteinte Soit A et B deux nombres positifs. On note X
t
= t + B
t
et
h(x) =
exp(2x/
2
) exp(2B/
2
)
exp(2A/
2
) exp(2B/
2
)
. Verier que h(X
t
) est une martingale. Le temps darret est
deni par
= inft : X
t
= AouX
t
= B .
Calculer P(X

= A).
Exercice 2.4.13 Soit f une fonction borelienne bornee et et
u(x) = E
x
(exp[

2
2
T
0
+
_
T
0
0
duf(B
u
)])
o` u B est un mouvement Brownien issu de x. Montrer que u est solution de
1
2
u

= (

2
2
+f)u, u(0) = 1
Exercice 2.4.14 Soient a,d deux nombres reels positifs.
1. Calculer E(e
|B
d
|

2
11
B
d
a
).
2. Soit T
1
= inft d : B
t
= 0. Montrer que T
1
est un temps darret. Calculer E(e
T
1
) et
E(e
T
1
11
B
d
a
). Montrer que B
T
1
+d
est independant de B
d
et de T
1
.
3. On introduit la v.a.
1
suivante : si B
d
a, on pose
1
= d. Si B
d
> a et si B
T
1
+d
a, on
pose
1
= T
1
+d, sinon on pose
1
= .
Calculer pour > 0 la transformee de Laplace de
1
, soit E(e

1
).
4. On continue. Si B
d
a, on pose
2
= d. Si B
d
> a et si B
T
1
+d
a, on pose T
2
= T
1
+ d,
sinon on denit T
2
= inft T
1
+d : B
t
= 0. Si B
T
2
+d
a on pose
2
= T
2
+d. Dans tous les
autres cas, on pose
2
= .
(a) Montrer que B
T
2
+d
est independant de (B
T
1
+d
,B
d
) et de T
2
.
18 Brownien.
(b) Calculer la transformee de Laplace de
2
.
5. On utilise la meme procedure pour denir par iteration
n
et on pose =

.
(a) Montrer que est ni en utilisant, apr`es lavoir justie que
P( < ) =

i
P(B
T
i
+d
< a)
(b) Calculer la transformee de Laplace de .
(c) Calculer la transformee de Laplace de B

.
(d) Montrer que B

est independant de .
Exercice 2.4.15 On trouve parfois (voir exercice precedent, ou les temps datteinte dun niveau) des
temps darret tels que et B

sont independants. Ceci nest cependant pas tr`es courant. Dans ce


qui suit on admettra le resultat (non trivial) suivant (Cramer) Si X et Y sont deux v.a. independantes
telles que X +Y est une v.a. gaussienne, alors X et Y sont des gaussiennes.
Le but de cet exercice est de montrer : si est borne par K et si et B

sont independants, alors


est une constante.
1. Montrer que si s > K,
B
s
= B

+

B
s
avec

B un mouvement Brownien independant de T

.
2. Montrer que B

et

B
s
sont des v.a. independantes.
3. Calculer lesperance et la variance de B

. (Attention, ce nest pas trivial. Penser au cas o` u = T


a
.)
4. Montrer que

B
s
est une v.a. Gaussienne.
5. Montrer que lon obtient

K G
loi
=
_
K E() G o` u G est une v.a. gaussienne reduite centree.
6. Conclure.
Exercice 2.4.16 Soit a et deux constantes strictement positives et T
1
= inft : B
t
a t,
T
2
= inft : B
t
a +t. On pose, pour tout a 0, () = E(exp[]) avec = T
1
T
2
.
1. Montrer que T
1
loi
= T
2
et que (T
1
,T
2
)
loi
= (T
2
,T
1
).
2. Verier que est bien denie et donner un majorant et un minorant simples de (Saider par
un dessin).
3. Montrer que () = 2E (exp(T
1
)11
T
1
<T
2
).
4. Montrer que
e
a
(
2
/2) +e
a
(
2
/2) = 2
Exercice 2.4.17 Soit X
t
= t +B
t
. Montrer que, pour tout
exp(X
t
+t),t 0
est une martingale pour un param`etre que lon determinera.
On note T
a
= inft : X
t
a. Calculer E
_
exp
_

2
2
T
a
__
et P(T
a
< ).
Exercice 2.4.18 Calculer P(M
t
y[W
t
= x) o` u M
t
= sup(W
s
,s t).
2.5 Scaling
Exercice 2.5.1 Montrer que le calcul de E(
_
t
0
exp(s+B
s
) ds) se deduit de E(
_
T
0
exp(2(s+B
s
) ds).
On ne demande pas de faire ce calcul.
Exercice 2.5.2 Soit T
1
= inft : B
t
= 1. Utiliser le scaling du MB pour etablir les egalites en loi
suivantes
1. T
1
loi
=
1
S
2
1
avec S
1
= sup(B
u
,u 1)
Enonces. 2002-03 19
2. T
a
loi
= a
2
T
1
avec T
a
= inft : B
t
= a.
3. g
t
loi
= tg
1
,d
t
loi
= td
1
o` u g
t
= sups t : B
s
= 0 et d
t
= infs t : B
s
= 0. Montrer que
g
t
< u = d
u
> t. En deduire g
t
loi
=
t
d
1
loi
=
1
d(1/t)
.
4. On suppose que A est un processus croissant continu tel que, pout tout c
(B
ct
,A
ct
,t 0)
loi
= (

cB
t
,cA
t
; t 0)
On note
a
= inft : A
t
a. Montrer que d

a
loi
= ad

1
. En deduire A
g
loi
= 1/d

1
.
5. Montrer que A
t
= sup
st
B
2
s
verie les conditions precedentes.
Exercice 2.5.3 Montrer que
sup
0t1
[W
t
[
loi
=
1
_
T

1
o` u T

1
= inft 0 : [W
t
[ = 1.
Exercice 2.5.4 Soit A une fonctionnelle du mouvement brownien. On dit que A a la propriete (hom)
s il existe r IR tel que pour tout c,
(B
ct
,A
ct
; t 0)
loi
= (

cB
t
,c
r+1
A
t
; t 0)
Pour quelle valeur de r la fonctionnelle A
t
=
_
t
0
11
(B
s
>0)
ds a telle la propriete (hom)? Meme question
pour le temps local (voir la denition plus loin)
2.6 Complements
Exercice 2.6.1 Projection dun Brownien. Soit B un MB dans sa ltration (T
t
) et ((
t
) une ltra-
tion plus petite que (T
t
). On suppose que E(B
t
[(
t
) =

B
t
est un MB. Montrer que

B
t
= B
t
.
Exercice 2.6.2 Filtration de carres de Browniens. Soit Y
t
= aB
2
t
+ bW
2
t
avec a ,= b et a et b
non nuls, W et B etant des Browniens independants. Montrer que (Y
s
,s t) = (B
s
,W
s
,s t).
Generaliser au cas de n carres.
Exercice 2.6.3 Representation previsible. Soit W
(i)
,i = 1,2,3 trois MB, avec W
(i)
,i = 1,2 independants.
Montrer quil nest pas possible davoir (W
(3)
s
,s t)) = (W
(1)
s
,W
(2)
s
,s t). On utilisera le theor`eme
de representation previsible pour representer W
(1)
t
,W
(2)
t
en terme de W
(3)
.
Exercice 2.6.4 Ponts, suite de ex. 2.2.6 Pour chaque t on denit la tribu
T

t
= (B
s

s
t
B
t
, s t
1. Montrer que la famille T

t
est croissante en t.
2. Soit f L
2
(IR
+
,ds). Calculer la projection

F
t
sur L
2
((T

)
t
) de F
t
=
_
t
0
f(s)dB
s
.
3. Montrer que le processus

B
t
= B
t

_
t
0
du
B
u
u
est un (T

t
)-mouvement Brownien et que
T

t
=

B
u
,u t
4. Montrer que

F
t
=
_
t
0

f(s)d

B
t
, avec

f(t) = f(t)
1
t
_
t
0
f(u)du.
Exercice 2.6.5 Soit B un MB reel, T
0
= inft : B
t
= 0, g = supt < 1 : B
t
= 0 et d = inft > 1 :
B
t
= 0. Montrer que P
x
(d > 1 + t) =
_
p(1,x; y)P
y
(T
0
> t)dy et que P
0
(g t) =
_
p(t,0; y)P
y
(T
0
>
1 t)dy.
20 Brownien.
Exercice 2.6.6 Loi de g
t
. Montrer que
P( sup
sut
B
u
> 0,B
s
< 0) = 2P(B
t
> 0,B
s
< 0) = 2[
1
4

1
2
arcsin
_
s
t
]
En deduire la loi de g
t
= sups t : B
s
= 0
Exercice 2.6.7 Representation previsible. Trouver un processus f previsible tel que F = E(F) +
_
T
0
f
s
dB
s
pour
1. F = B
T
,
2. F =
_
T
0
B
s
ds,
3. F = B
2
T
,
4. F = exp B
T
.
Exercice 2.6.8 Le mouvement Brownien B est issu de 0. Soit W un second mouvement Brownien issu
de 0 independant de B et
X
t
= (1 t)
_
t
0
W
s
(1 s)
2
ds + (1 t)
_
t
0
1
1 s
dB
s
.
1. Montrer que
_
t
0
W
s
1 s
ds
_
t
0
ds
_
s
0
W
u
(1 u)
2
du = (1 t)
_
t
0
W
s
(1 s)
2
ds.
2. En admettant que si f et g sont deux fonctions deterministes on peut intervertir le sens des
integrales dans
_
t
0
dsf(s)
_
s
0
g(u)dB
u
, montrer que
B
t

_
t
0
ds
_
s
0
1
1 u
dB
u
= (1 t)
_
t
0
1
1 s
dB
s
3. Verier que X est solution de
X
t
= B
t
+
_
t
0
W
s
X
s
1 s
ds .
4. (sans utiliser ce qui precede) Montrer que X
t
= (1 t)
_
t
0
dB
s
dW
s
1 s
+W
t
.
5. Calculer E(X
s
X
t
).
Exercice 2.6.9 Soit G une ltration, W un G mouvement brownien. Soit H une ltration plus petite
que G. Montrer que le processus M
t
= E(W
t
[H
t
) est une martingale. (on precisera par rapport `a quelle
ltration). Soit X
t
= W
t
+
_
t
0
Y
u
du o` u Y est un processus G adapte. On note F
X
la ltration de
X et

Y
u
= E(Y
u
[T
X
u
). Verier que Z
t
= (X
t

_
t
0

Y
u
du,t 0) est une F
X
-martingale (on calculera
lesperance conditionnelle de Z
t
par rapport `a F
X
s
.
2.7 Finance
Exercice 2.7.1 Black et Scholes. Calculer E(e
at
(S
t
K)
+
) quand
S
t
= xe
bt
exp(W
t


2
2
t)
Ecrire la formule obtenue quand a = b = r et quand a = r,b = r . Calculer E(e
rt
(S
t
K)
+
[T
s
)
pour s < t.
Enonces. 2002-03 21
Exercice 2.7.2 Options reset Une option reset est caracterisee par une suite de dates t
1
,t
2
, . . . ,t
n
.
Le payo de cette option est
A =

i
(S
T
S
t
i
)
+
11
S
t
i
=inf{K,S
t
1
,S
t
2
,...,S
t
n
}
+ (S
T
K)
+
11
K=inf{K,S
t
1
,S
t
2
,...,S
t
n
}
Calculer le prix dune telle option, cest-`a-dire calculer E(e
rT
A) quand
S
t
= xe
rt
exp(W
t


2
2
t)
.
2.8 Probl`eme
2.8.1 Partie I : Resultats preliminaires
Soit (B
t
)
t0
un mouvement Brownien standard sur un espace de probabilite (,T,P). On note
(T
t
)
t0
la ltration naturelle de B.
Etant donne un processus continu (X
t
)
t0
`a valeurs reelles, on pose pour t > 0 ,
M
X
t
= sup
st
X
s
,
m
X
t
= inf
st
X
s
.
Si a est un nombre reel strictement positif, on denit egalement
T
X
a
= inft 0; X
t
= a,

T
X
a
= inft 0; [X
t
[ = a .
Il a ete demontre en cours que T
B
a
est un temps darret relativement `a (T
t
)
t0
, ni p.s. , tel que
E(T
B
a
) = et pour 0 ,
E
_
exp(T
B
a
)

= exp
_
a

2
_
.
1. En inversant la transformee de Laplace de T
B
a
, montrer que la densite de la loi de T
B
a
est donnee
par
a

2t
3
exp
_

a
2
2t
_
1
(t>0)
.
2. Demontrer que pour 0 ,
E
_
exp(

T
B
a
)
_
=
_
cosh
_
a

2
__
1
.
3. Prouver que

T
B
a
est integrable et calculer E(

T
B
a
) .
4. Soient c et d deux nombres reels strictement positifs et posons T
B
= T
B
c
T
B
d
. Montrer que pour
IR,
E
_
exp
_

2
2
T
B
1
(T
B
=T
B
c
)
__
=
sinh(d)
sinh((c +d))
,
E
_
exp
_

2
2
T
B
__
=
cosh((c d)/2)
cosh((c +d)/2)
.
5. En utilisant la propriete de Markov forte, demontrer que si c 0 ,b c ,
P[B
t
c ,M
B
t
> c] = P[B
t
> 2c b].
6. En-deduire que pour chaque t > 0 , les variables aleatoires M
B
t
et [B
t
[ ont la meme loi.
7. Verier que pour chaque t > 0 , la densite de la loi du couple (B
t
,M
B
t
) est donnee par
2(2c b)

2t
3
exp
_

(2c b)
2
2t
_
1
{0c}
1
{bc}
.
8. Retrouver alors la densite de la loi de T
B
a
explicitee au 1. .
22 Brownien.
2.8.2 Partie II
On consid`ere le processus (Y
t
)
t0
deni par : t 0 ,Y
t
= t +B
t
, o` u IR.
1. Montrer quil existe une mesure de probabilite P

sous laquelle (Y
t
)
t0
est un mouvement Brow-
nien standard.
2. En utilisant le resultat de la question I.7. , en-deduire que pour chaque t > 0 , la densite de la loi
du couple (Y
t
,M
Y
t
) est donnee par
2(2c b)

2t
3
exp
_

(2c b)
2
2t
_
. exp
_
b
1
2

2
t
_
1
{0c}
1
{bc}
.
2.8.3 Partie III
Soit (S
t
)
t0
le processus tel que : t 0 ,S
t
= x exp
_
(r
1
2

2
)t +B
t

, o` u x, r et sont des
nombres reels strictement positifs. Dans la suite, on designera par N la fonction de repartition de la loi
normale centrale reduite.
1. Expliciter la probabilite P

qui fait de (

B
t
)
t0
un mouvement Brownien standard, avec

B
t
=
t +B
t
et =
r



2
.
2. Trouver une relation entre M
S
t
et M

B
t
et entre m
S
t
et m

B
t
pour chaque t > 0.
Dans ce qui suit, H et K designe des nombres reels strictements positifs.
3. Montrer que
P
_
S
t
K ,M
S
t
H

= N(d
1
)
_
H
x
_
(2r/
2
)1
N(d
2
) ,
avec
d
1
=
_
log
_
K
x
_

_
r
1
2

2
_
t
_
/

t ,
d
2
=
_
log
_
Kx
H
2
_

_
r
1
2

2
_
t
_
/

t .
4. Montrer que
P
_
S
t
K ,m
S
t
H

= N(d
3
)
_
H
x
_
(2r/
2
)1
N(d
4
) ,
avec
d
3
=
_
log
_
x
K
_
+
_
r
1
2

2
_
t
_
/

t ,
d
4
=
_
log
_
H
2
xK
_
+
_
r
1
2

2
_
t
_
/

t .
5. Deduire de la question 3. que (E designant lesperance sous P)
E
_
S
t
1
{S
t
K ,M
S
t
H}
_
= xe
rt
_
N(d
5
)
_
H
x
_
(2r/
2
)+1
N(d
6
)
_
,
avec
d
5
=
_
log
_
K
x
_

_
r +
1
2

2
_
t
_
/

t ,
d
6
=
_
log
_
Kx
H
2
_

_
r +
1
2

2
_
t
_
/

t .
6. En utilisant le resultat de la question 4., verier que
E
_
S
t
1
{S
t
K ,m
S
t
H}
_
= xe
rt
_
N(d
7
)
_
H
x
_
(2r/
2
)+1
N(d
8
)
_
,
Enonces. 2002-03 23
avec
d
7
=
_
log
_
x
K
_
+
_
r +
1
2

2
_
t
_
/

t ,
d
8
=
_
log
_
H
2
Kx
_
+
_
r +
1
2

2
_
t
_
/

t .
7. On pose v
1
(x,T) = E
_
e
rT
(S
T
K)
+
1
{m
S
T
H}
_
.
Montrer que
v
1
(x,T) = x
_
N(d
7
)
_
H
x
_
(2r/
2
)+1
N(d
8
)
_
e
rT
K
_
N(d
3
)
_
H
x
_
(2r/
2
)1
N(d
4
)
_
.
Determiner la quantite

x
v
1
(x,T t) .
8. On pose v
2
(x,T) = E
_
e
rT
(S
T
K)
+
1
{M
S
T
H}
_
. Donner une formule explicite pour v
2
(x,T) et

x
v
2
(x,T t) .
9. On pose
v
3
(x,T) = E
_
e
rT
(S
T
K)
+
1
{M
S
T
H}
_
,
v
4
(x,T) = E
_
e
rT
(S
T
K)
+
1
{m
S
T
H}
_
,
v(x,T) = E
_
e
rT
(S
T
K)
+

.
Donner une relation entre v
2
(x,T) ,v
3
(x,T) et v(x,T) dune part et entre v
1
(x,T) ,v
4
(x,T) et v(x,T)
dautre part.
24 Ito.
Enonces. 2002-03 25
Chapitre 3
Integrale dIto
Dans tout ce chapitre, B (ou W) est un mouvement Brownien dont la ltration est notee (T
t
).
3.1 Integrale de Wiener
Exercice 3.1.1 Soit Y
t
= tB
t
. Calculer dY
t
, lesperance de Y
t
et E(Y
t
Y
s
).
Exercice 3.1.2 1. Montrer que la v.a. X
t
=
_
t
0
(sin s) dB
s
est denie.
2. Montrer que X est un processus gaussien.
Calculer son esperance et la covariance E(X
s
X
t
).
3. Calculer E[X
t
[T
s
].
4. Montrer que X
t
= (sin t)B
t

_
t
0
(cos s)B
s
ds.
Exercice 3.1.3 1. Montrer que le processus (Y
t
=
_
t
0
(tan s) dB
s
,0 t <

2
) est deni.
2. Montrer que Y est un processus gaussien, calculer son esperance et sa variance et son esperance
conditionnelle.
3. Montrer que Y
t
= (tan t) B
t

_
t
0
B
s
cos
2
s
ds.
Exercice 3.1.4 Pont. On consid`ere lequation dierentielle stochastique
_
dX
t
=
X
t
t 1
dt +dB
t
; 0 t < 1
X
0
= 0
1. Montrer que
X
t
= (1 t)
_
t
0
dB
s
1 s
; 0 t < 1 .
2. Montrer que (X
t
,t 0) est un processus gaussien. Calculer son esperance et sa covariance.
3. Montrer que lim
t1
X
t
= 0.
Exercice 3.1.5 Montrer que, si f est une fonction deterministe de carre integrable
E(B
t
_

0
f(s) dB
s
) =
_
t
0
f(s) ds .
Exercice 3.1.6 Calculs de moments.
Calculer A = E(
_
t
2
t
1
(B
t
B
t
1
) dt[T
t
1
). Montrer que
_
t
2
t
1
(B
t
B
t
1
) dt =
_
t
2
t
1
(t
2
t)dB
t
. Utiliser cette
egalite pour calculer A dune autre mani`ere. Calculer Var
__
t
2
t
1
(B
t
B
t
1
) dt[T
t
1
_
.
26 Ito.
3.2 Formule dIto
Exercice 3.2.1 Ecrire les processus suivants comme des processus dIto en precisant leur drift et le
coecient de diusion
1. X
t
= B
2
t
2. X
t
= t +e
B
t
3. X
t
= B
3
t
3tB
t
4. X
t
= 1 + 2t +e
B
t
5. X
t
= [B
1
(t)]
2
+ [B
2
(t)]
2
6. X
t
= (B
t
+t) exp(B
t

1
2
t)
7. X
t
= exp(t/2) sin(B
t
)
Exercice 3.2.2 Integration par parties. Soit X
t
= exp
__
t
0
a(s)ds
_
et
Y
t
= Y
0
+
_
t
0
_
b(s) exp
_

_
s
0
a(u)du
__
dB
s
o` u a et b sont des fonctions deterministes. On pose Z
t
:= X
t
Y
t
. Montrer que dZ
t
= a(t)Z
t
dt +b(t)dB
t
.
Exercice 3.2.3 Integration par parties. Soit Y
t
= tX
1
(t)X
2
(t) avec
dX
1
(t) = f(t) dt +
1
(t)dB
t
dX
2
(t) =
2
(t)dB
t
Calculer dY
t
.
Exercice 3.2.4 Montrer que (Y
t
= sin(B
t
) +
1
2
_
t
0
sin(B
s
) ds,t 0) est une martingale. Calculer son
esperance et sa variance.
Exercice 3.2.5 Equation dierentielle. On admet que le syst`eme suivant admet une solution
_

_
X
t
= x +
_
t
0
Y
s
dB
s
Y
t
= y
_
t
0
X
s
dB
s
Montrer que X
2
t
+Y
2
t
= (x
2
+y
2
)e
t
.
Exercice 3.2.6 Formule dIto. Soit Y
t
=
_
t
0
e
s
dB
s
et Z
t
=
_
t
0
Y
s
dB
s
.
1. Ecrire lEDS veriee par Z
t
.
2. Calculer E(Z
t
), E(Z
2
t
) et E(Z
t
Z
s
).
Exercice 3.2.7 On suppose que X est un processus dIto de drift a(K
t
X
t
), que X
t
= f(K
t
) et que
K
t
= bt +B
t
o` u a, b, sont des constantes et B un mouvement brownien. Quelle est la forme de f ?
Exercice 3.2.8 Exponentielle. Soit un processus adapte continu de L
2
( IR) et
X
t
=
_
t
0

s
dB
s

1
2
_
t
0

2
s
ds .
On pose Y
t
:= exp X
t
et Z
t
= Y
1
t
.
1. Expliciter la dynamique de Y , cest-`a-dire exprimer dY
t
.
2. Montrer que Y est une martingale locale. Donner une condition sur pour que ce soit une
martingale.
3. Calculer E(Y
t
) dans ce cas. Expliciter les calculs quand = 1.
4. Calculer dZ
t
.
Enonces. 2002-03 27
Exercice 3.2.9 Processus dOrnstein Uhlenbeck. Soit X tel que dX
t
= (a bX
t
)dt +dB
t
1. Montrer que Z
t
= exp
_
c
_
t
0
X
s
dB
s

c
2
2
_
t
0
X
2
s
ds
_
est une martingale locale.
2. Soit U
t
= X
2
t
. Ecrire dU
t
puis la variable U
t
comme une somme dintegrales.
3. Montrer que
_
t
0
X
s
dB
s
=
1
2
(X
2
t
X
2
0
t) a
_
t
0
X
s
ds +b
_
t
0
X
2
s
ds .
Exercice 3.2.10 Soit Z le processus deni par
Z
t
=
1

1 t
exp
_

W
2
t
2(1 t)
_
.
1. Montrer que Z est une martingale et que Z
t
tend vers 0 quand t tend vers 1..
2. Calculer E(Z
t
).
3. Ecrire Z
t
sous la forme
Z
t
= exp (
_
t
0

s
dW
s

1
2
_
t
0

2
s
ds)
o` u est un processus que lon precisera.
Exercice 3.2.11 Moments dune exponentielle. Soit L le processus solution de
dL
t
= L
t
dW
t
, L
0
= 1
o` u est une constante. Le processus L est lexponentielle de Doleans-Dade de W et se note L
t
=
c(W)
t
.
1. Determiner la fonction telle que, pour a IR, le processus (L
t
)
a
exp((a)t) est une martingale.
2. En deduire le calcul de E [(L
t
)
a
] pour tout a IR.
Exercice 3.2.12 Demonstration de lunicite de lecriture dun processus dIto.
Soit dX
t
= a
t
dt +
t
dW
t
. On souhaite demontrer que si X 0, alors a 0, 0.
1. Appliquer la formule dIto `a Y
t
= exp(X
2
t
).
2. En deduire le resultat souhaite.
Exercice 3.2.13 Soit V = KX avec
dX
t
= X
t
( k s ln X
t
)dt +X
t
dW
t
dK
t
= K
t
(r +k)dt
Calculer dV
t
et d ln X
t
.
Exercice 3.2.14 Montrer que
M
t
= exp
_

_
t
0
B
2
s
ds
_
exp
_

B
2
t
2
tanh(T t)
_
1
(cosh(T t))
1/2
est une martingale locale.
Exercice 3.2.15 Soit A
t
=
_
t
0
exp(W
s
+ s)ds et dS
t
= S
t
(rdt + dW
t
). Montrer que le processus
f(t,S
t
,A
t
) est une martingale si f verie une equation aux derivees partielles `a coecients deterministes
que lon precisera.
Exercice 3.2.16 Soit dX
t
= dB
t
+
1
X
t
dt. Montrer que
1
X
t
est une martingale (locale). Quelles sont
les fonctions f telles que f(t,X
t
) soit une martingale locale?.
Exercice 3.2.17 Soit B et W deux browniens correles et
dr
t
= [a(b r
t
) r
t
]dt +

r
t
dW
t
dV
t
= (r
t
)V
t
dt +
V
V
t
dB
t
On pose X
t
=

r
t
et Y
t
= ln V
t
X
t
avec = 2
V
/. Calculer dX et dY .
28 Ito.
Exercice 3.2.18 Soit T xe et B(t,T) = exp
_

_
T
t
f(t,u)du
_
avec
df(t,T) = (t,T)dt +(t,T)dW
t
, t < T
Montrer que
dB(t,T) = (r
t
(t,T) +
1
2
(t,T))B(t,T)dt (t,T)B(t,T)dW
t
o` u on a note (t,T) =
_
T
t
(u,T)du
Exercice 3.2.19 Soit
dr
t
= (a br
t
)dt

r
t
(dW
t
+dt)
et B un mouvement Brownien independant de W. On note H le processus
H
t
= exp
__
t
0
r
s
ds +
1
2
_
t
0
(
2
1
+r
s
)ds +
_
t
0

1
dB
s
+
_
t
0

r
s
dW
s
_
Montrer que le calcul de E(exp(H

T
)[T
t
) se reduit `a celui de E(exp(r
T

_
T
t
r
s
ds)[T
t
).
Exercice 3.2.20 Fonction dechelle. Soit X un processus dIto. Une fonction s est une fonction
dechelle si s(X) est une martingale locale. Determiner les fonctions dechelle des processus suivants:
1. B
t
+t
2. X
t
= exp(B
t
+t)
3. X
t
= x +
_
t
0
b(X
s
)ds +
_
t
0
(X
s
)ds. Identier le processus croissant A tel que s(X
t
) =
A
t
o` u
est un MB.
Exercice 3.2.21 Soit
d
t
= (1 r
t
)dt +
t
dW
t
Soit u une solution de

2
2
x
2
u

(x) + (1 rx)u

(x) u(x) = 0
On denit x

comme solution de x

(x

) = u(x

) et v(x) =
x

u(x

)
u(x). On admettra que v

(x) 0.
Soit enn V denie par
_
V (x) = v(x), 0 x x

= x, x > x

Montrer que 1 (r +)x

0.
Ecrire la formule dIto pour e
t
V (
t
). Il apparait un terme LV (x) V (x) avec
LV (x) = (1 rx)V

(x) +

2
2
x
2
V

(x)
Montrer que sur x > x

on a LV (x) V (x) 0 et que sur x x

, on a LV (x) V (x) = 0
En deduire que
V (
0
)

E(e
T
V (
T
))
(en admettant que lintegrale stochastique est une martingale).
Exercice 3.2.22 Reprendre lexercice 2.6.8 en utilisant la formule dIto.
Exercice 3.2.23 Pont Brownien Calculer P(sup
0st
B
s
y,B
t
dx). En deduire que, pour un
pont brownien b, issu de x `a l instant 0, qui doit se trouver en z,z > 0 `a linstant t, on a pour y > z
P( sup
0st
b
s
y) = exp
_

(z +x 2y)
2
2t
+
(z x)
2
2t
_
.
Quelle est la valeur de P(sup
0st
b
s
y) pour y < z?
Enonces. 2002-03 29
Exercice 3.2.24 Formule de Clark-Ocone Soit f une fonction bornee de classe C
1
. Justier rapi-
dement quil existe une fonction telle que, pour t 1
E(f(B
1
)[T
t
) = (t,B
t
) .
Expliciter (t,x) sous la forme dune esperance (non conditionnelle). Ecrire la formule dIto pour en
faisant les simplications qui simposent. Montrer que
(t,B
t
) = E(f(B
1
)) +
_
t
0
E(f

(B
1
)[T
s
)dB
s
.
3.3 Cas multidimensionnel
Exercice 3.3.1 On consid`ere deux processus S
1
et S
2
denis par
dS
i
(t) = S
i
(t)(rdt +
i
dB
i
t
), i = 1,2 (3.1)
o` u B
1
et B
2
sont deux Browniens independants et o` u les coecients r,
i
sont constants.
1. On pose S
3
(t)
def
=
S
1
(t)+S
2
(t)
2
. Ecrire lequation dierentielle stochastique veriee par S
3
.
2. Soit S
4
(t)
def
=
_
S
1
(t)S
2
(t). Ecrire lequation dierentielle stochastique veriee par S
4
.
Exercice 3.3.2 Formule dIto multidimensionnelle. Soient (B
1
(t),t 0) et (B
2
(t),t 0) deux
mouvements Browniens independants. Soit (L
i
(t), i = 1,2 ,t 0)) les processus denis par
dL
i
(t) =
i
(t)L
i
(t)dB
i
(t) , L
i
(0) = 1
o` u (
i
(t),i = 1,2) sont des processus adaptes continus bornes. Soit Z
t
= L
1
(t)L
2
(t). Ecrire dZ
t
.
Montrer que L
1
(t)L
2
(t) est une martingale.
Exercice 3.3.3 Soit (B
1
(t),t 0) et (B
2
(t),t 0) deux mouvements Browniens independants et une
constante telle que [[ 1.
1. Montrer que le processus (W
t
,t 0) deni par W
t
= B
1
(t) +
_
1
2
B
2
(t) est un mouvement
Brownien.
2. Soit (
i
(t),t 0; i = 1,2) deux processus continus adaptes de carre integrable (tels que T
0,E(
_
T
0

2
i
(t) dt) < ).
(a) On denit (Z
t
,t 0) par dZ
t
=
1
(t)dB
1
(t) +
2
(t)dB
2
(t) et Z
0
= z. Montrer que Z est une
martingale.
(b) Soit (t) =
2
1
(t) +
2
2
(t). On suppose que (t) > 0. On denit (Y
t
,t 0) par
dY
t
=

1
(t)
_
(t)
dB
1
(t) +

2
(t)
_
(t)
dB
2
(t) , Y
0
= y .
Ecrire lequation veriee par Y
2
t
.
Montrer que (Y
t
,t 0) est un mouvement Brownien.
3. On denit R
t
= B
2
1
(t) + B
2
2
(t). Ecrire lequation dierentielle veriee par R et celle veriee par
U
t
=

R
t
. On montrera que
dU
t
=
a
U
t
dt +bdB
3
(t)
o` u a et b sont des constantes et B
3
un mouvement Brownien.
Exercice 3.3.4 Soit dS
(i)
t
= S
(i)
t
(
(i)
t
dt+
(i)
t
dW
(i)
t
) o` u W
(i)
,i = 1,2 sont deux MB correles. Determiner
k
i
,i = 1,2 pour que e
rt
(S
(1)
t
)
k
1
(S
(2)
t
)
k
2
soit une martingale.
30 Ito.
3.4 Complements
Exercice 3.4.1 Formule de Tanaka. Soit f une fonction et F denie par
F(x) =
_
x

dz
_
z

f(y) dy
Verier que
F(x) =
_

(x y)
+
f(y)dy
et que F

(x) =
_
x

f(y) dy =
_

f(y) 11
x>y
dy.
Montrer, en appliquant la formule dIto `a F que
_
t
0
f(B
s
)ds = 2
_

f(y)
_
(B
t
y)
+
(B
0
y)
+

_
t
0
11
B
s
>y
dB
s
_
dy .
Exercice 3.4.2 Egalite de Bougerol. Soit W
1
et W
2
deux mouvements browniens independants.
1. Appliquez la formule dIto aux processus
X
t
def
= exp(W
1
(t))
_
t
0
exp(W
1
(s)) dW
2
(s), Z
t
def
= sinh W
1
(t)
2. Montrer que dZ
t
=
_
t
0
(Z
s
)dW
1
(s) +
_
t
0
(Z
s
)ds.
3. Verier que M
t
def
= W
2
(t) +
_
t
0
X
s
dW
1
(s) est une martingale. Calculer E(M
2
t
). En admettant que
M
t
=
_
t
0

s
dW
3
(s), o` u W
3
est un mouvement brownien, identier .
4. En deduire une relation entre X
t
et Z
t
.
Exercice 3.4.3 Soit dr
t
= dt + 2

r
t
dB
t
et f(t,x) une fonction de C
1,2
b
.
1. Quelle condition doit verier la fonction s pour que s(r
t
) soit une martingale?
2. Quelle condition doit verier la fonction f pour que f(t,r
t
) soit une martingale?
3. Soit Z
t
= r
2
t
et
t
=

r
t
. Ecrire les EDS veriees par Z
t
et par
t
.
4. Soit dr
1
t
=
1
dt+2

r
t
dB
1
t
et dr
2
t
=
2
dt+2

r
t
dB
2
t
deux processus, avec B
1
et B
2
deux browniens
independants. On admettra que r
1
et r
2
sont independants. On note R le processus deni par
R
t
= r
1
t
+r
2
t
. Montrer que R secrit sous la forme (5.1).
Exercice 3.4.4 Temps datteinte. Soit = T
a
= inft : W
t
= a. On a calcule Z
t
= P( > T[T
t
).
Quelle est la dynamique du processus Z?.
Exercice 3.4.5 Exponentielle. Soit X et Y deux martingales de la forme dX
t
= H
t
dW
t
, dY
t
=
K
t
dW
t
. On note M
t
lunique solution de lequation dM
t
= M
t
dX
t
,M
0
= 1. Montrer que la solution de
dZ
t
= dY
t
+Z
t
dX
t
,Z
0
= z est
Z
t
= M
t
(z +
_
t
0
1
M
s
(dY
s
H
s
K
s
ds))
Quelle est la solution de dZ
t
= dY
t
+ Z
t
dX
t
lorsque dX
t
= H
t
dW
1
t
, dY
t
= K
t
dW
2
t
o` u W
1
et W
2
sont
deux MB eventuellement correles?
3.5 Brownien geometrique et extensions.
Dans cette section, S est un Brownien geometrique de dynamique
dS
t
= S
t
(b dt + dB
t
) (3.2)
o` u b et sont des constantes.
Exercice 3.5.1 Soit

S
t
= e
bt
S
t
.
1. Montrer que (

S
t
,t 0) est une martingale. En deduire E(S
t
) et la valeur de E(S
t
[T
s
) pour tous
les couples (t,s).
Enonces. 2002-03 31
2. Ecrire lequation dierentielle veriee par (S
t
)
1
.
3. Montrer que S
T
= S
0
exp[(b
1
2

2
)T +B
T
], puis que S
T
= S
t
exp[(b
1
2

2
)(T t)+(B
T
B
t
)].
4. Soit dL
t
= L
t

t
dW
t
o` u
t
est un processus adapte continu de L
2
( IR) . On pose Y
t
= S
t
L
t
.
Calculer dY
t
.
5. Soit
t
deni par
d
t
=
t
(r dt +
t
dB
t
)
Montrer que
t
= L
t
exp(rt). calculer d
1
t
.
6. Calculer d(S
t

t
). Comment choisir pour que S soit une martingale?
Exercice 3.5.2 Soit A
t
=
1
t
_
t
0
ln S
s
ds.
1. Montrer que ln S
s
= ln S
t
+ (b

2
2
)(s t) +(B
s
B
t
) pour s t.
2. Montrer que A
t
est une variable gaussienne.
3. Soit G(t,T) =
1
T
_
T
t
(B
s
B
t
) ds. Montrer que
A
T
=
t
T
A
t
+ (1
t
T
)[ln S
t
+
1
2
(b

2
2
)(T t)] +G(t,T)
4. Montrer que G(t,T) est une variable gaussienne independante de T
t
, dont on calculera lesperance
conditionnelle et la variance conditionnelle (par rapport `a T
t
).
5. En deduire que A
T
= Z
t
+U o` u Z
t
est T
t
mesurable et U une variable gaussienne independante
de T
t
. Montrer que (t)e
Z
t
= E(e
A
T
[T
t
),o` u lon precisera la valeur de .
Exercice 3.5.3 Soit V
T
=
1
h
_
T
Th
S
u
du o` u h est un nombre reel donne tel que 0 < h < T. Soit X le
processus deni par
e
bt
X
t
= E[e
bT
V
T
[T
t
] .
1. Quelle est la valeur de X
T
?
2. Exprimer X
t
en fonction de S
t
pour t T h.
3. Exprimer X
t
en fonction de S
t
et de (S
u
,T h u t) pour T h t T.
4. Montrer que dX
t
= X
t
bdt +S
t

t
dW
t
avec
t
= 11
{t<Th}
1 e
bh
bh
+ 11
{Th<t<T}
1 e
b(Tt)
bh
.
Exercice 3.5.4 Soit Y
t
= S
a
t
avec a 2. Quelle est lEDS satisfaite par Y ? Calculer E(Y
t
).
Exercice 3.5.5 ito:div Soit une fonction borelienne bornee et
dS
t
= S
t
((r (t))dt +dW
t
),S
0
= x.
Les questions qui suivent peuvent etre traitees dans un ordre dierent.
1. Montrer que e
rt
S
t
+
_
t
0
(s)e
rs
S
s
ds est une martingale locale.
2. Ecrire explicitement la solution S en fonction de S
0
,r,, et W.
3. Calculer esperance et variance de S.
4. Calculer avec le minimum de calculs (on peut utiliser des resultats connus), E((S
T
K)
+
) dans
le cas constant.
3.6 Le crochet
Soit M une martingale continue de carre integrable. On admet quil existe un processus croissant
A tel que M
2
t
A
t
est une martingale. On note A
t
= M,M)
t
= M)
t
ce processus que lon appelle le
crochet de M.
Exercice 3.6.1 Calcul de crochets.
1. Calculer M) pour M = B.
2. Calculer M) pour M
t
=
_
t
0

s
dB
s
32 Ito.
Exercice 3.6.2 Crochet de martingales. Soit M et N deux martingales. On pose, par analogie avec
2ab = (a +b)
2
a
2
b
2
2M,N) = M +N,M +N) M,M) N,N)
Montrer que MN M,N) est une martingale.
Exercice 3.6.3 Utilisation de crochets. Ecrire la formule dIto en utilisant le crochet.
3.7 Finance
Exercice 3.7.1 Dans un marche incomplet, il existe des actifs contingents duplicables. En particulier,
montrer que
_
T
0
(aS
s
+b)ds est duplicable lorsque S est un processus dIto.
Exercice 3.7.2 Equation devaluation. Soit dS
t
= rS
t
dt +S
t
(t,S
t
)dB
t
, o` u r est une constante.
1. Montrer que E((S
T
)[T
t
) est une martingale pour toute fonction borelienne bornee.
2. Justier que E((S
T
)[T
t
) = E((S
T
)[S
t
)
3. Soit (t,x) la fonction denie par (t,S
t
) = E((S
T
)[S
t
). Ecrire dZ
t
avec Z
t
= (t,S
t
).
4. En utilisant que (t,S
t
) est une martingale, et en admettant que est C
1,2
, montrer que pour
tout t > 0 et tout x > 0:

t
(t,x) +rx

x
(t,x) +
1
2

2
(t,x)x
2

x
2
(t,x) = 0 .
Quelle est la valeur de (T,x)?
Exercice 3.7.3 Options Europeennes et Americaines. On rappelle linegalite de Jensen : si est
une fonction convexe et ( une tribu, E((X)[() (E(X[()).
On admettra que si est un temps darret borne par T et Z une sous-martingale, E(Z
T
) E(Z

). On
note dS
t
= S
t
(rdt+
t
dW
t
) le prix dun actif o` u est un processus adapte borne. Soit C = E(e
rT
(S
T

K)
+
) le prix dun call Europeen et C
Am
= sup

E(e
r
(S

K)
+
) le prix dun call Americain, le sup
etant pris sur tous les temps darret `a valeurs dans [0,T]. On note P = E(e
rT
(Ke
rT
S
T
)
+
) et
P
Am
= sup

E(e
r
(Ke
r
S

)
+
) les prix de puts `a strike actualises.
1. Montrer que (e
rt
S
t
K)
+
est une sous-martingale.
2. Soit g une fonction convexe de classe C
2
telle que g(0) = 0. Montrer que
x, 1,g(x)
1

g(x)
En deduire que
E(e
ru
g(S
u
)[T
t
) E(e
rT
g(S
T
)[T
t
)
pour tout t < u T. Montrer que C = C
Am
.
3. Montrer que P = P
Am
.
Exercice 3.7.4 Volatilite stochastique Soit r un reel et (
t
,t 0) un processus aleatoire (T
t
) adapte
tel que
1

t

2
o` u
1
et
2
sont des constantes.
1. On note 1
1
la fonction 1
1
(t,x) denie par 1
1
(t,x) = e
r(Tt)
E(h(X
T
)[X
t
= x) lorsque dX(t) =
X(t)(rdt +
1
dB
t
). Montrer que e
rt
1
1
(t,X
t
) est une martingale.
2. Ecrire l EDS veriee par le processus 1
1
(t,X
t
). En deduire que la fonction 1
1
satisfait une EDP.
Dans la suite, on suppose 1
1
convexe en x.
3. Soit dS
1
(t) = S
1
(t)(rdt+
t
dW
t
). Ecrire la formule dIto pour e
rt
1
1
(t,S
t
). En deduire e
rT
1
1
(t,S
T
)
en fonction de e
rt
1
1
(t,S
t
), dune integrale en dt dont on donnera le signe et dune integrale sto-
chastique.
4. Montrer que e
rt
1
1
(t,S
t
) E(e
rT
h(S
T
)[T
t
) e
rt
1
2
(t,S
t
).
Enonces. 2002-03 33
Exercice 3.7.5 Heath-Jarrow-Morton. Soit T xe et (r
t
,0 t T) une famille de processus
(dependant du param`etre T) que lon notera, comme dans toute la litterature sur les taux (r(t,T), 0
t T) telle que, pour tout T xe
dr(t,T) = (t,T)(t,T)dt +(t,T)dW
t
o` u

T
(t,T) = (t,T) .
1. On pose X
t
=
_
T+a
T
r(t,u)du. Montrer que lon peut ecrire
X
t
= X
0
+
_
t
0

s
ds +
_
t
0

s
dW
s
o` u on explicitera et .
2. En deduire la dynamique de Y
t
= exp X
t
.
Exercice 3.7.6 Portefeuille de marche. On consid`ere un marche comportant un actif sans risque
de taux r et un actif risque de dynamique
dS
t
= S
t
(
t
dt +
t
dW
t
) .
Un portefeuille est un couple (,) de processus adaptes et la valeur du portefeuille est le processus
(V
t
,t 0)
V
t
=
t
S
0
t
+
t
S
t
.
Le portefeuille est dit autonancant si
dV
t
=
t
dS
0
t
+
t
dS
t
.
1. Montrer quun portefeuille autonancant est caracterise par le couple (v,) tel que
dV
t
= r
t
V
t
dt +
t
(dS
t
r
t
S
t
dt),V
0
= v .
On utilise tr`es souvent le processus H deni par
dH
t
= H
t
(r
t
dt +
t
dW
t
)
avec =

t
r
t

t
.
2. Montrer que M
t
= (H
t
)
1
est la valeur dun portefeuille autonancant dont on precisera la valeur
de et de . Ce portefeuille est appelle portefeuille de marche .
Exercice 3.7.7 Dividendes. Soit
dS
t
= S
t
([r ]dt +dW
t
), S
0
= x (3.3)
1. Montrer que S
t
= S
0
exp(at +cW
t
) o` u on explicitera a,c. Montrer que
S
t
e
rt
= E(S
T
e
rT
+
_
T
t
S
s
e
rs
ds[T
t
)
,
.
2. Montrer quil existe tel que S

soit une Q-martingale.


3. On suppose que dY
t
= Y
t
(rdt + dW
t
),Y
0
= y. Soit une constante. Montrer que Y

verie une
equation du type (3.3) o` u lon precisera la valeur de et de .
4. Calculer E((S
T
K)
+
).
Exercice 3.7.8 Assurance de portefeuille.
1. Soit M une martingale telle que M
T
0. Montrer que M
t
0 pour t < T. Cette propriete
setend-elle au cas t > T? Si oui, donner une demonstration, sinon, donner un contre exemple.
Soit un temps darret borne par T. On suppose que M

= 0. Montrer qualors M
s
= 0 pour
s [,T].
34 Equa. Di.
2. Soit V la valeur dun portefeuille autonancant dans un mod`ele Black-Scholes. On rappelle que
d(R
t
V
t
) =
t
R
t
V
t
dW
t
avec R
t
= e
rt
. Montrer que si V
T
K alors V
t
e
r(Tt)
K. Montrer
que sil existe < T tel que V

= e
r(T)
K, alors V
t
= e
r(Tt)
K pour t [,T].
3. Un agent de richesse initiale x souhaite former un portefeuille tel que V
T
> K. Quelle condition
sur x cela implique til? Comment peut-il realiser cet objectif? (on donnera plusieurs solutions)
Exercice 3.7.9 Soit dX
t
=
_
Y
t
T t
X
t
dW
t
et dY
t
= g
t
dB
t
+dt. On note C(T t,x,) la fonction de
Black-Scholes. Donner une relation entre g, pour que C(T t,X
t
,
_
Y
t
T t
) soit une martingale.
Exercice 3.7.10 Calcul de E(exp
_
T
0
r
s
ds[T
t
) avec r
t
= f(t) +

2
2
t +W
t
Exercice 3.7.11 On consid`ere un marche comportant deux actifs dont les prix sont des processus dIto
S
1
et S
2
tels que S
1
est strictement positif. Un portefeuille de valeur V
t
=
1
t
S
1
t
+
2
t
S
2
t
est autonancant
si
dV
t
=
1
t
dS
1
t
+
2
t
dS
2
t
.
On choisit comme numeraire le premier actif et on note

V
t
= V
t
/S
1
t
,

S
2
t
= S
2
t
/S
1
t
, do` u

V
t
= V
t
/S
1
t
=
1
t
+
2
t

S
2
t
.
Le but de cet exercice est de montrer que la notion dautonancement ne depend pas du choix de
numeraire, cest-`a-dire que
dV
t
=
1
t
dS
1
t
+
2
t
dS
2
t
(3.4)
equivaut `a
d

V
t
=
2
t
d

S
2
t
. (3.5)
1. Montrer que
dS
2
t


S
2
t
dS
1
t
= S
1
t
d

S
2
t
+d < S
1
,

S
2
>
t
2. Montrer que (3.4) equivaut `a

V
t
dS
1
t
+S
1
t
d

V
t
+d < S
1
,

V >
t
=
2
t
dS
2
t
+ (

V
t

2
t

S
2
t
)dS
1
t
3. On suppose que (3.5) est veriee. Montrer que (3.4) est veriee.
4. Reciproquement, soit V tel que (3.4). Montrer que (3.5) est veriee.
Exercice 3.7.12 On consid`ere un marche dans lequel sont negocies trois actifs Un actif sans risque
dont la dynamique est dS
0
t
= S
0
t
rdt et DEUX actifs risques
dS
i
t
= S
i
t
(
i
dt +dW
t
)
avec
1
,=
2
et le meme mouvement Brownien uni-dimensionnel W. Les actifs contingents sont choisis
dans T
T
= (S
1
s
,S
2
s
,s T) = (W
s
,s T).
1. Montrer que le marche est complet.
2. Montrer que la marche admet des opportunites darbitrage.
3. Construire EXPLICITEMENT une telle opportunite darbitrage, cest-`a-dire expliciter un triplet
(
0
,
1
,
2
) de processus adaptes tels que le portefuille associe soit autonancant et V
0
= 0,V
T
> 0.
On pourra se restreindre `a une OA statique, cest-`a-dire telle que (
0
,
1
,
2
) soient des constantes.
Enonces. 2002-03 35
Chapitre 4
Equations dierentielles
stochastiques
4.1 Equation lineaire
Exercice 4.1.1 Soit , deux constantes et dX(t) =
1
2
X(t) dt+
1
2
dW(t). Soit Y
t
= X
t
e
t/2
. Ecrire
dY
t
. En deduire la forme de la solution X(t).
Exercice 4.1.2 Soit lEDS
dX
t
= bX
t
dt +dB
t
, X
0
= x.
1. On pose Y
t
= e
t
X
t
. Quelle est lEDS veriee par Y
t
? Exprimer Y
t
sous la forme Y
t
= y +
_
t
0
f(s)dB
s
o` u lon explicitera la fonction f.
2. Calculer E(Y
t
) et E(Y
2
t
).
3. Justier que
_
t
0
Y
s
ds est un processus gaussien. Calculer E(exp[
_
t
0
Y
s
ds]).
4. Exprimer Y
t
pour t > s sous la forme Y
t
= Y
s
+
_
t
s
g(u)dB
u
o` u lon explicitera la fonction g.
Calculer E(Y
t
[T
s
) et Var (Y
t
[T
s
)
5. Calculer E(X
t
[T
s
) et Var (X
t
[T
s
).
Exercice 4.1.3 Soit
d
t
= (1 r
t
)dt +
t
dW
t
Soit u une solution de

2
2
x
2
u

(x) + (1 rx)u

(x) u(x) = 0
On denit x

comme solution de x

(x

) = u(x

) et v(x) =
x

u(x

)
u(x). On admettra que v

(x) 0.
Soit enn V denie par
_
V (x) = v(x), 0 x x

= x, x > x

Montrer que 1 (r +)x

0.
Ecrire la formule dIto pour e
t
V (
t
). Il apparait un terme LV (x) (x) avec
LV (x) = (1 rx)V

(x) +

2
2
x
2
V

(x)
Montrer que sur x > x

on a LV (x) V (x) 0 et que sur x x

, on a LV (x) V (x) = 0
En deduire que
V (
0
)

E(e
T
V (
T
))
(en admettant que lintegrale stochastique est une martingale).
36 Equa. Di.
Exercice 4.1.4 Preliminaire. Soit a,,b, quatre constantes reelles. Soit x IR.
On consid`ere lequation dierentielle stochastique
dX
t
= (a +X
t
) dt + (b +X
t
) dB
t
(4.1)
X
0
= x
1. Montrer que (4.1) admet une solution unique.
2. On note m(t) = E(X
t
) et M(t) = E(X
2
t
).
(a) Montrer que m(t) est lunique solution de lequation dierentielle ordinaire
y

y = a (4.2)
y(0) = x
(b) Ecrire la formule dIto pour X
2
t
o` u X
t
est solution de (4.1).
(c) En deduire que M(t) est lunique solution de lequation dierentielle ordinaire
y

(2 +
2
) y = 2(a +b)m+b
2
(4.3)
y(0) = x
2
o` u m est la solution de (4.2). (On admettra que lintegrale stochastique qui intervient est
une martingale)
(d) Resoudre (4.2) puis (4.3).
Exercice 4.1.5 Cas particulier 1.
1. Soit (Y
t
)
t0
lunique solution de lequation (4.1) quand a = b = 0 veriant Y
0
= 1.
Montrer que
Y
t
= exp (
1
2

2
)t +B
t
.
2. Montrer que si 0, Y est une sous-martingale par rapport `a la ltration (T
t
).
A quelle condition sur , Y est elle une martingale?
3. Soit (Z
t
)
t0
le processus deni par
Z
t
= x + (a b)
_
t
0
Y
1
s
ds +b
_
t
0
Y
1
s
dB
s
.
Montrer que (Z
t
)
t0
est un processus dIto. Calculer < Y,Z >
t
.
En deduire que la solution X
t
de (4.1) peut secrire X
t
= Y
t
Z
t
.
Exercice 4.1.6 Cas particulier 2. On se place dans le cas a = = 0
dX
t
= X
t
dt +b dB
t
(4.4)
X
0
= x.
1. Montrer que lunique solution de (4.4) secrit
X
t
= e
t
(X
0
+b
_
t
0
e
s
dB
s
) .
(On pourra utiliser lexercice precedent ou poser Y
t
= e
t
X
t
et resoudre lequation verifee par
Y .
2. Montrer que X est un processus gaussien, calculer son esperance et sa variance.
3. Justier que
_
t
0
X
s
ds est un processus gaussien. Calculer E
_
exp[
_
t
0
X
s
ds]
_
.
4. Calculer E(X
t
[T
s
) et Var (X
t
[T
s
).
Enonces. 2002-03 37
5. Soit X
t
solution de (4.4), et une fonction de classe C
2
. Ecrire la formule dIto pour Z
t
= (X
t
).
En deduire que si (x) =
_
x
0
exp(
y
2
b
2
) dy, alors
Z
t
= b
_
t
0
exp(
B
2
s
b
2
) dB
s
Z
t
est-elle une martingale de carre integrable?
6. Soit xe. Calculer
(t,y) = E(e
X
2
t
) .
Soit t xe. Etudier la martingale E(e
X
2
t
[T
s
) ,s t.
Montrer que est solution dune equation aux derivees partielles. Soit (t,x) = ln (t,x). Montrer
que
(t,x) = x
2
a(t) +b(t), avec a

(t) = a(t)(2 +b
2
a(t)), b

(t) = b
2
a(t) .
Exercice 4.1.7 Cas particulier 3. On se place dans le cas a = = 0
dX
t
= (b +X
t
)dB
t
(4.5)
X
0
= x
o` u x ,=
b

. Soit h la fonction denie par


h(y) =
1

ln [
b +y
b +x
[
pour y ,=
b

1. On pose Y
t
= h(X
t
). Quelle est lequation veriee par Y
t
?
2. En deduire que la solution de (4.5) secrit
X
t
= (x +
b

) exp(

2
2
t +B
t
)
b

Exercice 4.1.8 Cas particulier 4. On se place dans le cas a = 1,b = 0. On pose Y


t
= e
t
X
t
. Quelle
est lequation dierentielle veriee par Y ?
Calculer E(X
t
) et Var (X
t
).
Exercice 4.1.9 Soit f,F,g,G des fonctions continues bornees. On note X la solution de
dX
t
= [f(t) +F(t)X
t
]dt + [g(t) +G(t)X
t
]dW
t
, X
0
= x
et Y la solution de
dY
t
= F(t)Y
t
dt +G(t)Y
t
dW
t
, Y
0
= 1
1. Expliciter Y .
2. Soit Z deni par
Z
t
= x +
_
t
0
Y
1
s
[f(s) G(s)g(s)]ds +
_
t
0
Y
1
s
g(s)dW
s
.
Montrer que X = Y Z.
3. Soit m(t) = E(X
t
) et M
t
= E(X
2
t
). Montrer que m est lunique solution de y

(t) F(t)y(t) =
f(t),y(0) = x. En deduire
m(t) = exp(

F(t))
_
x +
_
t
0
exp

F(s)f(s)ds
_
o` u

F(t) =
_
t
0
F(s)ds. Montrer que M est lunique solution de
Y

(t) [2F(t) +G
2
(t)]y(t) = 2[f(t) +g(t)G(t)]m(t) +g
2
(t), y(0) = x
2
38 Equa. Di.
Exercice 4.1.10 Calculer esperance et variance de X
t
avec
dX
t
= a(b X
t
)dt +
_
X
t
dW
t
Exercice 4.1.11 Soit 0 < s < T et m IR. Verier que la solution de
dX
t
=
(s T)X
t
+mT
(s T)t +T
2
dt +dB
t
est
X
t
=
m
T
t + [(ss T)t +T
2
]
_
t
0
dB
u
(s T)u +T
2
Exercice 4.1.12 Soit
dX
x,,c
t
= r
t
X
x,,c
t
dt c
t
dt +
T
t

t
[dW
t
+
t
dt] (4.6)
X
x,,c
(0) = x
on a alors HX+
_
Hcds est une martingale On a aussi L
t
(X
t
R
t
+
_
t
0
cR
s
ds) est une martingale.verier
que la dierence est une martingale
Exercice 4.1.13 Calculer E(exp(X
T
)) pour
dX
t
= ( X
t
V
t
)dt +
_
V
t
dW
1,t
dV
t
= k( V
t
)dt +
_
V
t
dW
2,t
Exercice 4.1.14 On consid`ere lequation
dX
t
= 11
X
t
0
dW
t
,X
0
= x. (4.7)
On suppose quil existe une solution.
1. Verier que, pour x = 0, la solution de (4.7) nest pas identiquement nulle.
2. Verier que, pour x 0, la solution est `a valeurs positives. On pourra montrer, en utilisant la
formule dIto, que si f est une fonction reguli`ere, nulle sur IR
+
, alors f(X
t
) est nulle.
3. Montrer que la solution issue de 0 est desperance nulle `a tout instant t.
4. Que peut on en conclure?
4.2 Finance
Exercice 4.2.1 Options Asiatiques. Soit S
t
solution de
dS
t
= S
t
(r dt + dB
t
)
les param`etres r et etant constants.
1. Soit K une constante. Montrer que le processus M
t
= E
_
(
1
T
_
T
0
S
u
du K)
+
[T
t
_
est une mar-
tingale.
2. Montrer que, si lon pose
t
= S
1
t
(K
1
T
_
t
0
S
u
du), on a
M
t
= S
t
E
_
[
1
T
_
T
t
S
u
S
t
du
t
]
+
[T
t
_
.
3. Soit (t,x) = E
_
[
1
T
_
T
t
S
u
S
t
du x]
+
_
. Montrer que (t,x) = E
_
[
1
T
_
T
t
S
u
S
t
du x]
+
[T
t
_
et
que M
t
= S
t
(t,
t
).
4. Ecrire la formule dIto pour M. En deduire une equation aux derivees partielles veriee par .
Enonces. 2002-03 39
Exercice 4.2.2 Black et Scholes, volatilite deterministe. Soit une fonction deterministe conti-
nue et r une constante et (S
t
,t 0) la solution de
dS
t
= S
t
(r dt +(t) dB
t
) , S
0
= x
1. Montrer que
S
t
= S
0
exp
_
rt +
_
t
0
(s) dB
s

1
2
_
t
0

2
(s) ds
_
2. Montrer que
_
t
0
(s) dB
s

1
2
_
t
0

2
(s) ds est une variable gaussienne dont on calculera lesperance
et la variance.
3. On rappelle que dans le cas constant, le prix dun call est donne par
C(0,x) = x^(d
1
) Ke
rT
^(d
2
)
avec
d
1
=
1

T
_
ln(
x
K
) +T(r +

2
2
)
_
,d
2
= d
1

T
En deduire (sans faire de calculs) que, dans le cas de volatilite deterministe, la formule de Black
et Scholes secrit
E((S
T
K)
+
) = x^(D
1
) Ke
rT
^(D
2
)
Exprimer D
1
et D
2
.
Exercice 4.2.3 La formule de Dupire. Soit
dS
t
= S
t
(rdt +(t,S
t
)dW
t
)
o` u est une fonction de IR
+
IR
+
dans IR et f(t,x) la densite de S
t
, soit f(t,x) = P(S
t
dx). ON
admettra que

t
f
1
2

xx
_
x
2

2
(t,x)f(t,x)

+
x
[rxf] = 0
On note C(K,T) le prix en zero dun call Europeen de strike K et de maturite T. On note
1
C,
2
C,
11
C
les derivees partielles de C par rapport `a la premi`ere variable, seconde variable, derivee seconde par
rapport `a la premiere variable.
1. Montrer que
11
C(K,T) = e
rT
f(T,K).
2. Montrer que
1
2

2
x
2
_
x
2

2
(t,x)f(t,x)

= e
rt

2
x
2
(rx

x
C) +e
rt

2
x
2
C
t
3. En deduire
1
2
x
2

2
(t,x)

2
C
x
2
(t,x) = rx
C
x
(x,t) +
C
t
(t,x)
4.3 Equations dierentielles
Exercice 4.3.1 Soit une constante et
dX
t
=
2
X
2
t
(1 X
t
)dt +X
t
(1 X
t
)dW
t
(4.8)
la condition initiale etant X
0
= x avec x ]0,1[. On admet que X prend ses valeurs dans lintervalle
]0,1[. On pose Y
t
=
X
t
1 X
t
.
1. Quelle est lequation dierentielle stochastique veriee par Y ?
2. En deduire que X
t
=
x exp(W
t

2
t/2)
x exp(W
t

2
t/2) + 1 x
.
40 Exemples. Enonces
Exercice 4.3.2 Produit dexponentielle. Soit W un MB et h un processus adapte borne. On note
c(hW)
t
def
= L
t
lunique solution de dL
t
= L
t
h
t
dW
t
, L
0
= 1. Etablir une formule du type c(h
1
W
1
+
h
2
W
2
)
t
= X
t
c(h
1
W
1
)
t
c(h
2
W
2
)
t
o` u X est `a determiner.
Exercice 4.3.3 Soit W un mouvement Brownien issu de a > 0 et T
0
= inft : W
t
= 0. Pour t < T
0
,
on denit X
t
= (W
t
)

. Montrer que, pour t < T


0
,
dX
t
= b(X
t
) dt +(X
t
) dW
t
o` u on explicitera b et . En deduire la forme de la solution de dY
t
= Y
n
t
dW
t
+
1
2
nY
2n1
t
dt, Y
0
= y 0
avant le premier temps datteinte de 0. (On admettra lunicite de la solution).
Exercice 4.3.4 Ponts
1. Soit N une gaussienne reduite centree independante de B. Verier que la solution de dX
t
=
dB
t
+
N X
t
1 t
dt est X
t
= tN +(1 t)
_
t
0
1
1 s
dB
s
. En deduire que X est un processus gaussien,
dont on calculera lesperance et la covariance.
2. Soit W un MB independant de B. Verier que la solution de dX
t
= dB
t
+
W
t
X
t
1 t
dt est X
t
=
(1 t)
_
t
0
W
s
(1 s)
2
ds +(1 t)
_
t
0
1
1 s
dB
s
. En deduire que X est un processus gaussien, dont on
calculera lesperance et la covariance.
2002-03 41
Chapitre 5
Exemples
Dans tout ce chapitre, B (ou W) est un mouvement Brownien dont la ltration est notee (T
t
).
5.1 Processus de Bessel
Exercice 5.1.1 Soit B
1
et B
2
deux mouvements Browniens independants et
Z
t
= B
2
1
(t) +B
2
2
(t) .
1. Ecrire lEDS veriee par Z
t
.
2. On pose Y
t
=

Z
t
. Ecrire lEDS veriee par Y
t
.
3. Ecrire lEDS veriee par 1/Y
t
.
Exercice 5.1.2 Formule dIto On consid`ere les processus de la forme
dr
t
= dt + 2

r
t
dB
t
(5.1)
On admet que r
t
0 presque partout (par rapport `a t et `a .)
1. Soit f(t,x) une fonction de C
1,2
b
. Quelle condition doit verier la fonction f pour que f(t,r
t
) soit
une martingale?
2. Soit Z
t
= r
2
t
et
t
=

r
t
. Ecrire les EDS veriees par Z
t
et par
t
.
3. Soit dr
1
t
=
1
dt+2

r
t
dB
1
t
et dr
2
t
=
2
dt+2

r
t
dB
2
t
deux processus, avec B
1
et B
2
deux browniens
independants. On admettra que r
1
et r
2
sont independants. On note R le processus deni par
R
t
= r
1
t
+r
2
t
. Montrer que R secrit sous la forme (5.1).
Exercice 5.1.3 Processus de Bessel de dimension 3. Soit R le processus solution de
dR
t
=
1
R
t
dt +dW
t
, R
0
= 1 .
1. Montrer que Z
t
=
1
R
t
est une martingale locale.
2. Montrer que (U
t
= exp(

2
t
2
)
sinh R
t
R
t
,t 0) est une martingale locale. On admetra que cest
une martingale.
3. En deduire la valeur de E(exp(

2
T
m
2
) o` u T
m
= inft : R
t
= m, avec m > 0.
4. Soit f une fonction continue bornee et a un nombre reel. Quelles conditions doit verier la fonction
v pour que
v(R
t
) exp[at
_
t
0
f(R
s
)ds]
soit une martingale?
42 Exemples. Enonces
5. Supposons que v est explicitee. Comment calculerez vous
E(exp[aT
m

_
T
m
0
f(R
s
) ds]) ?
Exercice 5.1.4 Processus de Bessel de dimension 2. Soit dR
t
= dW
t
+
1
2R
t
dt.
1. Montrer que Z
t
= ln R
t
est une integrale stochastique par rapport `a W.
2. Soit un nombre reel positif. Montrer que L
t
= [R
t
]

exp(

2
2
_
t
0
ds
R
2
s
) est une martingale locale.
Exercice 5.1.5 Processus de Bessel de dimension . Soit dR
t
= dB
t
+
1
2R
t
dt.
1. Pour quelles fonctions s le processus s(R
t
) est-il une martingale locale?
2. Quelle est la dynamique de Y
t
= R
2
t
?
3. Montrer que Z
t
def
= exp(

2
(Y
t
t)

2
2
_
t
0
Y
u
du) est une martingale.
4. Soit dQ = ZdP. Quelle est la dynamique de Y sous Q?
Exercice 5.1.6 Minimum dun Bessel
Quelle est la loi de inf
st
X
s
lorsque X est un processus de Bessel?
5.2 Processus de Bessel carre
Exercice 5.2.1 Soit , deux constantes et dX(t) =
1
2
X(t) dt+
1
2
dW(t). Soit Y
t
= X
t
e
t/2
. Ecrire
dY
t
.
1. En deduire la forme de la solution X(t).
2. On suppose que (W
1
,W
2
, . . . ,W
n
) sont des Browniens independants et on note X
i
la solution de
dX
i
(t) =
1
2
X
i
(t) dt +
1
2
dW
i
(t). Soit r le processus deni par r(t) = X
2
1
(t) +. . . +X
2
n
(t).
3. Montrer que le processus B deni par B(0) = 0 et dB(t) =
n

i=1
X
i
(t)dW
i
(t)

r
t
est un mouvement
Brownien.
4. Montrer que dr
t
= (a br
t
) dt +

r
t
dB
t
Exercice 5.2.2 Processus de Bessel carre. Soit x 0 et R un processus tel que
dR
t
= dt + 2
_
[R
t
[dW
t
, R
0
= x (5.2)
On admettra que R
t
existe et que R
t
0.
1. Soit Z
t
= (W
t
)
2
. Montrer que Z verie une equation de la forme (5.2). Quelle est la valeur de
correspondante?
2. Soit W
1
un mouvement Brownien independant de W et Z
1
t
= (W
t
)
2
+ (W
1
t
)
2
. Montrer que Z
1
verie une equation de la forme (5.2). Quelle est la valeur de correspondante? Generalisation `a
la somme des carres de n Browniens independants.
3. Soit
t
=

R
t
. Montrer que d
t
= b(t,
t
,)dt +dW
t
. On explicitera b.
4. Soit W
1
un mouvement Brownien independant de W. On note R
()
(x) le processus deni en (5.2)
et, pour y 0, le processus R
()
(y) solution de
dR
()
t
= dt + 2
_
R
t
()dW
1
t
, R
()
0
= y (5.3)
On notera simplement R
()
t
et R
()
t
ces deux processus. On supposera que les processus R
()
t
et
R
()
t
ne sannulent pas et on admettra quils sont independants.
(a) Soit X
t
= R
()
t
+R
()
t
. Calculer dX
t
.
2002-03 43
(b) Montrer que le processus Z deni ci-dessous est un mouvement Brownien
dZ
t
=
_
R
()
t
dW
t
+
_
R
()
t
dW
1
t
_
R
()
t
+R
()
t
(c) En deduire que X
t
= R
()
t
+R
()
t
verie
dX
t
= dt + 2
_
X
t
dZ
t
On explicitera en fonction de et .
5. (a) On suppose que lon connat E(R
()
t
) = m() et Var(R
()
t
) = v() pour tout . Exprimer
E(X
t
) et Var(X
t
) en fonction de m et v.
(b) On admet que, si W est un brownien issu de

x (voir exo 2.1.11)
E(exp (W
t
)
2
) =
1

1 + 2t
exp(
x
1 + 2t
) (5.4)
Comment calculer E(exp [
(1)
t
]
2
), E(exp R
(1)
t
(x)) et E(exp R
(2)
t
(x))?.
On utilisera la question (d) et lindependance de R
()
t
et R
()
t
.
6. Montrer que
E(exp R
()
t
(x)) = E(exp R
(1)
t
(x))
_
E(exp R
(1)
t
(0))
_
1
Calculer E(exp R
()
t
(x)).
7. Comment demontrer lindependance de R
()
t
et R
()
t
?
Comment demontrer (5.4)?
Exercice 5.2.3 Processus de Bessel carre. Soit X un BESQ
()
(x).
1. Montrer que (
1
c
X
ct
,t 0) est un BESQ
()
(x/c).
2. Monter que, si F est un processus adapte
Z
t
= exp
1
2
_
t
0
F
s
d(X
s
s)
1
2
_
t
0
F
2
s
X
s
ds
est une martingale locale.
3. Montrer que si F est deterministe, derivable
Z
t
= exp
1
2
F(t)X
t
F(0)X
0

_
t
0
F(s)ds
1
2
_
t
0
F
2
s
X
s
ds +X
s
dF(s)
4. Soit solution de

= b
2
,(0) = 1,

(1) = 0
Montrer que Z
t
= exp
1
2
F(t)X
t
F(0)X
0
ln (t)
b
2
2
_
t
0
X
s
ds. On admettra que Z est une
martingale.
5. En deduire que
Q
()
x
(exp
1
2
_
1
0
X
s
ds) = (cosh b)
/2
exp(xb tanh b)
Exercice 5.2.4 En utilisant que
sup
1t1
[W
t
[
loi
=
1
2
_
1
0
ds
R
(2)
s
o` u R
(2)
s
= B
s
+
1
2
_
s
0
du
R
(2)
u
montrer que E sup
1t1
([W
t
[) =
_
/2.
44 Exemples. Enonces
Exercice 5.2.5 Application du theor`eme de Lamperti The following absolute continuity relation bet-
ween two BES processes (with 0)
P
()
x
=
_
R
t
x
_

exp
_

2
2
_
t
0
ds
R
2
s
_
P
(0)
x
where P
()
is the law of a BES with index . On utilisera
W
()
[T
t
= exp(W
t


2
2
t)W[T
t
et (R
t
; t 0)
loi
= xexp(B
C
t
+C
t
)
Exercice 5.2.6 A REPRENDRESoit dX
t
= 2

X
t
dW
t
+(t)dt. On veut calculer
E
t,x
_
exp
_

1
2
_
T
t
X
u
m(u)du
_
f(X
T
)
_
1. On se place dans le cas f = 1, et on note la solution de

uu
(u,T) = m(u)(u,T) ; (t,T) =
u
(T,T) = 0
Montrer que
E
t,x
_
exp
_

1
2
_
T
t
X
u
m(u)du
__
= exp(

u
(t,T)
2(t,T)
x) exp
1
2
_
T
t

u
(s,T)
(s,T)
(u)du
5.3 Autres processus.
Exercice 5.3.1 Processus dIngersoll. Soit a < z < b et Z le processus solution de
dZ
t
= (Z
t
a)(b Z
t
)dW
t
, Z
0
= z
On admet que pour tout t, le processus Z verie a < Z
t
< b.
1. Calculer d(Z
1
t
).
2. soit
t
def
=
Z
t
a
b Z
t
. Calculer d
t
puis d(ln
t
).
3. Soit X
t
= (b Z
t
)g(t,
t
). Donner une condition sur g pour que X soit une martingale. Sauriez
vous resoudre lequation obtenue?
4. Soit Y solution de
dY
t
= (Y
t
a)(b Y
t
)
2
dt + (Y
r
a)(b Y
t
)dW
t
Montrer quil existe une probabilite Q que lon determinera telle que, sous Q Y ait meme loi que
Z sous P.
Exercice 5.3.2 Un processus stationnaire. Soit X veriant dX
t
= aX
t
dt+dW
t
,X
0
v.a. donnee.
1. Explicitez X
t
.
2. Montrer que si X
0
est une v.a. gaussienne independante de W, le processus X est un processus
gaussien.
3. On suppose que X
0
est gaussienne, independante de W. Determiner la loi de X
0
pour que la loi
de la v.a. X
t
ne depende pas de t.
5.4 Des calculs
Exercice 5.4.1 Un calcul de probabilite. On suppose connue
(a,T) = P(W
t
at , t T)
2002-03 45
Soit W
1
et W
2
deux MB independants et
dX
t
= X
t
(rdt +
1
dW
1
(t)), X
0
= 1
dY
t
= Y
t
(rdt +
2
dW
2
(t)), Y
0
= 1
Calculer, en fonction de la quantite P(X
t
Y
t
, t T).
Exercice 5.4.2 Un calcul de loi Let dX
t
= (t)dt + (t)dW
t
,X
0
= 0 where and are piece wise
constant over known time.
Let us restrict our attention to the case
(t) = t [0,1[, (t) =
1
t [1,[,
(t) = t [0,1[, (t) =
1
t [1,2[/,.
Describe the distribution of Y
t
= max
0st
X
s
.
Exercice 5.4.3 Montrer que la solution de
dC
t
= C
t
_
r
t
dt +m(
dS
t
S
t
r
t
dt)
_
avec dS
t
= S
t
(
t
dt +
t
dW
t
) secrit sous la forme
C
t
= C
0
_
S
t
S
0
exp[a
_
t
0
r
s
ds +b
_
t
0

2
s
ds]
_
m
o` u on explicitera a et b.
Exercice 5.4.4 Changement de temps Soit dX
t
= X
t
dt + dW
t
et = inft : [X
t
[ > g(t) o` u
g est une fonction deterministe. Exprimer P( > t) en fonction de (u) = P(

> u) avec

= inft :
[W
t
[ > h(t).
46 Girsanov. Enonces
2002-03 47
Chapitre 6
Girsanov
Dans tous ces exercices, B (ou W) designe un P-mouvement Brownien issu de 0, T
t
sa ltration
canonique.
6.1 Resultats elementaires.
Exercice 6.1.1 Changement de probabilite Soit (
t
,t 0) un processus adapte continu borne et
L
t
= exp[
_
t
0

s
dB
s

1
2
_
t
0

2
s
ds]. Soit Q la probabilite denie sur T
T
par dQ = L
T
dP. Soit (
t
,t 0) un
processus adapte continu borne et M
t
=
_
t
0

s
dB
s

_
t
0

s
ds. Montrer que M
t
est une Q-martingale.
On pose Z
t
= M
t
L
t
. Calculer dZ
t
. Montrer que Z
t
est une P-martingale locale. Pouvait-on prevoir ce
resultat.
Exercice 6.1.2 Un calcul desperance. Soit un processus adapte borne et H le processus deni par
dH
t
= H
t

t
dW
t
, H
0
= 1. On note dQ[
F
t
= H
t
dP[
F
t
. Montrer que E
P
(H
T
ln H
T
) = E
Q
(
1
2
_
T
0

2
s
ds).
On pourra faire une demonstration `a la main (quand est deterministe) ou utiliser le theor`eme de
Girsanov.
Exercice 6.1.3 Calcul desperance. Soit p une fonction deterministe donnee. Pour quelles fonctions
h et k le processus exp(h(t) +k(t)W
2
t
+
_
t
0
p(s)W
2
s
ds) est-il une martingale. Applications :
1. Calculer E[exp(W
2
T
+
_
T
0
p(s)W
2
s
ds]
2. Calculer E[exp(W
2
T
+
_
T
0
p(s)W
2
s
ds)(A+BW
T
)]
Exercice 6.1.4 Ito+ Girsanov. Soit le processus solution de d
t
=
t
(
t
dt +
t
dW
t
),
0
= 1 o` u
et sont des processus F adaptes bornes.
1. Montrer que
t
exp
_

_
t
0

s
ds
_
est une martingale locale.
2. Trouver une probabilite Q telle que
t
soit une Q-martingale locale.
3. Calculer d
1
. Trouver une probabilite R telle que
1
t
soit une R-martingale locale.
Exercice 6.1.5 Longstas Model. Soit r
t
= Y
2
t
avec dY
t
= dW
t
(Y
t
+

2
)dt.
1. Donner la dynamique de r.
2. Soit f et g deux fonctions deterministes (que lon supposera continues bornees). Exprimer
E(exp
_
t
0
[f(s)W
s
+g(s)]dW
s

1
2
_
t
0
[f
2
(s)W
2
s
+ 2W
s
f(s)g(s)]ds)
en fonction de exp
1
2
_
t
0
g
2
(s)ds.
48 Girsanov. Enonces
3. Montrer que le calcul de E(exp
_
t
0
r
s
ds) se deduit du calcul de lexpression precedente avec des
fonctions f et g veriant des conditions que lon precisera.
Exercice 6.1.6 Loi conditionnelle. Soit t > s. Montrer que la densite
P(B
t
+t dy[B
s
+s = x)
ne depend pas de .
Exercice 6.1.7 Loi du sup. On supposera que lon connait la loi du couple (B

t
,B
t
) o` u pour un
processus X on note
X

t
= sup
st
X
s
.
Montrer comment calculer la loi de (L

t
,L
t
) pour L
t
= exp(B
t


2
2
t).
Exercice 6.1.8 Loi de quantiles
1. Soit F et G deux fonctionnelles denies sur C([0,1],IR). Montrer que lon a equivalence entre
(i) t, IR, F(X
s
,s t)
loi
= G(X
s
,s t) le processus X etant un Brownien de drift
(ii) t,F(X
s
,s t)
loi
= G(X
s
,s t) le processus X etant un Brownien.
2. Soit A
t
=
_
t
0
ds11
X
s
0
et
t
= sups t : sup
us
X
u
= X
s
. Montrer que
A
t
loi
=
t
,lorsque le processus Xest un mouvement Brownien de drift
equivaut `a
A
1
loi
=
1
, lorsque le processus Xest un mouvement Brownien
3. Soit X un mouvement Brownien. Montrer que si E(f(X
1
,A
1
)11
X
1
>0
) = E(f(X
1
,
1
)11
X
1
>0
), alors
X
1
,A
1
loi
= (X
1
,
1
).
La preuve de la premi`ere assertion peut etre trouvee dans Embrechts et al.
6.2 Crochet.
Exercice 6.2.1 Girsanov Soit M une P-martingale et dQ = exp(M
t

1
2
M)
t
) dP. Montrer que si N
est une P martingale, N < N,M > est une Q martingale.
Exercice 6.2.2 h-processus. Soit X tel que dX
t
= dt +dW
t
, X
0
= x et h une fonction de classe C
1
telle que h(X
t
) est une martingale positive. On note Q la probabilite denie par dQ[
F
t
=
h(X
t
)
h(x)
dP[
F
t
.
Soit M une P-martingale. Montrer que M
t

_
t
0
h

(X
s
)
h(X
s
)
dM,X)
s
est une Q-martingale.
6.3 Processus.
Exercice 6.3.1 Processus de Bessel. Soit P la probabilite historique, et deux processus. On
note P

la probabilite telle que le processus W

deni par W

t
def
= W
t

_
t
0
(s)ds soit un mouvement
Brownien et P

la probabilite telle que W

def
= W
t

_
t
0
(s)ds soit un mouvement Brownien.
1. Quelles sont les densites L

=
dP

dP
et L

=
dP

dP
?
2002-03 49
2. Soit L =
L

. Expliciter L en fonction de W puis en fonction de W

. A quel changement de
probabilite type Girsanov correspond L?
3. Soit R le processus solution de
dR
t
=
1
R
t
dt +dW
t
, R
0
= 1
(a) Montrer que
_
t
0
dR
s
R
s
= ln R
t
+
1
2
_
t
0
1
R
2
s
ds
(b) Soit un processus adapte borne et L
t
= exp(
_
t
0
(s)dW(s)
1
2
_
t
0

2
(s)ds). On notera Q
la probabiite denie par dQ = L
t
dP.
Comment choisir pour que, sous Q
dR
t
=
1
R
t
dt +d

W
t
o` u

W est un Q-Brownien.
(c) Exprimer dans ce cas L
t
en nutilisant que le processus R
(d) En deduire que
E(f(R
t
)) = E
_
(
t
)

exp[
_
t
0
ds

2
s
] f(
t
)
_
o` u est une constante dependant de n et
d
t
=
1

t
dt +d

W
t
,
0
= 1 .
Exercice 6.3.2 Fonctionnelles exponentielles
1. Calculer E(
_
t
0
exp(B
s
)ds) et E(exp(B
t
)
_
t
0
exp(B
s
)ds).
2. Soit A(t,) =
_
t
0
exp(B
s
+s)ds.
(a) Montrer en utilisant le theor`eme de Girsanov que le calcul de E(A(t,)) se ram`ene au cas
= 0.
(b) Peut-on faire un calcul direct?
Exercice 6.3.3 Soit X le processus solution de
dX
t
= X
t
dt +dB
t
, X
0
= x.
1. On denit L
t
= exp(
_
t
0
X
s
dX
s

1
2
_
t
0

2
X
2
s
ds). Montrer que L est une martingale (pour quelle
probabilite?)
2. Verier que
L
t
= exp
_

_
t
0
X
s
dB
s


2
2
_
t
0
X
2
s
ds
_
On note P

la mesure de probabilite denie sur T


t
par dP

= L
t
dP.
Calculer
E
P
_
exp(
b
2
2
_
t
0
X
2
s
ds)
_
.
3. Le processus
Z
t
= exp(
_
t
0
X
s
dX
s
+
1
2
_
t
0

2
X
2
s
ds)
est-il une martingale? (pour quelle probabilite?)
50 Girsanov. Enonces
4. Montrer que le calcul de E(exp
_
t
0
X
2
s
ds) se deduit de celui de E(exp(a
_
t
0
B
s
dB
s
b
_
t
0
B
2
s
ds)).
On ne cherchera pas `a eectuer ce dernier calcul.
Exercice 6.3.4 Processus dOrnstein-Uhlenbeck.
1. Soit U une variable gaussienne desperance m et de variance
2
. Calculer E(expU
2
+U) pour
1 2
2
0.
2. On denit sur T
T
la mesure P
b
par
dP
b
= expb
_
T
0
B
s
dB
s

b
2
2
_
T
0
B
2
s
dsdP
(a) Justier que, sous P
b
le processus (W
t
= B
t
+b
_
t
0
B
s
ds , t T) est un brownien.
(b) En deduire que sous P
b
, le processus (B
t
,t 0) est un processus dOrnstein-Uhlenbeck, et
que B
t
est une variable gaussienne dont on precisera, en sappuyant sur le cours, lesperance
et la variance.
(c) Montrer que, sous P, on a
_
t
0
B
s
dB
s
=
1
2
(B
2
t
t).
La meme egalite est-elle vraie sous P
b
?
(d) Montrer que, pour tout t T,
E
P
(expB
2
t

b
2
2
_
t
0
B
2
s
ds) = E
b
(expB
2
t
+
b
2
(B
2
t
t))
o` u E
b
designe lesperance sous P
b
.
Montrer que si

B est un brownien issu de a, on a
E
P
(exp

B
2
t

b
2
2
_
t
0

B
2
s
ds) = E
b
(exp

B
2
t
+
b
2
(

B
2
t
a
2
t))
(e) En deduire (il y a des calculs) que, pour tout t,
E
P
(expB
2
t

b
2
2
_
t
0
B
2
s
ds) = (cosh bt + 2

b
sinh bt)

1
2
3. Montrer que si

B
t
est un Brownien issu de a
E
P
(exp

B
2
t

b
2
2
_
t
0

B
2
s
ds) = (cosh bt + 2

b
sinh bt)

1
2
exp[
xb
2
1 +
2
b
coth bt
coth bt +
2
b
]
avec x = a
2
.
Exercice 6.3.5 Soit S solution de
dS
t
= S
t
(dt + dB
t
) ,S
0
= s ,
les coecients et etant constants.
1. Montrer que S
t
= S
0
exp(t +B
t


2
2
t).
2. On pose =
r

. Soit Q denie sur T


t
par dQ = L
t
dP avec L
t
= exp(B
t

1
2

2
t). Montrer
que (W
t
= B
t
+t,t 0) est un Q-mouvement brownien.
3. Soit

P denie sur T
t
par d

P = Z
t
dQ avec Z
t
= exp(W
t


2
2
t).
Montrer que
dS
t
= S
t
((r +
2
) dt + d

B
t
)
o` u

B est un

P-mouvement brownien.
2002-03 51
4. Soit P
t
= P
0
e
rt
. Montrer que
_
S
t
P
t
,t 0
_
est une Q-martingale.
Montrer que
P
t
S
t
est une

P-martingale.
5. Soit F
t
= e
t
__
t
0
S
u
du +sA
_
o` u A, sont des constantes
Soit
t
=
F
t
e
t
S
t
. Ecrire lequation dierentielle stochastique veriee par
t
en utilisant le Brow-
nien

B.
Exercice 6.3.6 Soit , et des fonctions (deterministes) bornees et b(t) =
_
t
0
(s) ds. On note r le
processus solution de
dr
t
= ((t) (t)r
t
) dt +(t)dW
t
On suppose que ne sannule pas.
1. Verier que
r
t
= exp(b(t))
_
r
0
+
_
t
0
exp(b(u)) (u) du +
_
t
0
exp(b(u)) (u) dW
u
_
.
2. Calculer E(r
t
) et Cov(r
t
,r
s
).
3. Soit Q
1
la probabilite denie sur T
t
par dQ
1
= L
t
dP, avec
L
t
= exp(
_
t
0
(s)dW
s

1
2
_
t
0
((s))
2
ds)
o` u (s) =
(s)
(s)
. On suppose bornee. On note W
1
t
= W
t

_
t
0
(s) ds. Montrer que (exp(b(t)) r
t
,t
0) est une Q
1
martingale.
4. Soit Q
2
la probabilite denie sur T
t
par dQ
2
= Z
t
dP, avec
dZ
t
= Z
t
(t)
(t)
r
t
dW
1
t
, Z
0
= 1
Montrer que r est une Q
2
-martingale.
Exercice 6.3.7 Drift non observable Soit B
Y
t
= Y t + B
t
o` u Y est une variable aleatoire de loi ,
independante de B. Soit F une fonctionnelle sur C([0,t],IR). Montrer que
E[F(B
Y
s
,s t)] = E[F(B
s
; s t)h(B
t
,y)]
avec h(x,t) =
_
(dy) exp(yx
y
2
2
t) En deduire que, sur lespace canonique
X
t

_
t
0
ds
h

x
h
(X
s
,s)
est une martingale sous P
h
avec P
h
[
F
t
= h(X
t
,t)W[
F
t
. Montrer que B
Y
t
=

B
h
t
+
_
t
0
_
t
0
ds
h

x
h
(B
Y
s
,s) o` u

B
h
t
est un Brownien.
Soit Q denie par dQ = e
Y B
t

1
2
Y
2
t
dP. Montrer que sous Q, B
Y
t
est independant de Y .
Exercice 6.3.8 Soit B un MB et F sa ltration naturelle. On note h une fonction.
1. Donner des conditions sur h pour que dQ = h(B
T
)dP denisse, sur T
T
une probabililite equivalente
`a P.
2. Calculer L
t
telle que dQ[
F
t
= L
t
dP[
F
t
3. Montrer que X T
T
, on a E
Q
(X[B
T
) = E
P
(X[B
T
)
4. Expliciter Q(B
T
dx).
52 Girsanov. Enonces
5. Soit A T
T
, independante de B
T
. Montrer que Q(A) = P(A). Donner des exemples de tels A.
6. Calculer Q(f(B
T
)[T
t
).
7. Montrer que
L
t
= 1 +
_
t
0
dB
s
_

dy
h

(y)e
(yB
s
)
2
/(2(Ts))
_
2(T s)
8. Montrer que le processus W deni par
dW
t
= dB
t

_

dyh

(y)e
(yB
t
)
2
/(2(Tt))
_

dyh(y)e
(yB
t
)
2
/(2(Tt))
dt
est un Q mouvement Brownien.
9. (cette question ne depend pas des precedentes) Soit (
t
= T
t
(B
T
). Montrer que le processus
M
t
= B
t

_
t
0
B
T
B
s
T s
ds est un P-(
t
mouvement Brownien. Montrer que M
t
est independante
de B
T
.
10. Montrer que M est un Q-(
t
mouvement Brownien.
Exercice 6.3.9 Soit X
t
= W
t
+
_
t
0
x X
s
1 s
ds et M
t
= exp
_

_
t
0
x X
s
1 s
dW
s

1
2
_
t
0
_
x X
s
1 s
_
2
ds
_
.
Montrer que
M
t
= exp
_

x
2
2
+
(x X
t
)
2
2(1 t)
+
1
2
ln(1 t)
_
Verifier cette formule
Exercice 6.3.10 Soit dQ[
F
t
= h(t,X
t
)dP[
F
t
. Sous quelles conditions sur h Q est-elle une probabilite
sur T
T
? Montrer que
B
t

_
t
0

x
h(s,B
s
)ds
est une Q-martingale?
6.4 Cas multidimensionel
Exercice 6.4.1 Cas multidimensionel. Soient (B
1
(t),t 0) et (B
2
(t),t 0) deux mouvements
Browniens independants. Soit (L
i
(t), i = 1,2 ,t 0) les processus denis par
dL
i
(t) =
i
(t)L
i
(t)dB
i
(t) , L
i
(0) = 1
o` u (
i
(t),i = 1,2) sont des processus adaptes continus bornes.
1. Verier que
L
i
(t) = exp(
_
t
0

i
(s)dB
i
(s)
1
2
_
t
0

2
i
(s) ds) .
2. Soit T 0 et Q
1
la probabilite denie sur T
T
par dQ
1
= L
1
(T)dP. Soit (
t
,t 0) un processus
adapte continu et M
t
=
_
t
0

s
dB
1
(s)
_
t
0

1
(s)
s
ds.
(a) Montrer que (M
t
,0 t T) est une Q
1
-martingale locale.
(b) On pose Z
1
(t) = M
t
L
1
(t). Calculer dZ
1
(t). Montrer que Z
1
est une P-martingale. Pouvait-on
prevoir ce resultat?
3. Soit Z
t
= L
1
(t)L
2
(t). Ecrire dZ
t
. Montrer que Z est une P-martingale.
4. Soit Q la probabilite denie sur T
T
par dQ = Z
T
dP. Comment se transforment les browniens B
i
?
5. Soit (S
i
,i = 1,2) deux processus solutions de
dS
i
(t) = S
i
(t)[b
i
(t)dt +
i
(t)dB
1
(t) +
i
(t)dB
2
(t)]
Montrer quil existe une probabilite Q equivalente `a P telle que, sous Q
dS
i
(t) = S
i
(t)[rdt +
i
(t)dW
1
(t) +
i
(t)dW
2
(t)]
o` u (W
i
,i = 1,2) sont des Q-Browniens independants.
2002-03 53
6.5 Temps darret.
Exercice 6.5.1 Temps darret. Soit un (T
t
)-temps darret. Soit Q telle que dQ[
F
T
= L
T
dP[
F
T
et
X T
T
. Comparer E
P
(L
T
11
>T
X) et E
Q
(X11
>T
).
Exercice 6.5.2 Let W be a Brownian motion and T = inft : e
B
t
t/2
> a, where a > 1. Prove that,
1/2,
E(11
T<
exp(B
T


2
2
T)) = 1
Exercice 6.5.3 Temps datteinte. Soit X un processus tel que
dX
t
= dt +dW
t
, X
0
= 0
o` u et sont des constantes telles que > 0. Soit r une constante.
1. Montrer quil existe tel que
M
t
def
= exp(rt +X
t
)
soit une martingale.
2. Soit b un nombre positif et le temps darret deni par
= inft 0 [ X
t
= b
Calculer E(exp(r +X

)). On admettra que la martingale M


t
est uniformement integrable et
que le temps darret est ni. En deduire E(exp(r)).
3. On suppose que les conditions de la premi`ere question sont satisfaites. Soit Q telle que dQ = M
t
dP,
sur T
t
. Comment se transforme W?
4. Soit S le processus deni par
dS
t
= S
t
[rdt +dW
t
], S
0
= s
et Y
t
= ln
S
t
s
. Ecrire dY
t
.
5. Soit B une constante telle que s < B. Soit T
B
le temps darret
T
B
= inft 0 [ S
t
= B
Calculer
E(exp(rT
B
)) .
Exercice 6.5.4 Soit f et g deux fonctions deterministes, f de classe C1, g continue. On note F
t
=
_
t
0
f(u)dW
u
et u est la solution de
u

(t) 2
f

(t)
f(t)
u

(t) 2g(t)f
2
(t)u(t) = 0
avec u

(T) = 2au(T)f
2
(T). Le but de cet exercice est de montrer que
E
_
exp
_

_
aF
2
T
+
_
T
0
g(t)F
2
t
dt
___
=
_
u(T)
u(0)
_
2
1. Montrer que, pour toute fonction h continue, le processus L deni par
L
t
= exp
__
t
0
h(s)F
s
dW
s

1
2
_
t
0
h
2
(s)F
2
s
ds
_
est une martingale.
2. En deduire que
1 = E
_
exp
_
_
T
0
h(s)
2f(s)
dF
2
s

1
2
_
t
0
(h(s)f(s) +h
2
(s)F
2
s
)ds
__
= E
_
exp
1
2
_
h(T)
f(T)
F
2
T

_
T
0
F
2
t
_
h

(t)f(t) f

(t)h(t)
f
2
(t)
_
dt
_
t
0
(h(s)f(s) +h
2
(s)F
2
s
)ds
__
54 Girsanov. Enonces
3. Montrer que
E
_
exp
_
1
2
_
u

(T)
u(T)f
2
(T)
_
F
2
T

_
T
0
F
2
t
_
u

(t) 2u

(t)f

(t)/f(t)
u(t)f
2
(t)
_
dt
__
=
_
u(T)
u(0)
_
1/2
4. Resoudre le meme probl`eme par changement de temps.
5. Soit une fonction borelienne bonee de IR dans IR. Comment calculer
K = E
_
exp
_

_
aF
2
T
+
_
T
0
g(t)F
2
t
dt
_
(A+BF
T
+
_
T
0
(t)F
t
dt)
__
Exercice 6.5.5 Decomposition canonique Soit W un mouvement Brownien et h une fonction posi-
tive, veriant h(0,0) = 1 et harmonique en espace (cest-`a-dire telle que h(t,W
t
) est une martingale). On
denit Q par dQ[
F
t
= h(t,W
t
)dP
F
t
. Montrer que W
t

_
t
0
h

x
h
(s,W
s
)ds est un Q-mouvement Brownien.
6.6 Finance
Exercice 6.6.1 Moyenne. Soit dS
t
= S
t
(rdt + dB
t
), S
0
= 1, r et etant des constantes. On
souhaite calculer C = E[(Z
T
S
T
)
+
] quand Z
T
= exp
_
1
T
_
T
0
ln S
t
dt
_
.
1. Soit Q la probabilite denie sur T
T
par dQ = exp(B
T

2
T/2)dP. Montrer que
e
rT
E
P
[(Z
T
S
T
)
+
] = E
Q
[(
Z
T
S
T
1)
+
] .
2. Soit

B
t
= B
t
t. Ecrire Z
T
/S
T
sous la forme exp(T
_
T
0
(t)d

B
t
).
3. Montrer que le calcul de C se reduit au calcul de E((

S
T
K)
+
) pour un Brownien geometrique

S dont on precisera la loi.


Exercice 6.6.2 Volatilite stochastique On rappelle le theor`eme de representation previsible `a deux
dimensions Soit W = (W
1
,W
2
) un Brownien `a valeurs dans IR
2
et (T
t
) sa ltration canonique. Toute
(T
t
)-martingale de carre integrable secrit M
t
= m+
_
t
0

1
(s)dW
1
(s) +
_
t
0

2
(s)dW
2
(s) o` u (
i
,i = 1,2)
sont des processus adaptes. Soient et deux fonctions deterministes de IR
+
dans IR et , deux
fonctions deterministes de IR dans IR. On consid`ere alors un marche nancier o` u lactif risque verie
dS
t
= S
t
((t)dt +(Y
t
)dW
1
t
), S
0
= s
o` u Y est un processus solution de
dY
t
= (t)dt +(Y
t
)dW
2
t
, Y
0
= 1
1. Quelles doivent etre les proprietes du processus (L
t
,t 0) pour que la formule dQ[T
t
= L
t
dP
denisse une probabilite Q?
2. Determiner lensemble des probabilites equivalentes `a P telles que, sous Q, S soit une martingale.
3. Soit B un actif contingent B T
T
. Comment lui donner un prix (le taux sans risque est nul)?
Exercice 6.6.3 Options boost. Soit M une T
t
-martingale `a valeurs strictement positives.
1. Justier quil existe tel que dM
t
=
t
dW
t
.
2. Montrer quil existe tel que dM
t
=
t
M
t
dW
t
.
3. Soit un nombre reel. Calculer d[(M
t
)

].
4. Soit S un Brownien geometrique tel que S
0
= s et
dS
t
= S
t
(r dt +dW
t
) (6.1)
o` u r et sont des constantes. Montrer quil existe tel que S
t
= s(M
t
)

o` u M est une martingale


de la forme precedente. Expliciter en fonction de r et . A quel choix de r et correspond la
valeur = 1?
2002-03 55
5. Soit K un nombre reel positif et M une martingale telle que dM
t
= M
t
dW
t
o` u est une constante
et M
0
= 1. Montrer que
E((M
t
K)
+
) = E((1 KM
t
)
+
)
On pourra utiliser le theor`eme de Girsanov et faire apparaitre une nouvelle probabilite Q et
determiner la loi de 1/M sous Q.
6. Soit S un processus veriant (6.1), S

t
= sup
st
S
s
et W

t
= sup
st
W
s
. La loi de W

t
est connue
(cest celle de [W
t
[, ce resultat sera admis), on notera (a) = P(W

t
a). Calculer, en utilisant les
resultats de la question 3, E(11
S

T
a
) qui correspond `a la valeur dune option boost (au coecient
exp(rT) pr`es).
Exercice 6.6.4 Volatilite stochastique. Soit W
1
et W
2
deux Browniens independants, et T
t
=
(W
1
s
,W
2
s
,s t) la ltration engendree par les deux Browniens. Soit et deux fonctions deterministes
bornees de IR
+
dans IR et , deux fonctions deterministes bornees denies de IR dans IR. On note S
la solution de
dS
t
= S
t
((t)dt +(Y
t
)dW
1
t
), S
0
= s
o` u Y est un processus solution de
dY
t
= (t)dt +(Y
t
)dW
2
t
, Y
0
= 1
1. Soit un processus borne et Z la solution de
dZ
t
= Z
t

t
dW
1
t
, Z
0
= 1
Ecrire explicitement Z
t
sous la forme dune exponentielle.
2. Soit et deux processus adaptes bornes et L le processus deni par
L
t
= exp
__
t
0

s
dW
1
s

1
2
_
t
0
(
s
)
2
ds +
_
t
0

s
dW
2
s

1
2
_
t
0
(
s
)
2
ds
_
(6.2)
Ecrire lEDS veriee par L.
3. On pose

W
t
= W
1
t

_
t
0

s
ds et on note

Z la solution de d

Z
t
=

Z
t
d

W
1
t
,

Z
0
= 1 o` u est une
constante. Montrer que L

Z est une martingale.


4. Soit Q denie sur T
t
par dQ = L
t
dP. Montrer que

Z est une Q martingale. En deduire que

W
1
est un Q brownien.
5. Montrer que

W
2
t
= W
2
t

_
t
0

s
ds est un Q brownien.
6. On admet que si Q est une mesure equivalente `a P il existe , tels que la densite de Q par rapport
`a P soit de la forme (6.2). Decrire lensemble des couples , correspondants `a des probabilites Q
telles que (S
t
e
rt
,t 0) soit une Q-martingale.
7. Le marche nancier est-il complet?
8. Soit X un actif contingent duplicable, cest-`a-dire tel quil existe V processus adapte de la forme
dV
t
= rV
t
dt +
t
(dS
t
rS
t
dt)
veriant V
T
= X, avec processus adapte borne. (On ne demande pas de justier cette denition)
(a) Montrer que (V
t
e
rt
,t 0) est une Q martingale pour tout Q Q.
(b) On suppose que V
t
= v(t,S
t
,Y
t
). Montrer que v verie une equation aux derivees partielles
que lon explicitera.
Exercice 6.6.5 Symetrie put-call. Soit M une (T
t
)-martingale telle que dM
t
= M
t
dW
t
o` u est
une constante et M
0
= 1.
1. Verier que M est `a valeurs strictement positives.
2. Calculer dY
t
quand Y
t
= (M
t
)
1
.
3. Soit Q telle que dQ = M
t
dP sur T
t
. Determiner la loi de Y sous Q.
4. Montrer que E
P
((M
T
K)
+
) = KE
P
((K
1
M
T
)
+
).
56 Girsanov. Enonces
Exercice 6.6.6 Symetries
On suppose que le prix dun actif, sous la probabilite risque neutre Q est donne par (3.3) o` u q est le
taux de dividendes. On note C(x,K,r,q) (ou C(x,K,r,q,) si besoin est) le prix dune option dachat
europeenne de prix dexercice K, soit
C(x,K,r,q) = E(e
rT
(S
T
K)
+
)
On rappelle que, dans le cas r = 0 = q, en notant C

(x,K) = C(x,K,0,0) le prix dun call de strike K


sur un sous jacent de valeur initiale x et P

le prix dun put, on a


C

(x,K) = x^
_
d
1
_
x
K
__
K^
_
d
0
_
x
K
__
, P

(x,K) = x^
_
d
0
_
K
x
__
+K^
_
d
1
_
K
x
__
, (6.3)
avec
d
1
() =
1

T
ln() +
1
2

T , d
0
() = d
1
()

T
et que le delta du call est DeltaC

(x,K) = ^(d
1
(
x
K
)).
1. Montrer, en utilisant les resultats de lexercice 3.3 que C(x,K,r,q) = C

(xe
qT
,Ke
rT
).
2. Montrer, au vu des formules precedentes que
DeltaC(x,K,r,q) = e
qT
^
_
d
1
_
xe
qT
Ke
rT
__
DeltaP(x,K,r,q) = e
qT
^
_
d
0
_
Ke
rT
xe
qT
__
o` u DeltaC est le Delta du call.
3. Montrer, au vu des formules (6.3) et de la question (a) que
C(x,K,r,q) = C

(Ke
T
,x) = P

(xe
T
,K) = P(K,x,q,r) (6.4)
o` u = r q et P le prix dun put. Commenter.
4. On souhaite montrer avec des arguments probabilistes que C

(K,x) = P

(x,K). (cas = 0).


(a) On commencera par calculer la dynamique de 1/S, dans le cas dS
t
= S
t
dW
t
.
(b) On transformera E((S
T
K)
+
) en

E((x

S
T
)
+
) o` u

E est lesperance sous une probabilite
que lon precisera.
5. Le payo dune option power sur le sous-jacent Y est Y

T
(Y
T
K)
+
. Montrez que son prix
C
pow
(y,K,,) peut sobtenir facilement `a partir de call europeens portant sur les sous jacents Y

et Y
+1
.
Exercice 6.6.7 Options power. Soit
dS
t
= S
t
((r )dt +dB
t
), S
0
= x.
Cette dynamique modelise, sous la probabilite risque-neutre P, le prix dun actif versant des dividendes
au taux le taux spot etant r.
1. On souhaite evaluer un actif contingent sur S, actif versant des dividendes. Il sagit donc de
calculer
E
P
(h(S
T
)e
r(Tt)
[T
t
) .
Quelle est la valeur de cet actif dans le cas h(x) = (x

K)
+
? (On utilisera sans moderation
les formules classiques sur levaluation de produits etudies dans le poly ou dans tout ouvrage de
reference.)
2. On suppose r = . On pose dQ[
F
t
= (S
t
/x)dP[
F
t
. Justier rapidement que lon denit un change-
ment de probabilite. On pose Z
t
= x
2
/S
t
. Quelle est la dynamique de (Z
t
,t 0) sous Q? Montrer
que pour toute fonction f borelienne bornee
1
x
E
P
(S
T
f(
x
2
S
T
)) = E
P
(f(S
T
))
2002-03 57
3. On repasse au cas general. Montrer que S
a
est une martingale pour une valeur de a que lon
precisera. Montrer que, pour toute fonction f borelienne bornee
E
P
(f(S
T
)) =
1
x
a
E
P
(S
a
T
f(
x
2
S
T
))
4. On se place dans le cas
h(x) = x

(x K)
+
Montrer que h(S
T
) secrit comme dierence de deux payos correspondants a des options dachat
Europeennes portant sur S
+1
et sur S

avec des strikes que lon determinera.


Exercice 6.6.8 Option dechange Soit dS
(i)
t
= S
(i)
t
(b
i
dt +
i
dW
(i)
t
,i = 1,2 o` u les coecients sont
constants, les browniens W
(i)
etant correlles. Calculer la valeur dune option dechange dont le payo
est (S
(1)
T
S
(2)
T
)
+
.
Exercice 6.6.9 Option quanto
Exercice 6.6.10 Taux de change On consid`ere deux pays. Les quantites relatives au pays domestique
seront indexees par d, les quantites relatives `a lautre pays par f. Chaque pays poss`ede un taux sans
risque note respectivement r
d
et r
f
. Les marches des deux pays sont diriges par un mouvement Brownien
W. Sous la probabilite P, un actif S suit la dynamique
dS
t
= S
t
(
t
dt +
S
t
dW
t
)
On suppose que chacun des deux marches est sans arbitrage : il existe une probabilite risque neutre do-
mestique notee Q
d
equivalente `a P telle que sous Q
d
le processus (e
r
d
t
S
d
t
,t 0) est une Q
d
martingale.
1. Montrer que tout actif domestique S
d
a une dynamique de la forme
dS
d
t
= S
d
t
(r
d
dt +
t
dW
d
t
)
o` u W
d
est un Q
d
mouvement Brownien. On notera
d
la prime de risque denie par dW
d
t
=
dW
t
+
d
t
dt. Le taux de change entre ces pays est X dirige par
dX
t
= X
t
[(r
d
r
f
) dt +
X
t
dW
d
t
]
Si S
f
est un prix en unites monetaires du pays etranger, S
f
X est le prix du meme produit en
unites monetaires domestiques.
2. Soit S
f
un actif etranger de dynaique
dS
f
t
= S
f
t
(r
f
t
dt +
t
dW
f
t
)
Montrer que

f
t

d
t
=
X
t
W
d
t
W
f
t
=
_
t
0

X
s
ds
3. Quelle est la dynamique du taux de change inverse Y = 1/X?
4. On souhaite valoriser une option quanto, cest `a dire une option sur produit etranger faisant
intervenir le taux de change. Comment evaluer en monnaie domestique un ux etranger de
(Sf
T
K)
+
? Comment evaluer une option dachat sur action etrang`ere avec strike en mon-
naie domestique?
Exercice 6.6.11 Richesse (Cox-Huang, Karatzas) Un agent nancier souhaite investir sur un
marche sur lequel deux actifs sont negociables:
Un actif sans risque de dynamique dS
0
(t) = S
0
(t)r(t)dt o` u r est deterministe,
Un actif risque dont le prix a pour dynamique dS
1
(t) = S
1
(t)(b(t)dt + (t)dW
t
). On
suppose que ne sannule pas.
La richesse X de cet agent a pour dynamique
dX
t
= X
t
r(t)dt +
t
[b(t) r(t)]dt +(t)
t
dW
t
o` u est un processus (T
t
) adapte representant la proportion de la richesse investie dans lactif risque.
1. Montrer quil existe une probabilite Q telle que dS
1
(t) = S
1
(t)(r(t)dt +(t)d

W
t
) o` u

W est un Q
mouvement Brownien.
58 Girsanov. Enonces
2. Montrer que (R(t)X
t
,t 0) est une Q martingale locale, avec R(t) = exp
_
t
0
r(s)ds
3. Soit (t) =
b(t) r(t)
(t)
et H solution de lequation dH
t
= H
t
(r(t)dt +(t)dW
t
), H
0
= 1. Montrer
que le processus (H
t
X
t
,t 0) est une P-martingale locale.
4. On suppose que (H
t
X
t
,t 0) est une P-martingale pour tout choix de . Lagent souhaite obtenir
une richesse terminale egale `a , v.a. T
T
mesurable (i.e. X
T
= ). Montrer que sa richesse initiale
X
0
est alors determinee, et que son portefeuille de couverture (i.e. ) egalement.
Exercice 6.6.12 Optimisation de richesse Sur le marche nancier on trouve un actif risque et un
actif sans risque. Soit (S
t
,t 0) le prix de lactif risque. On suppose que dS
t
= S
t
(
t
dt +dB
t
) . Lactif
sans risque verie
dS
0
(t) = S
0
(t)r
t
dt .
Les processus
t
,r
t
sont T
t
-adaptes bornes, est une constante non nulle.
1. Montrer que S
t
exp
_

_
t
0

s
ds
_
est une P-martingale.
2. On pose
t
=

t
r
t

.
Determiner Q telle que, sous Q le processus

B
t
= B
t
+
_
t
0

s
ds soit un mouvement Brownien.
Ecrire lequation veriee par S
t
en utilisant

B
t
.
3. Un agent de richesse initiale x investit sa richesse X
t
suivant lactif sans risque et lactif risque de
prix S
t
suivant X
t
= n
0
(t)S
0
(t) +n
1
(t)S
t
. On suppose que dX
t
= n
0
(t)dS
0
(t) +n
1
(t)dS
t
.
(a) Montrer que dX
t
= r
t
X
t
dt +n
1
(t)(dS
t
S
t
r
t
dt).
(b) On note
t
= n
1
(t)S
t
et R
t
= exp
_
t
0
r
s
ds.
Ecrire dX
t
en fonction de
t
,r
t
, et B
t
.
(c) Montrer que, sous Q, le processus X
t
R
t
est une martingale.
(d) Soit = X
T
. Ecrire X
t
sous forme dune esperance conditionnelle faisant intervenir et le
processus r.
4. On se donne un processus (c
t
,t 0) `a valeurs positives adapte et un processus (
t
,t 0) de carre
integrable T
t
- adapte.
Soit (X
t
,t 0) un processus tel que
dX
t
= r
t
X
t
+
t
(dB
t
+
t
dt) c
t
dt . (6.5)
(a) Montrer que, sous Q, le processus X
t
R
t
+
_
t
0
R
s
c
s
ds est une martingale. v En deduire que
X
t
R
t
= E
Q
(X
T
R
T
+
_
T
t
R
s
c
s
ds[T
t
).
(b) Ecrire cette relation sous P.
(c) Montrer que si lon impose la condition X
T
0, il existe une solution de (6.5) positive,
veriant cette condition.
Exercice 6.6.13 Soit X
t
= t + B
t
. On note T
a
= inft[X
t
= a. Trouver une probabilite Q telle
que sous Q, (

B
t
= X
t
/ ,t 0) soit un mouvement Brownien. Exprimer T
a
en utilisant

B
t
. Calculer
E
P
(exp T
a
).
Exercice 6.6.14 Montrer que le prix dune option Asiatique dont le strike est le sous jacent est le prix
dun call sur un sous jacent de dynamique dZ
t
= (1 rU
t
)dt Z
t
dW
t
. Comment faire le calcul?
Exercice 6.6.15 Zero-coupons Soit Y
t
= h(t)dt +dW
t
et r
t
= (t)Y
t
o` u h et sont des fonctions de
classe C
1
. On souhaite calculer E
_
exp
_

_
t
0
r
s
ds
__
.
1. Exprimer dr.
2000-01 59
2. Soit L
H
t
= exp
__
t
0
H(s)dW
s

1
2
_
t
0
H
2
(s)ds
_
. Justier que E(L
H
T
) = 1 pour toute fonction H
continue. En deduire que
E
_
exp
_
H(T)W
T

_
T
0
F

(s)W
s
ds
1
2
_
T
0
H
2
(s)ds
__
= 1 .
3. En utilisant L
h
t
, montrer que
E
_
exp
_

_
T
0
r
s
ds
__
= E
_
exp
_
h(T)W
T

_
T
0
W
s
(h

(s) +(s))ds
_
T
0
1
2
_
T
0
h
2
(s)ds
__
.
4. Calculer cette quantite.
Exercice 6.6.16 Soit dY
t
= 2

Y
t
dW
t
+(2(t)Y
t
+)dt et r
t
= (t)Y
t
, o` u et sont des fonctions de
classe C
1
. On introduit dX
t
= 2

X
t
dW
t
+dt.
1. Calculer dr
t
.
2. Soit H une fonction de classe C
2
et
Z
H
t
= exp
__
t
0
H(s)
_
X
s
dW
s

1
2
_
t
0
H
2
(s)X
s
ds
_
On admet que Z est une martingale. Montrer que
Z
t
= exp
_
1
2
_
H(t)X
t

_
t
0
H(s)ds
_
t
0
H

(s)X
s
ds
1
2
_
t
0
H
2
(s)X
s
ds
__
3. Montrer que
E
_
exp
_

_
T
0
r
s
ds
__
=
exp
_
1
2
(
0
X
0

_
T
0
(s)ds)
_
E
_
exp
_
1
2
_
(T)X
T

_
T
0
X
s
(
2
(s) +

(s) + 2(s))ds
_
__
4. Comment calculer cette derni`ere expression?
Exercice 6.6.17 On se place dans le cas o` u S
t
= e
2(W
t
+t)
Montrer en utilisant la formule dIto que S
est une sousmartingale pour +1 0 et une surmartingale sinon. En deduire que le prix dune option
asiatique est plus petit que le prix dune option plain vanilla. Montrer par une minoration simple que
E(
1
T
_
T
0
exp(2(W
s
+s))ds) E(e
2(W
T
+T)
)
60 Complements. Enonces
2000-01 61
Chapitre 7
Complements
ENONCES
Dans tout ce chapitre, B (ou W) est un mouvement Brownien dont la ltration est notee (T
t
).
7.1 Theor`eme de Levy.
Exercice 7.1.1 Levys theorem. Let W be a standard Brownian motion and
D = sup
0st1
(W
s
W
t
), D
1
= W

inf
t1
W
t
, D
2
= sup
0t
W
t
W

where (resp. ) is the time of the absolute maximum (resp. minimum) of the Brownian motion over
[0,1], (i.e., ).
1. Prove that D
loi
= sup
0t1
[W
t
[.
2. En deduire la loi de D.
3. Prove that D
1
loi
= sup
gt1
[W
t
[ where g = supt 1 : W
t
= 0.
Exercice 7.1.2 Loi du couple ([B
t
[,L
t
).
1. Montrer que la loi du couple ([B
t
[,L
t
) est

t
(da,d) = 11
a0
11
0
2(a +)

2t
3
exp
_

(a +)
2
2t
_
da d
2. On note T
a
= inft 0; B
t
= a et

= inft 0; L
t
= . Montrer que T

loi
=

3. Montrer que le processus ([B


t
[,L
t
) est markovien de semi groupe
Q
t
(,,f) =
_

t
(da,d)f( ( a), ( ) + )
4. Montrer que S
t
(S
t
B
t
) et B
t
sont independantes.
5. Montrer que S
t
(S
t
B
t
)
loi
=
t
2
c o` u c est une variable exponentielle de param`etre 1.
Exercice 7.1.3 On note W

le processus W

t
= sup
st
W
s
.
1. Justier rapidement (en se basant sur des resultats classiques) que P(W

t
> a) = 2P(W
t
> a)
pour a > 0. Cette egalite est-elle veriee egalement pour a 0?
2. Soit s < t. Montrer que
P( sup
sut
W
u
> 0,W
s
< 0) = 2P(W
t
> 0,W
s
< 0)
62 Complements. Enonces
3. Calculer explicitement cette quantite.
4. On note g
t
= sups t : W
s
= 0. Calculer la loi de g
t
.
Exercice 7.1.4 On note M
t
= sup
0st
B
s
et = supt 1 : B
t
= M
t
. On souhaite calculer la loi
de .
1. Ecrire t en utilisant les variables M
t
et sup
ts1
B
s
2. Ecrire t en utilisant M
t
et sup
ts1
(B
s
B
s
)
3. Quelle est la loi de sup
ts1
(B
s
B
s
) conditionnelle `a T
t
?
4. En deduire que P( t[T
t
) = (M
t
B
t
) o` u (x) = P(M
1t
< x)
5. En utilisant le cours, calculer (x).
6. On admet que M
t
B
t
a meme loi que B
t
. Comment obtenir la loi de ?
7.2 Equations retrogrades
Exercice 7.2.1 Equation retrograde 1. Soit H
dH
t
= H
t
(rdt +dW
t
) , H
0
= 1
On notera H
t,s
=
H
s
H
t
pour t < s.
1. Soit t xe. Quelle est lEDS suivie par (H
t,s
,s t).
2. Soit une v.a. de T
T
et X
t
= ln E(H
t,T
e

[T
t
). Montrer que Y
t
def
= exp(X
t
)H
t
est une martingale
que lon peut ecrire sous la forme z +
_
t
0
z
s
dW
s
.
3. Montrer que dX
t
= (a

X
2
t
+b

X
t
+c)dt+

X
t
dW
t
o` u

X est un processus adapte que lon determinera
en fonction de Z,z,r et et o` u b et c sont des constantes.
Exercice 7.2.2 Equation retrograde 2. La question (b) est triviale, si lon admet (a). Dans tout le
probl`eme est une variable T
T
-mesurable, integrable.
1. Soit H est une variable T
T
mesurable, integrable. Justier quil existe un processus (h
s
,s T)
et une constante z tels que E(H[T
t
) = z +
_
t
0
h
s
dW
s
. On pourra admettre ce resultat pour
poursuivre.
2. On note X
t
= E([T
t
). Montrer quil existe un processus (

X
s
,s T) tel que
dX
t
=

X
t
dW
t
, Y
T
= (7.1)
En deduire que, si une variable T
T
mesurable integrable, il existe un couple (X,

X) de processus
(T
t
) adaptes veriant (7.1).
3. Soit r un nombre reel. En utilisant e
rt
E(e
rT
[T
t
) montrer quil existe un couple (X,

X) de
processus (T
t
) adaptes tels que
dX
t
= rX
t
dt +

X
t
dW
t
Y
T
=
4. Soit (r
t
,t 0) un processus (T
t
) adapte borne. En utilisant une methode analogue, montrer quil
existe un couple (X,

X) de processus (T
t
) adaptes tels que
dX
t
= r
t
X
t
dt +

X
t
dW
t
, Y
T
=
5. Soit
,
le processus solution de d
t
=
t
(
t
dt +
t
dW
t
),
0
= 1 o` u et sont des processus
(T
t
) adaptes bornes. Soit un processus (T
t
) adapte borne. En considerant
E(
T
+
_
T
t

s
ds[T
t
)
montrer quil existe un couple (X,

X) de processus (T
t
) adaptes tels que
dX
t
= (
t
+X
t

t
+
t

X
t
)dt +

X
t
dW
t
,

X
T
=
2000-01 63
6. Soit a un nombre reel. En considerant
1
2a
ln (E [exp (2a) [T
t
]), montrer quil existe un couple
(X,

X) de processus (T
t
)-adaptes tels que
dX
t
=

X
2
t
dt +

X
t
dW
t
,

X
T
= (7.2)
7. Montrer que
1
2a
ln
_
E
_

2ac,b
t,T
exp (2a) [T
t
__
est solution de
dX
t
= (a

X
2
t
b

X c)dt +

X
t
dW
t
,

X
T
=
Exercice 7.2.3 Equation retrograde 3..
1. Soit (
t
,t 0) un processus F-adapte. Donner la solution (Y,Z) de lequation retrograde
dY
t
=
t
dt Z
t
dW
t
, Y
T
= 0. (7.3)
2. Au moyen du theor`eme de Girsanov, donner la solution de
dY
t
= (
t
+Z
t
)dt Z
t
dW(t), Y
T
= 0. (7.4)
o` u est un scalaire quelconque. Exprimer Y
0
sous la forme dune esperance dependant des donnees
du probl`eme.
3. On pose
t
= W
t
. Montrer que Y
0
=
_
T
0
E(M
t
W
t
) dt o` u M
t
= exp(W
t

1
2

2
t). Calculer
E(M
t
W
t
) et E(M
t
signW
t
)) o` u
sign(W
s
) = 1 si W
s
> 0, et
;
sign(W
s
) = 1 si W
s
) 0 .
4. On introduit le processus
W
t
=
_
t
0
sign(W
s
) dW
s
,
On rappelle (cf. cours) que ce processus est un mouvement Brownien, on notera T
t
= (W
s
; s t)
sa ltration, qui est incluse dans T
t
. Montrer que la solution de
dY
t
= (W
t
+Z
t
) dt Z
t
dW
t
, Y
T
= 0 ,
verie
Y
0
= T
2
/2. (7.5)
5. Montrer que la solution de
dY
t
= (W
t
+Z
t
)dt Z
t
dW
t
, Y
T
= 0, (7.6)
verie
Y
0
=
_
T
0
E
_
M
T
W
t
_
dt =
_
T
0
E
_
M
t
W
t
_
dt.
6. Montrer, au moyen de la formule dIto que
E
_
M
t
W
t
_
=
_
t
0
E (M
s
sign(W
s
)) ds,
pour 0 t T. et en deduire que
Y
0
= T
2
/2 2
_
T
0
(T s)(

s)ds. (7.7)
o` u est la fonction de repartition de la loi normale centree reduite.
7. Supposons que Y
0
represente lutilite (mesure le bien etre que lon eprouve quand on consomme c)
associee `a un plan de consommation (c
t
= exp(W(t))) et une information F et que Y
0
represente
lutilite associee au meme plan de consommation mais avec linformation F. Interpretez alors le
resultat trouve en (7.5) et en (7.7) selon que > 0 ou que < 0.
64 Complements. Enonces
7.3 Theor`emes de representation
Exercice 7.3.1 Soit W
(i)
,i = 1,2,3 trois MB, avec W
(i)
,i = 1,2 independants. Montrer quil nest pas
possible davoir (W
(3)
s
,s t)) = (W
(1)
s
,W
(2)
s
,s t).
Exercice 7.3.2 Changement de temps Soit M
t
=
_
t
0
11
W
s
>0
dW
s
.
1. Justier que (M
t
,t 0) est une martingale.
2. Trouver un processus (A
t
,t 0) croissant tel que M
2
t
A
t
est une (T
t
)-martingale.
3. On admet quil existe un processus croissant C tel que A(C(t)) = t. Montrer que (M
C
t
,t 0) est
un ((
t
)-mouvement Brownien. Preciser quelle est la ltration ((
t
)-utilisee.
Exercice 7.3.3 Crochet et indedendance. Soient W
1
et W
2
deux MB tels que leur crochet soit nul.
Montrer quils sont independants.
7.4 Temps local.
Exercice 7.4.1 Formule de Tanaka.
1. Peut-on appliquer la formule dIto pour calculer dZ
t
avec Z
t
= [W
t
[?
2. On admet quil existe un processus croissant L tel que
[W
t
[ = [W
0
[ +
_
t
0
f(W
s
)dW
s
+L
t
avec f(x) = 1 si x > 0 et f(x) = 1 sinon. Montrer que (
_
t
0
f(W
s
)dW
s
,t 0) est un mouvement
Brownien que lon notera .
3. Soit S
t
= sup
st
W
s
. Verier que S est un processus croissant. Comparer les decompositions
[W
t
[ =
t
+L
t
et S
t
W
t
= W
t
+S
t
. Pour cette question, je ne vous demande aucun raisonnement
precis.
Exercice 7.4.2 Temps local. Soit L le temps local. Montrer que L
t
= inf
st
([B
s
[ +L
s
).
Exercice 7.4.3 Temps aleatoire. Soit B un MB, S son maximum sur [0,1] (soit S = supB
s
,s 1
et = inft 1 : B
t
= S. La v.a. est-elle un temps darret? Quelle est la loi de ? On calculera
P( u) et on utilisera le principe de reexion et lidentite de Levy (S
t
B
t
,t 0)
loi
= ([B
t
[,t 0).
Calculer P( t[T
t
).
Exercice 7.4.4 Des martingales. Soit X une martingale continue et S
t
= sup
st
X
s
.
1. Pour quelles fonctions f le processus Y
t
= f(X
t
,S
t
,X)
t
) est-il une martingale locale?
2. Montrer que si g est C
2
et g(0) = 0, le processus
g(S
t
) (S
t
X
t
)g

(S
t
)
est une martingale locale.
3. Montrer que si g est C
2
et g(0) = 0, le processus
g(L
t
) [X
t
[g

(L
t
)
est une martingale locale.
Exercice 7.4.5 Scaling Soit B un MB et L son temps local. Montrer que
(L
x

2
t
,x IR,t 0)
loi
= (L
x/
t
x IR,t 0)
On utilisera
_

2
t
0
f(B
s
)ds
loi
=
2
_
t
0
f(B
u
)du
2000-01 65
Exercice 7.4.6 Calculer E(L
x
T
a
).
Exercice 7.4.7 Let M be a continuous martingale such that M)

= and the associated Dubins-


Schwarz BM. Prove that L
a
t
(M) = L
a
M
t
().
Exercice 7.4.8 Let be a non negative process indexed by IR
+
IR. Prove that
_

dy
_
t
0
d
s
L
y
s
(s,y) =
_
t
0
d
s
Y )
s
(s,Y
s
) .
7.5 Lois
Exercice 7.5.1 Temps datteinte. Soit X solution de
X
t
= a(X
t
)dt +b(X
t
)dW
t
, X
0
= x.
On note T
a
= inft 0 [ X
t
= a.
1. Donner des conditions sur la fonction V pour que (e
t
V (X
t
),t 0) soit une martingale.
2. En deduire E(e
T
a
11
(T
a
<)
) en fonction de V . On ne demande pas dexpliciter V .
3. Soit f(x) =
_
x
0
y
b(y)
dy et Y
t
= f(X
t
). On suppose b C
1
. Calculer dY
t
.
4. En deduire que
_
t
0
X
s
dW
s
= f(X
t
) f(x) +
_
t
0
g(X
s
) ds o` u g est une fonction que lon precisera.
Exercice 7.5.2 Temps datteinte Soit V
t
= v + W
t
et
a
(V ) = inft : V
t
= a. Montrer que

a
(V )
loi
=
(a v)
2
G
2
, o` u G est une variable de loi ^(0,1).
Comment calculer E
_
11
{T<
a
(V )}
h(V
T
)
_
?
Exercice 7.5.3 Soit M une martingale telle que M
0
= a et lim
t
M
t
= 0. On rappelle (exercice
1.5.11) sup M
t
loi
=
a
U
o` u U est une v.a. de loi uniforme sur [0,1].
On propose des applications de ce resultat.
1. Let B be a BM with initial value a > 0 and T
0
= inft : B
t
= 0. Identify the law of sup
uT
0
B
u
.
2. Prove that, for a > 0, sup
u
(B
u
au)
loi
=
1
2a
e, where e is a standard exponential variable with
mean 1.
3. Let B be a BM and T
1
the rst hitting time of 1. Dene I
t
= inf
st
B
s
. Identify the law of I
T
1
.
Exercice 7.5.4 Loi du maximum.
On rappelle que, pour T xe, max
tT
W
t
loi
= [W
T
[. On note C = E[(e
W
T
1)
+
] et P = [(1e
W
T
)
+
].
Montrer que pour x > 0
E[max
tT
(xe
W
t
xe
W
T
)] = x[C +P]
(Il ny a aucun calcul `a faire)
7.6 Filtrations
Exercice 7.6.1 Agent initie Lagent initie connait la valeur terminale du Brownien. Le probl`eme est
de savoir comment se transforment les martingales. Soit Z
t
def
= W
t

_
t
0
W
T
W
u
T u
du
1. Soit f une fonction deterministe. Montrer que
E[Z
u
_
T
0
f(v)dW
v
] =
_
u
0
f(v)dv
_
u
0
ds
1
T s
_
T
s
dvf(v)
En deduire que si, pour tout u, E[Z
u
_
T
0
f(v)dW
v
] = 0 , alors f verie f(u) =
1
T u
_
T
u
dvf(v)
et montrer que f est une constante.
66 Complements. Enonces
2. Soit t < T. On admet que E(W
t
[W
T
) = aW
T
+b o` u a et b sont des constantes. Montrer que b = 0
et que a =
t
T
. (On pourra prendre lesperance des deux membres et calculer E(W
t
W
T
))
3. Soit s < t < T. On admet que E(W
t
[W
s
,W
T
) = aW
s
+ bW
T
+ c o` u a,b et c sont des constantes.
Montrer que a =
T t
T s
, b =
t s
T s
, c = 0.
4. On note T

t
= T
t
(W
T
) la tribu engendree par (W
u
,u t) et par W
T
. On admet que pour
s < t, E(W
t
[W
T
,W
s
) = E(W
t
[T

s
). Montrer que Z est une (T

t
)- martingale. On pourrait montrer
que cest un MB.
Exercice 7.6.2 Soit G une ltration et W un G mouvement brownien.
1. Soit H une ltration plus petite que G. Verier que le processus M
t
= E(W
t
[H
t
) est une martin-
gale. (on precisera par rapport `a quelle ltration).
2. Soit X
t
= W
t
+
_
t
0
Y
u
du o` u Y est un processus G adapte integrable. On note F
X
la ltration
de X (qui verie T
X
t
(
t
) et

Y
u
= E(Y
u
[T
X
u
). Verier que Z
t
= (X
t

_
t
0

Y
u
du,t 0) est une
F
X
-martingale (on calculera lesperance conditionnelle de Z
t
par rapport `a T
X
s
). Montrer que Z
est un mouvement Brownien.
7.7 Options barri`eres
Exercice 7.7.1 On note ^ la fonction de repartition de la loi normale et M
t
= sup(B
s
,s t).
1. Soit x IR. Montrer que P(B
t
x) = P(B
t
x) = ^(x(

t)
1
).
2. Soit y > 0 donne, T = inft 0 [B
t
= y.
Soit B

t
= B
T+t
B
T
. On admet que T est un temps darret et (B

t
,t 0) est un Brownien
independant de T
T
.
(a) Montrer que
P(B
t
x, M
t
> y) = P(T < t, B

tT
x y)
(b) Montrer que
P(T < t, B

tT
x y) =
_
t
0
P(T du)P(B

tu
x y) = P(T < t, B

tT
y x)
(c) Montrer que pour y > x, on a
P(B
t
x, M
t
> y) = P(B
t
2y x)
En deduire que
P(B
t
x, M
t
< y) = ^(
x

t
) ^(
x 2y

t
)
3. En deduire la loi de T, celle de M
t
et la densite du couple (B
t
,M
t
).
4. Soit X
t
= t +B
t
, Y
t
= sup (X
s
,0 s t. Montrer, en utilisant le theor`eme de Girsanov, que le
calcul de
P(X
t
< x, Y
t
< y)
se deduit du calcul precedent.
7.8 Meandres, ponts, excursions
Exercice 7.8.1 Loi conditionnelle. Soit d
t
= infs t : B
s
= 0. Montrer que d
t
(W)
loi
= t+
(W
t
)
2
G
2
o` u G est une variable gaussienne de loi ^(0,1) independante de W
t
. Soit g = supt 1 : B
t
= 0.
Calculer P(g t[T
t
).
2002-03 67
Exercice 7.8.2 Martingale dAzema. On admet que le processus m
u
=
1

t g
t
[B
g
t
+u(tg
t
)
[,u 1
est independant de T
g
t
, que sgneB
t
est T
g
t
mesurable et que m
1
a pour densite xe
x
2
/2
11
x>0
dx. Calculer
E(B
t
[T
g
t
),E(B
2
t
t[T
g
t
) et E(e
B
t

2
2
t
[T
g
t
). Montrer que ces processus sont des martingales.
7.9 Divers
Exercice 7.9.1 Soit dS
t
= S
t
(dt +dW
t
) et

S
t
= S
t
max(1, max
0st
K
S
s
). Calculer e
rT
E(

S
T
)
Exercice 7.9.2 Soit S un brownien geometrique
dS
t
= S
t
(dt +dW
t
)
On pose M
t
=
1
t
_
t
0
S
u
du. Calculer
E((M
T
k)
+
[T
t
)11
M
t
(Tk/t)
1. Soit s < t M
s
= sup
us
W
u
,M
s
t
= sup
sut
W
u
. Calculer P(M
s
< a,M
s
t
< b,W
t
< c). On donnera
le resultat sous forme dune integrale.
2. Soit X
t
= e
2(W
t
+t)
(x +
_
t
0
e
2(W
s
+s)
ds). Montrer que
dX
t
= f(t,X
t
)dt +g(t,X
t
)dW
t
o` u lon explicitera les fonctions f et g. Comment pourrait-on calculer le prix dune option eu-
ropeenne sur le sous jacent X, en presence dun actif sans risque de taux constant r?
68 Sauts. Enonces
2002-03 69
Chapitre 8
Processus `a sauts
8.1 Processus de Poisson
Dans cette section, N
t
est un processus de Poisson dintensite deterministe (s) et M
t
= N
t

_
t
0
(s)ds la martingale compensee.
Exercice 8.1.1 Soit N
i
,i = 1,2 deux processus de Poisson independants de meme intensite. Montrer
que N
1
N
2
est une martingale.
Exercice 8.1.2 Soit T

t
= (N
s
,s t,N
T
). Montrer que
M

t
def
= N
t

_
t
0
N
T
N
s
T s
ds
est une T

t
-martingale.
Exercice 8.1.3 Montrer que les processus
X
t
= exp(
_
t
0
sdN
s
+
_
t
0
(s)(1 e
s
)ds)
Y
t
= exp(
_
t
0
ln(1 +s)dM
s
+
_
t
0
[ln(1 +s) s](s)ds)
sont des martingales.
Exercice 8.1.4 Caracterisation de Processus de Poisson.
1. Calculer (z,t) =

n
z
n
P(N
t
= n).
2. Soit X un processus `a accroissements independants, `a valeurs dans lensemble des entiers, tel que
X
t+s
X
t
loi
= X
s
et (z,t) =

n
z
n
P(X
t
= n). Montrer que (z,t+h) = (z,t)(z,h). On suppose
quil existe tel que
1
h
P(X
h
2) 0 ,
1
h
P(X
h
= 1) ,
1
h
(1 P(X
h
= 0))
quand h tend vers 0. Montrer que

t
(z,t) = (z 1)(z,t). Quel est le processus X?
Exercice 8.1.5 Soit (Y
i
,i 1) des variables independantes equidistribuees desperance et independantes
de N. On note X
t
=

N
t
i=1
Y
i
le processus de Poisson compose. Soit M
t
= N
t
t et Z
t
= X
t
t.
Montrer que Z et (M
t
Y
t
t,t 0) sont des martingales.
Exercice 8.1.6 On consid`ere lequation
X
t
= x +N
t
c
_
t
0
X
s
ds
1. Montrer que cette equation admet au plus une solution.
70 Sauts. Enonces
2. Montrer que
e
ct
x +
_
t
0
e
c(ts)
dN
s
est une solution.
Exercice 8.1.7 On note = T
1
le premier saut de N et D
t
= N
t
1. Determiner tel que Z
t
= D
t

_
t
0

u
du soit une martingale.
2. On note L
t
= (1 D
t
)/(1 F(t)) o` u F(t) = P( t) est supposee continue. Montrer que
dL
t
=
t
dZ
t
o` u on explicitera . Meme question si F est seulement continue `a droite.
3. Soit N
1
et N
2
deux PP dintensite constante
1
et
2
et D
i
les processus associes. On note
1
(t) =
(

1
1)D
2
(t) et
2
(t) = (

2
1)D
1
(t). Soit
t
solution de d
t
=
t
(
1
(t)dZ
1
(t)+
2
(t)dZ
2
(t)).
Expliciter
t
. Soit dQ =
t
dP. Calculer Q(
1
> t,
2
< s) pour s < t.
Exercice 8.1.8 Calculer la TL de
_
t
0
N
s
ds.
Exercice 8.1.9 Montrer que
f(N
t
== f(N
0
) + f(0)
_
t
0
dN
s
+
_
t
0
dN
s
__
s
0

2
f(N
u
dN
u
_
Calculer
_
t
0
dN
s
__
s
0
dN
u
_
et
_
t
0
dN
s
__
s
0
dN
u
_
u
0
dN
v
_
8.2 Poisson compose
Let 0 be a positive number and be a probability law on IR. A (,) compound Poisson process
is a process X = (X
t
,t 0) of the form
X
t
=
N
t

k=1
Y
k
where N is a Poisson process with intensity > 0 and (Y
k
,k IN) are non-negative i.i.d. random
variables with law , independent of N. It diers from a Poisson process since the sizes of the jump are
random variables, independent of the Poisson process.
Exercice 8.2.1 We denote by Y a random variable with law . Prove that a compound Poisson process
is with independent increments, and
E(X
t
) = tE(Y )
Var (X
t
) = tE(Y
2
).
Exercice 8.2.2 Let X be a (,) componud Poisson process. Prove that the process
M
f
t
=

st
f(X
s
)11
X
s
=0
t(f)
is a martingale; the process
(M
f
t
)
2
t(f
2
)
is a martingale.
Suppose that X is a pure jump process and that there exists a nite positive measure such that

st
f(X
s
)11
X
s
=0
t(f)
is a martingale for any f, then X is a compound Poisson process.
2002-03 71
Exercice 8.2.3 If X is a (,) compound Poisson process,
E(e
X
t
) = exp
_
t
_
1
_

0
e
u
(du)
__
.
Exercice 8.2.4 Let X be a (,) compound Poisson process and f a bounded Borel function. Then,
exp
_
N
t

k=1
f(Y
k
) +t
_
(1 e
f(x)
)(dx)
_
is a martingale.
8.3 Formule dIto
Exercice 8.3.1 Soit W un mouvement Brownien et M
t
= N
t
t la martingale compensee associee
au processus de Poisson N dintensite constante .
1. Montrer que la solution de
dS
t
= S(t

)(rdt +dW
t
+dM
t
), S
0
= x
est, pour > 1
S
t
= xe
rt
exp(W
t

1
2

2
t) exp(ln(1 +)N
t
t) . (8.1)
2. Ecrire la solution en faisant apparaitre la martingale M.
3. Quelle est la dynamique de 1/S
t
?
4. Quelle est la dynamique de S
2
t
?
5. Calculer E(S
t
) et E(S
2
t
).
6. Quelle est la solution de (8.1)pour = 1? et pour < 1?
7. Quelle est la solution de (8.1) lorsque les coecients dependent du temps?
Exercice 8.3.2 Soit
dX
t
= (t,X
t
)dt +(t,X
t
)dW
t
+(t,X
t
)dM
t
et H une fonction de classe C
1,2
. Sous quelles conditions le processus Y
t
= H(t,X
t
) est-il une martingale
locale?
Exercice 8.3.3 Soit un espace de probabilite (,F,P) sur lequel evoluent un mouvement Brownien W
et un processus de Poisson N, dintensite deterministe . On suppose que T
t
= (W
s
,N
s
,s t).
1. Determiner la dynamique de toutes les martingales strictement positives.
2. Soit Q une probabilite equivalente `a P sur tout T
t
. Caracteriser la dynamique de la densite L
t
de
Q par rapport `a P.
3. Quelle sont les formes possibles de L si on impose que, sous Q le processus

S = e
rt
S
t
o` u S a
pour dynamique
dS
t
= S(t

)(rdt +dW
t
+dM
t
)
soit une martingale?
4. Meme question si
dS
t
= S(t

)(dt +dW
t
+dM
t
)
8.4 Defaut
Exercice 8.4.1 Soit un temps aleatoire sur un espace (,(
t
,P). On suppose quil existe un processus
positif, G-adapte (
s
,s 0) tel que 11
t

_
t
0

u
du soit une (
t
martingale. Soit h une fonction
borelienne, X une variable aleatoire (
T
mesurable et
V
t
= E(X exp
_
T
t

s
ds +
_
T
t
duh
u

u
_
exp
_
u
t

s
ds
_
[(
t
) .
72 Sauts. Enonces
Montrer que
11
{t<}
V
t
= E
_
(V

)11
{t<T}
+X11
{T<}

(
t
_
.
(Appliquer Ito `a V
t
exp
_
t
0

s
ds +
_
t
0
duh
u

u
_
exp
_
u
0

s
ds
_
= U
t
et `a U
t
(1 11
t
).
8.5 Marche complets, incomplets
Exercice 8.5.1 Soit
dS
t
= S
t
[dt +dM
t
]
and r = 0. Quelle est la condition pour que ce marche soit sans arbitrage? Quelle est le m.m.e.? Quelle
est la dynamique de S sous Q?
Exercice 8.5.2 On etudie un mod`ele dans lequel il y a un actif sans risque de taux r et un actif risque
dS
t
= S(t

)(rdt +dW
t
+dM
t
) (8.2)
1. Montrer que ce marche est incomplet, determiner les m.m.e..
2. Quels sont les actifs duplicables?
3. On note X
x,,C
la valeur dun portefeuille de richesse initiale x, avec processus de consommation
cumule C. Montrer que
R
t
X
t
= x +
_
t
0

s
X
s
d(RS)
_
t
0
R
s
dC
s
4. Soit Q lensemble des probabilites risque neutre, et
V
t
= esssup
Q
E
Q
(R
T
B[T
t
)
On admettra que V est une surmartingale pour tout Q et que toute surmatingale secrit comme
une martingale moins un processus croissant.
Montrer quil existe A
Q
processus croissant, , tels que V
t
= v +
_
t
0

s
dW
Q
s
+
_
t
0
dM
Q
s
A
Q
t
,
o` u W
Q
et M
Q
sont des Q-martingales et W
Q
un MB.. Preciser le lien entre A
P
et A
Q
.
5. Montrer que
t


t
0
6. Montrer que A
P

_
t
0
(
s


s
) est un processus croissant.
7. En deduire que V est la valeur dun portefeuille X dont on explicitera le processus de consomma-
tion.
Exercice 8.5.3 On consid`ere un actif de prix
dS
t
= S
t
(rdt +dM
t
)
o` u M est la martingale compos ee associe `a un processus de Poisson dintensite constante .
1. Verier que S
t
e
rt
est une martingale.
2. Soit X le valeur dun portefuille autonancant comportant parts dactif risque, soit
dX
t
= rX
t
dt +
t
(dS
t
rS
t
dt)
Verier que

X
t
= e
rt
X
t
est une martingale. Ecrire la dynamique de

X en fonction de

S.
3. Ecrire lEDS veriee par X/S.
4. On pose dQ = S
t
e
rt
/S
0
dP. Verier que X/S est une martingale sous Q.
Corriges. 2002-03 73
s
CORRIGES
74 Rappels
Corriges. 2002-03 75
Chapitre 1
Rappels, Corriges
1.1 Tribu
Exercice 1.1.1: Lensemble B A secrit B A
c
. Si T est une tribu, elle est stable par passage au
complementaire et par intersection, do` u le resultat.
Exercice 1.1.2 : 1) La tribu engendree par A est constituee des quatre ensembles A,A
c
,,.
2) Cette tribu doit contenir A et B, lensemble vide et . Puis les complementaires, soit A
c
et B
c
(les
complementaires de et de lensemble vide egaux `a lensemble vide et `a sont dej`a dans la liste). Puis
les unions densembles soit AB, les autres unions A = , AB
c
= B
c
,... sont deja dans la liste.
Puis les intersections A
c
B
c
. On a termine car les autres ensembles formes `a partir doperations de
passage au complementaire, dintersection et dunion sont dans la liste par exemple (A
c
B
c
)B
c
= B
c
.
Exercice 1.1.4 : Soit ( = T
1
T
2
la famille composee des ensembles qui appartiennent `a T
1
et `a T
2
.
La famille ( est une tribu si
(i) (, ce qui est le cas car T
1
, T
2
donc T
1
T
2
.
(ii) la famille ( est stable par passage au complementaire: si A (, la stabilite des tribus
T
1
et T
2
par passage au complementaire implique A
c
T
1
,A
c
T
2
donc A
c
T
1
T
2
.
(iii) la famille ( est stable par intersection denombrable: si A
i
(, la stabilite des tribus
T
1
et T
2
par intersection denombrable implique
i
A
i
T
1
,A
c
T
2
donc
i
A
c
T
1
T
2
.
Les autres proprietes resultent des precedentes: Lensemble vide appartient `a ( car cest le complementaire
de ( utiliser (i) et (ii)), la famille ( est stable par union denombrable: en passant au complementaire
lidentite (A
i
)
c
(A
c
i
) on obtient A
i
= (
i
A
i
)
c
. Il reste `a utiliser (ii) et (iii).
Lunion de tribus nest pas une tribu: consid`erer le cas T
1
= (A),T
2
= (B). la famille T
1
T
2
ne
contient pas A
c
B
c
. Ne pas confondre sous ensembles et elements. Par exemple, un intervalle est un
sous ensemble de IR, et nest pas un element de IR.
Exercice 1.1.6 : On utilise que X
1
(B) = : X() B. La famille ( est une tribu: la stabilite
requise provient des egalites suivantes: X
1
(B
c
) = (X
1
(B))
c
, X
1
(B
n
) = X
1
(B
n
). On trouvera
une demonstration de la reciproque dans tout ouvrage de proba, cette demonstration est basee sur le
theor`eme qui precise que si une tribu contient une classe stable par intersection nie, elle ccntient la
plus petite tribu engendree par cette classe.
Exercice 1.1.7 : Les diverses quantites que lon veut comparer sont egales. Les esperances E(f(X)) et
E(f(Z)) sont egales parce que X et Z ont meme loi, et E(f(X,Y )) = E(f(Z,T)) car le couple (X,Y )
a meme loi que le couple (Z,T). Si lhypoth`ese (Z,T) sont independantes netait pas faite, legalite en
loi des variables X et Z et celle des variables Y et T ne surait pas. Par exemple, on peut prendre
X
loi
= Y de loi gaussienne ^(0,1), X et Y independantes et Z = T = X. On aurait alors E(X
2
Y
2
) = 1
et E(Z
2
T
2
) = E(X
4
) = 3. (contre exemple pour la question 3)
76 Rappels
1.2 Variables gaussiennes.
Exercice 1.2.1 : Par symetrie de la densite et imparite de x
3
, on a E(X
3
) = 0 et, par parite de
x
4
on a E(X
4
) =
2

2
_

0
x
4
e

x
2
2
2
dx. Cette derni`ere integrale se calcule par integrations par parties
successives et on obtient E(X
4
) = 3
4
.
On a egalement E([X[) =
2

2
_

0
xexp
x
2
2
2
dx, do` u E([X[) =
2

2
et, par des calculs analogues
E([X
3
[) =
4
3

2
.
Exercice 1.2.4 : Si X et Y sont gaussiennes independantes, la somme X + Y est gaussienne: ceci se
voit tr`es facilement avec les fonctions caracteristiques:
E(e
it(X+Y )
) = E(e
itX
)E(e
itY
) = e
itm
1

t
2

2
1
2
e
itm
2

t
2

2
2
2
= e
itm
t
2

2
2
avec m = m
1
+m
2
et
2
=
2
1
+
2
2
.
On peut le voir aussi en se souvenant que si X et Y sont independantes, de densite f et g, la somme
X +Y a pour densite h(x) =
_

f(xy) g(y) dy et en eectuant le calcul. Attention, ce resultat nest


pas vrai si on na pas lindependance de X et Y .
On peut aussi calculer la transformee de Laplace de la somme
E
_
exp((X +Y ))
_
= E(exp((X))E(exp((Y )) = exp[(m(X) +m(Y )) +

2
2
(
2
(X) +
2
(Y ))]
ce qui montre que la somme a une loi gausienne desperance m(X)+m(Y ) et de variance
2
(X)+
2
(Y ).
Exercice 1.2.5:
1. Si X est ^(m,
2
),sa densite est f(x) =
1

2
exp
(x m)
2
2
2
et la v.a. Y =
X m

est ^(0,1).
On peut le verier de plusieurs facons.
En calculant la fonction de repartition de Y : Soit F
Y
la fonction de repartition de Y . On a
F
Y
(y) = P(Y y) = P(X m+y) = F
X
(m+y). Il reste `a deriver par rapport `a y pour
obtenir la densite de Y qui est f(m+y) =
1

2
exp
y
2
2
.
On peut utiliser les fonctions caracteristiques. Soit (t) = E(e
itX
) = e
itm
t
2

2
2
la fonction
caracteristique de X; la fontion caracteristique de Y est
E(e
itY
) = E(e
it
Xm

) = e

itm

(
t

) = e

t
2
2
Cette remarque permet de ramener des calculs sur ^(m,
2
) `a des calculs sur ^(0,1).
La variable X m est gaussienne centree. Do` u en utilisant lexercice 1, E([X m[) =
2

2
.
2. On a E(e
X
) =
1

2
_

e
x
exp
(x m)
2
2
2
dx.
On montre que e
x
exp
(xm)
2
2
2
= exp(m +
1
2

2
) exp[
1
2
2
(x (m +
2
))
2
] et le resultat
sobtient facilement. item Soit X une v.a. de loi ^(0,1). On a
E(11
X<b
e
X
) =
1

2
_
b

e
x
e

x
2
2
dx =
1

2
e

2
2
_
b

x
2
2
dx = e

2
2
(b ).
3. Soit U une variable gaussienne desperance m et de variance
2
. Pour calculer E(expU
2
+U),
on doit calculer
1

2
_

e
u
2
+u
e

1
2
2
(um)
2
du.
On montre que
u
2
+u
1
2
2
(u m)
2
=
1
2
2
_
u ( +
m

2
)
2
_
2
+

2
2
( +
m

2
)
2

m
2
2
2
Corriges. 2002-03 77
avec
2
=

2
12
2
.
Il vient
E(expU
2
+U) =

exp
_

2
2
( +
m

2
)
2

m
2
2
2
_
.
En particulier
E(exp U
2
) =
1

1 2
2
exp
m
2

1 2
2
4. Il est facile, par changement de variable, dobtenir E(e
X
f(X)) = e
m+
2

2
/2
E(f(X +
2
) pour
f continue bornee.
5. Par derivation par rapport `a , on obtient pour f reguli`ere E(f(X)(X m)) =
2
E(f

(X)).
6. En derivant E(e
aG
^(bG+c)) par rapport `a b, on obtient le resultat.
Exercice 1.2.6 : Rappels:
la convergence L
2
implique la convergence L
1
: [[X
n
X[[
2
converge vers 0 implique [[X
n
X[[
1
converge vers 0, avec [[X[[
1
=
_

[X[dP. Ce resultat est evident compte tenu de linegalite [[X[[


1
[[X[[
2
qui resulte de la positivite de la variance Var ([X[ ) = [[X[[
2
2
[[X[[
2
1
.
Si X
n
converge vers X dans L
2
(resp. L
1
), on a E(X
2
n
) converge vers E(X
2
) (resp E(X
n
) converge
vers E(X)). (La reciproque est fausse)
Si X
n
converge dans L
2
vers X, on a en particulier m
n
converge vers m et
2
n
converge vers . La suite
de fonctions caracteristiques e
itm
n

t
2

2
n
2
converge vers e
itm
t
2

2
2
et la loi de X est gaussienne.
Exercice 1.2.7 : Soit X un vecteur gaussien. Le vecteur Y = AX est un vecteur gaussien, car toutes
les combinaisons lineaires de composantes de Y sont des combinaisons lineaires de composantes de X,
donc une variable gaussienne.
Que le vecteur X soit gaussien ou non, on a E(AX) = AE(X) et Var AX = A
t
(Var X)A, o` u VarX
designe la matrice de variance covariance du vecteur X. On obtient dans le cas p = 1 que A
t
(Var X)A
0, cest-`a-dire que les matrices de variance covariance sont semi denies positives.
Exercice 1.2.8 : La v.a. X+Y est gaussienne desperance E(X)+E(Y ) et de variance
2

2
(X)+

2
(Y ). On en deduit
E(exp(X +Y )) = exp
_
E(X) +E(Y ) +
1
2
(
2

2
(X) +
2

2
(Y ))
_
= exp
_
E(X) +
1
2

2
(X)
_
exp
_
E(Y ) +
1
2

2
(Y )
_
= E(exp X) E(exp Y )
do` u lindependance.
Exercice 1.2.9 : Si (X,Y ) est un vecteur gaussien, X et Y sont des vecteurs gaussiens.
Cas d = 1. La projection de X sur (Y
1
,Y
2
, . . . ,Y
n
) est de la forme Pr X =

n
i=1
a
i
Y
i
Cest une v.a.
gaussienne car Y est gaussien. Le vecteur (XPr X,Y ) est gaussien. Les vecteurs XPr X et Y sont
independants car E((X Pr X)Y
i
) = 0 par denition de la projection.
Exercice 1.2.10 : Toujours avec la transformee de Laplace.
On verie dans un premier temps que
E(exp(X)) = E[E(exp(X)[Y )] = E[exp((aY +b) +

2
2

2
)]
= exp[aE(Y ) +

2
a
2
2

2
(Y )] exp[b +

2
2

2
]
donc, la v.a. X est gaussienne desperance b + aE(Y ) et de variance
2
+ a
2

2
(Y ). On calcule de
la meme facon E(Y e
X
) = E(Y exp((aY + b) +

2
2

2
)] et en derivant par rapport `a , on trouve
E(XY ) = aE(Y
2
) +bE(Y ).
78 Rappels
Dautre part
E(exp(X +Y )) = E[exp(Y )E(exp(X[Y )]
= E[exp(Y ) exp((aY +b) +

2
2

2
)] = E[exp[(a +)Y ]] exp(b +

2

2
2
)
= exp[(a +)E(Y ) +
(a +)
2
2

2
(Y )] exp(b +

2

2
2
)
et on verie que ceci est
exp(E(X) +E(Y )) +
1
2
Var(X +Y ))
1.3 Esperance conditionnelle
Exercice 1.3.2 : Il sut de calculer E([X Y ]
2
[() qui vaut 0 (developper le carre) donc, en prenant
lesperance E([X Y ]
2
) = 0.
Exercice 1.3.5 : Sous les hypoth`eses de lexercice E(X Y [() = E(X[() Y car Y est (-mesurable
et E(X Y [() = E(X Y ) = m par independance. Do` u E(X[() = m + Y . De la meme facon
E((X Y )
2
[() = E(X
2
[() 2Y E(X[() +Y
2
do` u E(X
2
[() =
2
+ (Y +m)
2
.
Exercice 1.3.6 : Par denition de la projection E(XZ) = E((Pr X)Z) pour tout Z combinaison
lineaire des Y
i
. Cela ne sut pas `a dire que Pr X est lesperance conditionnelle car il existe des v.a. qui
sont Y -mesurable et qui ne sont pas combinaison lineaire des Y
i
. Mais nous avons montre que XPr X
et Y sont independantes, do` u E(X Pr X[Y ) = E(X Pr X) = 0. Do` u E(X[Y ) = Pr X.
Si n = 1, E(X[Y ) = Pr X appartient `a lespace engendre par Y donc secrit Y , et on deduit de
E(X[Y ) = Y , apr`es multiplication par Y et integration =
E(XY )
E(Y
2
)
.
Exercice 1.3.7 : Soit X = X
1
+ X
2
. On a E(X[() = E(X
1
[() + E(X
2
[() = E(X
1
) + X
2
. Puis
E(X
2
[() = E(X
2
1
) +X
2
2
+ 2X
2
E(X
1
) et
Var (X[() = E(X
2
[() (E(X[())
2
= Var X
1
.
E(e
X
[() = E(e
X
1
e
X
2
[() = e
X
2
E(e
X
1
) = e
X
2
exp(E(X
1
) +

2
2
Var (X
1
))
Exercice 1.3.8 : Il est facile de montrer la suite degalites
Cov (Z
1
,Z
2
[() = E(Z
1
Z
2
[() E(Z
1
[()E(Z
2
[()
= E(Z
1
Z
2
[() E(Z
2
(E(Z
1
[())[()
= E((Z
1
E(Z
1
[() Z
2
[()
Exercice 1.3.9 : Le membre de droite, note K est H mesurable. Il sut de verier que
E(X11
H
) = E(K11
H
)
pour tout H H, ce qui se reduit `a
E(X11
C
11
A
) = E(K11
C
11
A
, et E(X11
C
11
A
c ) = E(K11
C
11
A
c )
ce qui est routine.
Exercice 1.3.10 : Par linearite, E(aX +b[Z) = aE(X[Z) +b. La tribu engendree par Z est composee
des sous-ensembles de de la forme Z
1
(A) o` u A est un borelien de IR et Z
1
(A) = [Z() A =
[Y ()+b A = [Y () B o` u B est lensemble des nombres reels tels que x B x+b A
et est un borelien (La preuve parfaite exigerait la demonstration de ce point, qui tient au fait que B est
limage reciproque de A par lapplication g : y
1

y b, soit B = g
1
(A) et que g est continue, donc
borelienne)
Corriges. 2002-03 79
Exercice 1.3.11 : La premiere question est directe en utilisant le resultat admis dans lexercice 1.1.6.
En utilisant cette question, on a que E(X[()11
1
est de la forme h(1)11
1
= h(1)11
1
. En prenant
lesperance des deux membres, on identie la constante h(1).
Exercice 1.3.12 : Trivial.
Exercice 1.3.13 : E(X[T) est ( T mesurable. Soit F T et G (, on a alors, en utilisant
lindependance
E(X11
F
11
G
) = E(X11
F
)E(11
G
)
et
E(11
F
11
G
E(X[T)) = E(11
F
E(X[T))E(11
G
)
donc E(X11
F
11
G
) = E(11
F
11
G
E(X[T)). Nous avons donc montre que E(X11
H
) = E(11
H
E(X[T)) pour
tout H ( T de la forme H = F G. Ces ensembles engendrent la tribu ( T et forment une fa-
mille stable par intersection. Lapplication qui `a H associe E(X11
H
) (resp. E(11
H
E(X[T))) denit une
mesure positive sur cette tribu, les deux mesures, apr`es normalisation par E(X) sont des probabilites
(cest-`a-dire lapplication qui `a H associe E(X11
H
)/E(X) est une probabilite) qui coincident sur les en-
sembles de la forme FG, donc, par theor`eme de classe monotone, elles coincident sur la tribu engendree.
Exercice 1.3.14 : Seule la reciproque demande une demonstration. Si E
Q
(X[() = E
P
(X[() alors
E
P
(LX[() = E
P
(X[()E
P
(L[() = E
P
(XE
P
(L[()[() Do` u E
P
(X(LE
P
(L[())[() = 0 pour tout X. Il
en resulte (prendre X = L E
P
(L[()) que L E
P
(L[() = 0.
Exercice 1.3.15 : Soit dQ = (X)dP. On a E
P
((X)) =
_
(x)f(x)dx,E
Q
((X)) = E
P
((X)(X)) =
_
(x)(x)f(x)dx. Il sut de choisir telle que (x)f(x) = g(x).
1.4 Martingales
Exercice 1.4.1 : Soit s t et X
t
= E(X[T
t
). On a, en utilisant T
t
T
s
E(X
s
[T
t
) = E(X[T
s
[T
t
) = E(X[T
t
) = X
t
.
Exercice 1.4.2 : Soit X
t
= M
t
A
t
. On a, pour t s E(X
t
[T
s
) = M
s
E(A
t
[T
s
) et comme A
s
A
t
ou A
t
A
s
, E(X
t
[T
s
) M
s
E(A
s
[T
s
) = M
s
A
s
= X
s
.
Exercice 1.4.3 : Cest le lemme de Fatou: de linegalite
E(M
t
n
[T
s
) = M
s
n
on en deduit linegalite de surmartingale en utilisant que M
s
n
converge vers M
s
et que
limE(M
t
n
[T
s
) E(limM
t
n
[T
s
) = E(M
t
[T
s
)
(le lemme de Fatou assure que limE(X
n
[() E(limX
n
[() si les v.a. sont positives).
Soit F T et G ( E(X11
F
11
G
) = E(11
F
11
G
E(X[T)) car E(X11
F
11
G
) = E(X11
F
)E(11
G
) et E(11
F
11
G
E(X[T)) =
E(11
F
E(X[T))E(11
G
).
Exercice 1.4.4 : Par denition de la propriete de martingale, X
t
= E(X
T
[T
t
). Cette propriete est `a la
base de tous les calculs devaluation en nance. En eet, ces formules reposent sur le fait quun certain
processus est une martingale et donc que sa valeur `a linstant t est lesperance conditionnelle de sa
valeur terminale.
Exercice 1.4.7 : Soit G = ((
t
,t 0) la ltration de M, cest `a dire (
t
= (M
s
,s t). Par denition,
(
t
T
t
(La martingale M est F adaptee, et la ltration de M est la plus petite ltration telle que
la propriete dadaptation soit vraie. On a alors E(M
t
[(
s
) = E(M
t
[T
s
[(
s
) = E(M
s
[(
s
) = M
s
On peut
aussi montrer que si que si M est une F-martingale et H
t
T
t
, E(M
t
[H
t
) est une H-martingale.
80 Rappels
Exercice 1.4.8 : Pour s < t, on a ( s) ( < t), do` u
Z
t
= E( t[T
t
) E( s[T
t
)
et le resultat suit en prenant lesperance conditionnelle par rapport `a T
s
.
1.5 Temps darret
Exercice 1.5.1 : La seule diculte est la stabilite par passage au complementaire. Si A T

on ecrit
A
c
( t) = ( t) (A ( t) T
t
Exercice 1.5.2 :Par hypoth`ese sur X, pour tout a, X a T
T
Par denition de la tribu T
T
,
X a T t T
t
. Par suite X a T a T
a
. Le premier membre de cette inclusion est
X a.
Exercice 1.5.4 : Il sut decrire
A (T t) = A (S t) (T t)
et donc, si A T
S
on a A (T t) T
t
.
Exercice 1.5.5: Il sut decrire
(S a) (S t) = (S (a t)) T
at
Exercice 1.5.6: Montrons que S T T
T
. pour cela , on ecrit
(S T) (T t) = (S t T t) (T t) (S t)
et chacu des trois ensembles du membre de droite est dans T
t
(car S t est plus petit que t donc T
t
mesurable.
On introduit R = S T. Cest un temps darret, T
R
mesurable avec T
R
T
T
. Donc (R = T) T
T
,
et (R < T) T
T
, par suite (S < T) T
T
et S = T T
T
, ainsi que T S et T < S.
Exercice 1.5.7 : Soit xe. La fonction t Z
t
() vaut 1 pour t [S(),T([ et 0 sinon. Elle est
continue sur les trois intervalles [0,S()[, ]S(),T()[, ]T(),[. Elle est continue `a droite en S() car
si t S() par la droite (soit t > S()), Z
t
() = 1 tend vers Z
S()
() = 1.
Exercice 1.5.11 : Utiliser le theor`eme darret et le temps darret T
y
pour y > a. On a E(M
T
y
t
) = a.
On fait alors tendre t vers linni M
T
y
t
converge vers y sur T
y
< et vers 0 sinon. (et est borne).
Do` u P(T
y
< ) = a/y. Il reste `a remarquer que P(T
y
< ) = P(sup M
t
y).
1.6 Temps discret
Exercice 1.6.3 : Legalite E(X
n+p
[T
n
) = X
n
est vraie pour p = 1. En utilisant
E(X
n+p
[T
n
) = E(X
n+p
[T
n+p1
[T
n
) = E(X
n+p1
[T
n
)
on demontre le resultat par recurrence.
Exercice 1.6.4 : On obtient
E((H M)
n
[T
n1
) =
n

k=1
E(H
k
(M
k
M
k1
) [T
n1
)
=
n1

k=1
H
k
(M
k
M
k1
) +E(H
n
(M
n
M
n1
) [T
n1
)
Corriges. 2002-03 81
=
n1

k=1
H
k
(M
k
M
k1
) +H
n
E(M
n
M
n1
[T
n1
)
=
n1

k=1
H
k
(M
k
M
k1
)
1.7 Alg`ebre beta-gamma
1.8 Divers
Exercice 1.8.1 :
E(exp M

) = E(
_

0
dte
t
e
M
t
) = E(
_

0
dte
t

_

M
t
e
u
du)
= E(
_

0
dt
_

0
due
t
11
u>M
t
e
u
) = E(
_

0
du
_

0
dte
t
11
T
u
>t
e
u
)
= E(
_

0
due
u

_
T
u
0
dte
t
) =
_

0
due
u
(1 e
T
u
)
Exercice 1.8.2 : La partie directe est evidente, car e
X
et e
Y
sont independantes. La reciproque nest
pas vraie, comme le montre le contre exemple suivant: Soit X,Y telles que P(X = i,Y = j) = a
i,j
o` u
les a
i,j
sont donnes pas les coecients de la matrice
_
_
1/9 1/6 1/18
1/18 1/9 1/6
1/6 1/18 1/9
_
_
La loi de X est egale `a celle de Y et P(X = i) = 1/3 = P(Y = j). On verie que X et Y ne sont pas
independantes (par exemple P(X = 1,Y = 3) ,= 1/9.
La loi de X + Y est egale `a la loi de X
1
+Y
1
o` u X
1
a meme loi que X, Y
1
a meme loi que Y et X
1
et
Y
1
sont independantes.
Cet exercice montre que la loi de la somme de deux v.a. depend tr`es fortement de la loi du COUPLE.
Rappellons `a ce sujet que si Z
1
et Z
2
sont gaussiennes, cela nimplique pas que Z
1
+Z
2
est gaussienne:
Le contre exemple suivant du `a Nelson le prouve: Soit n la densite gaussienne reduite centree et u
une fonction impaire continue, nulle hors de [1, + 1] telle que [u(x)[ < (2e)
1/2
. On verie que
f(x,y) = n(x)n(y) + u(x)u(y) est une densite, que les lois marginales sont normales, et la loi de la
somme nest pas normale.
Par contre, si le vecteur (X,Y ) est gaussien, la somme X+Y est gaussienne. Pour que le vecteur (X,Y )
soit gaussien, il faut et il sut que X soit gaussien et que la loi conditionnelle de Y `a X soit gaussienne.
82 Brownien.
Corriges. 2002-03 83
Chapitre 2
Mouvement Brownien, Corriges
2.1 Proprietes elementaires
Exercice 2.1.1: Trivial. Ceci constitue une caracterisation du mouvement Brownien comme processus
gaussien.
Exercice 2.1.2 :
1. On a E(B
s
B
2
t
) = E( E(B
s
B
2
t
[T
s
)). La variable B
s
est T
s
-mesurable, do` u, si t > s, E(B
s
B
2
t
) =
E(B
s
E(B
2
t
[T
s
)).
On sait que B
2
t
t est une martingale, do` u E(B
2
t
[T
s
) = B
2
s
s+t. En utilisant que B
t
est centre
et que E(B
3
t
) = 0, on obtient que
E(B
s
B
2
t
) = E(B
s
(B
2
s
s +t)) = E(B
3
s
) = 0.
Si s > t, on a E(B
s
B
2
t
) = E( E(B
s
B
2
t
[T
t
)) = E(B
2
t
E(B
s
[T
t
)) = E(B
3
t
) = 0.
2. Le MB est une martingale, donc E(B
t
[T
s
) = B
s
pour t s et E(B
t
[T
s
) = B
s
pour t < s car B
t
est
T
s
-mesurable dans ce cas. Si s < t, E(B
t
[B
s
) = E(B
t
B
s
+B
s
[B
s
) = E(B
t
B
s
[B
s
)+B
s
= B
s
car
B
t
B
s
est independant de B
s
et centre. Si t < s, on sinspire du pont Brownien (voir ex suivant)
pour ecrire E(B
t
[B
s
) = E(B
t

t
s
B
s
[B
s
) +
t
s
B
s
. La v.a. B
t

t
s
B
s
est centree et independante de
B
s
: en eet, le couple (B
t

t
s
B
s
,B
s
) est un couple gaussien centre et sa covariance est nulle. On
en deduit E(B
t
[B
s
) =
t
s
B
s
.
On peut aussi utiliser les resultats sur le conditionnement dun vecteur gaussien.
3. La variable B
t
+B
s
est gaussienne (car B est un processus gaussien) centree. On peut aussi ecrire
(B
t
+ B
s
) comme une somme de v.a. gaussiennes independantes: B
t
+ B
s
= B
t
B
s
+ 2B
s
. On
en deduit que sa variance est t + 3s.
4. Soit
s
une variable aleatoire bornee T
s
-mesurable. On a, pour s t
E(
s
(B
t
B
s
)) = E(E(
s
(B
t
B
s
)[T
s
)) = E(
s
E((B
t
B
s
)[T
s
)) = 0.
De meme
E(
s
(B
t
B
s
)
2
) = E(E(
s
(B
t
B
s
)
2
[T
s
)) = E(
s
E((B
t
B
s
)
2
[T
s
)) = (t s)E(
s
).
5. E(11
B
t
a
) =
_

11
B
t
a
dP =
_
a

2t
exp(
x
2
2t
) dx =
_
a/

2
exp(
y
2
2
) dy = ^(
a

t
). On
peut aussi ecrire
E(11
B
t
a
) = P(B
t
a) = P(

tU a) = P(U a/

t) o` u U est une v.a. de loi ^(0,1).


E(B
t
11
B
t
a
) =
_
a

x
1

2t
exp(
x
2
2t
) dx =

t
_
a/

y
1

2
exp(
y
2
2
) dy et la derni`ere integrale
se calcule facilement.
84 Brownien.
Exercice 2.1.3 :
Pour t > u, la propriete dindependance et de stationarite des accroissements conduit `a
f(B
t
) = f(B
t
B
u
+B
u
)
loi
= f(

B
tu
+B
u
))
loi
= f(

B
tu
+

uG))
o` u

B
s
= B
s+u
B
u
est un MB independant de T
u
.
Exercice 2.1.4 :
On peut calculer la densite de B

P(B

dx) =
_
P(B
t
dx)e
t
11
t>0
dt =
_

0
1

2t
exp(
x
2
2t
)e
t
dt
On trouve
P(B

dx) =

2
2
e
|x|

2
dx
mais ce calcul dintegrale nest pas trivial. Cependant, on peut y arriver sans utiliser un attirail lourd
de changement de variables. On sait que la transformee de Laplace du temps datteinte du niveau a par
un mouvement Brownien est e
|a|

2
et que la densite de ce temps datteinte est
[a[

2u
3
e
a
2
/2u
. Ce
qui secrit
|a|

2
= E(e
T
a
) =
_

0
e
t
[a[

2t
3
e
a
2
/2t
dt .
Par derivation par rapport `a , on obtient
[a[

2
e
|a|

2
=
_

0
e
t
[a[

2t
e
a
2
/2t
dt .
Do` u

_

0
e
t
1

2t
e
a
2
/2t
dt =

2
2
e
|a|

2
.
Exercice 2.1.5 :
1. Le processus M est F-mesurable. M
t
est integrable: E([B
3
t
[) = Ct
3
2
o` u C est une constante et
E[
_
t
0
B
s
ds[
_
t
0
E([B
s
[) ds =
_
t
0
_
2s

ds < .
En utilisant que, pour t > s, la v.a. B
t
B
s
est independante de T
s
, on obtient
E(B
3
t
[T
s
) = E((B
t
B
s
+B
s
)
3
[T
s
) = E((B
t
B
s
)
3
) + 3B
s
E(B
t
B
s
)
2
+ 3B
2
s
E(B
t
B
s
) +B
3
s
do` u E(B
3
t
[T
s
) = 3B
s
(t s) +B
3
s
.
Dautre part
E(
_
t
0
B
u
du[T
s
) =
_
t
0
E(B
u
[T
s
) du =
_
s
0
E(B
u
[T
s
) du+
_
t
s
E(B
u
[T
s
) du =
_
s
0
B
u
du+B
s
(t s)
La propriete de martingale est alors facile `a verier.
2. Des calculs analogues montrent que B
3
t
3tB
t
est une martingale. Il sut de montrer que pour
s < t, E(B
3
t
3tB
t
[T
s
) = B
3
s
3sB
s
. Or, en utilisant que B
t
B
s
est independant de T
s
, on
obtient E((B
t
B
s
)
3
[T
s
) = E((B
t
B
s
)
3
) = 0 car E(X
3
) = 0 si X est une variable gaussienne
centree. Il reste `a utiliser (a b)
3
= a
3
3a
2
b + 3ab
2
b
3
pour obtenir
E(B
t
B
s
)
3
[T
s
) = E(B
3
t
[T
s
) 3B
s
E(B
2
t
[T
s
) + 3B
2
s
E(B
t
[T
s
) B
3
s
= E(B
3
t
[T
s
) 3B
s
(B
2
s
s +t) + 3B
2
s
B
s
B
3
s
Le processus B
3
t
3tB
t
est une martingale, donc par dierence tB
t

_
t
0
B
s
ds est une martingale,
egale (integration par parties) `a
_
t
0
sdB
s
.
Corriges. 2002-03 85
3. La v.a. X
t
est T
t
mesurable et integrable : en eet [X
t
[ t[B
t
[ +
_
t
0
[B
s
[ds = Z et il est facile de
verier que Z est integrable (soit E(Z) < , car E([B
t
[) =
2t

2
).
Soit t > s.
E(X
t
[T
s
) = E(tB
t

_
t
0
B
u
du[T
s
) = tE(B
t
[T
s
)
_
t
0
E(B
u
[T
s
)du
= tB
s

_
s
0
B
u
du
_
t
s
B
s
du = tB
s

_
s
0
B
u
du B
s
(t s) =
_
s
0
B
u
du +B
s
s = X
s
le processus X est une martingale.
On peut aussi appliquer la formule dIto et verier que dX
t
= tdB
t
. Comme f(s) = s est de carre
integrable (soit
_
t
0
s
2
ds < ) , lintegrale de Wiener
_
t
0
sdB
s
est une martingale. On peut aussi
remarquer que, par integration par parties, X
t
=
_
t
0
sdB
s
.
4. On verra plus tard que U nest pas une martingale. On peut remarquer que E(U
t
) nest sans doute
pas constant.
5. Soit t > s. E(Y
t
[T
s
) = E(t
2
B
t
2
_
t
0
B
u
du[T
s
) = t
2
E(B
t
[T
s
) 2
_
t
0
E(B
u
[T
s
)du = t
2
B
s

2
_
s
0
B
u
du 2
_
t
s
B
s
du = t
2
B
s
2
_
s
0
B
u
du 2B
s
(t s) = Y
s
+ (t
2
s
2
)B
s
2B
s
(t s) Pour
que Y soit une martingale, il faudrait que 0 = (t
2
s
2
)B
s
2B
s
(t s) = (t s)B
s
(t +s 2), ce
qui nest pas.
Exercice 2.1.6 : En ecrivant M
t
= (B
2
t
t) + (a + b)B
t
ab et en utilisant que B et (B
2
t
t,t
0) sont des martingales, le caract`ere martingale de M provient de la structure espace vectoriel de
lensemble des martingales. Le processus M
tT
a,b
est une martingale de valeur initiale ab, donc
E[M
tT
a,b
] = ab. Le temps darret T
a,b
, majore par T
a
est ni. Lorsque t converge vers linni
M
tT
a,b
= (a B
tT
a,b
)(B
tT
a,b
b) + t T
a,b
converge vers (a B
T
a,b
)(B
T
a,b
b) + T
a,b
= T
a,b
,
car (aB
T
a,b
)(B
T
a,b
b) = 0. La quantite (aB
tT
a,b
)(B
tT
a,b
b) est majoree par (ab)
2
et la quan-
tite t T
a,b
converge en croissant vers T
a,b
dont on ne sait pas quelle est integrable. On peut conclure
en appliquant le theor`eme de Lebesgue domine pour la partie E(aB
tT
a,b
)(B
tT
a,b
b) et le theor`eme
de convergence monotone pour la partie portant sur le temps darret. On en deduit E(T
a,b
) = ab.
Exercice 2.1.9 :Soit t s. E
x
(f(B
t
)g(B
s
)) = E
x
(f(

B
ts
+B
s
)g(B
s
)) = E
__
dyf(y)p
ts
(B
s
,y)g(B
s
)
_
=
E((X
s
)) avec (z) = g(z)
_
f(y)p
ts
(z,y)dy.
Do` u E
x
(f(B
t
)g(B
s
)) =
_
p
s
(x,z)(z)dz.
Autre mode de raisonnement: On applique la propriete de Markov.
E
x
(f(B
t
)g(B
s
)) = E
x
(g(B
s
)E((f(B
t
)[T
s
)) = E
x
(g(B
s
)E((f(B
t
)[B
s
)) = E
x
(g(B
s
)(B
s
))
avec (z) = E
z
(f(B
ts
)) =
_
f(y)p
ts
(z,y)dy.
Exercice 2.1.11 :
E
x
(exp(W
t
)
2
) =
1

1 + 2t
exp(
x
2
1 + 2t
)
Exercice 2.1.13 : E[
_
1
0
B
s
s
ds[
_
1
0
E[
B
s
s
[ds = c
_
1
0
1

s
ds < .
Exercice 2.1.14 Utiliser que B
t
< 0 t.
Exercice 2.1.16 La quantite e
t
u(B
t
) est majoree par e
t
M, qui est integrable sur [0,], do` u
lexistence de f et g.
86 Brownien.
La suite degalites
E
x
__

dte
t
u(B
t
)
_
= E
x
_
E
x
__

dte
t
u(B
t
) [T

__
E
x
__

dte
t
u(B
t
)[T

_
= e

E
x
__

0
dte
t
u(B
t+
B

+B

)[T

_
E
x
__

0
dte
t
u(B
t+
B

+B

)[T

_
=
_

0
dte
t
E
x
(u(B
t+
B

+B

)[T

)
E
x
(u(B
t+
B

+B

)[T

) = E
B

[u(

B
t
)]
o` u la derni`ere egalite resulte de la propriete forte de Markov,

B etant le Brownien (B
t+
B

,t 0),
independant de T

, conduisent `a
E
x
__

dte
t
u(B
t
)
_
= E
x
(e

(B

))
avec (x) =
_

0
dte
t
E
x
[u(

B
t
)] = f(x) ce qui est le resultat souhaite.
Exercice 2.1.17 : Il sut decrire

k
k!
E(B
k
t
[T
s
) =

k
k!
H
k
(B
s
, (t s))
Exercice 2.1.19 :P(au moins un zero dans ]s,t[[B
s
= a) = T(T
a
t s). Il reste `a calculer
2
_

0
da
1

2s
e
a
2
/2s
_
ts
0
dx(2x
3
)
1/2
a exp(
a
2
2x
)
On utilise Fubini et de la trigo.
2.2 Processus Gaussien
Exercice 2.2.1 : Soit Y
t
=
_
t
0
B
u
du. Le processus Y est deni trajectoire par trajectoire, comme
integrale de Riemann dune fonction continue. En particulier, on a dY
t
= B
t
dt. Le processus Y est un
processus gaussien. Tout dabord, Y
t
est une gaussienne comme limite de sommes de Riemann qui sont
des gaussiennes car B est un processus gaussien. Le caract`ere gaussien du processus sobtient par un
raisonnement analogue.
On a E(Y
t
) =
_
t
0
E(B
u
) du = 0.
La covariance de Y est E(Y
t
Y
s
) =
_
t
0
du
_
s
0
dvE(B
u
B
v
). Il reste `a integrer
_
t
0
du
__
s
0
dv(u v)
_
.
On se place dans le cas s < t et il vient
E(Y
t
Y
s
) =
_
s
0
du
__
s
0
(v u)dv
_
+
_
t
s
du
__
s
0
(v u)dv
_
=
_
s
0
du
__
u
0
vdv +
_
s
u
udv
_
+
_
t
s
du
__
s
0
vdv
_
.
Tous calculs faits, pour s < t: E(Y
t
Y
s
) =
s
2
6
(3t s).
Exercice 2.2.2
La solution est
X
t
= e
at
x +e
at
_
t
0
e
(a+b)t
dB
t
Corriges. 2002-03 87
On proc`ede comme pour le processus dOU. On peut aussi resoudre dX
t
= aX
t
dt ce qui donne
X
t
= ce
at
et appliquer une methode de variation de la constante. On cherche un processus c tel que
X
t
= C
t
e
at
verie lequation (cette methode ne prend toute sa signication que si on a vu le lemme
dIto)
dX
t
= aC
t
e
at
dt +e
at
dC
t
= aX
t
dt +e
bt
dB
t
dou e
at
dC
t
= e
bt
dB
t
soit dC
t
= e
(b+a)t
dB
t
. Il resterait `a verier que lon a bien trouve une solu-
tion, car on ne dispose pas du lemme dIto et on ne sait pas justier que la derivee de C
t
e
at
est
aC
t
e
at
dt +e
at
dC
t
.
Exercice 2.2.4 :
1. Le processus (Z
t
= B
t
tB
1
,0 t 1) est un processus gaussien car pour tout choix de (a
i
,t
i
)

a
i
Z
t
i
=

a
i
B
t
i
(

a
i
t
i
)B
1
est une v.a.r. gaussienne (B est un processus gaussien). De la meme facon, on obtient que le
vecteur (Z
t
,B
1
) est gaussien. Ses deux composantes Z
t
et B
1
sont independantes car E(Z
t
B
1
) =
E(B
t
B
1
) tE(B
2
1
) = 0. La covariance de Z est
E(Z
t
Z
s
) = E(B
s
B
t
) sE(B
1
B
t
) tE(B
s
B
1
) +tsE(B
2
1
) = (s t) st.
On appelle Z un pont Brownien.
2. Le processus (Y
t
= Z
1t
,0 t 1) est gaussien centre. Sa covariance est, pour s t,
E(Y
t
Y
s
) = (1 t) (1 s) (1 s)(1 t) = (s t) st = s(1 t).
3. Soit Y
t
= (1 t)B t
1t
. Le processus Y est un processus gaussien car

a
i
Y
t
i
=

b
i
B
s
i
. On a
E(Y
t
) = 0 et pour s < t
E(Y
s
Y
t
) = (1 t)(1 s)E(B t
1t
B
s
1s
) = (1 t)(1 s)
s
1 s
= s(1 t)
Exercice 2.2.5 : Par denition de lintegrale de Riemann, toute combinaison lineaire

i
a
i
Z
t
i
est limite
dans L
2
de sommes du type

j
b
j
B
t
j
, do` u le caract`ere gaussien. (Attention, il ne faut pas se contenter
de dire que Z est la somme de deux processus gaussiens. La somme de deux v.a. gaussiennes nest pas
necessairement une gaussienne. Cette propriete est vraie si les variables sont independantes) On utilise
ici que
_
t
0
B
s
s
ds = lim
n

i=0
B
t
i
t
i
(t
i+1
t
i
).
Pour caracteriser la loi du processus gaussien Z, il sut de donner son esperance et sa covariance(
sa variance sen deduira)
Il est immediat de montrer que E(Z
t
) = 0. Il reste `a calculer la covariance. Soit s < t.
E(Z
s
Z
t
) = E(B
s
B
t
) E[
_
t
0
B
s
B
u
u
du] E[B
t
_
s
0
B
u
u
du] +E[
_
t
0
du
B
u
u
_
s
0
dv
B
v
v
On utilise que E(
_
b
a
f(B
u
)du) =
_
b
a
E[f(B
u
)]du et que E(B
u
B
v
) = u v). Apr`es quelques calculs
dintegration sur les integrales doubles, il vient E(Z
s
Z
t
) = s. Le processus Z est un processus gaussien
desperance nulle et de covariance s t.
Le processus Z est donc un mouvement Brownien. Cependant le processus Z nest pas une (T
t
) mar-
tingale: pour s > t
E(Z
s
Z
t
[T
t
) =
_
s
t
1
u
B
s
du ,= 0
88 Brownien.
On a ici lexemple dun processus qui est un MB (et une martingale par rapport `a sa propre ltration),
mais qui nest pas un brownien, ni meme une martingale par rapport `a une ltration plus grosse. Le
probl`eme est connu sous le nom de grossissement de ltration. (Voir lexercice sur lagent initie, dans le
chapitre complements)
Exercice 2.2.6 : B
u

u
t
B
t
= (B
u

u
t +h
B
t+h
)
u
t
(B
t

t
t +h
B
t+h
) montre la croissance et B
t
est
orthogonal `a B
u

u
t
B
t
.
Exercice 2.2.7 : Rappel : soit X est une v.a. de loi N(m;
2
) et Y = exp(X m)
1
2

2
. Soit
dQ = Y dP. Sous Q, X est une v.a. de densite N(m+
2
,
2
).
On montre alors que

B
t
= B
t
mt a une loi gaussienne sous Q.
On verie ensuite lindependance des accroissements: il sagit de montrer que
E
Q
((

B
t+s


B
s
) (

B
s
)) = E
Q
((

B
t+s


B
s
)) E
Q
((

B
s
))
pour toutes fonctions boreliennes bornees (,). On a, par changement de probabilite, avec L
t
=
exp(mB
t

m
2
2
t)
A = E
Q
((

B
t+s


B
s
) (

B
s
)) = E
P
(L
t+s
(

B
t+s


B
s
) (

B
s
).
On a

B
t+s


B
s
= B
t+s
B
s
mt.
En utilisant lindependance de B
t+s
B
s
et de B
s
(sous P) et la forme de L, on obtient
A = E
P
[exp(m(B
t+s
B
s
)
1
2
m
2
t)) (B
t+s
B
s
mt)] E
P
[exp(mB
s

1
2
m
2
s)(

B
s
)].
Sous P, B
t+s
B
s
et B
t
ont meme loi, do` u
A = E
P
[exp(mB
t

1
2
m
2
t)(B
t
mt)] E
P
[exp(mB
s

1
2
m
2
s)(

B
s
)]
= E
P
[exp(mB
t

1
2
m
2
t)(

B
t
)] E
P
[exp(mB
s

1
2
m
2
s)(

B
s
)]
ce qui conduit `a
A = E
Q
((

B
t
)) E
Q
((

B
s
)) .
Exercice 2.2.8 :
sup
t
([B
t
[ t
p/2
)[ = sup
s
([B

2
s
)[ (
2
s)
p/2
)
loi
= sup
s
([B
s
[ (
2
s)
p/2
) = sup
s
([B
s
[ s
p/2
)
E([B
T
[) E(([B
T
[ T
p/2
)) +E(T
p/2
) E(sup
t
([B
t
[ t
p/2
)) +E(T
p/2
)
2.3 Multidimensionnel
Exercice 2.3.2 : Si les coecients
i
sont des constantes, il sut de denir B
3
(t) =
1

2
1
+
2
2
(
1
B
1
(t) +

2
B
2
(t)). Ce processus est un Brownien car cest une martingale telle que (B
2
3
(t) t; t 0) est une
martingale. Si les sont deterministes, on pose dB
3
=
1

2
1
(t)+
2
2
(t)
(
1
(t)dB
1
(t) +
2
(t)dB
2
(t)).
Le processus
B
(3)
(t) =
1
_
1
2
(B
(2)
(t) B
(1)
(t))
est une martingale
B
2
(3)
(t) =
1
1
2
(B
2
(2)
+
2
B
2
(1)
(t) 2B
(1)
(t)B
(2)
(t)
Par denition de la correlation, B
(1)
(t)B
(2)
(t) t est une martingale. Il sen suit que B
2
(3)
(t) t est une
martingale, donc B
(3)
est un MB. Il reste `a montrer que B
(3)
est independant de B
(1)
. On peut utiliser
le theor`eme de RP pour etablir que si le coecient de correlation de deux MB est nul, ces processus
sont independants.
Corriges. 2002-03 89
2.4 Temps datteinte
Exercice 2.4.1 : Soit > 0. Le processus M deni par M
t
= exp(B
t

1
2

2
t) est une martingale.
On applique le theor`eme darret de Doob. Si a > 0, la martingale M
tT
a
est uniformement integrable,
car majoree par exp(a). Donc E(exp(B
T
a

1
2

2
T
a
)) = 1, soit E(exp(a
1
2

2
T
a
)11
T
a
<
) = 1. Do` u
E(exp(
1
2

2
T
a
) 11
T
a
<
) = exp a. Pour = 0; on obtient P(T
a
< ) = 1, puis E(exp(
1
2

2
T
a
) ) =
exp a. En derivant par rapport `a
2
, et en prenant = 0, on en deduit lesperance de T
a
.
Exercice 2.4.2 : La propriete de Markov fort montre que

B
t
= B
T
a
+t
B
T
a
= B
T
a
+t
a est independant
de T
T
a
, donc de T
a
. Comme b > a, on a
T
b
= inft : B
t
= b = inft T
a
: B
t
= b = T
a
+ inft :

B
t
= b a
On en deduit que la v.a. T
b
T
a
est independante de T
a
et que T
b
T
a
loi
= T
ba
. Le processus T
a
est
donc `a accroissements independants et stationnaires. Cest donc un processus de Levy.
Exercice 2.4.3 : Appliquer le theor`eme darret de Doob `a la martingale B
t
et `a B
2
Tn
(T n).
Exercice 2.4.5 : On note S
t
= max
st
W
s
. En remarquant que S
T
= max
st
W
s
max
t<sT
W
s
on en
deduit
P( > T[T
t
) = P(S
T
< a[T
t
) = 11
S
t
<a
P( max
t<s<T
W
s
W
t
< a W
t
[T
t
)
Le processus

W
u
= W
t+u
W
t
est un MB independant de T
t
. Do` u P(max
t<s<T
W
s
W
t
< aW
t
[T
t
) =
(a W
t
) avec
(x) = P( max
0<u<Tt

W
u
< x) = P([

W
Tt
[ < x) = P([

T t G[ < x) =
2

2
_ x

Tt
0
e
u
2
/2
du.
Exercice 2.4.6 : Des calculs simples montrent que E(e
T
d
) = E(exp [B
d
[

2)e
d
. De meme,
E(11
B
d

e
T
d
) = E(11
B
d

(B
d
))e
d
avec (x) = E
x
(e
T
0
) = E
0
(e
T
x
) = exp([x[

2. Do` u
E(11
B
d

e
T
d
) = E(11
B
d

exp([B
d
[

2)e
d
) = E(11
G/

d
exp(G

2d)e
d
)
Exercice 2.4.9 : Par denition P(I x) = P(inf
sT
1
B
s
x) = P(T
1
T
x
). En utilisant le
theor`eme darret E(B
T
1
T
x
) = E(B
0
) = 0, do` u
P(T
1
T
x
) xP(T
1
T
x
) = 0 = P(T
1
T
x
) x(1 P(T
1
T
x
))
et P(T
1
T
x
) =
x
1 +x
.
Exercice 2.4.10 : On regarde la martingale exp X
t
t pour un . Ensuite, on montre que
(e
b
e
a
)e
X
t
t
+ (e
ab
e
b
)e
X
t
t
est une martingale pour =

2
+ 2 , =

2
+ 2 .
Exercice 2.4.11 : On utilise que (M
T

a
< y) = (sup
u<v
B
u
< y).
P(M
T

a
y > x[M
T

a
> y) = P(T

> T
x+y
[T

a
> T
y
)
= P(M
u
B
u
a,T
y
< u < T
x+y
[M
u
B
u
< a,u < T
y
)
= P(

M
u


B
u
a,u,0 < u <

T
x
) = P(

M
T

a
x)
Pour obtenir le param`etre, on calcule lesperance
0 = E(B
T

n
= E(M
T

a
n
) E(M
T

a
n
B
T

a
n
)
et on passe `a la limite E(M
T

a
n
) = a.
90 Brownien.
Exercice 2.4.12 : Le processus exp[2X
t
/
2
] est une martingale, en eet il est facile de mettre
ce processus sous la forme exp(B
t

1
2

2
t). On en deduit que h(X
t
) est une martingale et que
E(h(X
t)
) = h(0). Linegalite [h(X
t)
)[ sup
x[B,A]
(h(x)) permet dappliquer le theor`eme de
convergence dominee.
Exercice 2.4.18 : On sait que (poly, Lamberton et Lapeyre 2nd edition, page 96, Musiela et Rutkowski
p. 49, Voir aussi Karatzas et Shreve, page 95) si M
t
= sup
st
W
s
P(W
t
x,M
t
y) = P(W
t
x) P(W
t
2y x)
pour 0 y, x y. On en deduit, par derivation
P(W
t
dx,M
t
y) =
1

2t
exp(
x
2
2t
)
1

2t
exp(
(2y x)
2
2t
)
et
P(M
t
y[W
t
= x) =
P(W
t
dx,M
t
y)
P(W
t
dx)
= 1 exp(
(2y x)
2
2t
+
x
2
2t
)
Si le MB est issu de x, on utilise
P(sup
st
W
s
+x y[W
t
+x = z) = P(M
t
y x[W
t
= z x)
2.5 Scaling
Exercice 2.5.2 : La partie a) resulte de
(T
1
> t) = (1 > S
t
)
loi
= (1 >

tS
1
) = (
1
S
2
1
> t)
La partie c) resulte de
d

a
= inft
a
: B
t
= 0 = inft :
1
a
A
t
1,
1

a
B
t
= 0
loi
= inft : A
t/a
1,B
t/a
= 0 = ad

1
et
(A
g
a) = (g
1
) = (1 d

a
loi
= (1 ad

1
) = (
1
d

1
a)
La partie d) est facile. Dans ce cas
1
loi
= T

1
= inft : sup
st
[B
s
[ 1.
Exercice 2.5.3 :
P( sup
1t1
[W
t
[ x) = P( sup
1t(1/x
2
)
[W
t
[ 1) = P(M
1

1
x
2
)
2.6 Complements
Exercice 2.6.1 : On calcule E((B
t


B
t
)
2
)
E((B
t


B
t
)
2
) = E(B
2
t
) +E(

B
2
t
) 2E(B
t

B
t
)
= 2t 2E(B
t

B
t
)
Il reste `a calculer
E(B
t

B
t
) = E[ E
_
(B
t

B
t
[(
t
_
]) = E(

B
2
t
) = t
do` u E((B
t


B
t
)
2
) = 0; il sen suit legalite souhaitee.
Corriges. 2002-03 91
Exercice 2.6.4 : Soit s < t. Nous devons montrer que pour u s,
(s)
u
def
= B
u

u
s
B
s

t
. Il sut
decrire
(s)
u
= B
u

u
t
B
t
+
u
s
(
s
t
B
t
B
s
) =
(t)
u

u
s

(t)
s
. Le processus (
(t)
u
; u t) est independant de la
variable
u
t
B
t
(calculer les covariances), et B
u
= (
(s)
u
+
u
t
B
t
est la decomposition orthogonale de B, la
projection de F
t
est donc
_
t
0
f(s)d
s

(t)
s
. Le processus

B est un processus gaussien centre de covariance
t s, cest un MB (On peut aussi le voir en utilisant des resultats dunicite en loi de solution dequa
di) Il est facile de montrer que

B
s
=
(t)
s

_
s
0
du
u

(t)
u
et que, en particulier

B
t
=
_
t
0
du
u

(t)
u
Do` u legalite des tribus. Il en resulte, en notant

F(t) =
_
t
0
f(s)ds et en utilisant une integration par
partie que
_
t
0
f(s)dB
s
=
_
t
0
f(s)d

B
s

B
t
t

F(t) +
_
t
0

F(s)
s
d

B
s
.
Exercice 2.6.7 : On utilisera le theor`eme de representation previsible pour representer W
(1)
t
,W
(2)
t
en
terme de W
(3)
. Si legalite etait possible, on aurait W
(i)
t
=
_
t
0

(i)
s
dW
s
avec
_
t
0
E[
(i)
s
]
2
ds = t et
E(W
(1)
t
W
(2)
t
) = E(
_
t
0

(1)
s

(2)
s
ds) = 0.
Exercice 2.6.8 : Les premieres questions se traitaient en utilisant des formules dintegration par parties,
ou la formule dIto. A la main, on calcule
B
t
+
_
t
0
W
s
X
s
1 s
ds = B
t
+
_
t
0
W
s
1 s
ds
_
t
0
ds
_
s
0
W
u
(1 u)
2
du
_
t
0
ds
_
s
0
1
1 u
dB
u
= B
t

_
t
0
t u
1 u
dB
u
+
_
t
0
W
s
1 s
(1
t s
1 s
)ds
=
_
t
0
(1
t u
1 u
)dB
u
+
_
t
0
W
s
1 s
(1
t s
1 s
)ds
= (1 t)
_
t
0
1
1 u
dB
u
+ (1 t)
_
t
0
W
s
(1 s)
2
ds
Par dierentiation
dX
t
= (1 t)
W
t
(1 t)
2
dt dt
_
t
0
W
s
(1 s)
2
ds + (1 t)
1
1 t
dB
t
dt
_
t
0
1
1 s
dB
s
=
W
t
1 t
dt +dB
t

1
1 t
X
t
dt
Le calcul de la covariance du processus Gaussien X sobtenait en appliquant plusieurs fois le resultat
disometrie
E(
_
t
0
f(u)dW
u
_
s
0
g(u)dW
u
) =
_
ts
0
f(u)g(u)du
et en remarquant que les v.a.
_
t
0
f(u)dW
u
et
_
s
0
g(v)dB
v
sont independantes. On trouvait pour s < t
E(X
s
X
t
) = s + 2s(1 t) + (2 s t) ln(1 s)
92 Ito. Corriges
2.7 Finance
Exercice 2.7.1 : On calcule separement E(S
t
11
S
t
<K
) et E(11
S
t
<K
). On trouve
E(e
rt
(S
t
K)
+
) = x^(d
1
(t)) Ke
rt
^(d
2
(t))
avec
d
1
(t) =
1

t
(ln(
x
K
+
1
2

2
t +rt),d
2
(t) = d
1

t
En appliquant la propriete de Markov, on en deduit
E(e
r(ts)
(S
t
K)
+
[T
s
) = x^(d
1
(t s)) Ke
r(ts)
^(d
2
(t s)) .
Exercice 2.7.2 : Nous presentons le calcul pour deux dates. Il sagit de calculer lesperance de
(S
T
S
t
1
)
+
11
S
t
1
<K
+ (S
T
K)
+
11
K<S
t
1
On utilise la formule de BS.
E[(S
T
S
t
1
)
+
11
S
t
1
<K
] = E[11
S
t
1
<K
E((S
T
S
+
t
1
[T
t
1
)]
E((S
T
S
+
t
1
[T
t
1
) = E((S
T
S
+
t
1
[
t
1
)
= S
t
1
^(d
1
) S
t
1
e
r(Tt
1
)
^(d
2
)
avec
d
1
=
1

T t
1
(
1
2

2
(T t
1
) +r(T t
1
))
Il vient
E[(S
T
S
+
t
1
11
S
t
1
<K
= aE(S
t
1
11
S
t
1
<K
avec
a = ^(d
1
) ^(d
2
)e
r(Tt
1
)
E[(S
T
K)
+
11
{K<S
t
1
}
] = E[11
{K<S
t
1
}
(S
t
1
^(d

1
) Ke
r(Tt
1
)
^(d

2
)
d

1
=
1

T t
1
(ln(
S
t
1
K
+
1
2

2
(T t
1
) +r(T t
1
))
2002-03 93
Chapitre 3
Integrale dIto, Corriges
3.1 Integrale de Wiener
Exercice 3.1.1 : On a tB
t
=
_
t
0
sdB
s
+
_
t
0
B
s
ds (en utilisant la formule dintegration par parties) et
E(Y
t
) = 0, E(Y
s
Y
t
) = ts(t s). Le processus Y est un processus gaussien (cetait dailleurs evident par
denition de Y ). On peut aussi utiliser la formule dIto (voir plus loin) qui conduit `a dY
t
= tdB
t
+B
t
dt.
Exercice 3.1.2 : La v.a. X
t
=
_
t
0
(sin s) dB
s
est denie, car
_
t
0
sin
2
s ds < , pour tout t. Le pro-
cessus X est gaussien desperance nulle et de covariance E(X
s
X
t
) =
_
st
0
sin
2
udu. Il vient alors
E(X
t
X
s
) =
st
2

1
4
sin 2(s t).
Le processus X est une martingale, do` u, pour s < t, on a E(X
t
[T
s
) = X
s
. La derni`ere egalite resulte
dune IP.
Exercice 3.1.3 : La v.a. Y
t
=
_
t
0
(tan s) dB
s
est denie, car
_
t
0
tan
2
s ds < pour t <

2
. Le processus
Y est gaussien, centre de covariance E(Y
t
Y
s
) =
_
st
0
tan
2
udu = tan(s t) (s t).
Le processus Y est une martingale.
Exercice 3.1.4 : Soit
X
t
= (1 t)
_
t
0
dB
s
1 s
; 0 t < 1
En appliquant le Lemme dIto (ou une I.P.) `a f(t,y) = (1 t)y et Y
t
=
_
t
0
dB
s
1 s
(donc dY
t
=
dB
t
1 t
) il
vient dX
t
= (dt)
_
t
0
dB
s
1 s
+ (1 t)
dB
t
1 t
, do` u
_
dX
t
=
X
t
t 1
dt +dB
t
; 0 t < 1
X
0
= 0
On admet lunicite de la solution. Le processus X est gaussien car
_
t
0
dB
s
1 s
est une integrale de Wiener,
et on a E(X
t
) = 0 et pour s < t
E(X
s
X
t
) = (1 t)(1 s)E(
_
t
0
dB
u
1 u
_
s
0
dB
u
1 u
) = (1 t)(1 s)
_
s
0
du
(1 u)
2
= (1 t)s
En particulier E(X
2
t
) = t(1 t) do` u X
t
tend vers 0 quand t tend vers 1. Le processus X est un pont
Brownien.
Exercice 3.1.5 : Formule evidente en ecrivant B
t
=
_
t
0
dB
s
et en utilisant lisometrie.
94 Ito. Corriges
Exercice 3.1.6 : E(
_
t
2
t
1
(B
t
B
t
1
) dt[T
t
1
) =
_
t
2
t
1
E((B
t
B
t
1
)[T
t
1
) ,dt = 0. Par integration par parties
_
t
2
t
1
B
t
B
t
1
) dt = t
2
(B
t
2
B
t
1
)
_
t
2
t
1
tdB
t
=
_
t
2
t
1
(t
2
t)dB
t
On en deduit que la variance cherchee
est
_
t
2
t
1
(t
2
t)
2
dt.
3.2 Formule dIto
Exercice 3.2.1 : 1. Soit X
t
= B
2
t
. On a, en posant f(x) = x
2
dX
t
= f

(B
t
)dB
t
+
1
2
f

(B
t
) dt = 2B
t
dB
t
+dt .
2. Soit X
t
= t + exp B
t
. En posant f(t,x) = t +e
x
, on a
dX
t
= dt + exp B
t
dB
t
+
1
2
exp B
t
dt .
3. Soit X
t
= B
3
t
3tB
t
. En posant f(t,x) = x
3
3tx on obtient
dX
t
= 3B
2
t
dB
t
3tdB
t
3B
t
dt +
1
2
3 2B
t
dB
t
dB
t
= (3B
2
t
3t)dB
t
.
On retrouve le caract`ere martingale de X etabli au chapitre precedent.
Exercice 3.2.2 : Soit X
t
= exp
_
t
0
a(s) ds et Y
t
= Y
0
+
_
t
0
[b(s) exp(
_
s
0
a(u)du) dB
s
, o` u a et b sont des
fonctions deterministes. En utilisant la notation dierentielle dX
t
= a(t)
_
exp
_
t
0
a(s) ds
_
dt et dY
t
=
b(t) exp(
_
t
0
a(u)du) dB
t
, do` u dX
t

dY
t
= 0. On pose Z
t
= X
t
Y
t
. Par la formule dIto, on a
dZ
t
= X
t
dY
t
+Y
t
dX
t
= b(t) dB
t
+a(t)X
t
Y
t
dt
soit dZ
t
= a(t)Z
t
dt +b(t)dB
t
. Le processus (Z
t
exp
_
t
0
a(s) ds = Y
t
; t 0) est une martingale locale.
Exercice 3.2.3 : La formule dIto donne (nous omettons les indices t
dY = X
1
X
2
dt +t(X
1
dX
2
+X
2
dX
1
+dX
1
,X
2
)
= X
1
X
2
dt +t(X
2
f(t) +
1

2
)dt +t(X
1

2
+X
2

1
)dB
Exercice 3.2.4 : La formule dIto appliquee `a sin B
t
donne
sin B
t
= 0 +
_
t
0
cos B
s
dB
s

1
2
_
t
0
sin B
s
ds,
do` u Y
t
=
_
t
0
cos B
s
dB
s
. Cest une martingale, car E(
_
t
0
cos
2
B
s
ds) < , pour tout t. On a E(Y
t
) = 0
et var Y
t
= E(
_
t
0
cos
2
B
s
ds).
Exercice 3.2.5 : En appliquant la formule dIto, on obtient
d(X
2
t
+Y
2
t
) = 2X
t
dX
t
+ 2Y
t
dY
t
+dX)
t
+dY )
t
= 2X
t
Y
t
dB
t
2x
t
Y
t
dB
t
+ (X
2
t
+Y
2
t
)dt
En posant Z
t
= X
2
t
+Y
2
t
on montre que le processus Z verie dZ
t
= Z
t
dt ce qui sint`egre en Z
t
= ze
t
.
Exercice 3.2.6 : Il est evident que dZ
t
= Y
t
dB
t
. On calcule facilement E(Y
2
s
) =
_
t
0
e
2s
ds. Par suite
Lintegrale stochastique est une martingale car
E(
_
t
0
Y
2
s
ds) =
_
t
0
E(Y
2
s
)ds <
2002-03 95
et E(Z
t
) = 0,E(Z
2
t
) = E(
_
t
0
Y
2
s
ds).
Exercice 3.2.7 : Soit dX
t
= a(K
t
X
t
) dt + dB
t
. On voudrait que X
t
= f(K
t
). La formule dIto
appliquee `a f(K
t
) donne
dX
t
= f

(X
t
)dK
t
+
1
2
f

(K
t
)
2
dt
soit
dX
t
= (f

(K
t
)b +
1
2
f

(K
t
)
2
) dt +f

(K
t
)dB
t
Si on identie les deux drifts, on obtient
a(K
t
f(K
t
)) = f

(K
t
)b +
1
2
f

(K
t
)
2
do` u f est solution de
1
2

2
f

(x) +bf

(x) +af(x) = ax.


On resout cette EDO et on montre que f est de la forme
e

1
x
+e

2
x
+ (x
b
a
)
avec
1
et
2
solutions de
1
2

2
+b +a = 0.
Exercice 3.2.8 : Soit X
t
=
_
t
0
(s) dB
s

1
2
_
t
0

2
(s) ds. On a
dX
t
= (t) dB
t

1
2

2
(t) dt.
Soit Y
t
= exp X
t
. On applique la formule dIto avec f(x) = e
x
.
dY
t
= exp(X
t
) dX
t
+
1
2
exp(X
t
)
2
(t) dt
= Y
t
(
1
2

2
(t) dt +(t)dB
t
) +
1
2
Y
t

2
(t) dt
= Y
t
(t) dB
t
.
Le processus Y est une martingale locale. Cest une martingale si
E
__
t
0
Y
2
t

2
(t) dt
_
< .
Ce crit`ere nest pas tr`es bon, nous en verrons dautres par la suite.
Si est une constante, Y est un brownien geometrique avec drift nul. En particulier,
Y
t
= exp(B
t


2
2
t)
est une (vraie) martingale:
Verions `a titre dexercice dans ce cas les conditions dintegrabilite:
Y
t
= exp X
t
= exp(B
t

1
2

2
t)
do` u
E([Y
t
[) = E(Y
t
) = E(exp(B
t


2
2
t)) =
1

2t
_

e
x
1
2

2
t
e

x
2
2t
dx = 1
E(Y
2
t
) = E(exp(2B
t

2
t)) = exp(
2
t) .
En particulier, si = 1 le processus exp( B
t

t
2
) est une martingale.
96 Ito. Corriges
Soit Z
t
=
1
Y
t
. Pour calculer dZ
t
, on peut utiliser la formule dIto
dZ
t
=
Y
t
(t)
Y
2
t
dB
t
+
1
2
2Y
2
t

2
(t)
Y
3
t
dt = Z
t
((t)dB
t
+
2
(t)dt)
ce qui va secrire
Z
t
= Z
0
exp(
_
t
0
(s)dB
s
+
1
2
_
t
0

2
(s) ds)
formule que lon peut obtenir directement en inversant lexponentielle.
Exercice 3.2.9 : Le processus Z est une martingale locale car dZ
t
= cX
t
Z
t
dB
t
. On a
dU
t
= 2X
t
dX
t
+dX)
t
= 2X
t
(a bX
t
)dt + 2X
t
dB
t
+dt
soit U
t
= U
0
+ 2
_
t
0
X
s
dB
s
+
_
t
0
(2X
s
(a bX
s
) + 1)ds On en deduit
1
2
(X
2
t
X
2
0
t) =
_
t
0
X
s
dB
s
+a
_
t
0
X
s
ds b
_
t
0
X
2
s
ds
Exercice 3.2.10 : Pour montrer que Z est une martingale locale, on calcule dZ et on verie que son
drift est nul. On a Z
t
= f(t,B
t
) avec f(t,x) =
1

1 t
exp
x
2
2(1 t)
Il en resulte que
dZ
t
=
B
t
(1 t)
3/2
exp
B
2
t
2(1 t)
dB
t
Le processus (Z
t
,t < 1) est une martingale locale. Cest une vraie martingale si pour tout T 1
E[
_
T
0
B
2
t
(1 t)
3
exp
B
2
t
(1 t)
dt] <
Le terme de gauche est majore par E[
_
T
0
B
2
t
(1 t)
3
dt] =
_
T
0
t
(1 t)
3
dt < .
Exercice 3.2.11 : Soit Z
t
= (L
t
)
a
exp((a)t). Alors
dZ
t
= dM
t
+e
(a)t
(L
t
)
a
((a) +a(a 1))
o` u M est une martingale.
Exercice 3.2.12 : Il est facile detablir que
dY
t
= Y
t
[(2X
t
a
t
+
2
t
(1 + 2X
2
t
))dt + 2X
t

t
dW
t
]
et, en utilisant que X
t
= 0 et Y
t
= 1 on obtient 0 =
2
t
dt.
Exercice 3.2.20 : La fonction dechelle de X
t
= exp(B
t
+ t) est s(x) = x
2
. Le processus croissant
de s(X) est A
t
=
_
t
0
(s

)
2
(X
s
)ds.
Exercice 3.2.24 : On obtient facilement
E(f(B
1
)[T
t
) = E(f(B
1
B
t
+B
t
)[T
t
) = E(f(

B
1t
+B
t
)[T
t
) = (t,B
t
)
avec
(t,x) = E(f(x +B
1t
)) . (3.1)
D autre part, la formule dIto et la propriete de martingale de (t,B
t
) conduisent `a (t,B
t
) = E(f(B
1
))+
_
t
0

x
(s,B
s
)dB
s
. On ecrit (grace `a 3.1)

x
(t,x) = E(f

(x +B
1t
))
et un raisonnement analogue au precedent montre que si on pose (t,x) = E(f

(x +B
1t
)) on obtient
(t,B
t
) = E(f

(B
1
)[T
t
)
2002-03 97
3.3 Cas multidimensionnel
Exercice 3.3.1 : De facon evidente, on a
dS
3
(t) =
1
2
[dS
1
(t) +dS
2
(t)] =
1
2
[r(S
1
(t) +S
2
(t)] dt +
1
S
1
(t)dB
1
(t) +
2
S
2
(t)dB
2
(t) .
On peut remarquer que
_

2
1
S
2
1
(t) +
2
2
S
2
2
(t) dB
3
(t) = (
1
S
1
(t)dB
1
(t) +
2
S
2
(t)dB
2
(t))
denit un Brownien B
3
qui permet decrire
dS
3
(t) = r S
3
(t)dt +(t)S
3
(t)dB
3
t
o` u (t) =

2
1
S
2
1
(t)+
2
2
S
2
2
(t)
S
1
(t)+S
2
(t)
est un processus.
En utilisant le lemme dIto, on obtient
dS
4
(t) = S
4
(t)(r dt
1
8
(
2
1
+
2
2
) dt +

1
2
dB
1
(t) +

2
2
dB
2
(t)) ,
ce que lon peut ecrire
dS
4
(t) = S
4
(t)(r dt
1
8
(
2
1
+
2
2
) dt +dB
4
(t)) .
Pour verier que B
3
et B
4
sont des browniens, on peut proceder de dierentes facons (voir aussi les
exercices sur le Brownien)
a. B
i
(t +s) B
i
(t) a meme loi que B
i
(s), cette loi est ^(0,s) et les accroissements sont independants
b. B
i
et (B
2
i
(t) t,t 0) sont des martingales et B
i
est un processus continu
c. pour tout , le processus exp(B
i
(t)

2
2
t) est une martingale.
3.4 Complements
Exercice 3.4.1 : En utilisant le theor`eme de Fubini pour les integrales doubles
F(x) =
_
x

dz
_
z

dyf(y) =
_
x

dyf(y)
_
x
y
dz =
_
x

dyf(y)(x y)
+
Par derivation par rapport `a la borne superieure
F

(x) =
_
x

dyf(y) =
_

f(y)11
x>y
dy
Le lemme dIto conduit alors au resultat. La formule nale secrit aussi
_
t
0
f(B
s
)ds = 2
_

L
B
(t,y)f(y)dy
avec L
B
(t,y) =
_
(B
t
y)
+
(B
0
y)
+

_
t
0
11
B
s
>y
dB
s
_
et est connue sous le nom formule de temps
doccupation. Le processus L
B
(,y) est le temps local de B au point y entre 0 et t. La diculte est de
verier que le processus L(,y) est un processus croissant.
Exercice 3.4.2 : On a, en exprimant X
t
comme le produit de exp W
1
(t) et de U
t
=
_
t
0
exp[W
1
(s)] dW
2
(s)
qui verie dU
t
= exp[W
1
(t)] dW
2
(t)
dX
t
= exp W
1
(t)(exp W
1
(t)) dW
2
(t) +U
t
(exp[W
1
(t)]dW
1
(t) +
1
2
exp[W
1
(t)]dt)
= dW
2
(t) +X
t
dW
1
(t) +
1
2
X
t
dt
98 Ito. Corriges
Soit f(x) = sinh x, alors, f

(x) =
1
2
(e
x
+e
x
) = cosh x et f

(x) =
1
2
(e
x
e
x
) = sinh x. O applique le
lemme dIto:
dZ
t
= cosh(W
1
(t)) dW
1
(t) +
1
2
sinh(W
1
(t)) dt =
_
1 +Z
2
t
dW
1
(t) +
1
2
Z
t
dt
M
t
def
= W
2
(t) +
_
t
0
X
s
dW
1
(s) est une martingale locale comme somme de deux martingales locales.
Son crochet est t +
_
t
0
X
2
s
ds =
_
t
0
(1 + X
2
s
)ds, do` u
s
=
_
1 +X
2
s
. En regroupant les resultats
X
t
=
_
t
0
_
1 +X
2
s
dW
3
(t) +
1
2
_
t
0
X
t
dt et Z
t
=
_
t
0
_
1 +Z
2
s
dW
1
(s) +
1
2
_
t
0
Z
s
ds. On obtient donc
legalite en loi de X et de Z.
Exercice 3.4.4 : (voir Brownien) Le processus Z est une martingale, et le lemme dIto conduit `a
dZ
t
= 11
S
t
<a
2

2
a W
t

T t
exp
(a W
t
)
2
2
dW
t
.
3.5 Brownien geometrique et extensions
Exercice 3.5.1 : Soit dS
t
= S
t
(b dt + dB
t
) un brownien geometrique et

S
t
= e
bt
S
t
. La formule dIto
montre que
d(

S
t
) = e
bt
dS
t
be
bt
S
t
dt = e
bt
S
t
dB
t
=

S
t
dB
t
.
Dapr`es les exercices precedents

S
t
=

S
0
exp(B
t

1
2

2
t)
et

S est une martingale. Il en resulte
S
t
= S
0
exp((b
1
2

2
)t +B
t
)
ou encore
S
t
= S
s
exp((b
1
2

2
)(t s) +(B
t
B
s
)),s t
On obtient
E(S
t
) = S
0
exp((b
1
2

2
)t) E(exp B
t
) = S
0
exp bt
en utilisant la transformee de Laplace de la gaussienne B
t
, et en utilisant les proprietes de lesperance
conditionnelle
E(S
t
[T
s
) = S
s
E
_
exp((b
1
2

2
)(t s) +(B
t
B
s
))[T
s
_
Le calcul de E
_
exp((b
1
2

2
)(t s) +(B
t
B
s
))[T
s
_
se fait aisement `a partir de celui de E(exp((B
t

B
s
))[T
s
) = E(exp((B
t
B
s
))) pour lequel il sut dutiliser la transformee de Laplace de la v.a. gaus-
sienne B
t
B
s
. On obtient
E(S
t
[T
s
) = exp(b(t s))S
s
.
Cette derni`ere formule sobtient aussi directement en utilisant que

S est une martingale.
Si Z
t
= (

S
t
)
1
, on a dZ
t
= Z
t
((
2
b) dt dB
t
).
Ces calculs se generalisent. Soit dS
t
= S
t
(b
t
dt+
t
dB
t
) et Y
t
= S
t
exp(
_
t
0
b
s
ds). On a d(exp(
_
t
0
b
s
ds) =
b
t
exp(
_
t
0
b
s
ds)dt. Le processus Y verie
dY
t
= exp(
_
t
0
b
s
ds)dS
t
S
t
b
t
exp(
_
t
0
b
s
ds)dt = exp(
_
t
0
b
s
ds)S
t

t
dB
t
= Y
t

t
dB
t
et est une martingale locale.
2002-03 99
La solution de dL
t
= L
t

t
dB
t
est une martingale locale, qui secrit
L
t
= L
0
exp(
_
t
0

s
dB
s

1
2
_
t
0

2
s
ds).
On pose Y
t
= S
t
L
t
. On a
dY
t
= S
t
dL
t
+L
t
dS
t
+d < S,L >
t
.
Par denition dS,L)
t
= S
t

t
L
t

t
dt, do` u
dY
t
= Y
t
((b
t

t

t
) dt +
t
dB
t
) .
En nance, on utilise souvent le cas
t
=
r(t)b
t

t
. Il vient alors
dY
t
= Y
t
(r(t) dt +
t
dB
t
) .
Soit R
t
= exp(
_
t
0
r(s) ds). Le processus Y R = LRS est une martingale locale qui verie d(LRS) =
LRSdB.
Exercice 3.5.2 : Soit
dS
t
= S
t
(rdt +dB
t
)
et A
t
=
1
t
_
t
0
ln S
s
ds. On a S
t
= S
0
exp(B
t

1
2

2
t +rt) et
ln S
t
= ln S
s
+(B
t
B
s
) + (r

2
2
)(t s)
Le processus ln S
t
est un processus gaussien, do` u A
t
est une variable gaussienne.
Soit G(t,T) =
1
T
_
T
t
(B
s
B
t
) ds. Le processus s B
s
B
t
est gaussien, do` u G(s,T) est une variable
gaussienne. Le processus (B
s
B
t
,s t) est independant de T
t
donc G(t,T) aussi, do` u E(G(t,T)[T
t
) =
1
T
_
T
t
E(B
s
B
t
) ds = 0.
Var (G(t,T)[T
t
) = E(G
2
(t,T)) =
1
T
2
_
T
t
_
T
t
E((B
s
B
t
)(B
u
B
t
))ds du.
E((B
s
B
t
)(B
u
B
t
)) = (s u) t. Tous calculs faits
Var (G(t,T)[T
t
) =
1
T
2
(
1
3
T
3

1
3
t
3
+tT(t T))
En ecrivant A
T
=
1
T
_
_
t
0
ln S
s
ds +
_
T
t
ln S
s
ds
_
et en remarquant que
_
T
t
ln S
s
ds = (T t) ln S
t
+
1
2
r
2
2
(T t)
2
+G(t,T)
on obtient
A
T
=
t
T
A
t
+ (1
t
T
)[ln S
t
+
1
2
(r

2
2
(T t)] +G(t,T).
Exercice 3.5.4 : Soit

S
t
= e
rt
S
t
. On a vu deja plusieurs fois que

S
t
est une martingale (par exemple
verier, en utilisant le lemme dIto, que d

S
t
=

S
t
dB
t
).
Soit X
t
deni par
e
rt
X
t
= E[
e
rT
h
_
T
Th
S

u
du[T
t
] .
On a, X
T
= V
T
et si t T h
e
rt
X
t
= e
rT
1
h
_
T
Th
E(S
u
[T
t
) du
100 Ito. Corriges
soit
e
rt
X
t
= S

t
e
rt
1 e
rh
rh
et si T h t T
e
rt
X
t
= e
rT
1
h
_
T
Th
E(S
u
[T
t
) du
= e
rT
1
h
_
t
Th
E(S
u
[T
t
) du +
1
h
_
T
t
E(S
u
[T
t
) du =
e
rT
h
_
t
Th
S

u
du +S

t
e
rt
1 e
r(Tt)
rh
.
dX
t
X
t
= rdt +
S

t
X
t
_
1
{t<Th}
1 e
rh
rh
+ 1
{Th<t<T}
1 e
r(Tt)
rh
_
dW
t
= rdt +
_
1
t<Th
+ 1
Th<t<T
S

t
X
t
1 e
r(Tt)
rh
_
dW
t
.
Exercice ??: Soit Z
t
= e
rt
S
t
+
_
t
0
(s)e
rs
S
s
ds. On a alors
dZ
t
= re
rt
S
t
dt +e
rt
dS
t
+
t
e
rt
S
t
dt
= S
t
e
rt
dW
t
Le processus Z est une martingale locale. On peut expliciter S qui est la solution dune equation du
type dS
t
= S
t
(a(t)dt +dW
t
par
S
t
= S
0
exp(rt (t) +W
t
)
avec (t) =
_
t
0
(s)ds. En ecrivant
S
t
= S
0
exp(rt (t)) exp(W
t

1
2

2
t)
et en utilisant que exp(W
t

1
2

2
t) est une martingale desperance 1, on obtient
E(S
t
) = S
0
exp(rt (t)) .
On montre que S est de carre integrable : en eet
S
2
t
= S
2
0
exp(2rt 2(t) + 2W
t
) = S
2
0
exp(2rt 2(t) +
1
2
(2)
2
t) exp(2W
t

1
2
(2)
2
t)
et lon sait que exp(2W
t

1
2
(2)
2
t) est une martingale egale `a 1 en t = 0, do` u
E(S
2
t
) = S
2
0
exp(2rt 2(t) +
1
2
(2)
2
t)
et E(
_
t
0
S
2
s
e
2rs
ds) < , ce qui etablit le caract`ere martingale de la martingale locale Z.
On sait que (formule de Black et Scholes en changeant de nom les param`etres) si dS
t
= S
t
(adt +
dW
t
), S
0
= x alors
E(e
aT
(S
T
K)
+
)) = x^(d
1
) Ke
aT
^(d
2
)
avec d
1
=
1

T
ln(
x
Ke
aT
) +
1
2

2
T). Le calcul demande est alors facile.
3.6 Le crochet
3.7 Finance
Exercice 3.7.3 : Pour g(x) = (x K)
+
C
Am
t
C
t
= E(e
rT
(S
T
K)
+
[T
t
) = E(e
rT
g(S
T
)[T
t
)
Corriges. 2002-03 101
et aussi
e
ru
g(S
u
) e
rT
g(S
u
e
r(Tu)
) = e
rT
g(e
rT
E(S
T
e
rT
T
u
)) = e
rT
g(E(e
rT
S
T
e
rT
T
u
))
= e
rT
g(E(S
T
T
u
)) E(e
rT
g(S
T
)[T
t
))
P P
Am
et la propriete de sous martingale de (K S
t
e
rt
) permet de conclure.
Exercice 3.7.6 :
1. Si V est autonancant
dV
t
=
t
dS
0
t
+
t
dS
t
=
t
S
0
t
r
t
dt +
t
dS
t
= r
t
(V
t

t
S
t
)dt +
t
dS
t
= r
t
V
t
dt +
t
(dS
t
r
t
S
t
dt)
Reciproquement, si
dV
t
= r
t
V
t
dt +
t
(dS
t
r
t
S
t
dt),V
0
= v .
alors, en introduisant les processus actualises t

V
t
= V
t
/S
0
t
,

S
t
= S
t
/S
0
t
, la relation
d

V
t
=
t
d

S
t
,

V
0
= v
conduit `a

V
t
= v +
_

s
d

S
s
. On connat donc V
t
. On pose
t
=
1
S
0
t
(V
t

t
S
t
) et on remarque que
dV
t
= r
t
V
t
dt +
t
(dS
t
r
t
S
t
dt) = (V
t

t
S
t
)r
t
dt +
t
dS
t
=
t
dS
0
t
+
t
dS
t
ce qui etablit lautonancement.
2. On remarque que dS
t
r
t
S
t
dt =
t
(dW
t
+
t
dt). Le processus M
t
= (H
t
)
1
verie donc
dM
t
= M
t
(rdt +(dW
t
+dt)) = M
t
(r
t
dt +
t
/
t
(dS
t
rS
t
dt))
et correspond `a la valeur dun portefeuille autonancant avec
t
=
t
/
t
. il est appelle portefeuille
de marche car il contient toutes les informations dont on a besoin pour resoudre un probl`eme
doptimisation.
Exercice 3.7.12 : On remarque que
T
T
= (W
s
,s t) = (S
1
s
,s t) = (S
2
s
,s t)
Le marche est complet: en eet, toute v.a. T
T
mesurable secrit comme valeur terminale dun por-
tefeuille auto-nancant compose des actifs sans risque et de lactif 1, donc le marche compose dun
actif supplementaire (avec les memes actifs contingents) est egalement complet. La seule probabilite
equivalente `a la probabilite P telle que lactif sans risque et lactif 1, actualises, sont des martingales
est Q denie par dQ[
F
t
= exp(W
t

1
2

2
t)dP[
F
t
avec =

i
r

. Lactif 2, actualise nest pas une


martingale sous Q, il nexiste donc pas de probabilite equivalente `a la probabilite P telle que TOUS
les actifs actualises soient des martingales. Le marche presente des opportunites darbitrage. Supposons

1
>
2
. Si, `a la date 0, on ach`ete une part de lactif 1 et on vend une part de lactif 2 (capital initial
investi nul) et que lon maintient cette position jusquen T, on a un portefeuille de valeur
S
1
T
S
2
T
=
_
exp(
1
T) exp(
2
T)

exp(W
T

1
2

2
T) > 0
ce qui constitue un arbitrage.
102 Equa. Di.
Corriges. 2002-03 103
Chapitre 4
Equations dierentielles
stochastiques, Corriges
4.1 Equation Lineaire
Exercice 4.1.4 : Lequation a une solution unique car b(t,x) = a +x et (t,x) = b +x sont lipschit-
ziennes et ont une croissance lineaire. On a
X
t
= x +
_
t
0
(a +X
s
) ds +
_
t
0
(b +X
s
) dB
s
Lintegrale stochastique est une martingale car E(
_
t
0
(b+X
s
)
2
ds) E(
_
t
0
2(b
2
+
2
X
2
s
) ds) et la solution
de lequation verie E(sup
st
X
2
s
) < . Do` u en prenant lesperance de X
t
et en posant m(t) = E(X
t
)
m(t) = x +
_
t
0
(a +m(s)) ds .
La fonction m est derivable et verie m

(t) = a+m(t). Compte tenu de la condition initiale m(0) = x,


la solution est
m(t) = (x +
a

)e
t

La formule dIto conduit `a


d(X
2
t
) = 2X
t
(a +X
t
) dt + 2X
t
(b +X
t
) dB
t
+ (b +X
t
) dt .
En admettant que lintegrale stochastique est une martingale et en posant M(t) = E(X
2
t
)
M(t) = x
2
+ 2
_
t
0
(am(s) +M(s)) ds +
_
t
0
(b
2
+
2
+ 2bm(s)) ds
soit
_
M

(t) (2 +
2
)M(t) = 2(a +b)m(t) = b
2
M(0) = x
2
la solution est
_

_
M(t) = Ce
2+
2
)t
+ke
t
+c
k(
2
) = 2(a +b)(x +
a

)
c = (b
2
2(a +b)
a

)
1
2+
2
K +k +c = x
2
Exercice 4.1.5 : On a dY
t
= Y
t
(dt +dB
t
) dont la solution est (cf brownien geometrique)
Y
t
= exp[(
1
2

2
)t +B
t
)]
On a (cf propriete de martingale du Brownien)
E(Y
t
[T
s
) = exp(t)E(exp[
1
2

2
t +B
t
] [T
s
) = exp(t) exp[
1
2

2
s +B
s
]
104 Equa. Di.
Do` u, si 0, on a E(Y
t
[T
s
) Y
s
. Le processus Y est une martingale si on a egalite soit si = 0.
c. Le processus Y ne sannule pas. Le processus Z
t
est un processus dIto car Y
1
t
est de carre integrable
(voir brownien geometrique) et
dZ
t
= (a b)Y
1
t
dt +bY
1
t
dB
t
On a ainsi dY,Z)
t
= bY
1
t
Y
t
= b.
Soit U
t
= Y
t
Z
t
. La formule dIto conduit `a
dU
t
= (a b) dt +b dB
t
+U
t
(dt + dB
t
) +b dt = (a +U
t
) dt + (b +U
t
) dB
t
et comme U
0
= x on a par unicite X
t
= U
t
.
Exercice 4.1.6: Soit dX
t
= X
t
dt + b dB
t
. On sait (ex precedents) que cette equation admet une
solution unique. En posant Z
t
= e
t
X
t
on voit que dZ
t
= e
t

dB
t
do` u
X
t
= e
t
x +e
t
_
t
0
e
s
b dB
s
Il en resulte que X est un processus gaussien de moyenne E(X
t
) = e
t
x et de variance
V (X
t
) = b
2
e
2t
1 e
2t
2
def
=
2
(t) .
Si Y
t
= (X
t
), la formule dIto conduit `a
dY
t
=

(X
t
)dX
t
+
1
2

(X
t
)b
2
dt .
Dans le cas particulier de lenonce,
dY
t
= exp(

b
2
X
2
t
)(bdB
t
)
soit
Y
t
= b
_
t
0
exp(

b
2
X
2
s
)dB
s
Cest une martingale car E(
_
t
0
exp(
2
b
2
X
2
s
)ds) < (faire le calcul en utilisant ce qui suit) de carre
integrable.
En utilisant le calcul de E(e
U
2
) quand U est une gaussienne, on trouve, en posant m(t) = e
t
E(e
X
2
t
) =
1
_
1 2
2
(t)
exp
m
2
(t)x
2
1 2
2
(t)
= (t,x)
et
E(e
X
2
t
[T
s
) =
1
_
1 2
2
(t s)
exp
m
2
(t s)X
2
s
1 2
2
(t s)
= (t s,X
s
)
Soit t xe. Par denition, le processus dIto V deni par V
s
= (t s,X
s
) est une martingale, donc
son drift est nul. On a donc

1
(t s,x) +x
2
(t s,x) +
1
2
b
2

22
(t s,x) = 0

1
(u,x) +x
2
(u,x) +
1
2
b
2

22
(u,x) = 0
En posant = ln et en recherchant sous la forme
(t,x) = x
2
a(t) +b(t)
on a (voir la forme de ) les conditions de lenonce sur les fonctions a et b. Exercice 4.1.13 : Dans un
premier temps, on pose Y
t
= e
t
X
t
. Ce processus verie
dY
t
= e
t
( V
t
)dt) +e
t
_
V
t
dW
1,t
Corriges. 2002-03 105
Calculer () = E(exp(X
T
)) revient `a calculet () = E(exp(Y
T
)). On a en eet () = (e
T
.
Le calcul des esperances conditionneles se reduit `a un calcul desperance par la propriete de Markov.
On a
Y
t
= Y
0
+
_
t
0
e
s
( V
s
)ds +
_
t
0
e
s
_
V
s
dW
1,s
On est donc ramene `a calculer
A = E
_
exp
_

_
t
0
e
s
V
s
ds +
_
t
0
e
s
_
V
s
dW
1,s
__
En decorrelant W
1,t
, le terme sous lexponentielle est

_
t
0
e
s
V
s
ds +
_
t
0
e
s
_
V
s
W
2,s
+
_
1
2
_
t
0
e
s
_
V
s
dW
s
En utilisant lindependance entre W et V
A = E
_
exp
_

_
t
0
e
s
V
s
ds +
_
t
0
e
s
_
V
s
W
2,s
+
_
1
2
2
_
t
0
e
2s
V
s
__
Il reste un calcul du type esperance de lexponentielle de
_
t
0
f(s)V
s
ds +
_
t
0
g(s)
_
V
s
dW
2,s
Cette expression secrit
_
t
0
f(s)V
s
ds +
_
t
0
g(s)(dV
s
k( V
s
)ds) =
_
t
0
F(s)V
s
ds +
_
t
0
G(s)dV
s
=
_
t
0
F(s)V
s
ds +G(t)V
t
G(0)V
0

_
t
0
G

V
s
ds
= G(t)V
t
+
_
t
0
H(s)V
s
ds
ou f,g,F,G,H sont des fonctions deterministes. (remarque: pour un ornstein Uhlenbeck, ce type de calcul
est standard)
Exercice 4.1.10 : On pose Y
t
= e
at
X
t
. On a
dY
t
= abe
at
dt +e
at/2
_
Y
t
dW
t
et E(Y
t
) = x +b(e
at
1) En utilisant
Y
t
= x +
_
t
0
abe
as
ds +e
as/2
_
Y
s
dW
s
= E(Y
t
) +e
as/2
_
Y
s
dW
s
on obtient Y
t
E(Y
t
) =
_
t
0
e
as/2
_
Y
s
dW
s
par suite
V ar(Y
t
) =
_
t
0

2
e
as
E(Y
s
)ds
4.2 Finance
Exercice 4.2.1 : Soit S
t
solution de
dS
t
= S
t
(r dt + dB
t
) .
106 Equa. Di.
On a pour t u
S
u
= S
t
exp
_
r(u t) +(B
u
B
t
)

2
2
(u t)
_
(4.1)
Le processus S est `a valeurs positives (si S
0
> 0) et ne sannule pas.
1. Le processus M
t
= E
_
[
1
T
_
T
0
S
u
du K]
+
[T
t
_
est une martingale, car il secrit E(Z[T
t
).
2. En utilisant que s(a b)
+
= (sa sb)
+
si s > 0 et la T
t
-mesurabilite de S
t
, on obtient M
t
=
S
t
E
_
[
1
T
_
T
0
S
u
S
t
du
K
S
t
]
+
[T
t
_
ce qui secrit de facon evidente
S
t
E
_
[
1
T
_
T
t
S
u
S
t
du
t
]
+
[T
t
_
avec
t
= S
1
t
(K
1
T
_
t
0
S
u
du), variable T
t
-mesurable.
3. On rappelle que, si X est independante de ( et Y est (-mesurable,
E(f(X,Y )[() = [E(f(X,y)]
y=Y
.
Les variables (
S
u
S
t
,u t) sont independantes de T
t
(utiliser (4.1)), et
t
est T
t
mesurable. Il en resulte
M
t
= S
t
(t,
t
)
avec
(t,x) = E
_
1
T
_
T
t
S
u
S
t
du x
_
+
.
4. En utilisant que
S
u
S
t
est independant de T
t
, on obtient le resultat.
5. On a (appliquer Ito `a f(x) =
1
x
)
dS
1
t
=
1
S
2
t
dS
t
+
1
2
2
S
3
t
d < S,S >
t
= (

2
S
t

r
S
t
)dt

S
t
dB
t
.
on en deduit les egalites suivantes
d
t
= S
1
t
S
t
T
dt + (K
1
T
_
t
0
S
u
du)dS
1
t
=
1
T
dt +
t
(dB
t
rdt +
2
dt)
d < , >
t
=
2
t

2
dt
d(t,
t
) =

t
dt +

x
d
t
+
1
2

xx
d < , >
t
= (...) dt
t

x
dB
t
d < S, >
t
= S
t

x
La formule dIto appliquee `a M
t
est alors (ecriture volontairement simpliee)
dM
t
= dS +Sd +dSd
ce qui secrit
(t,
t
)dS
t
+S
t
[

t
(t,
t
)dt +

x
(t,
t
)d
t
+
1
2

xx
(t,
t
)d < , >
t
] +d < S, >
t
Soit
dM
t
= S
t
(r +

t
(
1
T
+r)

x
+
1
2

x
2
) dt +dN
t
Corriges. 2002-03 107
o` u N est une martingale du type (...) dB
t
. Le processus M etant une martingale, on doit avoir la partie
processus `a variation nie nulle, soit
0 = r +

t
(
1
T
+r)

x
+
1
2

x
2
Exercice 4.2.2 :
S
t
= S
0
exp
_
rt +
_
t
0
(s)dB
s

1
2
_
t
0

2
(s) ds
_
est solution de lequation proposee. Il sut dappliquer la formule dIto.
2.
_
t
0
(s)dB
s
est une variable gaussienne (integrale de Wiener) centree de variance
_
t
0

2
(s)ds. Il
en resulte que
_
t
0
(s)dB
s

1
2
_
t
0

2
(s) ds est une variable gaussienne car desperance
1
2
_
t
0

2
(s) ds
et de variance
_
t
0

2
(s)ds.
3. La formule de valorisation dune option revient `a calculer E
Q
(S
T
K)
+
. Dans le cas o` u S
T
= S
0
e
U
o` u U est une variable desperance rT et de variance V
2
=
2
T, on a
C(0,x) = x^(d
1
) Ke
rT
^(d
2
)
avec
d
1
=
1
V
_
ln(
x
K
) +Tr +
V
2
2
_
,d
2
= d
1
V
Il sut donc de remplacer
2
T par
2
=
_
T
0

2
(s)ds
C(0,x) = x^(d
1
) Ke
rT
^(d
2
)
avec
d
1
=
1

_
ln(
x
K
) +Tr +

2
2
)
_
,d
2
= d
1

4.3 Equations dierentielles
Exercice 4.3.4 : Nous verions que
X
t
= tN + (1 t)
_
t
0
1
1 s
dB
s
(4.2)
est solution de dX
t
= dB
t
+
N X
t
1 t
dt. Par dierentiation de (4.2)
dX
t
= Ndt 1
_
t
0
1
1 s
dB
s
+dB
t
= Ndt
1
1 t
(X
t
tX
1
)dt +dB
t
= dB
t
+
1
1 t
(X
t
+N)dt
Le processus X est donc gaussien, centre, de covariance (s < t)
E(X
s
X
t
) = ts + (1 t)(1 s)E(
_
t
0
1
1 u
dB
u
_
s
0
1
1 v
dB
v
ts + (1 t)(1 s)
_
s
0
1
(1 u)
2
du = s
108 Exemples
Corriges. 2002-03 109
Chapitre 5
Exemples, Corriges
5.1 Processus de Bessel
Exercice 5.1.3 :
La formule dIto conduit `a
dZ
t
=
1
R
2
t
dR
t
+
1
2
2
R
3
t
dR)
t
=
1
R
2
t
dB
t

1
R
3
t
dt +
1
R
3
t
dt =
1
R
2
t
dB
t
Soit V
t
=
sinh R
t
R
t
. On pose f(x) =
sinh x
x
, do` u
f

(x) =
sinh x
x
2
+
cosh x
x
f

(x) = +2
sinh x
x
3

cosh x
x
2

cosh x
x
2
+
sinh x
x
.
La formule dIto conduit `a
dU
t
= e

t
2
2
[

2
2
V
t
dt +dV
t
]
et on verie que les termes en dt sannulent.
Il sut dappliquer le theor`eme darret de Doob `a la martingale U
t
et au temps darret T
b
. On
obtient E(exp(

2
T
b
2
)(
sinh b
b
)) = 1, do` u E(exp(

2
T
b
2
)) =
b
sinh b
.
Exercice 5.1.4 :
1. On applique Ito
d(ln R
t
) =
1
R
t
dR
t

1
2(R
t
)
2
dR
t
dR
t
=
1
R
t
dW
t

1
R
t
1
2R
t
dt +
1
2(R
t
)
2
dt =
1
R
t
dW
t
.
2. Toujours en appliquant Ito
dR

t
= R
1
t
dR
t
+
( 1)
2
R
2
t
dR
t
dR
t
= R
1
t
dW
t
+R
1
t
1
2R
t
dt +
( 1)
2
R
2
t
dt .
= R
1
t
dW
t
+

2
2
R
2
t
dt
3. On pose Z
t
= exp(

2
2
_
t
0
ds
R
2
s
) et on applique le lemme dIto.
dZ
t
= d exp(

2
2
_
t
0
ds
R
2
s
) = Z
t
(

2
2
)
1
R
2
t
dt
dL
t
= Z
t
dR

t
+R

t
dZ
t
= Z
t
_
R
1
t
dW
t
+R
1
t
1
2R
t
dt +
( 1)
2
R
2
t
dt

2
2
1
R
2
t
R

t
dt
_
= Z
t
R
1
t
dW
t
110 Exemples
Exercice 5.1.5 :
dY
t
= 2
_
Y
t
dW
t
+dt
La formule dIto conduit a
dZ
t
= Z
t
(

Y )dW
t
Sous Q

W
t
def
= W
t
+
_
t
0
_
Y
u
du est un MB et dY
t
= 2

Y
t
d

W
t
+ ( 2Y
t
)dt.
Exercice 5.2.2 : Par application de la formule dIto `a Z
t
= W
2
t
dZ
t
= 2W
t
dW
t
+dt = 2
_
Z
t
dW
t
+dt
on a alors
dZ
t
= 2W
t
dW
t
+ 2W
1
t
dW
1
t
+ 2dt =
2
_
(W
t
)
2
+ (W
1
t
)
2
_
(W
t
)
2
+ (W
1
t
)
2
(W
t
dW
t
+W
1
t
dW
1
t
)
= 2
_
Z
t
dW
3
t
+ 2dt
Avec n Browniens on obtient = n.
Si
t
def
=

R
t
, la formule dIto conduit `a
d
t
=
1
2
t
( 1)dt +dW
t
dX
t
= dR
()
t
+dR
()
t
= ( +)dt + 2
_
R
()
t
+R
()
t
dZ
t
o` u Z est un MB. On en deduit que la somme de deux Bessels carres independants est un Bessel carre.
Exercice 5.1.6 : P
x
(inf
st
X
s
) = P
x
(T
a
> t) et on connait la transformee de Laplace de T
a
E
()
(exp

2
2
T
a
).
Dans le cas du BES(3) P
(3)
x
[
F
t
=
_
X
t
x
_
W
x
[
F
t
do` u pour a < x P
(3)
x
((T
a
)11
T
a
<
) =
a
x
W
x
((T
a
))
Do` u P
(3)
x
(T
a
> t) = P
(3)
x
( > T
a
> t) + (1
a
x
) et P
(3)
x
( > T
a
> t) =
a
x
P
0
(T
(xa)
> t) =
a
x
P
0
((x a) > [N[

t).
Voir Borodin pour l autre cas
5.2 Processus de Bessel carre
Exercice 5.2.4 : Remarquer que E(R
(2)
1
) = E
_

2
1
+
2
2
.
Exercice 5.2.5 : On part de
W
()
[T
t
= exp(W
t


2
2
t)W[T
t
On sait que (R
t
; t 0)
loi
= xexp(B
C
t
+C
t
)
P
()
(F(R
s
),s t) = W
()
(F(xB
u
),u C
t
)
W
()
(F(xB
u
),u C
t
) = W(exp(B
C
t
+C
t
)F(xB
u
),u C
t
) = P
(0)
(
R
t
x
)

exp

2
2C
t
F(R
s
),s t)
car sous P
(0)
exp B
C
t
= (exp B
C
t
)

, R
t
= xexp B
C
t
Corriges. 2002-03 111
5.3 Autres processus
5.4 Des Calculs
Exercice 5.4.2 : For t 1 and a > 0, the events Y
t
a and T
a
t are equal, where T
a
= inft
0,X
t
= a.
Then, P(Y
t
a) = P(T
a
t). Let

X = X/ and T

X) = inft 0,

X
t
= . Then, T
a
= T

X)
where = a/.
It is well known (the proof follows, from example from inversion of Laplace transform) that
P
0
(T

X) dt) =
[[

2t
3
exp
( t)
2
2t
where = / (see Borodin-Salminen p. 223, formula 2.0.2. or Revuz Yor, second edition, page 320,
ex. 1.21).
Therefore, you get the cumulative function of Y for t 1.
Let us denote (t,a,,) = P(sup
0st
(s +W
s
) a).
Suppose now that 2 > t > 1. Then
X
t
= X
1
+
1
(t 1) +
1
(W
t
W
1
) = X
1
+
1
(t 1) +
1

W
t1
where

W is a BM independent of (W
s
,s 1).
Then,
P(Y
t
a) = P
_
Y
1
a , max
1st
(X
1
+
1
(s 1) +
1

W
s1
) a
_
= P
_
Y
1
a P
_
max
1st
(X
1
+
1
(s 1) +
1

W
s1
) a)[T
1
_
= E(11
(Y
1
a)
(t 1,X
1
))
where
(u,x) = E( max
0su
(x +
1
s +
1

W
s
) a) = E( max
0su
(
1
s +
1

W
s
) a x)
and this quantity is known from step 1: (u,x) = (u,a x,
1
,
1
).
Then, it remains to know the law of the pair Y
1
,X
1
. This is the reection principle in the case = 0
(Revuz Yor, page 105 ex. 3.14) and the general result follows from Girsanovs theorem. For example
Borodin-Salminen, page 198, formula 1.18 in the case where = 1
P(Y
1
y,X
1
dz) =
1

2t
exp[y

2
t
2

([z y[ +y)
2
2t
] dz
References:
Borodin, A. and Salminen, P.: Handbook of Brownian Motion. Facts and Formulae, Birkhauser,
1996.
Exercice 5.4.3 : On ecrit dS = D(rdt+
t
d

W
t
). Si

C est la valeur de C actualise, alors dC = Cmd

W
t
.
Il sut de resoudre et didentier
C
t
= C
0
_
S
t
S
0
exp[
m1
m
[
_
t
0
r
s
ds +
1
2
_
t
0

2
s
ds]]
_
m
Exercice 5.4.4 : On remarque que Y
t
= e
t
X
t
est un MB change de temps: Y
t
= B
(t)
avec (t) =

2
_
t
0
e
2u
du =
2
e
2t
1
2
. Par suite = inft : [Y
t
[ > e
y
g(t). Do` u la suite degalites
> t = [B
(u)
[ < e
u
g(u),(u) < (t)
= [B
v
[ < e
C(v)
g(C(v)),v < (t) =

> (t)
avec

= inft : [W
t
[ > e
C(t)
g(C(t))
112 Girsanov.
Corriges. 2002-03 113
Chapitre 6
Girsanov, Corriges
6.1 Resultats elementaires
Exercice 6.1.2 : Par changement de proba, le processus H etant une martingale positive desperance
1, en posant dQ = H
t
dP, on denit une nouvelle probabilite Q et E
P
(H
T
ln H
T
) = E
Q
(ln H
T
). Or,
H
t
= exp(
_
t
0

s
dW
s

1
2
_
t
0

2
s
ds)
Do` u
E
Q
(ln H
T
) = E
Q
(
_
t
0

s
dW
s

1
2
_
t
0

2
s
ds)
Le processus

W
t
= W
t
+
_
t
0

s
ds est un Q mouvement Brownien, et
_
t
0

s
dW
s

1
2
_
t
0

2
s
ds =

_
t
0

s
d

W
s
+
1
2
_
t
0

2
s
ds, do` u le resultat.
Exercice 6.1.4 : On a
t
= exp(
_
t
0

s
ds) exp(
_
t
0

s
dW
s

1
2
_
t
0

2
s
ds), do` u
t
exp(
_
t
0

s
ds) est
une martingale. Lecriture d
t
=
t

t
(dW
t
+

t

t
dt) montre que sous Q deni par dQ = L
t
dP, avec
dL
t
= L
t

t
dW
t
, le processus

W
t
deni par d

W
t
= dW
t
+

t

t
dt est un mouvement Brownien.
Le processus veriant d
t
=
t

t
d

W
t
est une Q-martingale locale. On obtient facilement d(
1
t
) =

1
t

t
(dW
t


2
t

t

t
dt) et le choix de R sen suit.
6.2 Crochet
Exercice 6.2.1 : Soit Z = N < N,M > et L
t
= exp(M
t

1
2
M)
t
). On a d(ZL) = ZdL + LdZ +
dZ,L) = mart +dZ,L) LdM,N) = mart
Exercice 6.2.2 : On verie que Z
t
= h(X
t
)M
t

_
t
0
h

(X
s
)
h(X
s
)
dM,X) est une P-martingale.
6.3 Processus
Exercice 6.3.4 :
1. La question 1 a deja ete traitee dans lexercice 1.2.3.
114 Girsanov.
2. On se place dans le cas dun Brownien issu de a. Soit
dP
b
= expb
_
T
0
B
s
dB
s

b
2
2
_
T
0
B
2
s
dsdP .
En posant
s
= bB
s
et en appliquant Girsanov, on montre que sous P
b
le processus B
t
+b
_
t
0
B
s
ds
est un brownien issu de a que lon note W
t
. Legalite
B
t
=
_
t
0
bB
s
ds +W
t
qui secrit dB
t
= bB
t
dt +dW
t
montre que le processus (B
t
,t 0) est un processus dOrnstein-
Uhlenbeck sous P
b
. Do` u (cf. cours) B
t
est une variable gaussienne sous P
b
, desperance ae
bt
et
de variance
1 e
2tb
2b
.
Soit x = a
2
. En utilisant que, sur T
t
,
dP = expb
_
t
0
B
s
dB
s
+
b
2
2
_
t
0
B
2
s
dsdP
b
on a, pour tout Z, T
t
-mesurable P-integrable,
E
P
(Z) = E
b
(Z expb
_
T
0
B
s
dB
s
+
b
2
2
_
T
0
B
2
s
ds)
do` u
E
P
(expB
2
t

b
2
2
_
t
0
B
2
s
ds) = E
b
(expB
2
t
+b
_
t
0
B
s
dB
s
)
La formule dIto montre que
_
t
0
B
s
dB
s
=
1
2
(B
2
t
a
2
t)
(sous P et sous P
b
).
On obtient, en posant x = a
2
E
P
(expB
2
t

b
2
2
_
t
0
B
2
s
ds) = E
b
(expB
2
t
+
b
2
(B
2
t
x t))
Sous P
b
, B
t
est une gaussienne. On applique le resultat de la question 1 et on trouve (calculs)
E
P
(expB
2
t

b
2
2
_
t
0
B
2
s
ds) = (cosh bt + 2

b
sinh bt)

1
2
exp[
xb
2
1 +
2
b
coth bt
coth bt +
2
b
]
On note (,b) lexpression de droite.
Exercice 6.3.3 : Soit dX
t
= X
t
dt + dW
t
un processus dOrnstein-Uhlenbeck. Sous P

, X est un
Brownien car X
t
=
_
t
0
X
s
ds +W
t
. On a
E
P
(exp
b
2
2
_
T
0
X
2
s
ds) = E
P

(L
1
T
exp
b
2
2
_
T
0
X
2
s
ds)
= E
P

_
exp
_

_
T
0
X
s
dX
s


2
2
_
T
0
X
2
s
ds
b
2
2
_
T
0
X
2
s
ds
__
= E
P

_
exp
_

2
(X
2
T
T)

2
+b
2
2
_
T
0
X
2
s
ds
__
=
_
exp
T
2
_
(

2
,
_

2
+b
2
)
Corriges. 2002-03 115
(On comparera cet exercice au precedent)
Exercice 6.3.5 : Soit S solution de
dS
t
= S
t
(dt + dB
t
) ,S
0
= s .
S
t
= S
0
exp(t +B
t


2
2
t).
1. Soit dQ = L
t
dP avec L
t
= exp(B
t

1
2

2
t). Le theor`eme de Girsanov montre que W est un
Q-mouvement Brownien.
2. Soit d

P = Z
t
dQ avec Z
t
= exp(W
t


2
2
t)
Le theor`eme de Girsanov montre que (

B
t
= W
t
t,t 0) est un

P-mouvement brownien. On a
alors
dS
t
= S
t
((r +
2
) dt + d

B
t
)
3. Soit P
t
= P
0
e
rt
. Le processus (Y
t
=
S
t
P
t
,t 0) est une Q-martingale, car Y
t
= Y
0
exp(W
t


2
2
t)
(ou parce que (Ito) dY
t
=
d(S
t
e
rt
)
P
0
= Y
t
dW
t
.)
Le processus Z
t
=
P
t
S
t
est une

P-martingale car Z
t
= Z
0
exp(

B
t


2
2
t)
4. Soit F
t
= e
t
_
_
t
0
S
u
du +sA
_
o` u A, sont des constantes
Soit
t
=
F
t
P
t
e
t
. On a d
t
= (1 r
t
) dt
t
d

B
t
Exercice 6.3.7 : Let B
Y
t
= Y t + B
t
and F be a functional on C([0,t],IR). Using the independance
between Y and B, and Cameron-Martin theorem, we get
E[F(B
Y
s
,s t)] = E[F(sY +B
s
,s t)] =
_
(dy)E[F(sy +B
s
,s t)] (6.1)
=
_
(dy)E[F(B
s
,s t) exp(yB
t

y
2
2
t)] = E[F(B
s
; s t)h(B
t
,y)] (6.2)
= E
h
(F(X
s
,s t)] (6.3)
where h(x,t) =
_
(dy) exp(yx
y
2
2
t) and P
h
[
F
t
= h(B
t
,t)W[
F
t
. Therefore,
B
h
t
def
= B
t

_
t
0
ds
h

x
h
(B
s
,s)
is a P
h
-martingale, more precisely a P
h
Brownian motion and B
t
is solution of
X
t
= B
h
t
+
_
t
0
ds
h

x
h
(X
s
,s)
Under P
h
, B has the same law as B
Y
under P. Then, B
Y
t
=

B
h
t
+
_
t
0
ds
h

x
h
(B
Y
t
,t). Let us remark that
E(Y [B
Y
t
) =
h

x
h
(B
Y
s
,s)
where B
Y
t
= (B
Y
s
, s t). On a
E
Q
(f(Y )F(B
Y
s
,s t)) = E
P
(e
Y B
t

1
2
Y
2
t
F(B
Y
s
,s t))
=
_
(dy)f(y)E
P
(e
yB
t

1
2
y
2
t
F(B
s
+ys,s t))
=
_
(dy)f(y)E(F(B
s
,s t)) = E(F(B
s
,s t))E
P
(f(Y ))
et la loi de Y est la meme sous P et sous Q.
116 Girsanov.
6.4 Cas multidimensionnel
6.5 Temps darret
Exercice 6.5.1 : Soit dP

= L
t
dP o` u L
t
= exp(

B
t


2
2
2
t). Sous P

, (

B
t
= B
t
+

t =
X
t

,t 0)
est un Brownien et X
t
=

B
t
.
De legalite T
a
= inft [

B
t
=
a

, on en deduit le resultat qui gure dans le cours en procedant comme


suit:
On a dP = L
1
t
dP

avec
L
1
t
= exp(

B
t
+

2
2
2
t) = exp(

B
t


2
2
2
t)
et pour tout temps darret T, on a
E
P
(exp((T t)) = E
P

(L
Tt
e
(Tt)
) = E
P

_
exp(

B
Tt


2
+ 2
2
2
2
(T t))
_
On en deduit
E
P
(exp(T
a
)11
T
a
<
) = exp

2
a E
P

_
exp(

2
+ 2
2
2
2
T
a
) 11
T
a
<
_
Le passage `a la limite quand t est licite pour a 0, car dune part e
(Tt)
1 et dautre part

B
T
a
t
a, do` u exp(

B
Tt


2
+ 2
2
2
2
(T t)) est borne. On utilise aussi

B
T
a
11
T
a
<
=
a

.
Exercice 6.5.2 :
E(11
T<
exp(B
T


2
2
T)) = P
()
(T < ) =
and use that
T = inft : B
t
t/2 > ln a = inft : W
t
+ ( 1/2)t > ln a
Exercice 6.5.3 : Le processus (M
t
= exp(

B
t


2
t
2
) , t 0) est une P

-martingale et si a et sont
positifs (M
tT
a
, t 0) est uniformement integrable, car majoree par exp(a). On en deduit E
P

(M
T
a
) =
1 do` u
E
P
(e
T
a
11
T
a
<
) = exp(
a

2

a
_

2
+ 2
2

2
)
et on verie que T
a
est ni (faire = 0).
Exercice 6.5.4 : L est une martingale exponentielle desperance 1, en utilisant que dF
2
t
= 2F
t
f(t)dW
t
+
f
2
(t)dt on obtient la premi`ere egalite. Une integration par partie montre que
_
T
0
h(s)
2f(s)
dF
2
s
dW
s
=
h(T)
f(T)
F
2
T

h(0)
f(0)
F
2
0

_
T
0
F
2
t
d
_
h(t)
f(t)
_
ce qui donne le resultat. On prend ensuite h(t) =
u

u(t)f(t)
et on utilise que
E
_
exp
_
1
2
_
u

(T)
u(T)f
2
(T)
_
F
2
T

_
T
0
F
2
t
_
u

(t) 2u

(t)f

(t)/f(t)
u(t)f
2
(t)
_
dt
__
= exp
_
_
T
0
u

(t)
u(t)
_
dt
Pour calculer lexpression avec , on fait un changement de probabilite en posant dQ = L
T
dP. On a
K =
_
u(T)
u(0)
_
1/2
E
Q
_
(A+BF
T
+
_
T
0
(t)F
2
t
dt)
_
Corriges. 2002-03 117
et en appliquant Girsanov,
K =
_
u(T)
u(0)
_
1/2
E
Q
_
(A+Bu(T)
_
T
0
u(t)
f(t)
dB
t
+
_
T
0
dt(t)u(t)
_
t
0
dB
s
f(s)
u(s)
)
_
On peut calculer le membre de droite, car cest lexponentielle dune gausienne.
Exercice 6.6.16 : On a dr = 2
_
(t)r
t
dW
t
+([2(t) +

(t)
(t)
]r
t
+(t))dt. Letude de Z se fait par une
IP.
Exercice 6.5.5 :
1. Utiliser Girsanov et Bayes.
2. Cest le theor`eme de Girsanov applique sur lespace produit.
3. Appliquer Ito. Les termes en dt sont nuls car est une martingale.
6.6 Finance
Exercice 6.6.14 : Il sagit de calculer A = E
_
_
e
rT
_
1
T
_
T
0
S
u
du S
T
_
+
_
_
que lon ecrit
A =
1
T
E(e
rT
S
T
(Y
T
K)
+
)
avec Y
t
=
1
S
t
_
t
0
S
u
du et K = T. Par un changement de probabilite (le processus e
rt
S
t
S
0
est une
Q-martingale positive desperance 1), on obtient A =
S
0
T

E((Y
T
K)
+
) avec, sous

Q
dY
t
= (1 rY
t
)dt +Y
t
d

W
t
.
On peut utiliser que Y
t
= U
t
+V
t
avec U solution de
dU
t
= rU
t
dt U
t
d

W
t
,U
0
= 1
et V
t
= y +
_
t
0
(U
s
)
1
ds, ce qui ne nous avance pas beaucoup.
Exercice 6.6.15 :
1. On a dr
t
=

(t)
(t)
r
t
dt +(t)(dW
t
+h(t)dt).
2. On reconnait une exponentielle de Doleans Dade, et une integration par parties donne le resultat.
3. En appliquant Girsanov, et en utilisant que r
t
= (t)Y
t
E
_
exp
_

_
T
0
r
s
ds
__
= E
_
exp
_
_
T
0
h(s)dW
s

1
2
_
T
0
h
2
(s)ds
_
T
0
(s)W
s
ds
__
Une integration par parties permet de conclure.
4. La quantite
A = E
_
exp
_
h(T)W
T

_
T
0
W
s
(h

(s) +(s))ds
__
se calcule en recherchant une fonction g telle que g

(s) = (s) + h

(s),g(T) = h(T). On obtient


alors
E
_
exp
_

_
T
0
r
s
ds
__
= exp
_

1
2
_
T
0
h
2
(s)ds
_
A = exp
_
1
2
_
T
0
(g
2
(s) h
2
(s))ds
_
118 Complements
On peut aussi remarquer que
h(T)W
T

_
T
0
W
s
(h

(s) +(s))ds
est une variable gaussienne centree dont on identie la variance.
Exercice 6.6.17 : S
t
= x + mart + 2( + 1)
_
t
0
S
u
du. Utiliser que
1 e
b
b
e
b
. On en deduit que
E((
1
T
_
T
0
exp(2(W
s
+s))ds K)
+
) E((exp 2(W
T
+T) k)
+
) pour k assez petit.
Exercice 6.6.7 Pour evaluer E
P
(h(S
T
)[T
t
) dans le cas h(x) = (x

K)
+
, on utilise ce qui prec`ede en
ecrivant S

T
sous la forme xexp((a
b
2
2
)t +bW
t
). IL est facile de verier que sous Q,
dZ
t
= Z
t
d

W
t
et comme

W donc

W est un MB, Z a meme dynamique sous Q que S sous P. Par suite
,E
P
((S
T
)) = E
Q
((Z
T
)) .
Par denition de Q
1
x
E
P
(S
T
f(
x
2
S
T
)) = E
Q
(f(
x
2
S
T
)) .
Par denition de Z,
E
Q
(S
T
f(
x
2
S
T
)) = E
Q
(f(Z
T
)) = E
P
(f(S
T
)) .
Si S
a
est une martingale, le meme raisonnement conduit `a la formule souhaitee. Un peu dalg`ebre
permettait decrire x

(x K)
+
comme
(x
+1
K
+1
)
+
K(x

)
+
.
Corriges. 2002-03 119
Chapitre 7
Complements, Corriges
7.1 Theor`eme de Levy.
Exercice 7.1.1 : Soit S
t
= sup
0st
W
s
et
D = sup
0st1
(W
s
W
t
) = sup
0t1
sup
0st
(W
s
W
t
)
= sup
0t1
(S
t
W
t
)
loi
= sup
0t1
[W
t
[
Grace au theor`eme de Levy
(S
t
W
t
,S
t
,W
t
; t 1)
loi
= ([W
t
[,L
t
,L
t
[W
t
[; g t 1)
Do` u
W

, sup
t1
(S
t
W
t
S
t
))
loi
= L
g
[B
g
[, sup
gt1
([W
t
[ L
t
) = (L
g
, sup
gt1
([W
t
[ L
g
)
Thus
D
1
= W

+ sup
t1
(S
t
W
t
S
t
)
loi
= L
g
+ sup
gt1
[W
t
[ L
g
Exercice 7.1.2 : La premiere egalite provient du theor`eme de Levy et de la connaissance de la loi du
couple S
t
,B
t
). La seconde egalite en loi provient de la symetrie de la loi du couple. Pour le semi groupe,
on utilise la formule de Levy et lindependance de (B
u
,u t) et de

B
v
= B
t+v
B
t
E(f(S
t+s
B
t+s
,S
t+s
[T
s
) = E(f((S
s
B
s
)

S
t


B
t
,B
s
+ (S
s
B
s
)

S
t
S
t+s
)[T
s
)
=
_

t
(da,d)f( ( a), ( ) + )
Les resultats concernant lindependance de S
t
(S
t
B
t
) et B
t
sont dus `a Seshadri.
7.2 Equations retrogrades
Exercice 7.2.1 : Il sagit dappliquer la formule dIto et le theor`eme de representation. La propriete de
martingale de X provient de X
t
= E(e

H
T
[T
t
) et le theor`eme de representation etablit lexistence de
z. Puis, en utilisant la formule dIto
d(1/H
t
) =
1
H
2
t
dH
t
+
1
H
3
t
dH)
t
=
1
H
t
[(r +
2
)dt +dW
t
)]
d(Z
t
/H
t
) =
Z
t
H
t
[(r +
2
)dt +dW
t
) +H
t
z
t
dW
t
+
z
t
H
t
dt
dX
t
= (
z
t
H
t
+)dW
t
+
_
(r +
2
) +
z
t
H
t

1
2
(
z
t
H
t
+)
2
_
dt
=

X
t
dW
t
+ (r +

X
t

1
2

X
2
t
)dt
120 Complements
7.3 Theor`emes de representation
Exercice 7.3.1 : On utilisera le theor`eme de representation previsible pour representer W
(1)
t
,W
(2)
t
en
terme de W
(3)
. Si legalite etait possible, on aurait W
(i)
t
=
_
t
0

(i)
t
dW
t
avec
_
t
0
E[
(i)
t
]
2
dt = t et
E(W
(1)
t
W
(2)
t
) = E(
_
t
0

(1)
t

(2)
t
dt) = 0.
Exercice 7.3.2 : M est une integrale stochastique, lintegrand est borne donc de carre integrable, M
est une martingale.
Par propriete de lintegrale stochastique
__
t
0
11
W
s
>0
dW
s
_
2

_
t
0
(11
W
s
>0
)
2
ds
est une martingale. Une autre methode consiste `a appliquer la formule dIto `a Y
2
t
avec Y
t
=
_
t
0
11
W
s
>0
dW
s
.
Le processus A
t
=
_
t
0
11
W
s
>0
ds est un processus croissant.
Le processus M
C
t
est une (
t
def
= T
C
t
martingale et
M
2
C
t
A
C
t
= M
2
C
t
t
est une martingale.
7.4 Temps local.
Exercice 7.4.1 : On ne peut pas appliquer Ito car x [x[ nest pas de classe C
2
. Un calcul fait en
pensant quun point ne compte pas et que lon peut negliger le point o u la derivee nexiste pas conduirait
`a (la derivee de [x[ est egale `a sgn sauf en 0 et la derive seconde est nulle sauf en 0) [B
t
[ =
_
t
0
sgn(B
s
)dB
s
et lintegrale du membre de droite nest pas positive (nous verrons plus loin que cest un mouvement
Brownien).
Le processus est une martingale de crochet
_
t
0
f
2
(B
s
)ds = t, cest un MB. Il est evident que pour
u t
S
u
= sup
su
W
s
S
t
= sup
st
W
s
La premi`ere decomposition exprime que [W
t
[ est egal `a un MB plus un processus croissant, la seconde
decomposition dit que S
t
W
t
a la meme propriete. On peut montrer, grace au lemme de Skohorod
(voir poly) que (S
t
W
t
,t 0)
loi
= ([W
t
[,t 0) et que (L
t
,t 0)
loi
= (S
t
,t 0).
Exercice 7.4.2 : [B
s
[ +L
s
L
t
= L
d
t
for s t, and [B
d
t
[ +L
d
t
= L
d
t
.
Exercice 7.4.3 : ( u) = sup
su
B
s
sup
su
B
s
= sup
1su
(B
s
B
u
) + B
u
sup
su
B
s
do` u
P( u) = P(

S
1u
S
u
B
u
) On trouve nalement que a une loi Arc Sinus.
Exercice 7.4.4 : On utilise la formule dIto
dY
t
= f

x
(X
t
,S
t
,X)
t
)dX
t
+f

s
(X
t
,S
t
,X)
t
)dS
t
+ (f

t
+
1
2
f

xx
)(X
t
,S
t
,X)
t
)dX)
t
Or f

s
(X
t
,S
t
,X)
t
) = f

s
(S
t
,S
t
,X)
t
) dS
t
presque surement. Si
1
2
f

xx
+f

t
= 0 et f

s
(s,s,t) = 0, Y est une
martingale locale.
g(S
t
) (S
t
X
t
)g

(S
t
) = g(S
t
)
_
t
0
g

(S
s
)dS
s
+
_
t
0
g

(S
s
)dX
s
+
_
t
0
(S
s
X
s
)g

(S
s
)dS
s
=
_
t
0
g

(S
s
)dX
s
Corriges. 2002-03 121
Exercice 7.4.5 : On utilise le scaling du MB pour ecrire
_

2
t
0
f(B
s
)ds
loi
=
2
_
t
0
f(B
u
)du =
2
_
da f(a)L
a
t
Exercice 7.4.7 : From the occupation formula and change of time
_
t
0
dM)
s
f(M
s
) =
_
t
0
dM)
s
f(
M
s
) =
_
M
t
0
duf(
u
) =
_
dyf(y)L
y
M
t
().
7.5 Lois
Exercice 7.5.1 : Soit Y
t
= f(X
t
). On en deduit
dY
t
=
X
t
b(X
t
)
dX
t
+
1
2
_
1
b(X
t
)

X
t
b

(X
t
)
b
2
(X
t
)
_
b
2
(X
t
)dt
= X
t
_
a(X
t
)
b(X
t
)
dt +dW
t
_
+
1
2
_
b(X
t
) X
t
b

(X
t
)
_
dt
Le resultat souhaite en decoule.
f(X
t
) f(X
0
)
_
t
0
_
X
s
a(X
s
)
b(X
s
)
+
1
2
_
b(X
s
) X
s
b

(X
s
)
_
ds =
_
t
0
X
s
dW
s
Exercice 7.5.2 : Let V be a standard Brownian motion starting at v, that is, V
t
= v +W
t
. In this case,
the two events
a
(V ) t and sup
st
W
s
, where = a v are equal. The reection principle
implies that the r.v. sup
st
W
s
is equal in law to the r.v. |W
t
|. Therefore,
P(

(W) t) = P(sup
st
W
s
) = P(|W
t
| ) = P(W
2
t

2
) = P(tG
2

2
)
where G is a Gaussian variable, with mean 0 and variance 1. It follows that

(W)
loi
=

2
G
2
, and the
probability density function of
a
(V ) is
f(t) =
a v

2t
3
exp
_

(v a)
2
2t
_
.
The computation of
E
_
11
{T<
a
(V )}
h(V
T
)
_
= E
_
h(V
T
)
_
E
_
11
{T
a
(V )}
h(V
T
)
_
can be done using Markov property:
E
_
11
{T
a
(V )}
h(V
T
)
_
= E
_
11
{T
a
(V )}
E(h(V
T
)[T

a
(V )
)
_
= E
_
11
{T
a
(V )}
h(

V
T
a
(V )
+a)
_
,
where

V is a Brownian motion independent of
a
(V ).
Exercice 7.5.3 : Soit y > a. On admettra que M est uniformement integrable.
a = E[M
T
y
] = yP(T
y
< ) = yP(sup M
t
y)
Soit
a
y
= P(sup M
t
y) = P(
a
y
U) = P(
a
U
y).
122 Complements
7.6 Filtrations
Exercice 7.6.2 : M
t
= E(W
t
[H
t
) est un processus H-adapte. Pour montrer que cest une H-martingale,
il sut decrire la suite degalites suivantes, pour t s
E(M
t
[H
s
) = E(W
t
[H
t
[H
s
) = E(W
t
[H
s
)
= E(W
t
[(
s
[H
s
) = E(W
s
[H
s
)
Pour montrer que Z est une F
X
-martingale, on ecrit (en justiant chaque egalite, ce que je ne fais pas)
E(Z
t
[T
X
s
) = E(X
t
[T
X
s
) E(
_
t
0

Y
u
du[T
X
s
)
= E(W
t
+
_
t
0
Y
u
du[T
X
s
) E(
_
t
0

Y
u
du[T
X
s
)
= E(W
t
[T
X
s
) +E(
_
s
0
Y
u
du[T
X
s
) +E(
_
t
s
Y
u
du[T
X
s
)
_
s
0

Y
u
du E(
_
t
s

Y
u
du[T
X
s
)
= E(W
s
[T
X
s
) +E(
_
s
0
Y
u
du[T
X
s
) +E(
_
t
s
Y
u
du[T
X
s
)
_
s
0

Y
u
du E(
_
t
s

Y
u
du[T
X
s
)
= E(X
s
[T
X
s
) +
_
t
s
E(Y
u
[T
X
s
)du
_
s
0

Y
u
du E(
_
t
s

Y
u
du[T
X
s
)
= X
s
+
_
t
s

Y
u
du
_
s
0
E(

Y
u
[T
X
s
)du E(
_
t
s

Y
u
du[T
X
s
)
= X
s

_
s
0

Y
u
du)
on a utilise que E(W
t
[T
X
s
) = E(W
s
[T
X
s
) et que, pour u > s
E(Y
u
[T
X
s
) = E(Y
u
[T
X
u
[T
X
s
) = E(

Y
u
[T
X
s
)
7.7 Options barri`eres
Exercice 7.7.1 : Soit
t
(x) = P(B
t
< x) =
1

2t
_
x

exp(
u
2
2t
)du. on a
t
(x) = 1
t
(x) do` u,
P(B
t
< x) = P(B
t
> x).
Soit T = inft 0[B
t
= y. Par denition P(B
t
x, M
t
> y) = P(T < t, B

tT
< x y). Si M
t
> y,
cest que lon a depasse y avant t: Si M
t
> y, on a T < t. De plus B

tT
= B
t
B
T
= B
t
y. Par
independance, P(T < t, B

tT
< xy) =
_
t
0
P(T du, B

tu
< xy) =
_
t
0
P(T du)P(B

tu
< xy).
Dapr`es 1, P(B

tu
< x y) = P(B

tu
> x +y), do` u
_
t
0
P(T du)P(B

tu
< x y) =
_
t
0
P(T du)P(B

tu
> y x)
et par independance
_
t
0
P(T du)P(B

tu
> y x) =
_
t
0
P(T du, B

tu
> y x) = P(T < t, B
t
> 2y x)
En tenant compte du fait que si B
t
> 2y x et y > x , alors B
t
> y, donc T < t on en deduit
P(T < t, B
t
> 2y x) = P(B
t
> 2y x) do` u
P(B
t
x, M
t
> y) = P(B
t
> 2y x)
En utilisant
P(B
t
x, M
t
< y) = P(B
t
x) P(B
t
x, M
t
> y)
on obtient
P(B
t
x, M
t
< y) = ^(
x

t
) ^(
x 2y

t
)
Corriges. 2002-03 123
3. La loi de T sobtient en ecrivant P(T < t) = P(M
t
< y) et la densite du couple (B
t
,M
t
) en derivant
P(B
t
x, M
t
< y).
4. Soit X
t
= t +B
t
, Y
t
= sup (X
s
,0 s t. Soit dQ = dP avec = exp(X
t
+
1
2

2
t). En utilisant
le theor`eme de Girsanov, on a
P(X
t
< x, Y
t
< y) = E
Q
(exp(X
t

1
2

2
t) 11
X
t
<x
11
Y
t
<y
)
que lon peut calculer car sous Q, X est un mouvement Brownien et on connait la loi du couple (x,Y )
sous Q.
7.8 Meandres, ponts, excursions
Exercice 7.8.1: Let V be a standard Brownian motion starting at v, that is, V
t
= v +W
t
. In this case,
the two events
a
(V ) t and sup
st
W
s
, where = a v are equal. The reection principle
implies that the r.v. sup
st
W
s
is equal in law to the r.v. |W
t
|. Therefore,
P(

(W) t) = P(sup
st
W
s
) = P(|W
t
| ) = P(W
2
t

2
) = P(tG
2

2
)
where G is a Gaussian variable, with mean 0 and variance 1. It follows that

(W)
loi
=

2
G
2
, and the
probability density function of
a
(V ) is
f(t) =
a v

2t
3
exp
_

(v a)
2
2t
_
.
The computation of
E
_
11
{T<
a
(V )}
h(V
T
)
_
= E
_
h(V
T
)
_
E
_
11
{T
a
(V )}
h(V
T
)
_
can be done using Markov property:
E
_
11
{T
a
(V )}
h(V
T
)
_
= E
_
11
{T
a
(V )}
E(h(V
T
)|T

a
(V )
)
_
= E
_
11
{T
a
(V )}
h(

V
T
a
(V )
+a)
_
,
where

V is a Brownian motion independent of
a
(V ).
For t < 1, the set g t is equal to d
t
> 1.
d
a
t
(W) = t + inf u 0 : W
u+t
W
t
= a W
t
= t +
aW
t
loi
= t +
(a W
t
)
2
G
2
.
P
_
a
2
G
2
> 1 t
_
=
_
|a|

1 t
_
.
Then, the Ito-Tanaka formula combined with the identity x

(x) +

(x) = 0 lead to
P(g t[T
t
) =
_
[W
t
[

1 t
_
=
_
t
0

_
[W
s
[

1 s
_
d
_
[W
s
[

1 s
_
+
1
2
_
t
0
ds
1 s

_
[W
s
[

1 s
_
=
_
t
0

_
[W
s
[

1 s
_
sgn(W
s
)

1 s
dW
s
+
_
t
0
dL
s

1 s

_
[W
s
[

1 s
_
=
_
t
0

_
[W
s
[

1 s
_
sgn(W
s
)

1 s
dW
s
+
_
2

_
t
0
dL
s

1 s
.
Exercice 7.4.6 : The occupation time formula leads to
E
_
T
a
(X)
0
f(X
s
) ds =
_
a

f(x)E[L
x
T
a
]dx
124 Sauts.
It remains to compute (x) = E[L
x
T
a
]. Tanakas formula reads
(X
T
a
x)
+
= (x)
+
+
_
T
a
0
11
(X
s
>x)
dX
s
+
1
2
L
x
T
a
(a x)
+
= (x)
+
+
_
T
a
0
11
(X
s
>x)
(dW
s
+ds) +
1
2
L
x
T
a
Then, taking expectation of both sides
1
2
E[ L
x
T
a
] = (a x)
+
(x)
+
E[
_
T
a
0
11
(X
s
>x)
ds]
= (a x)
+
(x)
+
E[
_
a
x
L
y
T
a
dy]
Therefore, if (x) = E[ L
x
T
a
]
1
2
(x) = (a x)
+
(x)
+

_
a
x
(y)dy, (a) = 0
which gives
(x) =
_

_
1

(1 exp(2(x a)) for 0 x a


1

(1 exp(2a)) exp(2x) for x 0


Exercice 7.8.2 : Il sut decrire
B
t
= m
1

t g
t
(sgneB
t
)
On a alors E(B
t
[T
g
t
) = E(m
1

t g
t
(sgneB
t
)T
g
t
) =

t g
t
(sgneB
t
)E(m
1
) =

t g
t
(sgneB
t
)
_

2
On note
t
=

t g
t
(sgneB
t
), cest une martingale. Des calculs analogues conduisent `a
E(B
2
t
t[T
g
t
) = E(m
2
1
)
2
t
t
E(e
B
t

2
2
t
[T
g
t
) = h(
t
)e

2
2
avec h(x) = E(e
xm
1
).
Corriges. 2002-03 125
Chapitre 8
Sauts, Corriges.
8.1 Processus de Poisson
Exercice 8.1.2:
E(N
t
N
s
[T
s
(N
1
)) = E(N
t
N
s
[(N
s
N
1
))
Il est bien connu (ou tout au moins facile de verier ) que si X et Y sont deux variables de Poisson,
independantes, de param`etre et
P(X = k[X +Y = n) =
_
n
k
_

k
(1 )
nk
avec =

+
. On en deduit
E(N
t
N
s
[T
s
(N
1
)) =
t s
1 s
(N
1
N
s
)
La verication de la propriete de martingale est alors facile.
Exercice 8.1.4: Si N est un processus de Poisson, P(N
t
= n) = e
t

n
t
n
n!
dou
(z,t) = e
t
e
tz
Si N un processus `a accroissements independants tel que N
t+s
N
t
loi
= N
s
(z,t +s) =

n
z
n
P(N
t+s
= n) = E(z
N
t+s
) = E(z
N
t+s
N
t
+N
t
)
= E(z
N
t+s
N
t
)E(z
N
t
) = E(z
N
s
)E(z
N
t
) = (z,t)(z,s)
On en deduit
(z,t +h) (z,t) = (z,t)[(z,h) 1]
ce qui conduit `a une EDO en urilisant les proprietes de donnees dans lenonce. En tenant compte
de (z,0) = 1, on montrait que (z,t) = e
t
e
tz
, ce qui caracterise le processus de Poisson (cette
egalite caracterise la loi de N
t
, ce qui avec N un processus `a accroissements independants tel que
N
t+s
N
t
loi
= N
s
caracterise le processus de Poisson.)
Exercice 8.1.5 : Le processus de Poisson compose est un processus `a accroissements independants,
donc pour s < t
E(Y
t
Y
s
[T
s
) = E(Y
t
Y
s
) = E(X
t
X
s
) (t s) = 0
On peut le demontrer `a la main, sans utiliser que le processus de Poisson compose est un PAI
E(X
t
X
s
[T
s
) = E(
N
t

i=N
s
+1
Y
i
[T
s
) = E(
N
t
N
s
+N
s

i=N
s
+1
Y
i
[T
s
) = (N
s
)
126 Sauts.
avec
(n) = E(
n+N
ts

i=n+1
Y
i
) =

P(N
ts
= k)E(
n+k

i=n+1
Y
i
)
=

P(N
ts
= k)kE(Y
1
) = E(Y
1
)E(N
ts
) = E(Y
1
)(t s)
Exercice 8.1.6 : Si X et

X sont deux solutions,
Z
t
def
= X
t


X
t
= c
_
t
0
(X
s


X
s
)ds = c
_
t
0
Z
s
ds
et Z est solution de lequation dierentielle ordinaire Z

t
= cZ
t
avec condition initiale nulle. Donc
Z = 0.
Soit X
t
= e
ct
x +
_
t
0
e
c(ts)
dN
s
. On calcule
_
t
0
X
s
ds =
_
t
0
e
cs
xds +
_
t
0
ds
_
s
0
e
c(su)
dN
u
.
Lintegrale double se calcule en employant Fubini (pour des integrales de Stieltjes)
_
t
0
ds
_
s
0
e
c(su)
dN
u
=
_
t
0
dN
u
_
t
u
dse
c(su)
=
1
c
_
t
0
dN
u
(1 e
c(tu)
)
=
1
c
(N
t

_
t
0
e
c(ts)
dN
s
) .
En utilisant que M et Y sont des martingales
E(M
t
Y
t
[T
s
) = E(M
t
(Y
t
Y
s
)[T
s
) +M
s
Y
s
= E((M
t
M
s
)(Y
t
Y
s
)[T
s
) +M
s
Y
s
Le calcul de E((M
t
M
s
)(Y
t
Y
s
)[T
s
) se fait comme le precedent. Exercice 8.1.8 : Si jecris la formule
d ito d(tN
t
) = N
t
dt +tdN
t
Dou
_
t
0
N
s
ds = tN
t

_
t
0
sdN
s
=
_
t
0
(t s)dN
s
Pour calculer la TL, il sut d utiliser que pour toute fonction h (ici, pour t xe h(s) = (t s)) si c
est lintensite de N
E(exp(
_
t
0
h(s)dN
s
) = exp(c
_
t
0
(1 e
h(s)
)ds)
8.2 Poisson compose
Exercice 8.2.1 : From the independance of Y
k
, one gets
E(
n

k=1
Y
k
+
m

k=n+1
)) = E(Y
1
)
n
E(Y
1
)
m
Then, the independence and stationarity of the increments of N follows from
E(X
s
+(X
t
X
s
)) = E((,N
s
)(,N
t
N
s
)) = E((,N
s
))E((,N
ts
))
where (,n) = E(Y
1
)
n
. From the independence of N and the r.v. (Y
k
,k 1) and using the Poisson
law of N
t
, we get
P(X
t
x) =

n
P(N
t
= n,
n

k=1
Y
k
x)
=

n
P(N
t
= n)P(
n

k=1
Y
k
x)
= e
t

n
(t)
n
n!
F

(x) .
Corriges. 2002-03 127
and
E(X
t
) =

n=1
E(
n

k=1
Y
k
11
N
t
=n
) =

n=1
nE(Y )P(N
t
= n)
= E(Y )

n=1
nP(N
t
= n) = tE(Y
1
) .
The computation of the variance can be done with the same method, however, it is more convenient
to use the Laplace transform of X
t
and the fact that the second moment is obtained from the second
derivative of the Laplace transform.
Exercice 8.2.2 : From the independence of increments, we obtain that (X
t
tE(Y ),t 0) is a
martingale. More generally, for any bounded Borel function f, we denote by (f) =
_
f(x)(dx) the
expectation E(f(Y )). From the denition of M
f
,
E(M
f
t
) =

n
E(f(Y
n
))P(T
n
< t) t(f) = (f)

n
P(T
n
< t) t(f) = 0
The proof of the proposition is now standard and results from the computation of conditional expectation
which lead to, for s > 0
E(M
f
t+s
M
f
t
[T
t
) = E
_
_

t<ut+s
f(X
u
)11
X
u
=0
s(f)[T
t
_
_
= 0 .
For the reciprocal, write
e
iuX
t
= 1 +

st
e
iuX
s
(e
iuX
s
1)
= +
_
t
0
e
iuX
s
dM
f
s
+(f)
_
t
0
e
iuX
s
ds
where f(x) = e
iux
1. Hence,
E(e
iuX
t+s
[T
t
) = e
iuX
t
+(f)
_
t+s
t
drE(e
iuX
t+r
[T
t
)
Setting (s) = E(e
iuX
t+s
[T
t
) one get (s) = (0) +(f)
_
s
0
(r)dr, hence
E(e
iuX
t+s
[T
t
) = e
s

_
(dx)(e
iux
1)
where = (1) and = /).
Exercice 8.2.3 : From the independence between the r.v. (Y
k
,k 1) and the process N,
E(e
X
t
) = E
_
exp (
N
t

k=1
Y
k
)
_
= E((N
t
))
where (n) = E
_
exp (
n

k=1
Y
k
)
_
= [
Y
()]
n
, with
Y
() = E (exp Y ). Now, E((N
t
)) =

n
[
Y
()]
n
e
t

n
t
n
n!
.
8.3 Marche complets, incomplets
Exercice 8.5.1: We shall now restrict our attention to the simple case of a complete market where
dS
t
= S
t
[dt +dM
t
]
128 Sauts.
and r = 0. Here, M is the compensated martingale associated with a poisson process with deterministic
intensity.
The non-arbitrage condition is equivalent to the existence of such that > 1 and + = 0.
This implies that

> 0.
The unique equivalent martingale measure Q is dened by
dQ
dP
[
F
t
= L
t
where L is the strictly positive
martingale
L
t
=
_

_
N
t
exp(t/)
which satises dL
t
= L
t

dM
t
.
Under the measure Q,

M
t
def
= M
t
+t/ is a martingale.
Exercice 8.5.2: Les m.m.e. sont denies par leur densite L veriant
dL
t
= L
t
(
t
dW
t
+
t
dM
t
)
avec
(t) = b r +(t) , dP dt.p.s.
Elles sont indexees par un processus > 1. Sous P

, le processus W

deni par
W

(t)
def
= W(t)
_
t
0
(s) ds
est un mouvement Brownien M

(t)
def
= M(t)
_
t
0
(s)ds est une martingale.
On utilisera
W

(t) = W(t) +t +
_
t
0

(s)

ds = W
0
(t) +
_
t
0

(s)

ds
avec =
b r