Vous êtes sur la page 1sur 181

EXERCICES DE CALCUL STOCHASTIQUE

DESS IM Evry, option nance


Monique Jeanblanc
Universite dEVRY
Octobre 2005
2
Contents
1 Rappels 7
1.1 Tribu . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
1.2 Variables gaussiennes . . . . . . . . . . . . . . . . . . . . . . . . . 8
1.3 Esperance conditionnelle . . . . . . . . . . . . . . . . . . . . . . . 9
1.4 Martingales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
1.5 Temps darret . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
1.6 Temps discret . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
1.7 Alg`ebre beta-Gamma . . . . . . . . . . . . . . . . . . . . . . . . . 15
1.8 Divers . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
2 Mouvement Brownien 17
2.1 Proprietes elementaires . . . . . . . . . . . . . . . . . . . . . . . . 17
2.2 Processus Gaussiens . . . . . . . . . . . . . . . . . . . . . . . . . 20
2.3 Multidimensionnel . . . . . . . . . . . . . . . . . . . . . . . . . . 21
2.4 Temps datteinte . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
2.5 Scaling . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
2.6 Complements . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
2.7 Finance . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28
2.8 Probl`eme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
2.8.1 Partie I : Resultats preliminaires . . . . . . . . . . . . . 29
2.8.2 Partie II . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30
2.8.3 Partie III . . . . . . . . . . . . . . . . . . . . . . . . . . . 30
3 Integrale dIto 33
3.1 Integrale de Wiener . . . . . . . . . . . . . . . . . . . . . . . . . 33
3.2 Formule dIto . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34
3.3 Cas multidimensionnel . . . . . . . . . . . . . . . . . . . . . . . . 39
3.4 Complements . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40
3.5 Brownien geometrique et extensions. . . . . . . . . . . . . . . . . 42
3.6 Le crochet . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43
3.7 Finance . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 44
3
4 CONTENTS
4 Equations dierentielles stochastiques 49
4.1 Equation lineaire . . . . . . . . . . . . . . . . . . . . . . . . . . . 49
4.2 Finance . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 54
4.3 Equations dierentielles . . . . . . . . . . . . . . . . . . . . . . . 56
5 Exemples 59
5.1 Processus de Bessel . . . . . . . . . . . . . . . . . . . . . . . . . . 59
5.2 Processus de Bessel carre . . . . . . . . . . . . . . . . . . . . . . 61
5.3 Autres processus. . . . . . . . . . . . . . . . . . . . . . . . . . . . 64
5.4 Des calculs . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 64
6 Girsanov 67
6.1 Resultats elementaires. . . . . . . . . . . . . . . . . . . . . . . . . 67
6.2 Crochet. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 69
6.3 Processus. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 69
6.4 Cas multidimensionel . . . . . . . . . . . . . . . . . . . . . . . . . 75
6.5 Temps darret. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 76
6.6 Finance . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 78
7 Complements 87
7.1 Theor`eme de Levy. . . . . . . . . . . . . . . . . . . . . . . . . . . 87
7.2 Equations retrogrades . . . . . . . . . . . . . . . . . . . . . . . . 88
7.3 Theor`emes de representation . . . . . . . . . . . . . . . . . . . . 92
7.4 Temps local. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 92
7.5 Lois . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 93
7.6 Filtrations . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 94
7.7 Options barri`eres . . . . . . . . . . . . . . . . . . . . . . . . . . . 95
7.8 Meandres, ponts, excursions . . . . . . . . . . . . . . . . . . . . . 96
7.9 Divers . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 96
8 Processus `a sauts 99
8.1 Processus de Poisson . . . . . . . . . . . . . . . . . . . . . . . . . 99
8.2 Poisson compose . . . . . . . . . . . . . . . . . . . . . . . . . . . 101
8.3 Formule dIto . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 102
8.4 Defaut . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 103
8.5 Marche complets, incomplets . . . . . . . . . . . . . . . . . . . . 103
1 Rappels, Corriges 107
1.1 Tribu . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 107
1.2 Variables gaussiennes. . . . . . . . . . . . . . . . . . . . . . . . . 108
1.3 Esperance conditionnelle . . . . . . . . . . . . . . . . . . . . . . . 111
1.4 Martingales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 113
1.5 Temps darret . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 114
1.6 Temps discret . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 115
1.7 Alg`ebre beta-gamma . . . . . . . . . . . . . . . . . . . . . . . . . 115
1.8 Divers . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 115
CONTENTS 5
2 Mouvement Brownien, Corriges 117
2.1 Proprietes elementaires . . . . . . . . . . . . . . . . . . . . . . . . 117
2.2 Processus Gaussien . . . . . . . . . . . . . . . . . . . . . . . . . . 121
2.3 Multidimensionnel . . . . . . . . . . . . . . . . . . . . . . . . . . 124
2.4 Temps datteinte . . . . . . . . . . . . . . . . . . . . . . . . . . . 125
2.5 Scaling . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 127
2.6 Complements . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 127
2.7 Finance . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 129
3 Integrale dIto, Corriges 131
3.1 Integrale de Wiener . . . . . . . . . . . . . . . . . . . . . . . . . 131
3.2 Formule dIto . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 132
3.3 Cas multidimensionnel . . . . . . . . . . . . . . . . . . . . . . . . 137
3.4 Complements . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 138
3.5 Brownien geometrique et extensions . . . . . . . . . . . . . . . . 139
3.6 Le crochet . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 142
3.7 Finance . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 142
4 Equations dierentielles stochastiques, Corriges 145
4.1 Equation Lineaire . . . . . . . . . . . . . . . . . . . . . . . . . . . 145
4.2 Finance . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 149
4.3 Equations dierentielles . . . . . . . . . . . . . . . . . . . . . . . 151
5 Exemples, Corriges 153
5.1 Processus de Bessel . . . . . . . . . . . . . . . . . . . . . . . . . . 153
5.2 Processus de Bessel carre . . . . . . . . . . . . . . . . . . . . . . 155
5.3 Autres processus . . . . . . . . . . . . . . . . . . . . . . . . . . . 155
5.4 Des Calculs . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 156
6 Girsanov, Corriges 159
6.1 Resultats elementaires . . . . . . . . . . . . . . . . . . . . . . . . 159
6.2 Crochet . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 160
6.3 Processus . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 160
6.4 Cas multidimensionnel . . . . . . . . . . . . . . . . . . . . . . . . 163
6.5 Temps darret . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 163
6.6 Finance . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 165
7 Complements, Corriges 167
7.1 Theor`eme de Levy. . . . . . . . . . . . . . . . . . . . . . . . . . . 167
7.2 Equations retrogrades . . . . . . . . . . . . . . . . . . . . . . . . 168
7.3 Theor`emes de representation . . . . . . . . . . . . . . . . . . . . 168
7.4 Temps local. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 168
7.5 Lois . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 170
7.6 Filtrations . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 170
7.7 Options barri`eres . . . . . . . . . . . . . . . . . . . . . . . . . . . 171
7.8 Meandres, ponts, excursions . . . . . . . . . . . . . . . . . . . . . 172
6 Rappels
8 Sauts, Corriges. 175
8.1 Processus de Poisson . . . . . . . . . . . . . . . . . . . . . . . . . 175
8.2 Poisson compose . . . . . . . . . . . . . . . . . . . . . . . . . . . 177
8.3 Marche complets, incomplets . . . . . . . . . . . . . . . . . . . . 178
Chapter 1
Rappels
1.1 Tribu
Exercice 1.1.1 Ensembles appartenant `a une tribu.
1. Montrer que si T est une tribu, et si A et B appartiennent `a T avec
A B, alors B A T o` u B A est lensemble des elements de B qui
ne sont pas dans A.
2. Montrer que 11
BA
= 11
B
11
A
.
3. Montrer que si C et D appartiennent `a T, alors CD
def
= C D
c

C
c
D aussi.
Exercice 1.1.2 Exemples de tribus.
1. Decrire la tribu engendree par un ensemble A.
2. Decrire la tribu engendree par deux ensembles A et B disjoints.
Exercice 1.1.3 Fonctions indicatrices.
On note 11
A
la v.a. qui vaut 1 pour A et 0 sinon.
1. Montrer que 11
AB
= 11
A
11
B
.
2. Montrer que, si A B = , on a 11
AB
= 11
A
+ 11
B
.
3. Montrer que 11
AB
= 11
A
+ 11
B
11
AB
.
Exercice 1.1.4 Union et intersection.
Soit T
1
et T
2
deux tribus. Montrer que T
1
T
2
est une tribu. Montrer quen
general T
1
T
2
nest pas une tribu.
Exercice 1.1.5 Tribu grossie par un ensemble.(*)
Soit T une tribu et A nappartenant pas `a T. Montrer que la tribu engendree
par T et A est composee des ensembles B tels que il existe C et D appartenant
`a T veriant B = (C A) (D A
c
).
7
8 Rappels
Exercice 1.1.6 Tribu engendree par une v.a.(*)
Soit X une v.a. sur un espace (, (). La tribu engendree par X, notee (X),
est la plus petite sous tribu T telle que X soit mesurable de (, T) dans (IR, B).
Elle est engendree par ( = F , [F = X
1
(B), B B). Montrer que (
est une tribu. Verier que si Y = h(X) avec h borelienne, alors Y est (X)
mesurable. On admettra que la reciproque est vraie.
Exercice 1.1.7 Lois de v.a.
Soit (X, Y ) un couple de variables independantes et (Z, T) deux variables independantes
telles que X
loi
= Z et Y
loi
= T.
1. Comparer E(f(X)) et E(f(Z)).
2. Comparer E(X
2
Y ) et E(Z
2
T).
3. Comparer E(f(X)g(Y )) et E(f(Z)g(T)).
4. Comparer E(f(X, Y )) et E(f(Z, T)).
1.2 Variables gaussiennes
Exercice 1.2.1 Moments.
Soit X une v.a.r. de loi ^(0,
2
). Calculer E(X
3
), E(X
4
), E([X[) et E([X
3
[).
Exercice 1.2.2 Moments. Soit X un v.a. normale. Calculer les moments de
e
X
.
Exercice 1.2.3 Exponentielles. Soit N une v.a. de loi ^(0, 1). Calculer
E(exp(aN
2
+ bN)). Montrer que E(exp
a
2
2
N
2
) = E(expaNN

) avec N et N

i.i.d.
Exercice 1.2.4 Somme de variables gaussiennes independantes.
Soit X et Y deux v.a. gaussiennes independantes. Montrer que X +Y est une
variable gaussienne. Precisez sa loi.
Exercice 1.2.5 Transformee de Laplace.
Soit X une v.a.r. de loi ^(m,
2
).
1. Quelle est la loi de
Xm

? Calculer E[X m[.


2. Montrer que E(e
X
) = exp(m+
1
2

2
). Calculer E(Xe
X
).
3. Soit (x) =
1

2
_
x

y
2
2
dy. Calculer, dans le cas m = 0 et = 1 la
valeur de E(11
Xb
expX) en fonction de (, , b).
4. Calculer E(expX
2
+X) pour 1 2
2
0.
Enonces. 2005-06 9
5. Montrer que E(e
X
f(X)) = e
m+
2

2
/2
E(f(X +
2
) pour f continue
bornee.
6. Montrer que, si f est reguli`ere E(f(X)(X m)) =
2
E(f

(X)).
7. Montrer que si G est une va de loi ^(0, 1)
E(e
aG
^(bG+c)) = e
a
2
/2
^(
c +ab

1 +b
2
Exercice 1.2.6 Convergence.
Soit (X
n
, n 1) une suite de v.a. gaussiennes qui converge dans L
2
vers X.
Quelle est la loi de X?
Exercice 1.2.7 Vecteur gaussien. Soit X un vecteur gaussien `a valeurs dans
IR
n
et A une matrice (p, n). Montrer que AX est un vecteur gaussien. Preciser
son esperance et sa variance.
Exercice 1.2.8 Vecteur Gaussien. Soit (X, Y ) un vecteur gaussien centre
tel que E(XY ) = 0. Montrer que X et Y sont independantes.
Exercice 1.2.9 Projection.(*)
Rappel : projection dans L
2
: Soit / un sous espace de L
2
() engendre par les
variables aleatoires Y
1
, . . . , Y
n
, cest-`a-dire si Z /, il existe (a
i
) reels tels que
Z =

i
a
i
Y
i
. Soit X L
2
. On appelle projection de X sur / lunique element
PrX de / tel que
E( (X PrX)Z) = 0, Z /
Soit (X
1
, X
2
, . . . , X
d
, Y
1
, . . . , Y
n
) un vecteur gaussien centre dans R
d+n
.
Montrer que X = (X
1
, X
2
, . . . , X
d
) et Y = (Y
1
, . . . , Y
n
) sont deux vecteurs
gaussiens centres.
On suppose d = 1. Montrer que PrX est une v.a. gaussienne (Y ) mesurable,
telle que X PrX et Y sont independantes.
Exercice 1.2.10 Caracterisation de vecteur gaussien. (*) Soit (X, Y )
deux v.a.r. telles que Y est gaussienne et la loi conditionnelle de X `a Y est
gaussienne de moyenne aY + b et de variance independante de Y , cest-`a-dire
que E(exp(X)[Y = y) = exp((ay +b) +

2
2

2
). Montrer que le couple (X, Y )
est gaussien.
1.3 Esperance conditionnelle
On travaille sur un espace (, T, P) muni dune sous-tribu de T notee (.
Exercice 1.3.1 Montrer que
E(Y E(X[()) = E(XE(Y [())
10 Rappels
Exercice 1.3.2 Montrer que si X L
2
et E(X[() = Y et E(X
2
[() = Y
2
alors
X = Y .
Exercice 1.3.3 Soit (X, Y ) independantes, X strictement positive et Z = XY .
Calculer E(11
Zt
[X) en utilisant la fonction de repartition de Y .
Exercice 1.3.4 Soit (X, Y ) independantes, equidristibuees et M = max(X, Y ).
Calculer E(11
Xt
[M).
Exercice 1.3.5 Conditionnement et independance.
Soit X, Y deux v.a. telles que la v.a. XY est independante de (, desperance
m et de variance
2
. On suppose que Y est (-mesurable. Calculer E(XY [ ().
En deduire E(X[ (). Calculer E( (X Y )
2
[ (). En deduire E(X
2
[ ().
Exercice 1.3.6 Vecteur gaussien (*) Suite de lexercice 1.2.9
Soit (X, Y
1
, . . . , Y
n
) un vecteur gaussien centre dans IR
1+n
. Montrer que E(X[Y ) =
PrX.
On suppose n = 1. Montrer que E(X[Y ) = Y . Determiner .
Exercice 1.3.7 Soit X = X
1
+ X
2
. On suppose que X
1
est independante de
(, que X
2
est ( mesurable et que X
1
est gaussienne.
1. Calculer E(X[() et var (X[().
2. Calculer E(e
X
[().
Exercice 1.3.8 Covariance conditionnelle. Soit Z
1
, Z
2
deux variables aleatoires
de carre integrable. On denit
Cov(Z
1
, Z
2
[() = E(Z
1
Z
2
[() E(Z
1
[()E(Z
2
[() .
Montrer que
Cov(Z
1
, Z
2
[() = E[ (Z
1
E(Z
1
[()) Z
2
[( ].
Exercice 1.3.9 Tribu grossie.
Soit A / ( et A T et X une v.a. integrable. On note H la tribu engendree par
( et A. (Voir exercice 1.1.5). On admettra que les v.a. Z qui sont H mesurables
secrivent Z = Y
1
11
A
+Y
2
11
A
c , o` u les v.a. Y
i
sont (-mesurables. Montrer que
E(X[H) =
E(X11
A
[()
E(11
A
[()
11
A
+
E(X11
A
c [()
E(11
A
c [()
11
A
c
Exercice 1.3.10 Linearite. Soit Z = Y + , avec ,= 0. Montrer que
E(aX +b[Z) = aE(X[Y ) +b.
Exercice 1.3.11 Grossissement progressif (*) Soit T une tribu. On con-
sid`ere la tribu ( engendree par 1 o` u est une v.a. `a valeurs dans IR
+
.
1. Montrer que toute v.a. ( mesurable secrit h( 1) o` u h est borelienne.
Enonces. 2005-06 11
2. Montrer que, si X est une v.a. T mesurable, E(X[()11
1
= A11
1
o` u A
est une constante. Montrer que A = E(X11
1
)/P(1 ).
Exercice 1.3.12 Conditionnement et independance 1. Soit (
1
et (
2
deux -alg`ebres independantes, ( = (
1
(
2
et (X
i
, i = 1, 2) deux variables
aleatoires bornees telles que X
i
est (
i
mesurable. Montrer que E(X
1
X
2
[() =
E(X
1
[(
1
)E(X
2
[(
2
).
Exercice 1.3.13 Conditionnement et independance 2. Montrer que si (
est independante de (X) T, E(X[( T) = E(X[T).
Exercice 1.3.14 Formule de Bayes. Soit dQ = LdP sur (, T) et ( une
sous-tribu de T. Montrer que
E
Q
(X[() = E
P
(X[(), X T
si et seulement si L est ( mesurable.
Exercice 1.3.15 Soit f et g deux densites strictement positives sur IR. Soit X
une v.a. de densite f sur un espace (, P). Montrer quil existe une probabilite
Q sur cet espace telle que X soit de densite g.
Exercice 1.3.16 Independance conditionnelle Soit (T
t
) et ((
t
) deux l-
trations.
1. Montrer que les proprietes suivantes sont equivalentes. (H1) for any t,
the -algebras T

and (
t
are conditionally independent given T
t
.
(H2) F T

, G
t
(
t
, E(FG
t
[T
t
) = E(F[T
t
) E(G
t
[T
t
)
(H3) t, G
t
(
t
, E(G
t
[T

) = E(G
t
[T
t
)
(H4) t, F T

, E(F[(
t
) = E(F[T
t
).
2. Soit F et G deux ltrations telles que T
t
(
t
. Montrer que
(H) Every F-square integrable martingale is a G-square integrable mar-
tingale
equivaut `a (H1).
3. Dans le cas (
t
= T
t
(t ) o` u est un temps aleatoire, montrer que
(H1) equivaut `a
(H5) s t, P( s[T

) = P( s[T
t
).
1.4 Martingales
Lespace est muni dune ltration (T
t
).
Exercice 1.4.1 Exemple de base. Soit X une v.a. integrable. Montrer que
(E(X[T
t
), t 0) est une martingale.
12 Rappels
Exercice 1.4.2 Surmartingale. On dit que M est une surmartingale si
- M
t
est adapte, integrable
- E(M
t
[T
s
) M
s
, s t
Le processus M est une sousmartingale si M est une surmartingale.
1. Montrer que si M est une martingale et A un processus croissant adapte
(A
s
A
t
, s t) alors M A est une surmartingale.
2. Soit M une martingale. Que peut-on dire de M
2
?
3. Soit M une martingale telle que E(M
2

) < . Montrer que sup


t
E(M
2
t
) <
.
4. Montrer quune surmartingale telle que E(Z
T
) = E(Z
0
) est une martin-
gale sur [0, T].
Exercice 1.4.3 Martingale locale. Montrer quune martingale locale posi-
tive est une surmartingale.
Exercice 1.4.4 Martingale en fonction de la valeur terminale. Soit X
une martingale telle que X
T
= . Exprimer X
t
en fonction de pour t < T au
moyen dune esperance conditionnelle.
Exercice 1.4.5 Un lemme. On trouve dans la litterature (Due) le lemme
suivant:
Lemma: Let be an adapted bounded process. Then (Y
t
= M
t

_
t
0

s
ds, 0
t T) for some martingale M if and only if
Y
t
= E[
_
T
t

s
ds +Y
T
[T
t
]
Donner une demonstration de ce lemme.
Exercice 1.4.6 Martingale de carre integrable. Soit (M
t
, t 0) une T
t
-
martingale de carre integrable (telle que M
2
t
soit desperance nie, pour tout t).
Montrer que
1. E((M
t
M
s
)
2
[T
s
) = E(M
2
t
[T
s
) M
2
s
pour t > s.
2. E((M
t
M
s
)
2
) = E(M
2
t
) E(M
2
s
) pour t > s.
3. La fonction denie par (t) = E(M
2
t
) est croissante.
Exercice 1.4.7 Projection de martingale. Montrer que si M est une T
t
-
martingale, cest aussi une martingale par rapport `a sa propre ltration (
t
=
(M
s
, s t). Soit H
t
T
t
. Montrer que Y
t
= E(M
t
[H
t
) est une H
t
-martingale.
Exercice 1.4.8 Une sousmartingale. Soit une v.a. positive. Montrer que
Z
t
= P( t[T
t
) est une sousmartingale.
Enonces. 2005-06 13
Exercice 1.4.9 Exemples de martingales.
1. Soit X un PAI. Montrer que X est une martingale et que si X est de carre
integrable, X
2
t
E(X
2
t
) est une martingale.
2. Soit X une chaine de Markov. Montrer que

st
f(X
s
, X
s
)
_
t
0

q
X
s
,j
f(X
s
, j)ds
est une martingale.
Exercice 1.4.10 Soit M une martingale positive continue uniformement integrable
et = inft : M
t
= 0. Montrer que M est nulle sur t > .
1.5 Temps darret
Exercice 1.5.1 Tribu associee `a un temps darret. Soit un temps
darret. Montrer que T

est une tribu.


Exercice 1.5.2 Soit T un temps darret et X une variable aleatoire appar-
tenant `a T
T
, veriant X T. Montrer que X est un temps darret.
Exercice 1.5.3 Exemple de processus adapte. Soit T un temps darret.
Montrer que le processus X
t
= 11
]0,T]
(t) est adapte.
Exercice 1.5.4 Comparaison de tribus. Soit S et T deux temps darret tels
que S T. Montrer que T
S
T
T
.
Exercice 1.5.5 Propriete de mesurabilite. Soit S un temps darret. Mon-
trer que S est T
S
-mesurable.
Exercice 1.5.6 Soit S et T deux temps darret. Montrer que S T, T
S appartiennent `a T
S
.
Exercice 1.5.7 Exemple de processus c`adl`ag. Soit S et T deux temps
darret tels que S < T. Montrer que le processus Z
t
= 11
[S,T[
(t) (egal `a 1 si
S t < T et `a 0 sinon) est un processus c`adl`ag.
Exercice 1.5.8 Exemple trivial de temps darret. Montrer quune con-
stante est un temps darret. Quelle est dans ce cas la tribu T

?
Exercice 1.5.9 Operations sur les temps darret. Montrer que linf (resp.
le sup) de deux temps darret est un temps darret.
Exercice 1.5.10 Caracterisation de martingale.
1. Soit s < t, A T
s
et T = t11
A
c + s11
A
. Montrer que T est un temps
darret.
14 Rappels
2. Montrer que si E(X
T
) = E(X
0
) pour tout temps darret T, alors le pro-
cessus X est une martingale.
Exercice 1.5.11 Theor`eme darret. Soit M une martingale continue telle
que M
0
= a et lim
t
M
t
= 0. Montrer que sup M
t
loi
=
a
U
o` u U est une v.a. de
loi uniforme sur [0, 1].
1.6 Temps discret
Lespace est muni dune ltration (T
n
).
Exercice 1.6.1 Soit T
n
une suite de tribu decroissante On suppose que si B
T

=
n
T
n
alors P(B) = 0 ou P(B) = 1. Calculer E([P(A[T
n
) P(A[T
m
)]
2
).
En deduire que P(A[T
n
) converge
Exercice 1.6.2 Soit T
n
une suite de tribu croissante et T

=
n
T
n
. Montrer
que E(X[T
n
) converge dans L
2
vers E(X[T

).
Exercice 1.6.3 Processus croissant associe `a une martingale de carre
integrable. Soit (X
n
, n 0) une (T
n
)-martingale veriant E(X
2
n
) < pour
tout n.
1. Montrer que, pour tout p 0, E(X
n+p
[T
n
) = X
n
.
2. Montrer que E((X
n
X
n1
)
2
[T
n1
) = E(X
2
n
[T
n1
) X
2
n1
pour tout n.
3. Montrer quil existe un unique processus (A
n
) tel que
(i) A
n
est T
n1
adapte, (ii) A
0
= 0, (iii) X
2
n
A
n
est
une martingale.
Verier que A
n
est un processus croissant.
On montrera que la suite de processus denie par A
0
= 0, A
n
= A
n1
+
E(X
2
n
[T
n1
) X
2
n1
a les proprietes desirees et que si

A a les memes
proprietes, A
n
A
n1
=

A
n


A
n1
.
Exercice 1.6.4 Integrale stochastique. Soit M une martingale et H un
processus borne previsible (soit H
n
est T
n1
-mesurable). 0n note M
k
= M
k

M
k1
.
1. Montrer que (H M)
n
=

n
k=1
H
k
M
k
est une martingale.
2. Soit M et N deux martingales telles que E(M
2
n
) < , E(N
2
n
) < On
note [M, N] =

n
k=1
M
k
N
k
. Montrer que
(M
n
N
n
M
0
N
0
[M, N]
n
; n 0)
est une martingale.
Enonces. 2002-03 15
1.7 Alg`ebre beta-Gamma
Exercice 1.7.1 Loi Arc sinus Une variable aleatoire A a une loi Arc Sinus si
sa densite est
1

1 t
11
t[0,1]
. Montrer que cos
2
()
loi
= A si est uniforme
sur [0, 2].
Soit N et N

deux variables ^(0, 1) independantes. Montrer que


N
2
N
2
+N
2
loi
=
A.
Soit C =
N
N

. Montrer que C a une loi de Cauchy et que


1
1 +C
2
a une loi Arc
sinus.
1.8 Divers
Exercice 1.8.1 Soit X un processus at M
t
= sup
0st
X
s
. On note une v.a.
de loi exponentielle de param`etre independante de X. Montrer que
E (exp(M

)) = 1 E
__

0
due
u
e
T
u
_
o` u T
u
= inft : X
t
u.
Exercice 1.8.2 Transformee de Laplace et independance. Soit X et
Y deux v.a. independantes. Justier que E(e
(X+Y )
) = E(e
X
)E(e
Y
). La
reciproque est-elle vraie?
Exercice 1.8.3 Transformee de Laplace et moments. Soit X et Y deux
v.a. bornees telles que E(e
X)
= E(e
Y
) pour tout . Montrer que X et Y ont
meme moments.
Exercice 1.8.4 Markov. Soit X un processus de Markov fort et T
a
= inft :
X
t
= a. Montrer que, pour t < T
P(X
T
dx[X
t
= a) = P(X
T
dx[T
a
= t) .
Exercice 1.8.5 Propriete de Markov Soit B un mouvement Brownien et f
une fonction. On note T
f
= inft : B
t
= f(t). Montrer que P(B
t
f(s)[T
f
=
s) =
1
2
11
s<t
. Si f est croissante, montrer que P(T
f
t) = 2P(B
t
f(T
f
)).
16 Brownien.
Chapter 2
Mouvement Brownien
Dans tout ce qui suit, (B
t
, t 0) (ou (W
t
, t 0)) est un mouvement Brownien
reel (un processus `a accroissements independants issu de 0, tel que pour t > s,
B
t
B
s
est une v.a. gaussienne centre de variance t s) et on note (T
t
) sa
ltration naturelle.
Dans certains exercices, il sera precise que B est issu de x. On rappelle que B
et (B
2
t
t, t 0) sont des martinales.
2.1 Proprietes elementaires
Exercice 2.1.1 Caracterisation. Montrer quun processus X est un mou-
vement Brownien si et seulement si
a. Pour tout t
0
< t
1
. . . < t
n
, le vecteur (X
t
0
, X
t
1
, . . . , X
t
n
) est un vecteur
gaussien centre
b. E(X
t
X
s
) = s t
c. X
0
= 0
Exercice 2.1.2 Calcul desperances.
1. Calculer pour tout couple (s, t) les quantites E(B
s
B
2
t
), E(B
t
[T
s
) et E(B
t
[B
s
).
2. On a vu, dans Exercice 1.2.1, que si Z est une v.a. gaussienne centree de
variance
2
, on a E(Z
4
) = 3
4
. Calculer E(B
2
t
B
2
s
).
3. Quelle est la loi de B
t
+B
s
?
4. Soit
s
une variable aleatoire bornee T
s
-mesurable. Calculer pour t s,
E(
s
(B
t
B
s
)) et E[
s
(B
t
B
s
)
2
].
5. Calculer E(11
B
t
a
) et E(B
t
11
B
t
a
) o` u 11
A
() est la v.a. egale `a 1 si A
et 0 sinon.
6. Calculer E(
_
t
0
exp(B
s
)ds) et E(exp(B
t
)
_
t
0
exp(B
s
)ds).
17
18 Brownien.
Exercice 2.1.3 Lois. Montrer que E(f(B
t
)) = E(f(G

u + B
tu
)) avec G
v.a. independante de B
tu
et de loi gaussienne centre reduite.
Exercice 2.1.4 Soit une variable aleatoire de loi exponentielle de param`etre
(soit P( dx) = e
x
11
x>0
dx) independante de B. Quelle est la loi de B

?
Exercice 2.1.5 Des martingales. Parmi les processus suivants, quels sont
ceux qui sont des martingales. ( On pourra utiliser, sans demonstration, que
E[
_
t
0
B
u
du[T
s
] =
_
t
0
E[B
u
[T
s
] du.)
1. M
t
= B
3
t
3
_
t
0
B
s
ds.
2. Z
t
= B
3
t
3tB
t
.
3. X
t
= tB
t

_
t
0
B
s
ds.
4. U
t
= sinB
t

_
t
0
B
s
(cos s) ds.
5. U
t
= sinB
t
+
1
2
_
t
0
sin(B
s
) ds.
6. Y
t
= t
2
B
t
2
_
t
0
B
s
ds.
Exercice 2.1.6 On suppose b < 0 < a. Montrer que (a B
t
)(B
t
b) + t est
une T
t
-martingale. En deduire E(T
a,b
) o` u T
a,b
= T
a
T
b
.
Exercice 2.1.7 Exponentielle de Brownien. Calculer E(e
x+B
t
) et E(sin(x+
B
t
)) en utilisant
E(f(x +B
t
)) = f(x) +
1
2
_
t
0
E(f

(x +B
s
)) ds .
Exercice 2.1.8 Changement de temps. Soit Z
t
= B
A(t)
o` u A est une fonc-
tion deterministe continue strictement croissante.
1. Calculer lesperance et la variance de Z
t
. Ce processus est-il une martin-
gale par rapport `a T
t
?.
2. On denit (
t
= T
A(t)
. Montrer que Z est une G-martingale.
3. Determiner le processus croissant C tel que (Z
t
)
2
C
t
soit une G-martingale.
4. Soit un processus M tel que M est une martingale et il existe A, fonction
deterministe continue strictement croissante telle que M
2
t
A(t) est une
martingale. On note C linverse de A, cest-`a-dire la fonction telle que
C(A(t)) = t. Montrer que W
t
= M
C(t)
est un mouvement Brownien.
Exercice 2.1.9 Calcul desperance. Comment calculer E
x
(f(B
t
)g(B
s
))?
Enonces. 2002-03 19
Exercice 2.1.10 Calculer
E((
_
1
0
duB
u
+B
1
)
2
)
Exercice 2.1.11 Calcul de transformee de Laplace. Calculer E
x
_
exp(W
2
t
)
_
.
Exercice 2.1.12 Comportement limite.
1. Montrer que lim
t
B
t
t
= 0
2. Montrer que lim
t
P
x
(B
t
< 0) = 1/2. En deduire que pour tout x > 0,
si T
0
= inft : B
t
= 0, on a P
x
(T
0
< ) 1/2. (En fait, on peut montrer
que T
0
est ni ps.)
Exercice 2.1.13 Montrer que lintegrale
_
1
0
B
s
s
ds est convergente.
Exercice 2.1.14 Tribu triviale. On admettra quun ensemble appartenant `a
la ltration T
0
= T
+
0
a pour probabilite 0 ou 1.
Si = inft 0 : B
t
> 0, montrer que P( t)
1
2
. En deduire que
P( = 0) = 1.
Exercice 2.1.15 Application de la propriete de Markov. Montrer que
E
x
_
_
t
0
h(r, B
r
)dr[T
s
_
=
_
s
0
h(r, B
r
)dr +E
B
s
_
_
ts
0
h(s +u, B
u
)du
_
Exercice 2.1.16 Soit un temps darret, > 0 et u une fonction continue
bornee. On pose g(x) = E
x
__

0
e
t
u(B
t
)dt
_
et f(x) = E
x
__

0
e
t
u(B
t
)dt
_
o` u comme dhabitude lindice x precise que le Brownien est issu de x.
1. Montrer que g et f sont denies.
2. Montrer que
E
x
__

e
t
u(B
t
)dt
_
= E
x
_
11
<
e

f(B

)
_
.
3. Montrer que si = T
0
, alors g(x) = f(x) f(0)(x) o` u on explicitera .
Exercice 2.1.17 Polynomes dHermite. Les polynomes dHermite H
k
sont
denis par e
x

2
2
=

k
k!
H
k
(x). Montrer quil existe H
k
(x, t), polynomes
en les deux variables (t, x) tels que e
x

2
2
t
=

k
k!
H
k
(x, t). En deduire la
valeur de E(B
k
t
[T
s
).
20 Brownien.
Exercice 2.1.18 Des gaussiennes Soit S
t
= exp(t+W
t
). Calculer lesperance
et la variance de
_
T
0
S
t
dt et
_
T
0
lnS
t
dt. Ces variables sont-elles gaussiennes?
Exercice 2.1.19 Zeros Montrer que
P(B
u
,= 0, u ]s, t[) =
2

arcsin
_
s
t
Exercice 2.1.20 Filtration Soit (
t
= T
t
(B
1
). Verier que B nest pas
une ((
t
)-martingale.
2.2 Processus Gaussiens
Exercice 2.2.1 Montrer que le processus Y
t
=
_
t
0
B
u
du est gaussien. Calculer
son esperance et sa covariance.
Exercice 2.2.2 Expliciter la solution de
dX
t
= aX
t
dt +e
bt
dB
t
Calculer E(X
t
) et V ar(X
t
).
Exercice 2.2.3 Non-existence de processus. Montrer quil nexiste pas de
processus X tel que (s, t), s ,= t, les variables X
t
et X
s
soient independantes,
centrees gausssiennes, et E(X
2
t
) localement borne. On considerera
_
t
0
X
s
ds et
on montrera que ce processus serait Gaussien, on calculera son esperance et sa
variance.
Exercice 2.2.4 Le pont Brownien. On denit un pont Brownien par
Z
t
= B
t
tB
1
, 0 t 1.
1. Montrer que Z est un processus gaussien independant de B
1
. Preciser sa
loi, cest-`a-dire sa moyenne et sa fonction de covariance.
2. Montrer que le processus

Z avec

Z
t
= Z
1t
a meme loi que Z.
3. Montrer que le processus Y avec Y
t
= (1 t)B t
1t
, 0 < t < 1 a meme loi
que Z.
4. Montrer que (Z
t
loi
= (B
t
[B
1
= 0)).
Exercice 2.2.5 Un exemple surprenant. Montrer que Z
t
= B
t

_
t
0
B
s
s
ds
est un processus gaussien. Calculer sa variance et sa covariance. En deduire que
Z est un mouvement Brownien. Montrer que Z nest pas une (T
B
t
)-martingale,
o` u (T
B
t
) est la ltration naturelle de B.
Enonces. 2002-03 21
Exercice 2.2.6 Pont. Soit B un MB et
t
lespace Gaussien engendre par
(B
u

u
t
B
t
, u t). Montrer que
t
est croissant en t. Montrer que (B
u
, u
t) =
t
(B
t
) o` u (G) est lespace engendre par G.
Exercice 2.2.7 Changement de probabilite. Soit B un MB, L
t
= exp(mB
t

m
2
2
t) , et Q denie sur T
T
par dQ = L
T
dP. Montrer que

B
t
= B
t
mt est,
sous Q, un processus gaussien `a accroissements independants. Montrer que

B
t
est un Q-mouvement Brownien.
Exercice 2.2.8 Soit B un mouvement Brownien, p > 1 et T une v.a. positive.
On admettra que
E(sup
t
([B
t
[ t
p/2
)) <
1. Montrer que
E(sup
t
([B
t
[ t
p/2
)) = E(sup
s
([B
s
[ s
p/2
))
avec = (
1

)
1/(p1)
.
2. Montrer que E([B
T
[) E(sup
t
([B
t
[ t
p/2
)) +E(T
p/2
).
3. Montrer que
p > 1, C
p
, T, E([B
T
[) C
p
[[T
1/2
[[
p
2.3 Multidimensionnel
Exercice 2.3.1 Soit deux mouvements Browniens B
(1)
et B
(2)
correles de co-
ecient de correlation . Montrer, sans utiliser la formule dIto pour des pro-
cessus correles, quil existe un Brownien B
(3)
, independant de B
(2)
tel que
B
(1)
= B
(2)
+
_
1
2
B
(3)
.
Exercice 2.3.2 Somme de browniens. Soit W un mouvement brownien
independant de B et [0, 1]. Montrer que (U
t
= W
t
+
_
1
2
B
t
, t 0) est
un mouvement Brownien.
Soient B
(1)
et B
(2)
deux browniens independants et (
i
, i = 1, 2) deux fonctions
deterministes. Montrer quil existe une fonction
3
telle que le processus B
(3)
deni par

3
(t)dB
(3)
t
=
1
(t)dB
(1)
t
+
2
(t)dB
(2)
t
est un Brownien.
Exercice 2.3.3 Soit B un Brownien n-dimensionnel. Soit f une fonction borelienne
bornee. Montrer que, pour 0 < s < t E
x
(f(B
t
)[T
s
) = (B
s
) avec (x) =
E
x
[f(B
ts
)]. En deduire que B
i
B
j
est une martingale pour i ,= j.
22 Brownien.
Exercice 2.3.4 Mouvement Brownien dans R
2
.
1. Soit W
1
et W
2
deux mouvements Browniens independants. Le processus
W
t
= W
1
(t) + W
2
(t) est-il un mouvement Brownien? Si oui, justiez la
reponse, sinon, expliquez pourquoi. Meme question avec W
1
(t)+W
2
(t).
2. Soit W
1
et W
2
deux processus. Soit c un reel donne. Montrer que si
_
exp
_
aW
1
(t) +bW
2
(t)
t
2
[a, b]
_
1 c
c 1
_ _
a
b
__
, t 0
_
est une martingale pour tout couple (a, b), W
1
et W
2
sont des MB. Calculer
E[exp(aW
1
(t) +bW
2
(t))].
Exercice 2.3.5 Brownien n-dimensionnel Soit B un MB n-dimensionnel et
U une matrice telle que UU
T
= I. Montrer que (UB
t
, t 0) est un MB.
2.4 Temps datteinte
Dans tous ces exercices, a IR et T
a
= inft : B
t
= a o` u B est un mouvement
Brownien.
Exercice 2.4.1 Transformee de Laplace. Montrer que T
a
est un temps
darret. Calculer E(e
T
a
) pour tout reel. Montrer que P(T
a
< ) = 1 et
que E(T
a
) = .
Memes questions avec S
t
= exp(B
t
).
Exercice 2.4.2 Montrer (sans calculs) que pour b > a > 0, la v.a. T
b
T
a
est
independante de T
a
. Quelle est la loi de T
b
T
a
? Que peut-on dire du processus
(T
a
, a > 0)?
Exercice 2.4.3 Soit a < 0 < b et T = T
a
T
b
. Calculer P(T
a
< T
b
) et E(T).
Exercice 2.4.4 Processus du temps datteinte.
1. Soit f(t) = E(e
rT
a
11
T
a
<t
). On ne cherchera pas `a calculer f ici.
Calculer en fonction de f la quantite E(e
r inf(T,T
a
)
) o` u T est un nombre
positif.
2. Montrer que si 0 < a < b, T
b
T
a
est independant de T
a
et a meme loi
que T
ba
.
3. Memes questions si T
a
= inft; t +B
t
= a.
4. Soit S un brownien geometrique( soit S
t
= xexp(t+W
t
)) et
a
= inft :
S
t
= a. Calculer E(
_

0
e
rt
S
t
dt) et E(
_

b
0
e
rt
S
t
dt).
Montrer que si 0 < a < b,
b

a
est independant de
a
et a meme loi que

ba
.
Calculer E(e
r
K
11

K
<T
11

K
>t
).
Enonces. 2002-03 23
Exercice 2.4.5 Temps datteinte Soit T un nombre reel. Calculer Z
t
=
P(T
a
> T[T
t
). On rappelle que sup
ut
W
u
loi
= [W
t
[.
Exercice 2.4.6 Premier instant. Soit W un MB issu de 0 et T
d
= d+inft :
W
t+d
= 0. Calculer E(e
T
d
) et E(11
W
d
a
e
T
d
).
Soit T

= d si W
d
a et T

= d + T
d
si W
d
a, W
d+T
d a. Calculer
E(e
T

).
Exercice 2.4.7 Self decomposable Montrer quil existe c tel que T
r
loi
= cT
r
+
X avec X independante de c.
Exercice 2.4.8 Soit

T
a
et

T
a
deux v.a. independantes de meme loi que T
a
.
Quelle est la loi de

T
a

T
a
+

T
a
(Sans faire de calculs).
Exercice 2.4.9 Loi de linf. Soit I = inf
sT
1
B
s
. Montrer que P(I dx) =
dx
1 +x
2
.
Exercice 2.4.10 Calculer E(e
T
a
) avec T
a
= inft : X
t
= a et X
t
= t +
W
t
. Calculer E(e
T
) pour T = T
a
T
b
.
Exercice 2.4.11 Soit T

a
= infu : M
u
B
u
> a avec M
u
= sup
tu
B
t
.
Montrer que M
T

a
a une loi exponentielle.
Exercice 2.4.12 Temps datteinte Soit A et B deux nombres positifs. On
note X
t
= t + B
t
et h(x) =
exp(2x/
2
) exp(2B/
2
)
exp(2A/
2
) exp(2B/
2
)
. Verier que
h(X
t
) est une martingale. Le temps darret est deni par
= inft : X
t
= AouX
t
= B .
Calculer P(X

= A).
Exercice 2.4.13 Soit f une fonction borelienne bornee et et
u(x) = E
x
(exp[

2
2
T
0
+
_
T
0
0
duf(B
u
)])
o` u B est un mouvement Brownien issu de x. Montrer que u est solution de
1
2
u

= (

2
2
+f)u, u(0) = 1
Exercice 2.4.14 Soient a, d deux nombres reels positifs.
1. Calculer E(e
|B
d
|

2
11
B
d
a
).
24 Brownien.
2. Soit T
1
= inft d : B
t
= 0. Montrer que T
1
est un temps darret. Cal-
culer E(e
T
1
) et E(e
T
1
11
B
d
a
). Montrer que B
T
1
+d
est independant
de B
d
et de T
1
.
3. On introduit la v.a.
1
suivante : si B
d
a, on pose
1
= d. Si B
d
> a
et si B
T
1
+d
a, on pose
1
= T
1
+d, sinon on pose
1
= .
Calculer pour > 0 la transformee de Laplace de
1
, soit E(e

1
).
4. On continue. Si B
d
a, on pose
2
= d. Si B
d
> a et si B
T
1
+d
a,
on pose T
2
= T
1
+ d, sinon on denit T
2
= inft T
1
+ d : B
t
= 0.
Si B
T
2
+d
a on pose
2
= T
2
+ d. Dans tous les autres cas, on pose

2
= .
(a) Montrer que B
T
2
+d
est independant de (B
T
1
+d
, B
d
) et de T
2
.
(b) Calculer la transformee de Laplace de
2
.
5. On utilise la meme procedure pour denir par iteration
n
et on pose
=

.
(a) Montrer que est ni en utilisant, apr`es lavoir justie que
P( < ) =

i
P(B
T
i
+d
< a)
(b) Calculer la transformee de Laplace de .
(c) Calculer la transformee de Laplace de B

.
(d) Montrer que B

est independant de .
Exercice 2.4.15 On trouve parfois (voir exercice precedent, ou les temps datteinte
dun niveau) des temps darret tels que et B

sont independants. Ceci nest


cependant pas tr`es courant. Dans ce qui suit on admettra le resultat (non triv-
ial) suivant (Cramer) Si X et Y sont deux v.a. independantes telles que X +Y
est une v.a. gaussienne, alors X et Y sont des gaussiennes.
Le but de cet exercice est de montrer : si est borne par K et si et B

sont independants, alors est une constante.


1. Montrer que si s > K,
B
s
= B

+

B
s
avec

B un mouvement Brownien independant de T

.
2. Montrer que B

et

B
s
sont des v.a. independantes.
3. Calculer lesperance et la variance de B

. (Attention, ce nest pas trivial.


Penser au cas o` u = T
a
.)
4. Montrer que

B
s
est une v.a. Gaussienne.
5. Montrer que lon obtient

K G
loi
=
_
K E() G o` u G est une v.a.
gaussienne reduite centree.
Enonces. 2002-03 25
6. Conclure.
Exercice 2.4.16 Soit a et deux constantes strictement positives et T
1
=
inft : B
t
a t, T
2
= inft : B
t
a +t. On pose, pour tout a 0,
() = E(exp[]) avec = T
1
T
2
.
1. Montrer que T
1
loi
= T
2
et que (T
1
, T
2
)
loi
= (T
2
, T
1
).
2. Verier que est bien denie et donner un majorant et un minorant sim-
ples de (Saider par un dessin).
3. Montrer que () = 2E (exp(T
1
)11
T
1
<T
2
).
4. Montrer que
e
a
(
2
/2) +e
a
(
2
/2) = 2
Exercice 2.4.17 Soit X
t
= t +B
t
. Montrer que, pour tout
exp(X
t
+t), t 0
est une martingale pour un param`etre que lon determinera.
On note T
a
= inft : X
t
a. Calculer E
_
exp
_

2
2
T
a
__
et P(T
a
< ).
Exercice 2.4.18 Calculer P(M
t
y[W
t
= x) o` u M
t
= sup(W
s
, s t).
2.5 Scaling
Exercice 2.5.1 Montrer que le calcul de E(
_
t
0
exp(s +B
s
) ds) se deduit de
E(
_
T
0
exp(2(s +B
s
) ds). On ne demande pas de faire ce calcul.
Exercice 2.5.2 Soit T
1
= inft : B
t
= 1. Utiliser le scaling du MB pour
etablir les egalites en loi suivantes
1. T
1
loi
=
1
S
2
1
avec S
1
= sup(B
u
, u 1)
2. T
a
loi
= a
2
T
1
avec T
a
= inft : B
t
= a.
3. g
t
loi
= tg
1
, d
t
loi
= td
1
o` u g
t
= sups t : B
s
= 0 et d
t
= infs t : B
s
= 0.
Montrer que g
t
< u = d
u
> t. En deduire g
t
loi
=
t
d
1
loi
=
1
d(1/t)
.
26 Brownien.
4. On suppose que A est un processus croissant continu tel que, pout tout c
(B
ct
, A
ct
, t 0)
loi
= (

cB
t
, cA
t
; t 0)
On note
a
= inft : A
t
a. Montrer que d

a
loi
= ad

1
. En deduire
A
g
loi
= 1/d

1
.
5. Montrer que A
t
= sup
st
B
2
s
verie les conditions precedentes.
Exercice 2.5.3 Montrer que
sup
0t1
[W
t
[
loi
=
1
_
T

1
o` u T

1
= inft 0 : [W
t
[ = 1.
Exercice 2.5.4 Soit A une fonctionnelle du mouvement brownien. On dit que
A a la propriete (hom) s il existe r IR tel que pour tout c,
(B
ct
, A
ct
; t 0)
loi
= (

cB
t
, c
r+1
A
t
; t 0)
Pour quelle valeur de r la fonctionnelle A
t
=
_
t
0
11
(B
s
>0)
ds a telle la propriete
(hom)? Meme question pour le temps local (voir la denition plus loin)
2.6 Complements
Exercice 2.6.1 Projection dun Brownien. Soit B un MB dans sa ltration
(T
t
) et ((
t
) une ltration plus petite que (T
t
). On suppose que E(B
t
[(
t
) =

B
t
est un MB. Montrer que

B
t
= B
t
.
Exercice 2.6.2 Filtration de carres de Browniens. Soit Y
t
= aB
2
t
+bW
2
t
avec a ,= b et a et b non nuls, W et B etant des Browniens independants.
Montrer que (Y
s
, s t) = (B
s
, W
s
, s t). Generaliser au cas de n carres.
Exercice 2.6.3 Representation previsible. Soit W
(i)
, i = 1, 2, 3 trois MB,
avec W
(i)
, i = 1, 2 independants. Montrer quil nest pas possible davoir
(W
(3)
s
, s t)) = (W
(1)
s
, W
(2)
s
, s t). On utilisera le theor`eme de representation
previsible pour representer W
(1)
t
, W
(2)
t
en terme de W
(3)
.
Exercice 2.6.4 Ponts, suite de ex. 2.2.6 Pour chaque t on denit la tribu
T

t
= (B
s

s
t
B
t
, s t
1. Montrer que la famille T

t
est croissante en t.
Enonces. 2002-03 27
2. Soit f L
2
(IR
+
, ds). Calculer la projection

F
t
sur L
2
((T

)
t
) de F
t
=
_
t
0
f(s)dB
s
.
3. Montrer que le processus

B
t
= B
t

_
t
0
du
B
u
u
est un (T

t
)-mouvement
Brownien et que
T

t
=

B
u
, u t
4. Montrer que

F
t
=
_
t
0

f(s)d

B
t
, avec

f(t) = f(t)
1
t
_
t
0
f(u)du.
Exercice 2.6.5 Soit B un MB reel, T
0
= inft : B
t
= 0, g = supt <
1 : B
t
= 0 et d = inft > 1 : B
t
= 0. Montrer que P
x
(d > 1 + t) =
_
p(1, x; y)P
y
(T
0
> t)dy et que P
0
(g t) =
_
p(t, 0; y)P
y
(T
0
> 1 t)dy.
Exercice 2.6.6 Loi de g
t
. Montrer que
P( sup
sut
B
u
> 0, B
s
< 0) = 2P(B
t
> 0, B
s
< 0) = 2[
1
4

1
2
arcsin
_
s
t
]
En deduire la loi de g
t
= sups t : B
s
= 0
Exercice 2.6.7 Representation previsible. Trouver un processus f previsible
tel que F = E(F) +
_
T
0
f
s
dB
s
pour
1. F = B
T
,
2. F =
_
T
0
B
s
ds,
3. F = B
2
T
,
4. F = expB
T
.
Exercice 2.6.8 Le mouvement Brownien B est issu de 0. Soit W un second
mouvement Brownien issu de 0 independant de B et
X
t
= (1 t)
_
t
0
W
s
(1 s)
2
ds + (1 t)
_
t
0
1
1 s
dB
s
.
1. Montrer que
_
t
0
W
s
1 s
ds
_
t
0
ds
_
s
0
W
u
(1 u)
2
du = (1 t)
_
t
0
W
s
(1 s)
2
ds.
2. En admettant que si f et g sont deux fonctions deterministes on peut
intervertir le sens des integrales dans
_
t
0
dsf(s)
_
s
0
g(u)dB
u
, montrer que
B
t

_
t
0
ds
_
s
0
1
1 u
dB
u
= (1 t)
_
t
0
1
1 s
dB
s
28 Brownien.
3. Verier que X est solution de
X
t
= B
t
+
_
t
0
W
s
X
s
1 s
ds .
4. (sans utiliser ce qui precede) Montrer que X
t
= (1 t)
_
t
0
dB
s
dW
s
1 s
+
W
t
.
5. Calculer E(X
s
X
t
).
Exercice 2.6.9 Soit G une ltration, W un G mouvement brownien. Soit H
une ltration plus petite que G. Montrer que le processus M
t
= E(W
t
[H
t
)
est une martingale. (on precisera par rapport `a quelle ltration). Soit X
t
=
W
t
+
_
t
0
Y
u
du o` u Y est un processus G adapte. On note F
X
la ltration de X et

Y
u
= E(Y
u
[T
X
u
). Verier que Z
t
= (X
t

_
t
0

Y
u
du, t 0) est une F
X
-martingale
(on calculera lesperance conditionnelle de Z
t
par rapport `a F
X
s
.
Exercice 2.6.10 Let X be a Brownian motion with drift and M
X
t
= sup
{
s
tX
t
. Prove that
E(M
X
T
[T
t
) = M
X
t
+
_

M
X
t
X
t
(1 F(T t, u)du
where F(T t, u) = P(M
X
Tt
u)
2.7 Finance
Exercice 2.7.1 Black et Scholes. Calculer E(e
at
(S
t
K)
+
) quand
S
t
= xe
bt
exp(W
t


2
2
t)
Ecrire la formule obtenue quand a = b = r et quand a = r, b = r . Calculer
E(e
rt
(S
t
K)
+
[T
s
) pour s < t.
Exercice 2.7.2 Options reset Une option reset est caracterisee par une suite
de dates t
1
, t
2
, . . . , t
n
. Le payo de cette option est
A =

i
(S
T
S
t
i
)
+
11
S
t
i
=inf{K,S
t
1
,S
t
2
,...,S
t
n
}
+(S
T
K)
+
11
K=inf{K,S
t
1
,S
t
2
,...,S
t
n
}
Calculer le prix dune telle option, cest-`a-dire calculer E(e
rT
A) quand
S
t
= xe
rt
exp(W
t


2
2
t)
.
Enonces. 2002-03 29
2.8 Probl`eme
2.8.1 Partie I : Resultats preliminaires
Soit (B
t
)
t0
un mouvement Brownien standard sur un espace de probabilit
(, T, P). On note (T
t
)
t0
la ltration naturelle de B.
Etant donne un processus continu (X
t
)
t0
`a valeurs reelles, on pose pour
t > 0 ,
M
X
t
= sup
st
X
s
,
m
X
t
= inf
st
X
s
.
Si a est un nombre reel strictement positif, on denit egalement
T
X
a
= inft 0; X
t
= a,

T
X
a
= inft 0; [X
t
[ = a .
Il a ete demontre en cours que T
B
a
est un temps darret relativement `a (T
t
)
t0
,
ni p.s. , tel que E(T
B
a
) = et pour 0 ,
E
_
exp(T
B
a
)

= exp
_
a

2
_
.
1. En inversant la transformee de Laplace de T
B
a
, montrer que la densite de
la loi de T
B
a
est donnee par
a

2t
3
exp
_

a
2
2t
_
1
(t>0)
.
2. Demontrer que pour 0 ,
E
_
exp(

T
B
a
)
_
=
_
cosh
_
a

2
__
1
.
3. Prouver que

T
B
a
est integrable et calculer E(

T
B
a
) .
4. Soient c et d deux nombres reels strictement positifs et posons T
B
=
T
B
c
T
B
d
. Montrer que pour IR,
E
_
exp
_

2
2
T
B
1
(T
B
=T
B
c
)
__
=
sinh(d)
sinh((c +d))
,
E
_
exp
_

2
2
T
B
__
=
cosh((c d)/2)
cosh((c +d)/2)
.
5. En utilisant la propriete de Markov forte, demontrer que si c 0 , b c ,
P[B
t
c , M
B
t
> c] = P[B
t
> 2c b].
6. En-deduire que pour chaque t > 0 , les variables aleatoires M
B
t
et [B
t
[ ont
la meme loi.
30 Brownien.
7. Verier que pour chaque t > 0 , la densite de la loi du couple (B
t
, M
B
t
)
est donnee par
2(2c b)

2t
3
exp
_

(2c b)
2
2t
_
1
{0c}
1
{bc}
.
8. Retrouver alors la densite de la loi de T
B
a
explicitee au 1. .
2.8.2 Partie II
On consid`ere le processus (Y
t
)
t0
deni par : t 0 , Y
t
= t +B
t
, o` u IR.
1. Montrer quil existe une mesure de probabilite P

sous laquelle (Y
t
)
t0
est un mouvement Brownien standard.
2. En utilisant le resultat de la question I.7. , en-deduire que pour chaque
t > 0 , la densite de la loi du couple (Y
t
, M
Y
t
) est donnee par
2(2c b)

2t
3
exp
_

(2c b)
2
2t
_
. exp
_
b
1
2

2
t
_
1
{0c}
1
{bc}
.
2.8.3 Partie III
Soit (S
t
)
t0
le processus tel que : t 0 , S
t
= x exp
_
(r
1
2

2
)t +B
t

, o` u x,
r et sont des nombres reels strictement positifs. Dans la suite, on designera
par N la fonction de repartition de la loi normale centrale reduite.
1. Expliciter la probabilite P

qui fait de (

B
t
)
t0
un mouvement Brownien
standard, avec

B
t
= t +B
t
et =
r



2
.
2. Trouver une relation entre M
S
t
et M

B
t
et entre m
S
t
et m

B
t
pour chaque
t > 0.
Dans ce qui suit, H et K designe des nombres reels strictements posi-
tifs.
3. Montrer que
P
_
S
t
K , M
S
t
H

= N(d
1
)
_
H
x
_
(2r/
2
)1
N(d
2
) ,
avec
d
1
=
_
log
_
K
x
_

_
r
1
2

2
_
t
_
/

t ,
d
2
=
_
log
_
Kx
H
2
_

_
r
1
2

2
_
t
_
/

t .
Enonces. 2002-03 31
4. Montrer que
P
_
S
t
K , m
S
t
H

= N(d
3
)
_
H
x
_
(2r/
2
)1
N(d
4
) ,
avec
d
3
=
_
log
_
x
K
_
+
_
r
1
2

2
_
t
_
/

t ,
d
4
=
_
log
_
H
2
xK
_
+
_
r
1
2

2
_
t
_
/

t .
5. Deduire de la question 3. que (E designant lesperance sous P)
E
_
S
t
1
{S
t
K ,M
S
t
H}
_
= xe
rt
_
N(d
5
)
_
H
x
_
(2r/
2
)+1
N(d
6
)
_
,
avec
d
5
=
_
log
_
K
x
_

_
r +
1
2

2
_
t
_
/

t ,
d
6
=
_
log
_
Kx
H
2
_

_
r +
1
2

2
_
t
_
/

t .
6. En utilisant le resultat de la question 4., verier que
E
_
S
t
1
{S
t
K ,m
S
t
H}
_
= xe
rt
_
N(d
7
)
_
H
x
_
(2r/
2
)+1
N(d
8
)
_
,
avec
d
7
=
_
log
_
x
K
_
+
_
r +
1
2

2
_
t
_
/

t ,
d
8
=
_
log
_
H
2
Kx
_
+
_
r +
1
2

2
_
t
_
/

t .
7. On pose v
1
(x, T) = E
_
e
rT
(S
T
K)
+
1
{m
S
T
H}
_
.
Montrer que
v
1
(x, T) = x
_
N(d
7
)
_
H
x
_
(2r/
2
)+1
N(d
8
)
_
e
rT
K
_
N(d
3
)
_
H
x
_
(2r/
2
)1
N(d
4
)
_
.
Determiner la quantite

x
v
1
(x, T t) .
8. On pose v
2
(x, T) = E
_
e
rT
(S
T
K)
+
1
{M
S
T
H}
_
. Donner une formule
explicite pour v
2
(x, T) et

x
v
2
(x, T t) .
32 Ito.
9. On pose
v
3
(x, T) = E
_
e
rT
(S
T
K)
+
1
{M
S
T
H}
_
,
v
4
(x, T) = E
_
e
rT
(S
T
K)
+
1
{m
S
T
H}
_
,
v(x, T) = E
_
e
rT
(S
T
K)
+

.
Donner une relation entre v
2
(x, T) ,v
3
(x, T) et v(x, T) dune part et entre
v
1
(x, T) ,v
4
(x, T) et v(x, T) dautre part.
Chapter 3
Integrale dIto
Dans tout ce chapitre, B (ou W) est un mouvement Brownien dont la ltration
est notee (T
t
).
3.1 Integrale de Wiener
Exercice 3.1.1 Soit Y
t
= tB
t
. Calculer dY
t
, lesperance de Y
t
et E(Y
t
Y
s
).
Exercice 3.1.2 1. Montrer que la v.a. X
t
=
_
t
0
(sins) dB
s
est denie.
2. Montrer que X est un processus gaussien.
Calculer son esperance et la covariance E(X
s
X
t
).
3. Calculer E[X
t
[T
s
].
4. Montrer que X
t
= (sint)B
t

_
t
0
(cos s)B
s
ds.
Exercice 3.1.3 1. Montrer que le processus (Y
t
=
_
t
0
(tans) dB
s
, 0 t <

2
)
est deni.
2. Montrer que Y est un processus gaussien, calculer son esperance et sa
variance et son esperance conditionnelle.
3. Montrer que Y
t
= (tant) B
t

_
t
0
B
s
cos
2
s
ds.
Exercice 3.1.4 Pont. On consid`ere lequation dierentielle stochastique
_
dX
t
=
X
t
t 1
dt +dB
t
; 0 t < 1
X
0
= 0
33
34 Ito.
1. Montrer que
X
t
= (1 t)
_
t
0
dB
s
1 s
; 0 t < 1 .
2. Montrer que (X
t
, t 0) est un processus gaussien. Calculer son esperance
et sa covariance.
3. Montrer que lim
t1
X
t
= 0.
Exercice 3.1.5 Montrer que, si f est une fonction deterministe de carre integrable
E(B
t
_

0
f(s) dB
s
) =
_
t
0
f(s) ds .
Exercice 3.1.6 Calculs de moments.
Calculer A = E(
_
t
2
t
1
(B
t
B
t
1
) dt[T
t
1
). Montrer que
_
t
2
t
1
(B
t
B
t
1
) dt =
_
t
2
t
1
(t
2

t)dB
t
. Utiliser cette egalite pour calculer A dune autre mani`ere. Calculer
Var
__
t
2
t
1
(B
t
B
t
1
) dt[T
t
1
_
.
3.2 Formule dIto
Exercice 3.2.1 Ecrire les processus suivants comme des processus dIto en
precisant leur drift et le coecient de diusion
1. X
t
= B
2
t
2. X
t
= t +e
B
t
3. X
t
= B
3
t
3tB
t
4. X
t
= 1 + 2t +e
B
t
5. X
t
= [B
1
(t)]
2
+ [B
2
(t)]
2
6. X
t
= (B
t
+t) exp(B
t

1
2
t)
7. X
t
= exp(t/2) sin(B
t
)
Exercice 3.2.2 Integration par parties. Soit X
t
= exp
__
t
0
a(s)ds
_
et
Y
t
= Y
0
+
_
t
0
_
b(s) exp
_

_
s
0
a(u)du
__
dB
s
o` u a et b sont des fonctions deterministes. On pose Z
t
:= X
t
Y
t
. Montrer que
dZ
t
= a(t)Z
t
dt +b(t)dB
t
.
Enonces. 2005-06 35
Exercice 3.2.3 Integration par parties. Soit Y
t
= tX
1
(t)X
2
(t) avec
dX
1
(t) = f(t) dt +
1
(t)dB
t
dX
2
(t) =
2
(t)dB
t
Calculer dY
t
.
Exercice 3.2.4 Montrer que (Y
t
= sin(B
t
) +
1
2
_
t
0
sin(B
s
) ds, t 0) est une
martingale. Calculer son esperance et sa variance.
Exercice 3.2.5 Equation dierentielle. On admet que le syst`eme suivant
admet une solution
_

_
X
t
= x +
_
t
0
Y
s
dB
s
Y
t
= y
_
t
0
X
s
dB
s
Montrer que X
2
t
+Y
2
t
= (x
2
+y
2
)e
t
.
Exercice 3.2.6 Formule dIto. Soit Y
t
=
_
t
0
e
s
dB
s
et Z
t
=
_
t
0
Y
s
dB
s
.
1. Ecrire lEDS veriee par Z
t
.
2. Calculer E(Z
t
), E(Z
2
t
) et E(Z
t
Z
s
).
Exercice 3.2.7 On suppose que X est un processus dIto de drift a(K
t
X
t
),
que X
t
= f(K
t
) et que K
t
= bt + B
t
o` u a, b, sont des constantes et B un
mouvement brownien. Quelle est la forme de f ?
Exercice 3.2.8 Exponentielle. Soit un processus adapte continu de
L
2
( IR) et
X
t
=
_
t
0

s
dB
s

1
2
_
t
0

2
s
ds .
On pose Y
t
:= exp X
t
et Z
t
= Y
1
t
.
1. Expliciter la dynamique de Y , cest-`a-dire exprimer dY
t
.
2. Montrer que Y est une martingale locale. Donner une condition sur
pour que ce soit une martingale.
3. Calculer E(Y
t
) dans ce cas. Expliciter les calculs quand = 1.
4. Calculer dZ
t
.
Exercice 3.2.9 Soit (a, b, c, z) des constantes et
Z
t
= e
(ac
2
/2)t+cW
t
_
z +b
_
t
0
e
(ac
2
/2)scW
s
ds
_
Quelle est lEDS veriee par Z?
36 Ito.
Exercice 3.2.10 On consid`ere le processus de dynamique
dS
t
= S
t
((r q +h
t
)dt +dW
t
)
o` u (h
t
, t 0) est un processus adapte.
1. On se place dans le cas h
t
= 0, t. Montrer que (M
t
= S
t
e
(rq)t
, t 0)
est une martingale positive. On denit une probabilite Q par dQ[
F
t
=
M
t
M
0
dP[
F
t
. Comment se transforme le MB W?
2. Dans le cas h non nul, expliciter S
t
(Utiliser lexercice 3.2.9).
3. On suppose que h
t
= h(S
t
) o` u h est une fonction continue. On admet
quil existe une solution de lEDS correspondante. Montrer que
e
rT
E(e

T
0
h(S
s
)ds
(S
T
)) = e
qT
S
0
E
Q
(S
1
T
(S
T
))
4. On se place maintenant dans le cas h
t
= S
p
t
, avec p reel. On admet quil
existe une solution de lEDS. On pose Z
t
= S
p
t
.
(a) Quelle est la dynamique de Z?
(b) Verier, en utilisant lexercice 4 que lon peut expliciter Z.
(c) Pour quelles fonctions f, le processus f(Z) est il une martingale
(locale)?
Exercice 3.2.11 Processus dOrnstein Uhlenbeck. Soit X tel que dX
t
=
(a bX
t
)dt +dB
t
1. Montrer que Z
t
= exp
_
c
_
t
0
X
s
dB
s

c
2
2
_
t
0
X
2
s
ds
_
est une martingale
locale.
2. Soit U
t
= X
2
t
. Ecrire dU
t
puis la variable U
t
comme une somme dintegrales.
3. Montrer que
_
t
0
X
s
dB
s
=
1
2
(X
2
t
X
2
0
t) a
_
t
0
X
s
ds +b
_
t
0
X
2
s
ds .
Exercice 3.2.12 Soit Z le processus deni par
Z
t
=
1

1 t
exp
_

W
2
t
2(1 t)
_
.
1. Montrer que Z est une martingale et que Z
t
tend vers 0 quand t tend vers
1..
2. Calculer E(Z
t
).
3. Ecrire Z
t
sous la forme
Z
t
= exp(
_
t
0

s
dW
s

1
2
_
t
0

2
s
ds)
o` u est un processus que lon precisera.
Enonces. 2005-06 37
Exercice 3.2.13 Moments dune exponentielle. Soit L le processus solu-
tion de
dL
t
= L
t
dW
t
, L
0
= 1
o` u est une constante. Le processus L est lexponentielle de Doleans-Dade de
W et se note L
t
= c(W)
t
.
1. Determiner la fonction telle que, pour a IR, le processus (L
t
)
a
exp((a)t)
est une martingale.
2. En deduire le calcul de E [(L
t
)
a
] pour tout a IR.
Exercice 3.2.14 Demonstration de lunicite de lecriture dun proces-
sus dIto.
Soit dX
t
= a
t
dt +
t
dW
t
. On souhaite demontrer que si X 0, alors a 0,
0.
1. Appliquer la formule dIto `a Y
t
= exp(X
2
t
).
2. En deduire le resultat souhaite.
Exercice 3.2.15 Soit V = KX avec
dX
t
= X
t
( k s lnX
t
)dt +X
t
dW
t
dK
t
= K
t
(r +k)dt
Calculer dV
t
et d lnX
t
.
Exercice 3.2.16 Montrer que
M
t
= exp
_

_
t
0
B
2
s
ds
_
exp
_

B
2
t
2
tanh(T t)
_
1
(cosh(T t))
1/2
est une martingale locale.
Exercice 3.2.17 Soit A
t
=
_
t
0
exp(W
s
+s)ds et dS
t
= S
t
(rdt +dW
t
). Mon-
trer que le processus f(t, S
t
, A
t
) est une martingale si f verie une equation aux
derivees partielles `a coecients deterministes que lon precisera.
Exercice 3.2.18 Soit dX
t
= dB
t
+
1
X
t
dt. Montrer que
1
X
t
est une martingale
(locale). Quelles sont les fonctions f telles que f(t, X
t
) soit une martingale
locale?.
Exercice 3.2.19 Soit B et W deux browniens correles et
dr
t
= [a(b r
t
) r
t
]dt +

r
t
dW
t
dV
t
= (r
t
)V
t
dt +
V
V
t
dB
t
On pose X
t
=

r
t
et Y
t
= lnV
t
X
t
avec = 2
V
/. Calculer dX et dY .
38 Ito.
Exercice 3.2.20 Soit T xe et B(t, T) = exp
_

_
T
t
f(t, u)du
_
avec
df(t, T) = (t, T)dt +(t, T)dW
t
, t < T
Montrer que
dB(t, T) = (r
t
(t, T) +
1
2
(t, T))B(t, T)dt (t, T)B(t, T)dW
t
o` u on a note (t, T) =
_
T
t
(u, T)du
Exercice 3.2.21 Soit
dr
t
= (a br
t
)dt

r
t
(dW
t
+dt)
et B un mouvement Brownien independant de W. On note H le processus
H
t
= exp
__
t
0
r
s
ds +
1
2
_
t
0
(
2
1
+r
s
)ds +
_
t
0

1
dB
s
+
_
t
0

r
s
dW
s
_
Montrer que le calcul de E(exp(H

T
)[T
t
) se reduit `a celui de E(exp(r
T

_
T
t
r
s
ds)[T
t
).
Exercice 3.2.22 Fonction dechelle. Soit X un processus dIto. Une fonc-
tion s est une fonction dechelle si s(X) est une martingale locale. Determiner
les fonctions dechelle des processus suivants:
1. B
t
+t
2. X
t
= exp(B
t
+t)
3. X
t
= x+
_
t
0
b(X
s
)ds +
_
t
0
(X
s
)ds. Identier le processus croissant A tel
que s(X
t
) =
A
t
o` u est un MB.
Exercice 3.2.23 Soit
d
t
= (1 r
t
)dt +
t
dW
t
Soit u une solution de

2
2
x
2
u

(x) + (1 rx)u

(x) u(x) = 0
On denit x

comme solution de x

(x

) = u(x

) et v(x) =
x

u(x

)
u(x). On
admettra que v

(x) 0.
Soit enn V denie par
_
V (x) = v(x), 0 x x

= x, x > x

Enonces. 2005-06 39
Montrer que 1 (r +)x

0.
Ecrire la formule dIto pour e
t
V (
t
). Il apparait un terme LV (x) V (x)
avec
LV (x) = (1 rx)V

(x) +

2
2
x
2
V

(x)
Montrer que sur x > x

on a LV (x) V (x) 0 et que sur x x

, on a
LV (x) V (x) = 0
En deduire que
V (
0
)

E(e
T
V (
T
))
(en admettant que lintegrale stochastique est une martingale).
Exercice 3.2.24 Reprendre lexercice 2.6.8 en utilisant la formule dIto.
Exercice 3.2.25 Pont Brownien Calculer P(sup
0st
B
s
y, B
t
dx). En
deduire que, pour un pont brownien b, issu de x `a l instant 0, qui doit se trouver
en z, z > 0 `a linstant t, on a pour y > z
P( sup
0st
b
s
y) = exp
_

(z +x 2y)
2
2t
+
(z x)
2
2t
_
.
Quelle est la valeur de P(sup
0st
b
s
y) pour y < z?
Exercice 3.2.26 Formule de Clark-Ocone Soit f une fonction bornee de
classe C
1
. Justier rapidement quil existe une fonction telle que, pour t 1
E(f(B
1
)[T
t
) = (t, B
t
) .
Expliciter (t, x) sous la forme dune esperance (non conditionnelle). Ecrire la
formule dIto pour en faisant les simplications qui simposent. Montrer que
(t, B
t
) = E(f(B
1
)) +
_
t
0
E(f

(B
1
)[T
s
)dB
s
.
3.3 Cas multidimensionnel
Exercice 3.3.1 On consid`ere deux processus S
1
et S
2
denis par
dS
i
(t) = S
i
(t)(rdt +
i
dB
i
t
), i = 1, 2 (3.1)
o` u B
1
et B
2
sont deux Browniens independants et o` u les coecients r,
i
sont
constants.
1. On pose S
3
(t)
def
=
S
1
(t)+S
2
(t)
2
. Ecrire lequation dierentielle stochastique
veriee par S
3
.
2. Soit S
4
(t)
def
=
_
S
1
(t)S
2
(t). Ecrire lequation dierentielle stochastique
veriee par S
4
.
40 Ito.
Exercice 3.3.2 Formule dIto multidimensionnelle. Soient (B
1
(t), t 0)
et (B
2
(t), t 0) deux mouvements Browniens independants. Soit (L
i
(t), i =
1, 2 , t 0)) les processus denis par
dL
i
(t) =
i
(t)L
i
(t)dB
i
(t) , L
i
(0) = 1
o` u (
i
(t), i = 1, 2) sont des processus adaptes continus bornes. Soit Z
t
=
L
1
(t)L
2
(t). Ecrire dZ
t
.
Montrer que L
1
(t)L
2
(t) est une martingale.
Exercice 3.3.3 Soit (B
1
(t), t 0) et (B
2
(t), t 0) deux mouvements Brown-
iens independants et une constante telle que [[ 1.
1. Montrer que le processus (W
t
, t 0) deni par W
t
= B
1
(t)+
_
1
2
B
2
(t)
est un mouvement Brownien.
2. Soit (
i
(t), t 0; i = 1, 2) deux processus continus adaptes de carre
integrable (tels que T 0, E(
_
T
0

2
i
(t) dt) < ).
(a) On denit (Z
t
, t 0) par dZ
t
=
1
(t)dB
1
(t) +
2
(t)dB
2
(t) et Z
0
= z.
Montrer que Z est une martingale.
(b) Soit (t) =
2
1
(t) +
2
2
(t). On suppose que (t) > 0. On denit
(Y
t
, t 0) par
dY
t
=

1
(t)
_
(t)
dB
1
(t) +

2
(t)
_
(t)
dB
2
(t) , Y
0
= y .
Ecrire lequation veriee par Y
2
t
.
Montrer que (Y
t
, t 0) est un mouvement Brownien.
3. On denit R
t
= B
2
1
(t) +B
2
2
(t). Ecrire lequation dierentielle veriee par
R et celle veriee par U
t
=

R
t
. On montrera que
dU
t
=
a
U
t
dt +bdB
3
(t)
o` u a et b sont des constantes et B
3
un mouvement Brownien.
Exercice 3.3.4 Soit dS
(i)
t
= S
(i)
t
(
(i)
t
dt +
(i)
t
dW
(i)
t
) o` u W
(i)
, i = 1, 2 sont
deux MB correles. Determiner k
i
, i = 1, 2 pour que e
rt
(S
(1)
t
)
k
1
(S
(2)
t
)
k
2
soit
une martingale.
3.4 Complements
Exercice 3.4.1 Formule de Tanaka. Soit f une fonction et F denie par
F(x) =
_
x

dz
_
z

f(y) dy
Enonces. 2005-06 41
Verier que
F(x) =
_

(x y)
+
f(y)dy
et que F

(x) =
_
x

f(y) dy =
_

f(y) 11
x>y
dy.
Montrer, en appliquant la formule dIto `a F que
_
t
0
f(B
s
)ds = 2
_

f(y)
_
(B
t
y)
+
(B
0
y)
+

_
t
0
11
B
s
>y
dB
s
_
dy .
Exercice 3.4.2 Egalite de Bougerol. Soit W
1
et W
2
deux mouvements
browniens independants.
1. Appliquez la formule dIto aux processus
X
t
def
= exp(W
1
(t))
_
t
0
exp(W
1
(s)) dW
2
(s), Z
t
def
= sinhW
1
(t)
2. Montrer que dZ
t
=
_
t
0
(Z
s
)dW
1
(s) +
_
t
0
(Z
s
)ds.
3. Verier que M
t
def
= W
2
(t) +
_
t
0
X
s
dW
1
(s) est une martingale. Calculer
E(M
2
t
). En admettant que M
t
=
_
t
0

s
dW
3
(s), o` u W
3
est un mouvement
brownien, identier .
4. En deduire une relation entre X
t
et Z
t
.
Exercice 3.4.3 Soit dr
t
= dt + 2

r
t
dB
t
et f(t, x) une fonction de C
1,2
b
.
1. Quelle condition doit verier la fonction s pour que s(r
t
) soit une martin-
gale ?
2. Quelle condition doit verier la fonction f pour que f(t, r
t
) soit une mar-
tingale ?
3. Soit Z
t
= r
2
t
et
t
=

r
t
. Ecrire les EDS veriees par Z
t
et par
t
.
4. Soit dr
1
t
=
1
dt +2

r
t
dB
1
t
et dr
2
t
=
2
dt +2

r
t
dB
2
t
deux processus, avec
B
1
et B
2
deux browniens independants. On admettra que r
1
et r
2
sont
independants. On note R le processus deni par R
t
= r
1
t
+ r
2
t
. Montrer
que R secrit sous la forme (5.1).
Exercice 3.4.4 Temps datteinte. Soit = T
a
= inft : W
t
= a. On a
calcule Z
t
= P( > T[T
t
). Quelle est la dynamique du processus Z?.
42 Ito.
Exercice 3.4.5 Exponentielle. Soit X et Y deux martingales de la forme
dX
t
= H
t
dW
t
, dY
t
= K
t
dW
t
. On note M
t
lunique solution de lequation
dM
t
= M
t
dX
t
, M
0
= 1. Montrer que la solution de dZ
t
= dY
t
+Z
t
dX
t
, Z
0
= z
est
Z
t
= M
t
(z +
_
t
0
1
M
s
(dY
s
H
s
K
s
ds))
Quelle est la solution de dZ
t
= dY
t
+ Z
t
dX
t
lorsque dX
t
= H
t
dW
1
t
, dY
t
=
K
t
dW
2
t
o` u W
1
et W
2
sont deux MB eventuellement correles?
3.5 Brownien geometrique et extensions.
Dans cette section, S est un Brownien geometrique de dynamique
dS
t
= S
t
(b dt + dB
t
) (3.2)
o` u b et sont des constantes.
Exercice 3.5.1 Soit

S
t
= e
bt
S
t
.
1. Montrer que (

S
t
, t 0) est une martingale. En deduire E(S
t
) et la valeur
de E(S
t
[T
s
) pour tous les couples (t, s).
2. Ecrire lequation dierentielle veriee par (S
t
)
1
.
3. Montrer que S
T
= S
0
exp[(b
1
2

2
)T + B
T
], puis que S
T
= S
t
exp[(b
1
2

2
)(T t) +(B
T
B
t
)].
4. Soit dL
t
= L
t

t
dW
t
o` u
t
est un processus adapte continu de L
2
(IR)
. On pose Y
t
= S
t
L
t
. Calculer dY
t
.
5. Soit
t
deni par
d
t
=
t
(r dt +
t
dB
t
)
Montrer que
t
= L
t
exp(rt). calculer d
1
t
.
6. Calculer d(S
t

t
). Comment choisir pour que S soit une martingale ?
Exercice 3.5.2 Soit A
t
=
1
t
_
t
0
lnS
s
ds.
1. Montrer que lnS
s
= lnS
t
+ (b

2
2
)(s t) +(B
s
B
t
) pour s t.
2. Montrer que A
t
est une variable gaussienne.
3. Soit G(t, T) =
1
T
_
T
t
(B
s
B
t
) ds. Montrer que
A
T
=
t
T
A
t
+ (1
t
T
)[lnS
t
+
1
2
(b

2
2
)(T t)] +G(t, T)
Enonces. 2005-06 43
4. Montrer que G(t, T) est une variable gaussienne independante de T
t
, dont
on calculera lesperance conditionnelle et la variance conditionnelle (par
rapport `a T
t
).
5. En deduire que A
T
= Z
t
+ U o` u Z
t
est T
t
mesurable et U une variable
gaussienne independante de T
t
. Montrer que (t)e
Z
t
= E(e
A
T
[T
t
),o` u lon
precisera la valeur de .
Exercice 3.5.3 Soit V
T
=
1
h
_
T
Th
S
u
du o` u h est un nombre reel donne tel que
0 < h < T. Soit X le processus deni par
e
bt
X
t
= E[e
bT
V
T
[T
t
] .
1. Quelle est la valeur de X
T
?
2. Exprimer X
t
en fonction de S
t
pour t T h.
3. Exprimer X
t
en fonction de S
t
et de (S
u
, T h u t) pour T h
t T.
4. Montrer que dX
t
= X
t
bdt + S
t

t
dW
t
avec
t
= 11
{t<Th}
1 e
bh
bh
+
11
{Th<t<T}
1 e
b(Tt)
bh
.
Exercice 3.5.4 Soit Y
t
= S
a
t
avec a 2. Quelle est lEDS satisfaite par Y ?
Calculer E(Y
t
).
Exercice 3.5.5 Soit une fonction borelienne bornee et
dS
t
= S
t
((r (t))dt +dW
t
), S
0
= x.
Les questions qui suivent peuvent etre traitees dans un ordre dierent.
1. Montrer que e
rt
S
t
+
_
t
0
(s)e
rs
S
s
ds est une martingale locale.
2. Ecrire explicitement la solution S en fonction de S
0
, r, , et W.
3. Calculer esperance et variance de S.
4. Calculer avec le minimum de calculs (on peut utiliser des resultats connus),
E((S
T
K)
+
) dans le cas constant.
3.6 Le crochet
Soit M une martingale continue de carre integrable. On admet quil existe
un processus croissant A tel que M
2
t
A
t
est une martingale. On note A
t
=
M, M)
t
= M)
t
ce processus que lon appelle le crochet de M.
Exercice 3.6.1 Calcul de crochets.
44 Ito.
1. Calculer M) pour M = B.
2. Calculer M) pour M
t
=
_
t
0

s
dB
s
Exercice 3.6.2 Crochet de martingales. Soit M et N deux martingales.
On pose, par analogie avec 2ab = (a +b)
2
a
2
b
2
2M, N) = M +N, M +N) M, M) N, N)
Montrer que MN M, N) est une martingale.
Exercice 3.6.3 Utilisation de crochets. Ecrire la formule dIto en utilisant
le crochet.
3.7 Finance
Exercice 3.7.1 Dans un marche incomplet, il existe des actifs contingents du-
plicables. En particulier, montrer que
_
T
0
(aS
s
+ b)ds est duplicable lorsque S
est un processus dIto.
Exercice 3.7.2 Equation devaluation. Soit dS
t
= rS
t
dt + S
t
(t, S
t
)dB
t
,
o` u r est une constante.
1. Montrer que E((S
T
)[T
t
) est une martingale pour toute fonction borelienne
bornee.
2. Justier que E((S
T
)[T
t
) = E((S
T
)[S
t
)
3. Soit (t, x) la fonction denie par (t, S
t
) = E((S
T
)[S
t
). Ecrire dZ
t
avec
Z
t
= (t, S
t
).
4. En utilisant que (t, S
t
) est une martingale, et en admettant que est
C
1,2
, montrer que pour tout t > 0 et tout x > 0:

t
(t, x) +rx

x
(t, x) +
1
2

2
(t, x)x
2

x
2
(t, x) = 0 .
Quelle est la valeur de (T, x)?
Exercice 3.7.3 Options Europeennes et Americaines. On rappelle linegalite
de Jensen : si est une fonction convexe et ( une tribu, E((X)[()
(E(X[()).
On admettra que si est un temps darret borne par T et Z une sous-martingale,
E(Z
T
) E(Z

). On note dS
t
= S
t
(rdt +
t
dW
t
) le prix dun actif o` u
est un processus adapte borne. Soit C = E(e
rT
(S
T
K)
+
) le prix dun
call Europeen et C
Am
= sup

E(e
r
(S

K)
+
) le prix dun call Americain,
le sup etant pris sur tous les temps darret `a valeurs dans [0, T]. On note
P = E(e
rT
(Ke
rT
S
T
)
+
) et P
Am
= sup

E(e
r
(Ke
r
S

)
+
) les prix de
puts `a strike actualises.
Enonces. 2005-06 45
1. Montrer que (e
rt
S
t
K)
+
est une sous-martingale.
2. Soit g une fonction convexe de classe C
2
telle que g(0) = 0. Montrer que
x, 1, g(x)
1

g(x)
En deduire que
E(e
ru
g(S
u
)[T
t
) E(e
rT
g(S
T
)[T
t
)
pour tout t < u T. Montrer que C = C
Am
.
3. Montrer que P = P
Am
.
Exercice 3.7.4 Volatilite stochastique Soit r un reel et (
t
, t 0) un pro-
cessus aleatoire (T
t
) adapte tel que
1

t

2
o` u
1
et
2
sont des constantes.
1. On note 1
1
la fonction 1
1
(t, x) denie par 1
1
(t, x) = e
r(Tt)
E(h(X
T
)[X
t
=
x) lorsque dX(t) = X(t)(rdt +
1
dB
t
). Montrer que e
rt
1
1
(t, X
t
) est une
martingale.
2. Ecrire l EDS veriee par le processus 1
1
(t, X
t
). En deduire que la fonction
1
1
satisfait une EDP. Dans la suite, on suppose 1
1
convexe en x.
3. Soit dS
1
(t) = S
1
(t)(rdt+
t
dW
t
). Ecrire la formule dIto pour e
rt
1
1
(t, S
t
).
En deduire e
rT
1
1
(t, S
T
) en fonction de e
rt
1
1
(t, S
t
), dune integrale en
dt dont on donnera le signe et dune integrale stochastique.
4. Montrer que e
rt
1
1
(t, S
t
) E(e
rT
h(S
T
)[T
t
) e
rt
1
2
(t, S
t
).
Exercice 3.7.5 Heath-Jarrow-Morton. Soit T xe et (r
t
, 0 t T) une
famille de processus (dependant du param`etre T) que lon notera, comme dans
toute la litterature sur les taux (r(t, T), 0 t T) telle que, pour tout T xe
dr(t, T) = (t, T)(t, T)dt +(t, T)dW
t
o` u

T
(t, T) = (t, T) .
1. On pose X
t
=
_
T+a
T
r(t, u)du. Montrer que lon peut ecrire
X
t
= X
0
+
_
t
0

s
ds +
_
t
0

s
dW
s
o` u on explicitera et .
2. En deduire la dynamique de Y
t
= exp X
t
.
46 Ito.
Exercice 3.7.6 Portefeuille de marche. On consid`ere un marche compor-
tant un actif sans risque de taux r et un actif risque de dynamique
dS
t
= S
t
(
t
dt +
t
dW
t
) .
Un portefeuille est un couple (, ) de processus adaptes et la valeur du porte-
feuille est le processus (V
t
, t 0)
V
t
=
t
S
0
t
+
t
S
t
.
Le portefeuille est dit autonancant si
dV
t
=
t
dS
0
t
+
t
dS
t
.
1. Montrer quun portefeuille autonancant est caracterise par le couple
(v, ) tel que
dV
t
= r
t
V
t
dt +
t
(dS
t
r
t
S
t
dt), V
0
= v .
On utilise tr`es souvent le processus H deni par
dH
t
= H
t
(r
t
dt +
t
dW
t
)
avec =

t
r
t

t
.
2. Montrer que M
t
= (H
t
)
1
est la valeur dun portefeuille autonancant
dont on precisera la valeur de et de . Ce portefeuille est appelle porte-
feuille de marche .
Exercice 3.7.7 Dividendes. Soit
dS
t
= S
t
([r ]dt +dW
t
), S
0
= x (3.3)
1. Montrer que S
t
= S
0
exp(at +cW
t
) o` u on explicitera a, c. Montrer que
S
t
e
rt
= E(S
T
e
rT
+
_
T
t
S
s
e
rs
ds[T
t
)
,
.
2. Montrer quil existe tel que S

soit une Q-martingale.


3. On suppose que dY
t
= Y
t
(rdt + dW
t
), Y
0
= y. Soit une constante.
Montrer que Y

verie une equation du type (3.3) o` u lon precisera la


valeur de et de .
4. Calculer E((S
T
K)
+
).
Exercice 3.7.8 Assurance de portefeuille.
Enonces. 2005-06 47
1. Soit M une martingale telle que M
T
0. Montrer que M
t
0 pour
t < T. Cette propriete setend-elle au cas t > T? Si oui, donner une
demonstration, sinon, donner un contre exemple.
Soit un temps darret borne par T. On suppose que M

= 0. Montrer
qualors M
s
= 0 pour s [, T].
2. Soit V la valeur dun portefeuille autonancant dans un mod`ele Black-
Scholes. On rappelle que d(R
t
V
t
) =
t
R
t
V
t
dW
t
avec R
t
= e
rt
. Montrer
que si V
T
K alors V
t
e
r(Tt)
K. Montrer que sil existe < T tel
que V

= e
r(T)
K, alors V
t
= e
r(Tt)
K pour t [, T].
3. Un agent de richesse initiale x souhaite former un portefeuille tel que
V
T
> K. Quelle condition sur x cela implique til? Comment peut-il
realiser cet objectif? (on donnera plusieurs solutions)
Exercice 3.7.9 Soit dX
t
=
_
Y
t
T t
X
t
dW
t
et dY
t
= g
t
dB
t
+ dt. On note
C(T t, x, ) la fonction de Black-Scholes. Donner une relation entre g, pour
que C(T t, X
t
,
_
Y
t
T t
) soit une martingale.
Exercice 3.7.10 Calcul de E(exp
_
T
0
r
s
ds[T
t
) avec r
t
= f(t) +

2
2
t +W
t
Exercice 3.7.11 Question preliminaire Soit X et Y deux processus dIto conti-
nus (on ne precisera pas leur dynamique, cest inutile pour ce qui suit). Rappeler
la formule dintegration par parties pour d(XY ). En deduire que
X
t
d(
1
X
t
) +
1
X
t
dX
t
+dX,
1
X
)
t
= 0 .
On consid`ere un marche comportant deux actifs dont les prix sont des processus
dIto S
1
et S
2
tels que S
1
est strictement positif. Un portefeuille de valeur
V
t
=
1
t
S
1
t
+
2
t
S
2
t
est autonancant si
dV
t
=
1
t
dS
1
t
+
2
t
dS
2
t
.
On choisit comme numeraire le premier actif et on note

V
t
= V
t
/S
1
t
,

S
2
t
= S
2
t
/S
1
t
,
do` u

V
t
= V
t
/S
1
t
=
1
t
+
2
t

S
2
t
.
Le but de cet exercice est de montrer que la notion dautonancement ne depend
pas du choix de numeraire, cest-`a-dire que
dV
t
=
1
t
dS
1
t
+
2
t
dS
2
t
(3.4)
implique
d

V
t
=
2
t
d

S
2
t
. (3.5)
48 Equa. Di.
1. Calculer dV,
1
S
(1)
)
t
en fonction de dS
(1)
,
1
S
(1)
)
t
et dS
(2)
,
1
S
(1)
)
t
2. Montrer que dV
1
t
=
2
t
_
S
(2)
t
d
1
S
(1)
t
+
1
S
(1)
t
dS
(2)
t
+dS
(2)
,
1
S
(1)
)
t
_
3. Montrer que dV
1
t
=
2
t
d
_
S
(2)
t
S
(1)
t
_
.
Exercice 3.7.12 On consid`ere un marche dans lequel sont negocies trois actifs
Un actif sans risque dont la dynamique est dS
0
t
= S
0
t
rdt et DEUX actifs risques
dS
i
t
= S
i
t
(
i
dt +dW
t
)
avec
1
,=
2
et le meme mouvement Brownien uni-dimensionnel W. Les actifs
contingents sont choisis dans T
T
= (S
1
s
, S
2
s
, s T) = (W
s
, s T).
1. Montrer que le marche est complet.
2. Montrer que la marche admet des opportunites darbitrage.
3. Construire EXPLICITEMENT une telle opportunite darbitrage, cest-
`a-dire expliciter un triplet (
0
,
1
,
2
) de processus adaptes tels que le
portefuille associe soit autonancant et V
0
= 0, V
T
> 0. On pourra se
restreindre `a une OA statique, cest-`a-dire telle que (
0
,
1
,
2
) soient des
constantes.
Chapter 4
Equations dierentielles
stochastiques
4.1 Equation lineaire
Exercice 4.1.1 Soit , deux constantes et dX(t) =
1
2
X(t) dt +
1
2
dW(t).
Soit Y
t
= X
t
e
t/2
. Ecrire dY
t
. En deduire la forme de la solution X(t).
Exercice 4.1.2 Soit lEDS
dX
t
= bX
t
dt +dB
t
, X
0
= x.
1. On pose Y
t
= e
t
X
t
. Quelle est lEDS veriee par Y
t
? Exprimer Y
t
sous
la forme Y
t
= y +
_
t
0
f(s)dB
s
o` u lon explicitera la fonction f.
2. Calculer E(Y
t
) et E(Y
2
t
).
3. Justier que
_
t
0
Y
s
ds est un processus gaussien. Calculer E(exp[
_
t
0
Y
s
ds]).
4. Exprimer Y
t
pour t > s sous la forme Y
t
= Y
s
+
_
t
s
g(u)dB
u
o` u lon
explicitera la fonction g. Calculer E(Y
t
[T
s
) et Var (Y
t
[T
s
)
5. Calculer E(X
t
[T
s
) et Var (X
t
[T
s
).
Exercice 4.1.3 Soit
d
t
= (1 r
t
)dt +
t
dW
t
Soit u une solution de

2
2
x
2
u

(x) + (1 rx)u

(x) u(x) = 0
49
50 Equa. Di.
On denit x

comme solution de x

(x

) = u(x

) et v(x) =
x

u(x

)
u(x). On
admettra que v

(x) 0.
Soit enn V denie par
_
V (x) = v(x), 0 x x

= x, x > x

Montrer que 1 (r +)x

0.
Ecrire la formule dIto pour e
t
V (
t
). Il apparait un terme LV (x) (x)
avec
LV (x) = (1 rx)V

(x) +

2
2
x
2
V

(x)
Montrer que sur x > x

on a LV (x) V (x) 0 et que sur x x

, on a
LV (x) V (x) = 0
En deduire que
V (
0
)

E(e
T
V (
T
))
(en admettant que lintegrale stochastique est une martingale).
Exercice 4.1.4 Preliminaire. Soit a, , b, quatre constantes reelles. Soit
x IR.
On consid`ere lequation dierentielle stochastique
dX
t
= (a +X
t
) dt + (b +X
t
) dB
t
(4.1)
X
0
= x
1. Montrer que (4.1) admet une solution unique.
2. On note m(t) = E(X
t
) et M(t) = E(X
2
t
).
(a) Montrer que m(t) est lunique solution de lequation dierentielle
ordinaire
y

y = a (4.2)
y(0) = x
(b) Ecrire la formule dIto pour X
2
t
o` u X
t
est solution de (4.1).
(c) En deduire que M(t) est lunique solution de lequation dierentielle
ordinaire
y

(2 +
2
) y = 2(a +b)m+b
2
(4.3)
y(0) = x
2
o` u m est la solution de (4.2). (On admettra que lintegrale stochas-
tique qui intervient est une martingale)
(d) Resoudre (4.2) puis (4.3).
Enonces. 2005-06 51
Exercice 4.1.5 Cas particulier 1.
1. Soit (Y
t
)
t0
lunique solution de lequation (4.1) quand a = b = 0 veriant
Y
0
= 1.
Montrer que
Y
t
= exp (
1
2

2
)t +B
t
.
2. Montrer que si 0, Y est une sous-martingale par rapport `a la ltration
(T
t
).
A quelle condition sur , Y est elle une martingale?
3. Soit (Z
t
)
t0
le processus deni par
Z
t
= x + (a b)
_
t
0
Y
1
s
ds +b
_
t
0
Y
1
s
dB
s
.
Montrer que (Z
t
)
t0
est un processus dIto. Calculer < Y, Z >
t
.
En deduire que la solution X
t
de (4.1) peut secrire X
t
= Y
t
Z
t
.
Exercice 4.1.6 Cas particulier 2. On se place dans le cas a = = 0
dX
t
= X
t
dt +b dB
t
(4.4)
X
0
= x.
1. Montrer que lunique solution de (4.4) secrit
X
t
= e
t
(X
0
+b
_
t
0
e
s
dB
s
) .
(On pourra utiliser lexercice precedent ou poser Y
t
= e
t
X
t
et resoudre
lequation verifee par Y .
2. Montrer que X est un processus gaussien, calculer son esperance et sa
variance.
3. Justier que
_
t
0
X
s
ds est un processus gaussien. Calculer E
_
exp[
_
t
0
X
s
ds]
_
.
4. Calculer E(X
t
[T
s
) et Var (X
t
[T
s
).
5. Soit X
t
solution de (4.4), et une fonction de classe C
2
. Ecrire la formule
dIto pour Z
t
= (X
t
).
En deduire que si (x) =
_
x
0
exp(
y
2
b
2
) dy, alors
Z
t
= b
_
t
0
exp(
B
2
s
b
2
) dB
s
Z
t
est-elle une martingale de carre integrable?
52 Equa. Di.
6. Soit xe. Calculer
(t, y) = E(e
X
2
t
) .
Soit t xe. Etudier la martingale E(e
X
2
t
[T
s
) , s t.
Montrer que est solution dune equation aux derivees partielles. Soit
(t, x) = ln(t, x). Montrer que
(t, x) = x
2
a(t) +b(t), avec a

(t) = a(t)(2 +b
2
a(t)), b

(t) = b
2
a(t) .
Exercice 4.1.7 Cas particulier 3. On se place dans le cas a = = 0
dX
t
= (b +X
t
)dB
t
(4.5)
X
0
= x
o` u x ,=
b

. Soit h la fonction denie par


h(y) =
1

ln[
b +y
b +x
[
pour y ,=
b

1. On pose Y
t
= h(X
t
). Quelle est lequation veriee par Y
t
?
2. En deduire que la solution de (4.5) secrit
X
t
= (x +
b

) exp(

2
2
t +B
t
)
b

Exercice 4.1.8 Cas particulier 4. On se place dans le cas a = 1, b = 0. On


pose Y
t
= e
t
X
t
. Quelle est lequation dierentielle veriee par Y ?
Calculer E(X
t
) et Var (X
t
).
Exercice 4.1.9 Soit f, F, g, G des fonctions continues bornees. On note X la
solution de
dX
t
= [f(t) +F(t)X
t
]dt + [g(t) +G(t)X
t
]dW
t
, X
0
= x
et Y la solution de
dY
t
= F(t)Y
t
dt +G(t)Y
t
dW
t
, Y
0
= 1
1. Expliciter Y .
2. Soit Z deni par
Z
t
= x +
_
t
0
Y
1
s
[f(s) G(s)g(s)]ds +
_
t
0
Y
1
s
g(s)dW
s
.
Montrer que X = Y Z.
Enonces. 2005-06 53
3. Soit m(t) = E(X
t
) et M
t
= E(X
2
t
). Montrer que m est lunique solution
de y

(t) F(t)y(t) = f(t), y(0) = x. En deduire


m(t) = exp(

F(t))
_
x +
_
t
0
exp

F(s)f(s)ds
_
o` u

F(t) =
_
t
0
F(s)ds. Montrer que M est lunique solution de
Y

(t) [2F(t) +G
2
(t)]y(t) = 2[f(t) +g(t)G(t)]m(t) +g
2
(t), y(0) = x
2
Exercice 4.1.10 Calculer esperance et variance de X
t
avec
dX
t
= a(b X
t
)dt +
_
X
t
dW
t
Exercice 4.1.11 Soit 0 < s < T et m IR. Verier que la solution de
dX
t
=
(s T)X
t
+mT
(s T)t +T
2
dt +dB
t
est
X
t
=
m
T
t + [(ss T)t +T
2
]
_
t
0
dB
u
(s T)u +T
2
Exercice 4.1.12 Soit un processus adapte (de carre integrable), , et r
des processus adaptes (bornes), c un processus positif, adapte, borne et X la
solution de
dX
x,,c
t
= r
t
X
x,,c
t
dt c
t
dt +
T
t

t
[dW
t
+
t
dt] (4.6)
X
x,,c
(0) = x
On note H le deateur, soit H
t
= exp
_
_
t
0
r
s
ds +
_
t
0

s
dW
s

1
2
_
t
0

2
ds
_
=
L
t
_
t
0
r
s
ds .Montrer que les processus H
t
X
t
+
_
t
0
H
s
c
s
ds, t 0 et L
t
(X
t
R
t
+
_
t
0
cR
s
ds) sont des martingale. Verier que leur dierence est une martingale.
Exercice 4.1.13 Calculer E(exp(X
T
)) pour
dX
t
= ( X
t
V
t
)dt +
_
V
t
dW
1,t
dV
t
= k( V
t
)dt +
_
V
t
dW
2,t
Exercice 4.1.14 On consid`ere lequation
dX
t
= 11
X
t
0
dW
t
, X
0
= x. (4.7)
On suppose quil existe une solution.
1. Verier que, pour x = 0, la solution de (4.7) nest pas identiquement nulle.
54 Equa. Di.
2. Verier que, pour x 0, la solution est `a valeurs positives. On pourra
montrer, en utilisant la formule dIto, que si f est une fonction reguli`ere,
nulle sur IR
+
, alors f(X
t
) est nulle.
3. Montrer que la solution issue de 0 est desperance nulle `a tout instant t.
4. Que peut on en conclure?
Exercice 4.1.15 Soit
dS
t
= (S
t
)dt +(S
t
)dW
t
o` u et
2
(le carre de ) sont des fonctions anes : (x) =
0
+
1
x;
2
(x) =

0
+
1
x. On souhaite montrer que pour toute fonction ane (x) =
0
+
1
x,
pour tout , il existe deux fonctions et telles que,
E
_
e
S
T
exp
_

_
T
t
(S
s
)ds
_
[T
t
_
= e
(t)+(t)S
t
.
1. Montrer quil sut detablir lexistence de deux fonctions et telles que
le processus
e
(t)+(t)S
t
exp
_

_
t
0
(S
s
)ds
_
est une martingale avec (T) = 0, (T) = .
2. Montrer que la determination de et conduit `a la resolution dune
equation de Ricatti (type dequation dierentielle non lineaire) et dune
equation dierentielle lineaire. On ne demande pas la resolution de ces
equations.
3. Generaliser le resultat au cas o` u dS
t
= (S
t
)dt + (S
t
)dW
t
+ dX
t
o` u
(X
t
, t 0) est un processus de Poisson.
Exercice 4.1.16 Soit 0 < s < T et m IR. Verier que la solution de
dX
t
=
(s T)X
t
+mT
(s T)t +T
2
dt +dW
t
, X
0
= 0
est
X
t
=
m
T
t + [(s T)t +T
2
]
_
t
0
dW
u
(s T)u +T
2
4.2 Finance
Exercice 4.2.1 Options Asiatiques. Soit S
t
solution de
dS
t
= S
t
(r dt + dB
t
)
les param`etres r et etant constants.
Enonces. 2005-06 55
1. Soit K une constante. Montrer que le processus M
t
= E
_
(
1
T
_
T
0
S
u
du K)
+
[T
t
_
est une martingale.
2. Montrer que, si lon pose
t
= S
1
t
(K
1
T
_
t
0
S
u
du), on a
M
t
= S
t
E
_
[
1
T
_
T
t
S
u
S
t
du
t
]
+
[T
t
_
.
3. Soit (t, x) = E
_
[
1
T
_
T
t
S
u
S
t
du x]
+
_
. Montrer que (t, x) = E
_
[
1
T
_
T
t
S
u
S
t
du x]
+
[T
t
_
et que M
t
= S
t
(t,
t
).
4. Ecrire la formule dIto pour M. En deduire une equation aux derivees
partielles veriee par .
Exercice 4.2.2 Black et Scholes, volatilite deterministe. Soit une fonc-
tion deterministe continue et r une constante et (S
t
, t 0) la solution de
dS
t
= S
t
(r dt +(t) dB
t
) , S
0
= x
1. Montrer que
S
t
= S
0
exp
_
rt +
_
t
0
(s) dB
s

1
2
_
t
0

2
(s) ds
_
2. Montrer que
_
t
0
(s) dB
s

1
2
_
t
0

2
(s) ds est une variable gaussienne dont
on calculera lesperance et la variance.
3. On rappelle que dans le cas constant, le prix dun call est donne par
C(0, x) = x^(d
1
) Ke
rT
^(d
2
)
avec
d
1
=
1

T
_
ln(
x
K
) +T(r +

2
2
)
_
, d
2
= d
1

T
En deduire (sans faire de calculs) que, dans le cas de volatilite deterministe,
la formule de Black et Scholes secrit
E((S
T
K)
+
) = x^(D
1
) Ke
rT
^(D
2
)
Exprimer D
1
et D
2
.
56 Equa. Di.
Exercice 4.2.3 La formule de Dupire. Soit
dS
t
= S
t
(rdt +(t, S
t
)dW
t
)
o` u est une fonction de IR
+
IR
+
dans IR et f(t, x) la densite de S
t
, soit
f(t, x) = P(S
t
dx). ON admettra que

t
f
1
2

xx
_
x
2

2
(t, x)f(t, x)

+
x
[rxf] = 0
On note C(K, T) le prix en zero dun call Europeen de strike K et de maturite
T. On note
1
C,
2
C,
11
C les derivees partielles de C par rapport `a la premi`ere
variable, seconde variable, derivee seconde par rapport `a la premiere variable.
1. Montrer que
11
C(K, T) = e
rT
f(T, K).
2. Montrer que
1
2

2
x
2
_
x
2

2
(t, x)f(t, x)

= e
rt

2
x
2
(rx

x
C) +e
rt

2
x
2
C
t
3. En deduire
1
2
x
2

2
(t, x)

2
C
x
2
(t, x) = rx
C
x
(x, t) +
C
t
(t, x)
4.3 Equations dierentielles
Exercice 4.3.1 Soit une constante et
dX
t
=
2
X
2
t
(1 X
t
)dt +X
t
(1 X
t
)dW
t
(4.8)
la condition initiale etant X
0
= x avec x ]0, 1[. On admet que X prend ses
valeurs dans lintervalle ]0, 1[. On pose Y
t
=
X
t
1 X
t
.
1. Quelle est lequation dierentielle stochastique veriee par Y ?
2. En deduire que X
t
=
x exp(W
t

2
t/2)
x exp(W
t

2
t/2) + 1 x
.
Exercice 4.3.2 Produit dexponentielle. Soit W un MB et h un pro-
cessus adapte borne. On note c(hW)
t
def
= L
t
lunique solution de dL
t
=
L
t
h
t
dW
t
, L
0
= 1. Etablir une formule du type c(h
1
W
1
+h
2
W
2
)
t
= X
t
c(h
1
W
1
)
t
c(h
2
W
2
)
t
o` u X est `a determiner.
Exercice 4.3.3 Soit W un mouvement Brownien issu de a > 0 et T
0
= inft :
W
t
= 0. Pour t < T
0
, on denit X
t
= (W
t
)

. Montrer que, pour t < T


0
,
dX
t
= b(X
t
) dt +(X
t
) dW
t
2005-06 57
o` u on explicitera b et . En deduire la forme de la solution de dY
t
= Y
n
t
dW
t
+
1
2
nY
2n1
t
dt, Y
0
= y 0 avant le premier temps datteinte de 0. (On admettra
lunicite de la solution).
Exercice 4.3.4 Ponts
1. Soit N une gaussienne reduite centree independante de B. Verier que la
solution de dX
t
= dB
t
+
N X
t
1 t
dt est X
t
= tN + (1 t)
_
t
0
1
1 s
dB
s
.
En deduire que X est un processus gaussien, dont on calculera lesperance
et la covariance.
2. Soit W un MB independant de B. Verier que la solution de dX
t
=
dB
t
+
W
t
X
t
1 t
dt est X
t
= (1 t)
_
t
0
W
s
(1 s)
2
ds + (1 t)
_
t
0
1
1 s
dB
s
.
En deduire que X est un processus gaussien, dont on calculera lesperance
et la covariance.
58 Exemples. Enonces
Chapter 5
Exemples
Dans tout ce chapitre, B (ou W) est un mouvement Brownien dont la ltration
est notee (T
t
).
5.1 Processus de Bessel
Exercice 5.1.1 Soit B
1
et B
2
deux mouvements Browniens independants et
Z
t
= B
2
1
(t) +B
2
2
(t) .
1. Ecrire lEDS veriee par Z
t
.
2. On pose Y
t
=

Z
t
. Ecrire lEDS veriee par Y
t
.
3. Ecrire lEDS veriee par 1/Y
t
.
Exercice 5.1.2 Formule dIto On consid`ere les processus de la forme
dr
t
= dt + 2

r
t
dB
t
(5.1)
On admet que r
t
0 presque partout (par rapport `a t et `a .)
1. Soit f(t, x) une fonction de C
1,2
b
. Quelle condition doit verier la fonction
f pour que f(t, r
t
) soit une martingale ?
2. Soit Z
t
= r
2
t
et
t
=

r
t
. Ecrire les EDS veriees par Z
t
et par
t
.
3. Soit dr
1
t
=
1
dt +2

r
t
dB
1
t
et dr
2
t
=
2
dt +2

r
t
dB
2
t
deux processus, avec
B
1
et B
2
deux browniens independants. On admettra que r
1
et r
2
sont
independants. On note R le processus deni par R
t
= r
1
t
+ r
2
t
. Montrer
que R secrit sous la forme (5.1).
59
60 Exemples. Enonces
Exercice 5.1.3 Processus de Bessel de dimension 3. Soit R le processus
solution de
dR
t
=
1
R
t
dt +dW
t
, R
0
= 1 .
1. Montrer que Z
t
=
1
R
t
est une martingale locale.
2. Montrer que (U
t
= exp(

2
t
2
)
sinhR
t
R
t
, t 0) est une martingale locale.
On admetra que cest une martingale.
3. En deduire la valeur de E(exp(

2
T
m
2
) o` u T
m
= inft : R
t
= m, avec
m > 0.
4. Soit f une fonction continue bornee et a un nombre reel. Quelles condi-
tions doit verier la fonction v pour que
v(R
t
) exp[at
_
t
0
f(R
s
)ds]
soit une martingale?
5. Supposons que v est explicitee. Comment calculerez vous
E(exp[aT
m

_
T
m
0
f(R
s
) ds]) ?
Exercice 5.1.4 Processus de Bessel de dimension 2. Soit dR
t
= dW
t
+
1
2R
t
dt.
1. Montrer que Z
t
= lnR
t
est une integrale stochastique par rapport `a W.
2. Soit un nombre reel positif. Montrer que L
t
= [R
t
]

exp(

2
2
_
t
0
ds
R
2
s
)
est une martingale locale.
Exercice 5.1.5 Processus de Bessel de dimension . Soit dR
t
= dB
t
+
1
2R
t
dt.
1. Pour quelles fonctions s le processus s(R
t
) est-il une martingale locale?
2. Quelle est la dynamique de Y
t
= R
2
t
?
3. Montrer que Z
t
def
= exp(

2
(Y
t
t)

2
2
_
t
0
Y
u
du) est une martingale.
4. Soit dQ = ZdP. Quelle est la dynamique de Y sous Q?
Exercice 5.1.6 Minimum dun Bessel
Quelle est la loi de inf
st
X
s
lorsque X est un processus de Bessel?
2005-06 61
5.2 Processus de Bessel carre
Exercice 5.2.1 Soit , deux constantes et dX(t) =
1
2
X(t) dt +
1
2
dW(t).
Soit Y
t
= X
t
e
t/2
. Ecrire dY
t
.
1. En deduire la forme de la solution X(t).
2. On suppose que (W
1
, W
2
, . . . , W
n
) sont des Browniens independants et
on note X
i
la solution de dX
i
(t) =
1
2
X
i
(t) dt +
1
2
dW
i
(t). Soit r le
processus deni par r(t) = X
2
1
(t) +. . . +X
2
n
(t).
3. Montrer que le processus B deni par B(0) = 0 et dB(t) =
n

i=1
X
i
(t)dW
i
(t)

r
t
est un mouvement Brownien.
4. Montrer que dr
t
= (a br
t
) dt +

r
t
dB
t
Exercice 5.2.2 Processus de Bessel carre. Soit x 0 et R un processus
tel que
dR
t
= dt + 2
_
[R
t
[dW
t
, R
0
= x (5.2)
On admettra que R
t
existe et que R
t
0.
1. Soit Z
t
= (W
t
)
2
. Montrer que Z verie une equation de la forme (5.2).
Quelle est la valeur de correspondante?
2. Soit W
1
un mouvement Brownien independant de W et Z
1
t
= (W
t
)
2
+
(W
1
t
)
2
. Montrer que Z
1
verie une equation de la forme (5.2). Quelle est
la valeur de correspondante? Generalisation `a la somme des carres de n
Browniens independants.
3. Soit
t
=

R
t
. Montrer que d
t
= b(t,
t
, )dt +dW
t
. On explicitera b.
4. Soit W
1
un mouvement Brownien independant de W. On note R
()
(x) le
processus deni en (5.2) et, pour y 0, le processus R
()
(y) solution de
dR
()
t
= dt + 2
_
R
t
()dW
1
t
, R
()
0
= y (5.3)
On notera simplement R
()
t
et R
()
t
ces deux processus. On supposera que
les processus R
()
t
et R
()
t
ne sannulent pas et on admettra quils sont
independants.
(a) Soit X
t
= R
()
t
+R
()
t
. Calculer dX
t
.
62 Exemples. Enonces
(b) Montrer que le processus Z deni ci-dessous est un mouvement Brown-
ien
dZ
t
=
_
R
()
t
dW
t
+
_
R
()
t
dW
1
t
_
R
()
t
+R
()
t
(c) En deduire que X
t
= R
()
t
+R
()
t
verie
dX
t
= dt + 2
_
X
t
dZ
t
On explicitera en fonction de et .
5. (a) On suppose que lon connat E(R
()
t
) = m() et Var(R
()
t
) = v()
pour tout . Exprimer E(X
t
) et Var(X
t
) en fonction de m et v.
(b) On admet que, si W est un brownien issu de

x (voir exo 2.1.11)
E(exp(W
t
)
2
) =
1

1 + 2t
exp(
x
1 + 2t
) (5.4)
Comment calculer E(exp[
(1)
t
]
2
), E(expR
(1)
t
(x)) et E(expR
(2)
t
(x)) ?.
On utilisera la question (d) et lindependance de R
()
t
et R
()
t
.
6. Montrer que
E(expR
()
t
(x)) = E(expR
(1)
t
(x))
_
E(expR
(1)
t
(0))
_
1
Calculer E(expR
()
t
(x)).
7. Comment demontrer lindependance de R
()
t
et R
()
t
?
Comment demontrer (5.4) ?
Exercice 5.2.3 Processus de Bessel carre. Soit X un BESQ
()
(x).
1. Montrer que (
1
c
X
ct
, t 0) est un BESQ
()
(x/c).
2. Monter que, si F est un processus adapte
Z
t
= exp
1
2
_
t
0
F
s
d(X
s
s)
1
2
_
t
0
F
2
s
X
s
ds
est une martingale locale.
3. Montrer que si F est deterministe, derivable
Z
t
= exp
1
2
F(t)X
t
F(0)X
0

_
t
0
F(s)ds
1
2
_
t
0
F
2
s
X
s
ds +X
s
dF(s)
2005-06 63
4. Soit solution de

= b
2
, (0) = 1,

(1) = 0
Montrer que Z
t
= exp
1
2
F(t)X
t
F(0)X
0
ln(t)
b
2
2
_
t
0
X
s
ds. On
admettra que Z est une martingale.
5. En deduire que
Q
()
x
(exp
1
2
_
1
0
X
s
ds) = (cosh b)
/2
exp(xb tanhb)
Exercice 5.2.4 En utilisant que
sup
1t1
[W
t
[
loi
=
1
2
_
1
0
ds
R
(2)
s
o` u R
(2)
s
= B
s
+
1
2
_
s
0
du
R
(2)
u
montrer que E sup
1t1
([W
t
[) =
_
/2.
Exercice 5.2.5 Application du theor`eme de Lamperti The following absolute
continuity relation between two BES processes (with 0)
P
()
x
=
_
R
t
x
_

exp
_

2
2
_
t
0
ds
R
2
s
_
P
(0)
x
where P
()
is the law of a BES with index . On utilisera
W
()
[T
t
= exp(W
t


2
2
t)W[T
t
et (R
t
; t 0)
loi
= xexp(B
C
t
+C
t
)
Exercice 5.2.6 Soit dX
t
= 2

X
t
dW
t
+(t)dt o` u est une fonction (continue
bornee). On veut calculer
A = E
t,x
_
exp
_

1
2
_
T
t
X
u
m(u)du
_
f(X
T
)
_
1. On se place dans le cas f = 1, et on note la solution de

uu
(u, T) = m(u)(u, T) ;
u
(T, T) = 0
Montrer que
E
t,x
_
exp
_

1
2
_
T
t
X
u
m(u)du
__
= exp
_

u
(t, T)
2(t, T)
x
_
exp
_
1
2
_
T
t

u
(s, T)
(s, T)
(u)du
_
2. Montrer que le calcul de A se ram`ene au calcul de la solution dune EDP.
64 Exemples. Enonces
5.3 Autres processus.
Exercice 5.3.1 Processus dIngersoll. Soit a < z < b et Z le processus
solution de
dZ
t
= (Z
t
a)(b Z
t
)dW
t
, Z
0
= z
On admet que pour tout t, le processus Z verie a < Z
t
< b.
1. Calculer d(Z
1
t
).
2. soit
t
def
=
Z
t
a
b Z
t
. Calculer d
t
puis d(ln
t
).
3. Soit X
t
= (b Z
t
)g(t,
t
). Donner une condition sur g pour que X soit
une martingale. Sauriez vous resoudre lequation obtenue ?
4. Soit Y solution de
dY
t
= (Y
t
a)(b Y
t
)
2
dt + (Y
r
a)(b Y
t
)dW
t
Montrer quil existe une probabilite Q que lon determinera telle que, sous
Q Y ait meme loi que Z sous P.
Exercice 5.3.2 Un processus stationnaire. Soit X veriant dX
t
= aX
t
dt+
dW
t
, X
0
v.a. donnee.
1. Explicitez X
t
.
2. Montrer que si X
0
est une v.a. gaussienne independante de W, le processus
X est un processus gaussien.
3. On suppose que X
0
est gaussienne, independante de W. Determiner la loi
de X
0
pour que la loi de la v.a. X
t
ne depende pas de t.
Exercice 5.3.3 Soit X solution de (on admet que X existe)
dX
t
= X
t
(1 X
t
) (( X
t
)dt +dW
t
) , X
0
= x
Soit h
0
(x) =
_
1x
x
_
21
et h
1
(x) = 2
ln(1x)ln x
(21)
et = inft 0, S
t
, [a, b].
1. Montrer que h
0
(X
t
) et h
1
(X
t
) t sont des martingales.
2. Montrer que P(X

= a) =
h
0
(x)h
0
(b)
h
0
(a)h
0
(b)
et calculer E().
5.4 Des calculs
Exercice 5.4.1 Un calcul de probabilite. On suppose connue
(a, T) = P(W
t
at , t T)
2005-06 65
Soit W
1
et W
2
deux MB independants et
dX
t
= X
t
(rdt +
1
dW
1
(t)), X
0
= 1
dY
t
= Y
t
(rdt +
2
dW
2
(t)), Y
0
= 1
Calculer, en fonction de la quantite P(X
t
Y
t
, t T).
Exercice 5.4.2 Un calcul de loi Let dX
t
= (t)dt +(t)dW
t
, X
0
= 0 where
and are piece wise constant over known time.
Let us restrict our attention to the case
(t) = t [0, 1[, (t) =
1
t [1, [,
(t) = t [0, 1[, (t) =
1
t [1, 2[/, .
Describe the distribution of Y
t
= max
0st
X
s
.
Exercice 5.4.3 Montrer que la solution de
dC
t
= C
t
_
r
t
dt +m(
dS
t
S
t
r
t
dt)
_
avec dS
t
= S
t
(
t
dt +
t
dW
t
) secrit sous la forme
C
t
= C
0
_
S
t
S
0
exp[a
_
t
0
r
s
ds +b
_
t
0

2
s
ds]
_
m
o` u on explicitera a et b.
Exercice 5.4.4 Changement de temps Soit dX
t
= X
t
dt + dW
t
et =
inft : [X
t
[ > g(t) o` u g est une fonction deterministe. Exprimer P( > t) en
fonction de (u) = P(

> u) avec

= inft : [W
t
[ > h(t).
66 Girsanov. Enonces
Chapter 6
Girsanov
Dans tous ces exercices, B (ou W) designe un P-mouvement Brownien issu de
0, T
t
sa ltration canonique.
6.1 Resultats elementaires.
Exercice 6.1.1 Changement de probabilite Soit (
t
, t 0) un processus
adapte continu borne et L
t
= exp[
_
t
0

s
dB
s

1
2
_
t
0

2
s
ds]. Soit Q la probabilite
denie sur T
T
par dQ = L
T
dP. Soit (
t
, t 0) un processus adapte continu
borne et M
t
=
_
t
0

s
dB
s

_
t
0

s
ds. Montrer que M
t
est une Q-martingale.
On pose Z
t
= M
t
L
t
. Calculer dZ
t
. Montrer que Z
t
est une P-martingale locale.
Pouvait-on prevoir ce resultat.
Exercice 6.1.2 Un calcul desperance. Soit un processus adapte borne
et H le processus deni par dH
t
= H
t

t
dW
t
, H
0
= 1. On note dQ[
F
t
=
H
t
dP[
F
t
. Montrer que E
P
(H
T
lnH
T
) = E
Q
(
1
2
_
T
0

2
s
ds). On pourra faire une
demonstration `a la main (quand est deterministe) ou utiliser le theor`eme de
Girsanov.
Exercice 6.1.3 Calcul desperance. Soit p une fonction deterministe donnee.
Pour quelles fonctions h et k le processus exp(h(t) + k(t)W
2
t
+
_
t
0
p(s)W
2
s
ds)
est-il une martingale. Applications :
1. Calculer E[exp(W
2
T
+
_
T
0
p(s)W
2
s
ds]
2. Calculer E[exp(W
2
T
+
_
T
0
p(s)W
2
s
ds)(A+BW
T
)]
67
68 Girsanov. Enonces
Exercice 6.1.4 Ito+ Girsanov. Soit le processus solution de d
t
=
t
(
t
dt+

t
dW
t
),
0
= 1 o` u et sont des processus F adaptes bornes.
1. Montrer que
t
exp
_

_
t
0

s
ds
_
est une martingale locale.
2. Trouver une probabilite Q telle que
t
soit une Q-martingale locale.
3. Calculer d
1
. Trouver une probabilite R telle que
1
t
soit une R-
martingale locale.
Exercice 6.1.5 Longstas Model. Soit r
t
= Y
2
t
avec dY
t
= dW
t
(Y
t
+

2
)dt.
1. Donner la dynamique de r.
2. Soit f et g deux fonctions deterministes (que lon supposera continues
bornees). Exprimer
E(exp
_
t
0
[f(s)W
s
+g(s)]dW
s

1
2
_
t
0
[f
2
(s)W
2
s
+ 2W
s
f(s)g(s)]ds)
en fonction de exp
1
2
_
t
0
g
2
(s)ds.
3. Montrer que le calcul de E(exp
_
t
0
r
s
ds) se deduit du calcul de lexpression
precedente avec des fonctions f et g veriant des conditions que lon
precisera.
Exercice 6.1.6 Loi conditionnelle. Soit t > s. Montrer que la densite
P(B
t
+t dy[B
s
+s = x)
ne depend pas de .
Exercice 6.1.7 Loi du sup. On supposera que lon connait la loi du couple
(B

t
, B
t
) o` u pour un processus X on note
X

t
= sup
st
X
s
.
Montrer comment calculer la loi de (L

t
, L
t
) pour L
t
= exp(B
t


2
2
t).
Exercice 6.1.8 Loi de quantiles
2005-06 69
1. Soit F et G deux fonctionnelles denies sur C([0, 1], IR). Montrer que lon
a equivalence entre
(i) t, IR, F(X
s
, s t)
loi
= G(X
s
, s t) le processus X etant un
Brownien de drift
(ii) t, F(X
s
, s t)
loi
= G(X
s
, s t) le processus X etant un Brownien.
2. Soit A
t
=
_
t
0
ds11
X
s
0
et
t
= sups t : sup
us
X
u
= X
s
. Montrer
que
A
t
loi
=
t
, lorsque le processus Xest un mouvement Brownien de drift
equivaut `a
A
1
loi
=
1
, lorsque le processus Xest un mouvement Brownien
3. Soit X un mouvement Brownien. Montrer que si E(f(X
1
, A
1
)11
X
1
>0
) =
E(f(X
1
,
1
)11
X
1
>0
), alors X
1
, A
1
loi
= (X
1
,
1
).
La preuve de la premi`ere assertion peut etre trouvee dans Embrechts et al.
6.2 Crochet.
Exercice 6.2.1 Girsanov Soit M une P-martingale et dQ = exp(M
t

1
2
M)
t
) dP.
Montrer que si N est une P martingale, N < N, M > est une Q martingale.
Exercice 6.2.2 h-processus. Soit X tel que dX
t
= dt +dW
t
, X
0
= x et h
une fonction de classe C
1
telle que h(X
t
) est une martingale positive. On note
Q la probabilite denie par dQ[
F
t
=
h(X
t
)
h(x)
dP[
F
t
. Soit M une P-martingale.
Montrer que M
t

_
t
0
h

(X
s
)
h(X
s
)
dM, X)
s
est une Q-martingale.
6.3 Processus.
Exercice 6.3.1 Processus de Bessel. Soit P la probabilite historique, et
deux processus. On note P

la probabilite telle que le processus W

deni
par W

t
def
= W
t

_
t
0
(s)ds soit un mouvement Brownien et P

la probabilite
telle que W

def
= W
t

_
t
0
(s)ds soit un mouvement Brownien.
1. Quelles sont les densites L

=
dP

dP
et L

=
dP

dP
?
70 Girsanov. Enonces
2. Soit L =
L

. Expliciter L en fonction de W puis en fonction de W

. A
quel changement de probabilite type Girsanov correspond L?
3. Soit R le processus solution de
dR
t
=
1
R
t
dt +dW
t
, R
0
= 1
(a) Montrer que
_
t
0
dR
s
R
s
= lnR
t
+
1
2
_
t
0
1
R
2
s
ds
(b) Soit un processus adapte borne et L
t
= exp(
_
t
0
(s)dW(s)
1
2
_
t
0

2
(s)ds).
On notera Q la probabiite denie par dQ = L
t
dP.
Comment choisir pour que, sous Q
dR
t
=
1
R
t
dt +d

W
t
o` u

W est un Q-Brownien.
(c) Exprimer dans ce cas L
t
en nutilisant que le processus R
(d) En deduire que
E(f(R
t
)) = E
_
(
t
)

exp[
_
t
0
ds

2
s
] f(
t
)
_
o` u est une constante dependant de n et
d
t
=
1

t
dt +d

W
t
,
0
= 1 .
Exercice 6.3.2 Fonctionnelles exponentielles
1. Calculer E(
_
t
0
exp(B
s
)ds) et E(exp(B
t
)
_
t
0
exp(B
s
)ds).
2. Soit A(t, ) =
_
t
0
exp(B
s
+s)ds.
(a) Montrer en utilisant le theor`eme de Girsanov que le calcul de E(A(t, ))
se ram`ene au cas = 0.
(b) Peut-on faire un calcul direct?
Exercice 6.3.3 Soit X le processus solution de
dX
t
= X
t
dt +dB
t
, X
0
= x.
2005-06 71
1. On denit
L
t
= exp
_

_
t
0
X
s
dB
s


2
2
_
t
0
X
2
s
ds
_
. Verier que L est une martingale locale. On admet pour la suite que
cest une martingale.
2. On note P

la mesure de probabilite denie sur T


t
par dP

= L
t
dP.
Quelle est la dynamique de X sous P

?
3. Montrer que
L
t
= exp(
_
t
0
X
s
dX
s
+
1
2
_
t
0

2
X
2
s
ds)
4. Calculer
E
P
_
exp(
b
2
2
_
t
0
X
2
s
ds)
_
.
5.
6. Montrer que le calcul de E(exp
_
t
0
X
2
s
ds) se deduit de celui de E(exp(a
_
t
0
B
s
dB
s

b
_
t
0
B
2
s
ds)). On ne cherchera pas `a eectuer ce dernier calcul.
Exercice 6.3.4 Processus dOrnstein-Uhlenbeck.
1. Soit U une variable gaussienne desperance m et de variance
2
. Calculer
E(expU
2
+U) pour 1 2
2
0.
2. On denit sur T
T
la mesure P
b
par
dP
b
= expb
_
T
0
B
s
dB
s

b
2
2
_
T
0
B
2
s
dsdP
(a) Justier que, sous P
b
le processus (W
t
= B
t
+b
_
t
0
B
s
ds , t T) est
un brownien.
(b) En deduire que sous P
b
, le processus (B
t
, t 0) est un processus
dOrnstein-Uhlenbeck, et que B
t
est une variable gaussienne dont on
precisera, en sappuyant sur le cours, lesperance et la variance.
(c) Montrer que, sous P, on a
_
t
0
B
s
dB
s
=
1
2
(B
2
t
t).
La meme egalite est-elle vraie sous P
b
?
72 Girsanov. Enonces
(d) Montrer que, pour tout t T,
E
P
(expB
2
t

b
2
2
_
t
0
B
2
s
ds) = E
b
(expB
2
t
+
b
2
(B
2
t
t))
o` u E
b
designe lesperance sous P
b
.
Montrer que si

B est un brownien issu de a, on a
E
P
(exp

B
2
t

b
2
2
_
t
0

B
2
s
ds) = E
b
(exp

B
2
t
+
b
2
(

B
2
t
a
2
t))
(e) En deduire (il y a des calculs) que, pour tout t,
E
P
(expB
2
t

b
2
2
_
t
0
B
2
s
ds) = (cosh bt + 2

b
sinh bt)

1
2
3. Montrer que si

B
t
est un Brownien issu de a
E
P
(exp

B
2
t

b
2
2
_
t
0

B
2
s
ds) = (cosh bt+2

b
sinh bt)

1
2
exp[
xb
2
1 +
2
b
coth bt
coth bt +
2
b
]
avec x = a
2
.
Exercice 6.3.5 Soit S solution de
dS
t
= S
t
(dt + dB
t
) , S
0
= s ,
les coecients et etant constants.
1. Montrer que S
t
= S
0
exp(t +B
t


2
2
t).
2. On pose =
r

. Soit Q denie sur T


t
par dQ = L
t
dP avec L
t
=
exp(B
t

1
2

2
t). Montrer que (W
t
= B
t
+t, t 0) est un Q-mouvement
brownien.
3. Soit

P denie sur T
t
par d

P = Z
t
dQ avec Z
t
= exp(W
t


2
2
t).
Montrer que
dS
t
= S
t
((r +
2
) dt + d

B
t
)
o` u

B est un

P-mouvement brownien.
4. Soit P
t
= P
0
e
rt
. Montrer que
_
S
t
P
t
, t 0
_
est une Q-martingale.
Montrer que
P
t
S
t
est une

P-martingale.
2005-06 73
5. Soit F
t
= e
t
__
t
0
S
u
du +sA
_
o` u A, sont des constantes
Soit
t
=
F
t
e
t
S
t
. Ecrire lequation dierentielle stochastique veriee par

t
en utilisant le Brownien

B.
Exercice 6.3.6 Soit , et des fonctions (deterministes) bornees et b(t) =
_
t
0
(s) ds. On note r le processus solution de
dr
t
= ((t) (t)r
t
) dt +(t)dW
t
On suppose que ne sannule pas.
1. Verier que
r
t
= exp(b(t))
_
r
0
+
_
t
0
exp(b(u)) (u) du +
_
t
0
exp(b(u)) (u) dW
u
_
.
2. Calculer E(r
t
) et Cov(r
t
, r
s
).
3. Soit Q
1
la probabilite denie sur T
t
par dQ
1
= L
t
dP, avec
L
t
= exp(
_
t
0
(s)dW
s

1
2
_
t
0
((s))
2
ds)
o` u (s) =
(s)
(s)
. On suppose bornee. On note W
1
t
= W
t

_
t
0
(s) ds.
Montrer que (exp(b(t)) r
t
, t 0) est une Q
1
martingale.
4. Soit Q
2
la probabilite denie sur T
t
par dQ
2
= Z
t
dP, avec
dZ
t
= Z
t
(t)
(t)
r
t
dW
1
t
, Z
0
= 1
Montrer que r est une Q
2
-martingale.
Exercice 6.3.7 Drift non observable Soit B
Y
t
= Y t + B
t
o` u Y est une
variable aleatoire de loi , independante de B. Soit F une fonctionnelle sur
C([0, t], IR). Montrer que
E[F(B
Y
s
, s t)] = E[F(B
s
; s t)h(B
t
, y)]
avec h(x, t) =
_
(dy) exp(yx
y
2
2
t) En deduire que, sur lespace canonique
X
t

_
t
0
ds
h

x
h
(X
s
, s)
74 Girsanov. Enonces
est une martingale sous P
h
avec P
h
[
F
t
= h(X
t
, t)W[
F
t
. Montrer que B
Y
t
=

B
h
t
+
_
t
0
_
t
0
ds
h

x
h
(B
Y
s
, s) o` u

B
h
t
est un Brownien.
Soit Qdenie par dQ = e
Y B
t

1
2
Y
2
t
dP. Montrer que sous Q, B
Y
t
est independant
de Y .
Exercice 6.3.8 Soit B un MB et F sa ltration naturelle. On note h une
fonction.
1. Donner des conditions sur h pour que dQ = h(B
T
)dP denisse, sur T
T
une probabililite equivalente `a P.
2. Calculer L
t
telle que dQ[
F
t
= L
t
dP[
F
t
3. Montrer que X T
T
, on a E
Q
(X[B
T
) = E
P
(X[B
T
)
4. Expliciter Q(B
T
dx).
5. Soit A T
T
, independante de B
T
. Montrer que Q(A) = P(A). Donner
des exemples de tels A.
6. Calculer Q(f(B
T
)[T
t
).
7. Montrer que
L
t
= 1 +
_
t
0
dB
s
_

dy
h

(y)e
(yB
s
)
2
/(2(Ts))
_
2(T s)
8. Montrer que le processus W deni par
dW
t
= dB
t

_

dyh

(y)e
(yB
t
)
2
/(2(Tt))
_

dyh(y)e
(yB
t
)
2
/(2(Tt))
dt
est un Q mouvement Brownien.
9. (cette question ne depend pas des precedentes) Soit (
t
= T
t
(B
T
). Mon-
trer que le processus M
t
= B
t

_
t
0
B
T
B
s
T s
ds est un P-(
t
mouvement
Brownien. Montrer que M
t
est independante de B
T
.
10. Montrer que M est un Q-(
t
mouvement Brownien.
Exercice 6.3.9 Soit X
t
= W
t
+
_
t
0
x X
s
1 s
ds et M
t
= exp
_

_
t
0
x X
s
1 s
dW
s

1
2
_
t
0
_
x X
s
1 s
_
2
ds
_
.
Montrer que
M
t
= exp
_

x
2
2
+
(x X
t
)
2
2(1 t)
+
1
2
ln(1 t)
_
Verifier cette formule
2005-06 75
Exercice 6.3.10 Soit dQ[
F
t
= h(t, X
t
)dP[
F
t
. Sous quelles conditions sur h Q
est-elle une probabilite sur T
T
? Montrer que
B
t

_
t
0

x
h(s, B
s
)ds
est une Q-martingale?
Exercice 6.3.11 Soit L
t
= exp
_

1
4
_
e
2W
t
1
_
+
1
2
_
t
0
_
e
2W
s

1
4
e
4W
s
_
ds
_
1. Question preliminaire: Calculer lintegrale
_
t
0
e
2W
s
dW
s
.
2. Montrer que L est une martingale. Quelle est son esperance?
3. On pose dQ = L
t
dP. Quelle est la dynamique de W sous Q?
6.4 Cas multidimensionel
Exercice 6.4.1 Cas multidimensionel. Soient (B
1
(t), t 0) et (B
2
(t), t
0) deux mouvements Browniens independants. Soit (L
i
(t), i = 1, 2 , t 0) les
processus denis par
dL
i
(t) =
i
(t)L
i
(t)dB
i
(t) , L
i
(0) = 1
o` u (
i
(t), i = 1, 2) sont des processus adaptes continus bornes.
1. Verier que
L
i
(t) = exp(
_
t
0

i
(s)dB
i
(s)
1
2
_
t
0

2
i
(s) ds) .
2. Soit T 0 et Q
1
la probabilite denie sur T
T
par dQ
1
= L
1
(T)dP.
Soit (
t
, t 0) un processus adapte continu et M
t
=
_
t
0

s
dB
1
(s)
_
t
0

1
(s)
s
ds.
(a) Montrer que (M
t
, 0 t T) est une Q
1
-martingale locale.
(b) On pose Z
1
(t) = M
t
L
1
(t). Calculer dZ
1
(t). Montrer que Z
1
est une
P-martingale. Pouvait-on prevoir ce resultat ?
3. Soit Z
t
= L
1
(t)L
2
(t). Ecrire dZ
t
. Montrer que Z est une P-martingale.
4. Soit Q la probabilite denie sur T
T
par dQ = Z
T
dP. Comment se trans-
forment les browniens B
i
?
76 Girsanov. Enonces
5. Soit (S
i
, i = 1, 2) deux processus solutions de
dS
i
(t) = S
i
(t)[b
i
(t)dt +
i
(t)dB
1
(t) +
i
(t)dB
2
(t)]
Montrer quil existe une probabilite Q equivalente `a P telle que, sous Q
dS
i
(t) = S
i
(t)[rdt +
i
(t)dW
1
(t) +
i
(t)dW
2
(t)]
o` u (W
i
, i = 1, 2) sont des Q-Browniens independants.
6.5 Temps darret.
Exercice 6.5.1 Temps darret. Soit un (T
t
)-temps darret. Soit Q telle
que dQ[
F
T
= L
T
dP[
F
T
et X T
T
. Comparer E
P
(L
T
11
>T
X) et E
Q
(X11
>T
).
Exercice 6.5.2 Let W be a Brownian motion and T = inft : e
B
t
t/2
> a,
where a > 1. Prove that, 1/2,
E(11
T<
exp(B
T


2
2
T)) = 1
Exercice 6.5.3 Temps datteinte. Soit X un processus tel que
dX
t
= dt +dW
t
, X
0
= 0
o` u et sont des constantes telles que > 0. Soit r une constante.
1. Montrer quil existe tel que
M
t
def
= exp(rt +X
t
)
soit une martingale.
2. Soit b un nombre positif et le temps darret deni par
= inft 0 [ X
t
= b
Calculer E(exp(r + X

)). On admettra que la martingale M


t
est
uniformement integrable et que le temps darret est ni. En deduire
E(exp(r)).
3. On suppose que les conditions de la premi`ere question sont satisfaites.
Soit Q telle que dQ = M
t
dP, sur T
t
. Comment se transforme W?
4. Soit S le processus deni par
dS
t
= S
t
[rdt +dW
t
], S
0
= s
et Y
t
= ln
S
t
s
. Ecrire dY
t
.
2005-06 77
5. Soit B une constante telle que s < B. Soit T
B
le temps darret
T
B
= inft 0 [ S
t
= B
Calculer
E(exp(rT
B
)) .
Exercice 6.5.4 Soit f et g deux fonctions deterministes, f de classe C1, g
continue. On note F
t
=
_
t
0
f(u)dW
u
et u est la solution de
u

(t) 2
f

(t)
f(t)
u

(t) 2g(t)f
2
(t)u(t) = 0
avec u

(T) = 2au(T)f
2
(T). Le but de cet exercice est de montrer que
E
_
exp
_

_
aF
2
T
+
_
T
0
g(t)F
2
t
dt
___
=
_
u(T)
u(0)
_
2
1. Montrer que, pour toute fonction h continue, le processus L deni par
L
t
= exp
__
t
0
h(s)F
s
dW
s

1
2
_
t
0
h
2
(s)F
2
s
ds
_
est une martingale.
2. En deduire que
1 = E
_
exp
_
_
T
0
h(s)
2f(s)
dF
2
s

1
2
_
t
0
(h(s)f(s) +h
2
(s)F
2
s
)ds
__
= E
_
exp
1
2
_
h(T)
f(T)
F
2
T

_
T
0
F
2
t
_
h

(t)f(t) f

(t)h(t)
f
2
(t)
_
dt
_
t
0
(h(s)f(s) +h
2
(s)F
2
s
)ds
__
3. Montrer que
E
_
exp
_
1
2
_
u

(T)
u(T)f
2
(T)
_
F
2
T

_
T
0
F
2
t
_
u

(t) 2u

(t)f

(t)/f(t)
u(t)f
2
(t)
_
dt
__
=
_
u(T)
u(0)
_
1/2
4. Resoudre le meme probl`eme par changement de temps.
5. Soit une fonction borelienne bonee de IR dans IR. Comment calculer
K = E
_
exp
_

_
aF
2
T
+
_
T
0
g(t)F
2
t
dt
_
(A+BF
T
+
_
T
0
(t)F
t
dt)
__
Exercice 6.5.5 Decomposition canonique Soit W un mouvement Brown-
ien et h une fonction positive, veriant h(0, 0) = 1 et harmonique en es-
pace (cest-`a-dire telle que h(t, W
t
) est une martingale). On denit Q par
dQ[
F
t
= h(t, W
t
)dP
F
t
. Montrer que W
t

_
t
0
h

x
h
(s, W
s
)ds est un Q-mouvement
Brownien.
78 Girsanov. Enonces
6.6 Finance
Exercice 6.6.1 Moyenne. Soit dS
t
= S
t
(rdt + dB
t
), S
0
= 1, r et
etant des constantes. On souhaite calculer C = E[(Z
T
S
T
)
+
] quand Z
T
=
exp
_
1
T
_
T
0
lnS
t
dt
_
.
1. Soit Q la probabilite denie sur T
T
par dQ = exp(B
T

2
T/2)dP.
Montrer que
e
rT
E
P
[(Z
T
S
T
)
+
] = E
Q
[(
Z
T
S
T
1)
+
] .
2. Soit

B
t
= B
t
t. Ecrire Z
T
/S
T
sous la forme exp(T
_
T
0
(t)d

B
t
).
3. Montrer que le calcul de C se reduit au calcul de E((

S
T
K)
+
) pour un
Brownien geometrique

S dont on precisera la loi.
Exercice 6.6.2 Volatilite stochastique On rappelle le theor`eme de representation
previsible `a deux dimensions Soit W = (W
1
, W
2
) un Brownien `a valeurs dans
IR
2
et (T
t
) sa ltration canonique. Toute (T
t
)-martingale de carre integrable
secrit M
t
= m +
_
t
0

1
(s)dW
1
(s) +
_
t
0

2
(s)dW
2
(s) o` u (
i
, i = 1, 2) sont des
processus adaptes. Soient et deux fonctions deterministes de IR
+
dans IR et
, deux fonctions deterministes de IR dans IR. On consid`ere alors un marche
nancier o` u lactif risque verie
dS
t
= S
t
((t)dt +(Y
t
)dW
1
t
), S
0
= s
o` u Y est un processus solution de
dY
t
= (t)dt +(Y
t
)dW
2
t
, Y
0
= 1
1. Quelles doivent etre les proprietes du processus (L
t
, t 0) pour que la
formule dQ[T
t
= L
t
dP denisse une probabilite Q ?
2. Determiner lensemble des probabilites equivalentes `a P telles que, sous
Q, S soit une martingale.
3. Soit B un actif contingent B T
T
. Comment lui donner un prix (le taux
sans risque est nul) ?
Exercice 6.6.3 Options boost. Soit M une T
t
-martingale `a valeurs stricte-
ment positives.
1. Justier quil existe tel que dM
t
=
t
dW
t
.
2. Montrer quil existe tel que dM
t
=
t
M
t
dW
t
.
2005-06 79
3. Soit un nombre reel. Calculer d[(M
t
)

].
4. Soit S un Brownien geometrique tel que S
0
= s et
dS
t
= S
t
(r dt +dW
t
) (6.1)
o` u r et sont des constantes. Montrer quil existe tel que S
t
= s(M
t
)

o` u M est une martingale de la forme precedente. Expliciter en fonction


de r et . A quel choix de r et correspond la valeur = 1?
5. Soit K un nombre reel positif et M une martingale telle que dM
t
=
M
t
dW
t
o` u est une constante et M
0
= 1. Montrer que
E((M
t
K)
+
) = E((1 KM
t
)
+
)
On pourra utiliser le theor`eme de Girsanov et faire apparaitre une nouvelle
probabilite Q et determiner la loi de 1/M sous Q.
6. Soit S un processus veriant (6.1), S

t
= sup
st
S
s
et W

t
= sup
st
W
s
. La
loi de W

t
est connue (cest celle de [W
t
[, ce resultat sera admis), on notera
(a) = P(W

t
a). Calculer, en utilisant les resultats de la question 3,
E(11
S

T
a
) qui correspond `a la valeur dune option boost (au coecient
exp(rT) pr`es).
Exercice 6.6.4 Volatilite stochastique. Soit W
1
et W
2
deux Browniens
independants, et T
t
= (W
1
s
, W
2
s
, s t) la ltration engendree par les deux
Browniens. Soit et deux fonctions deterministes bornees de IR
+
dans IR et
, deux fonctions deterministes bornees denies de IR dans IR. On note S la
solution de
dS
t
= S
t
((t)dt +(Y
t
)dW
1
t
), S
0
= s
o` u Y est un processus solution de
dY
t
= (t)dt +(Y
t
)dW
2
t
, Y
0
= 1
1. Soit un processus borne et Z la solution de
dZ
t
= Z
t

t
dW
1
t
, Z
0
= 1
Ecrire explicitement Z
t
sous la forme dune exponentielle.
2. Soit et deux processus adaptes bornes et L le processus deni par
L
t
= exp
__
t
0

s
dW
1
s

1
2
_
t
0
(
s
)
2
ds +
_
t
0

s
dW
2
s

1
2
_
t
0
(
s
)
2
ds
_
(6.2)
Ecrire lEDS veriee par L.
3. On pose

W
t
= W
1
t

_
t
0

s
ds et on note

Z la solution de d

Z
t
=

Z
t
d

W
1
t
,

Z
0
=
1 o` u est une constante. Montrer que L

Z est une martingale.


80 Girsanov. Enonces
4. Soit Q denie sur T
t
par dQ = L
t
dP. Montrer que

Z est une Q martingale.
En deduire que

W
1
est un Q brownien.
5. Montrer que

W
2
t
= W
2
t

_
t
0

s
ds est un Q brownien.
6. On admet que si Q est une mesure equivalente `a P il existe , tels que la
densite de Q par rapport `a P soit de la forme (6.2). Decrire lensemble des
couples , correspondants `a des probabilites Q telles que (S
t
e
rt
, t 0)
soit une Q-martingale.
7. Le marche nancier est-il complet ?
8. Soit X un actif contingent duplicable, cest-`a-dire tel quil existe V pro-
cessus adapte de la forme
dV
t
= rV
t
dt +
t
(dS
t
rS
t
dt)
veriant V
T
= X, avec processus adapte borne. (On ne demande pas
de justier cette denition)
(a) Montrer que (V
t
e
rt
, t 0) est une Q martingale pour tout Q Q.
(b) On suppose que V
t
= v(t, S
t
, Y
t
). Montrer que v verie une equation
aux derivees partielles que lon explicitera.
Exercice 6.6.5 Symetrie put-call. Soit M une (T
t
)-martingale telle que
dM
t
= M
t
dW
t
o` u est une constante et M
0
= 1.
1. Verier que M est `a valeurs strictement positives.
2. Calculer dY
t
quand Y
t
= (M
t
)
1
.
3. Soit Q telle que dQ = M
t
dP sur T
t
. Determiner la loi de Y sous Q.
4. Montrer que E
P
((M
T
K)
+
) = KE
P
((K
1
M
T
)
+
).
Exercice 6.6.6 Symetries
On suppose que le prix dun actif, sous la probabilite risque neutre Q est donne
par (3.3) o` u q est le taux de dividendes. On note C(x, K, r, q) (ou C(x, K, r, q, )
si besoin est) le prix dune option dachat europeenne de prix dexercice K, soit
C(x, K, r, q) = E(e
rT
(S
T
K)
+
)
On rappelle que, dans le cas r = 0 = q, en notant C

(x, K) = C(x, K, 0, 0) le
prix dun call de strike K sur un sous jacent de valeur initiale x et P

le prix
dun put, on a
C

(x, K) = x^
_
d
1
_
x
K
__
K^
_
d
0
_
x
K
__
, P

(x, K) = x^
_
d
0
_
K
x
__
+K^
_
d
1
_
K
x
__
,
(6.3)
2005-06 81
avec
d
1
() =
1

T
ln() +
1
2

T , d
0
() = d
1
()

T
et que le delta du call est DeltaC

(x, K) = ^(d
1
(
x
K
)).
1. Montrer, en utilisant les resultats de lexercice 3.3 que C(x, K, r, q) =
C

(xe
qT
, Ke
rT
).
2. Montrer, au vu des formules precedentes que
DeltaC(x, K, r, q) = e
qT
^
_
d
1
_
xe
qT
Ke
rT
__
DeltaP(x, K, r, q) = e
qT
^
_
d
0
_
Ke
rT
xe
qT
__
o` u DeltaC est le Delta du call.
3. Montrer, au vu des formules (6.3) et de la question (a) que
C(x, K, r, q) = C

(Ke
T
, x) = P

(xe
T
, K) = P(K, x, q, r) (6.4)
o` u = r q et P le prix dun put. Commenter.
4. On souhaite montrer avec des arguments probabilistes que C

(K, x) =
P

(x, K). (cas = 0).


(a) On commencera par calculer la dynamique de 1/S, dans le cas dS
t
=
S
t
dW
t
.
(b) On transformera E((S
T
K)
+
) en

E((x

S
T
)
+
) o` u

E est lesperance
sous une probabilite que lon precisera.
5. Le payo dune option power sur le sous-jacent Y est Y

T
(Y
T
K)
+
. Mon-
trez que son prix C
pow
(y, K, , ) peut sobtenir facilement `a partir de call
europeens portant sur les sous jacents Y

et Y
+1
.
Exercice 6.6.7 Options power. Soit
dS
t
= S
t
((r )dt +dB
t
), S
0
= x.
Cette dynamique modelise, sous la probabilite risque-neutre P, le prix dun actif
versant des dividendes au taux le taux spot etant r.
1. On souhaite evaluer un actif contingent sur S, actif versant des dividendes.
Il sagit donc de calculer
E
P
(h(S
T
)e
r(Tt)
[T
t
) .
Quelle est la valeur de cet actif dans le cas h(x) = (x

K)
+
? (On utilisera
sans moderation les formules classiques sur levaluation de produits etudies
dans le poly ou dans tout ouvrage de reference.)
82 Girsanov. Enonces
2. On suppose r = . On pose dQ[
F
t
= (S
t
/x)dP[
F
t
. Justier rapidement
que lon denit un changement de probabilite. On pose Z
t
= x
2
/S
t
. Quelle
est la dynamique de (Z
t
, t 0) sous Q? Montrer que pour toute fonction
f borelienne bornee
1
x
E
P
(S
T
f(
x
2
S
T
)) = E
P
(f(S
T
))
3. On repasse au cas general. Montrer que S
a
est une martingale pour
une valeur de a que lon precisera. Montrer que, pour toute fonction
f borelienne bornee
E
P
(f(S
T
)) =
1
x
a
E
P
(S
a
T
f(
x
2
S
T
))
4. On se place dans le cas
h(x) = x

(x K)
+
Montrer que h(S
T
) secrit comme dierence de deux payos correspon-
dants a des options dachat Europeennes portant sur S
+1
et sur S

avec
des strikes que lon determinera.
Exercice 6.6.8 Option dechange Soit dS
(i)
t
= S
(i)
t
(b
i
dt +
i
dW
(i)
t
, i = 1, 2
o` u les coecients sont constants, les browniens W
(i)
etant correlles. Calculer la
valeur dune option dechange dont le payo est (S
(1)
T
S
(2)
T
)
+
.
Exercice 6.6.9 Option quanto
Exercice 6.6.10 Taux de change On consid`ere deux pays. Les quantites
relatives au pays domestique seront indexees par d, les quantites relatives `a
lautre pays par f. Chaque pays poss`ede un taux sans risque note respectivement
r
d
et r
f
. Les marches des deux pays sont diriges par un mouvement Brownien
W. Sous la probabilite P, un actif S suit la dynamique
dS
t
= S
t
(
t
dt +
S
t
dW
t
)
On suppose que chacun des deux marches est sans arbitrage : il existe une
probabilite risque neutre domestique notee Q
d
equivalente `a P telle que sous
Q
d
le processus (e
r
d
t
S
d
t
, t 0) est une Q
d
martingale.
1. Montrer que tout actif domestique S
d
a une dynamique de la forme
dS
d
t
= S
d
t
(r
d
dt +
t
dW
d
t
)
o` u W
d
est un Q
d
mouvement Brownien. On notera
d
la prime de risque
denie par dW
d
t
= dW
t
+
d
t
dt. Le taux de change entre ces pays est X
dirige par
dX
t
= X
t
[(r
d
r
f
) dt +
X
t
dW
d
t
]
Si S
f
est un prix en unites monetaires du pays etranger, S
f
X est le prix
du meme produit en unites monetaires domestiques.
2005-06 83
2. Soit S
f
un actif etranger de dynaique
dS
f
t
= S
f
t
(r
f
t
dt +
t
dW
f
t
)
Montrer que

f
t

d
t
=
X
t
W
d
t
W
f
t
=
_
t
0

X
s
ds
3. Quelle est la dynamique du taux de change inverse Y = 1/X ?
4. On souhaite valoriser une option quanto, cest `a dire une option sur pro-
duit etranger faisant intervenir le taux de change. Comment evaluer en
monnaie domestique un ux etranger de (Sf
T
K)
+
? Comment evaluer
une option dachat sur action etrang`ere avec strike en monnaie domes-
tique ?
Exercice 6.6.11 Richesse (Cox-Huang, Karatzas) Un agent nancier souhaite
investir sur un marche sur lequel deux actifs sont negociables:
Un actif sans risque de dynamique dS
0
(t) = S
0
(t)r(t)dt o` u r est
deterministe,
Un actif risque dont le prix a pour dynamique dS
1
(t) = S
1
(t)(b(t)dt+
(t)dW
t
). On suppose que ne sannule pas.
La richesse X de cet agent a pour dynamique
dX
t
= X
t
r(t)dt +
t
[b(t) r(t)]dt +(t)
t
dW
t
o` u est un processus (T
t
) adapte representant la proportion de la richesse
investie dans lactif risque.
1. Montrer quil existe une probabilite Q telle que dS
1
(t) = S
1
(t)(r(t)dt +
(t)d

W
t
) o` u

W est un Q mouvement Brownien.
2. Montrer que (R(t)X
t
, t 0) est une Q martingale locale, avec R(t) =
exp
_
t
0
r(s)ds
3. Soit (t) =
b(t) r(t)
(t)
et H solution de lequation dH
t
= H
t
(r(t)dt +
(t)dW
t
), H
0
= 1. Montrer que le processus (H
t
X
t
, t 0) est une P-
martingale locale.
4. On suppose que (H
t
X
t
, t 0) est une P-martingale pour tout choix de
. Lagent souhaite obtenir une richesse terminale egale `a , v.a. T
T
mesurable (i.e. X
T
= ). Montrer que sa richesse initiale X
0
est alors
determinee, et que son portefeuille de couverture (i.e. ) egalement.
84 Girsanov. Enonces
Exercice 6.6.12 Optimisation de richesse Sur le marche nancier on trouve
un actif risque et un actif sans risque. Soit (S
t
, t 0) le prix de lactif risque.
On suppose que dS
t
= S
t
(
t
dt +dB
t
) . Lactif sans risque verie
dS
0
(t) = S
0
(t)r
t
dt .
Les processus
t
, r
t
sont T
t
-adaptes bornes, est une constante non nulle.
1. Montrer que S
t
exp
_

_
t
0

s
ds
_
est une P-martingale.
2. On pose
t
=

t
r
t

.
Determiner Q telle que, sous Q le processus

B
t
= B
t
+
_
t
0

s
ds soit un
mouvement Brownien.
Ecrire lequation veriee par S
t
en utilisant

B
t
.
3. Un agent de richesse initiale x investit sa richesse X
t
suivant lactif sans
risque et lactif risque de prix S
t
suivant X
t
= n
0
(t)S
0
(t) + n
1
(t)S
t
. On
suppose que dX
t
= n
0
(t)dS
0
(t) +n
1
(t)dS
t
.
(a) Montrer que dX
t
= r
t
X
t
dt +n
1
(t)(dS
t
S
t
r
t
dt).
(b) On note
t
= n
1
(t)S
t
et R
t
= exp
_
t
0
r
s
ds.
Ecrire dX
t
en fonction de
t
, r
t
, et B
t
.
(c) Montrer que, sous Q, le processus X
t
R
t
est une martingale.
(d) Soit = X
T
. Ecrire X
t
sous forme dune esperance conditionnelle
faisant intervenir et le processus r.
4. On se donne un processus (c
t
, t 0) `a valeurs positives adapte et un
processus (
t
, t 0) de carre integrable T
t
- adapte.
Soit (X
t
, t 0) un processus tel que
dX
t
= r
t
X
t
+
t
(dB
t
+
t
dt) c
t
dt . (6.5)
(a) Montrer que, sous Q, le processus X
t
R
t
+
_
t
0
R
s
c
s
ds est une martin-
gale. v En deduire que X
t
R
t
= E
Q
(X
T
R
T
+
_
T
t
R
s
c
s
ds[T
t
).
(b) Ecrire cette relation sous P.
(c) Montrer que si lon impose la condition X
T
0, il existe une solution
de (6.5) positive, veriant cette condition.
Exercice 6.6.13 Soit X
t
= t + B
t
. On note T
a
= inft[X
t
= a. Trouver
une probabilite Q telle que sous Q, (

B
t
= X
t
/ , t 0) soit un mouvement
Brownien. Exprimer T
a
en utilisant

B
t
. Calculer E
P
(expT
a
).
2005-06 85
Exercice 6.6.14 Montrer que le prix dune option Asiatique dont le strike est
le sous jacent est le prix dun call sur un sous jacent de dynamique dZ
t
=
(1 rU
t
)dt Z
t
dW
t
. Comment faire le calcul?
Exercice 6.6.15 Zero-coupons Soit Y
t
= h(t)dt +dW
t
et r
t
= (t)Y
t
o` u h et
sont des fonctions de classe C
1
. On souhaite calculer E
_
exp
_

_
t
0
r
s
ds
__
.
1. Exprimer dr.
2. Soit L
H
t
= exp
__
t
0
H(s)dW
s

1
2
_
t
0
H
2
(s)ds
_
. Justier que E(L
H
T
) = 1
pour toute fonction H continue. En deduire que
E
_
exp
_
H(T)W
T

_
T
0
F

(s)W
s
ds
1
2
_
T
0
H
2
(s)ds
__
= 1 .
3. En utilisant L
h
t
, montrer que
E
_
exp
_

_
T
0
r
s
ds
__
= E
_
exp
_
h(T)W
T

_
T
0
W
s
(h

(s) +(s))ds
_
T
0
1
2
_
T
0
h
2
(s)ds
__
.
4. Calculer cette quantite.
Exercice 6.6.16 Soit dY
t
= 2

Y
t
dW
t
+(2(t)Y
t
+)dt et r
t
= (t)Y
t
, o` u et
sont des fonctions de classe C
1
. On introduit dX
t
= 2

X
t
dW
t
+dt.
1. Calculer dr
t
.
2. Soit H une fonction de classe C
2
et
Z
H
t
= exp
__
t
0
H(s)
_
X
s
dW
s

1
2
_
t
0
H
2
(s)X
s
ds
_
On admet que Z est une martingale. Montrer que
Z
t
= exp
_
1
2
_
H(t)X
t

_
t
0
H(s)ds
_
t
0
H

(s)X
s
ds
1
2
_
t
0
H
2
(s)X
s
ds
__
3. Montrer que
E
_
exp
_

_
T
0
r
s
ds
__
=
exp
_
1
2
(
0
X
0

_
T
0
(s)ds)
_
E
_
exp
_
1
2
_
(T)X
T

_
T
0
X
s
(
2
(s) +

(s) + 2(s))ds
_
__
4. Comment calculer cette derni`ere expression?
86 Complements. Enonces
Exercice 6.6.17 On se place dans le cas o` u S
t
= e
2(W
t
+t)
Montrer en util-
isant la formule dIto que S est une sousmartingale pour + 1 0 et une
surmartingale sinon. En deduire que le prix dune option asiatique est plus pe-
tit que le prix dune option plain vanilla. Montrer par une minoration simple
que E(
1
T
_
T
0
exp(2(W
s
+s))ds) E(e
2(W
T
+T)
)
Chapter 7
Complements
ENONCES
Dans tout ce chapitre, B (ou W) est un mouvement Brownien dont la ltra-
tion est notee (T
t
).
7.1 Theor`eme de Levy.
Exercice 7.1.1 Levys theorem. Let W be a standard Brownian motion and
D = sup
0st1
(W
s
W
t
), D
1
= W

inf
t1
W
t
, D
2
= sup
0t
W
t
W

where (resp. ) is the time of the absolute maximum (resp. minimum) of the
Brownian motion over [0, 1], (i.e., ).
1. Prove that D
loi
= sup
0t1
[W
t
[.
2. En deduire la loi de D.
3. Prove that D
1
loi
= sup
gt1
[W
t
[ where g = supt 1 : W
t
= 0.
Exercice 7.1.2 Loi du couple ([B
t
[, L
t
).
1. Montrer que la loi du couple ([B
t
[, L
t
) est

t
(da, d) = 11
a0
11
0
2(a +)

2t
3
exp
_

(a +)
2
2t
_
da d
2. On note T
a
= inft 0; B
t
= a et

= inft 0; L
t
= . Montrer que
T

loi
=

87
88 Complements. Enonces
3. Montrer que le processus ([B
t
[, L
t
) est markovien de semi groupe
Q
t
(, , f) =
_

t
(da, d)f( ( a), ( ) + )
4. Montrer que S
t
(S
t
B
t
) et B
t
sont independantes.
5. Montrer que S
t
(S
t
B
t
)
loi
=
t
2
c o` u c est une variable exponentielle de
param`etre 1.
Exercice 7.1.3 On note W

le processus W

t
= sup
st
W
s
.
1. Justier rapidement (en se basant sur des resultats classiques) que P(W

t
>
a) = 2P(W
t
> a) pour a > 0. Cette egalite est-elle veriee egalement pour
a 0?
2. Soit s < t. Montrer que
P( sup
sut
W
u
> 0, W
s
< 0) = 2P(W
t
> 0, W
s
< 0)
3. Calculer explicitement cette quantite.
4. On note g
t
= sups t : W
s
= 0. Calculer la loi de g
t
.
Exercice 7.1.4 On note M
t
= sup
0st
B
s
et = supt 1 : B
t
= M
t
. On
souhaite calculer la loi de .
1. Ecrire t en utilisant les variables M
t
et sup
ts1
B
s
2. Ecrire t en utilisant M
t
et sup
ts1
(B
s
B
s
)
3. Quelle est la loi de sup
ts1
(B
s
B
s
) conditionnelle `a T
t
?
4. En deduire que P( t[T
t
) = (M
t
B
t
) o` u (x) = P(M
1t
< x)
5. En utilisant le cours, calculer (x).
6. On admet que M
t
B
t
a meme loi que B
t
. Comment obtenir la loi de ?
7.2 Equations retrogrades
Exercice 7.2.1 Equation retrograde 1. Soit H
dH
t
= H
t
(rdt +dW
t
) , H
0
= 1
On notera H
t,s
=
H
s
H
t
pour t < s.
1. Soit t xe. Quelle est lEDS suivie par (H
t,s
, s t).
2000-01 89
2. Soit une v.a. de T
T
et X
t
= lnE(H
t,T
e

[T
t
). Montrer que Y
t
def
=
exp(X
t
)H
t
est une martingale que lon peut ecrire sous la forme z +
_
t
0
z
s
dW
s
.
3. Montrer que dX
t
= (a

X
2
t
+ b

X
t
+ c)dt +

X
t
dW
t
o` u

X est un processus
adapte que lon determinera en fonction de Z, z, r et et o` u b et c sont
des constantes.
Exercice 7.2.2 Equation retrograde 2. La question (b) est triviale, si lon
admet (a). Dans tout le probl`eme est une variable T
T
-mesurable, integrable.
1. Soit H est une variable T
T
mesurable, integrable. Justier quil existe un
processus (h
s
, s T) et une constante z tels que E(H[T
t
) = z+
_
t
0
h
s
dW
s
.
On pourra admettre ce resultat pour poursuivre.
2. On note X
t
= E([T
t
). Montrer quil existe un processus (

X
s
, s T) tel
que
dX
t
=

X
t
dW
t
, Y
T
= (7.1)
En deduire que, si une variable T
T
mesurable integrable, il existe un
couple (X,

X) de processus (T
t
) adaptes veriant (7.1).
3. Soit r un nombre reel. En utilisant e
rt
E(e
rT
[T
t
) montrer quil existe
un couple (X,

X) de processus (T
t
) adaptes tels que
dX
t
= rX
t
dt +

X
t
dW
t
Y
T
=
4. Soit (r
t
, t 0) un processus (T
t
) adapte borne. En utilisant une methode
analogue, montrer quil existe un couple (X,

X) de processus (T
t
) adaptes
tels que
dX
t
= r
t
X
t
dt +

X
t
dW
t
, Y
T
=
5. Soit
,
le processus solution de d
t
=
t
(
t
dt +
t
dW
t
),
0
= 1 o` u
et sont des processus (T
t
) adaptes bornes. Soit un processus (T
t
)
adapte borne. En considerant
E(
T
+
_
T
t

s
ds[T
t
)
montrer quil existe un couple (X,

X) de processus (T
t
) adaptes tels que
dX
t
= (
t
+X
t

t
+
t

X
t
)dt +

X
t
dW
t
,

X
T
=
6. Soit a un nombre reel. En considerant
1
2a
ln(E [exp(2a) [T
t
]), montrer
quil existe un couple (X,

X) de processus (T
t
)-adaptes tels que
dX
t
=

X
2
t
dt +

X
t
dW
t
,

X
T
= (7.2)
90 Complements. Enonces
7. Montrer que
1
2a
ln
_
E
_

2ac,b
t,T
exp(2a) [T
t
__
est solution de
dX
t
= (a

X
2
t
b

X c)dt +

X
t
dW
t
,

X
T
=
Exercice 7.2.3 Equation retrograde 3..
1. Soit (
t
, t 0) un processus F-adapte. Donner la solution (Y, Z) de
lequation retrograde
dY
t
=
t
dt Z
t
dW
t
, Y
T
= 0. (7.3)
2. Au moyen du theor`eme de Girsanov, donner la solution de
dY
t
= (
t
+Z
t
)dt Z
t
dW(t), Y
T
= 0. (7.4)
o` u est un scalaire quelconque. Exprimer Y
0
sous la forme dune esperance
dependant des donnees du probl`eme.
3. On pose
t
= W
t
. Montrer que Y
0
=
_
T
0
E(M
t
W
t
) dt o` u M
t
= exp(W
t

1
2

2
t). Calculer E(M
t
W
t
) et E(M
t
signW
t
)) o` u
sign(W
s
) = 1 si W
s
> 0, et
;
sign(W
s
) = 1 si W
s
) 0 .
4. On introduit le processus
W
t
=
_
t
0
sign(W
s
) dW
s
,
On rappelle (cf. cours) que ce processus est un mouvement Brownien, on
notera T
t
= (W
s
; s t) sa ltration, qui est incluse dans T
t
. Montrer
que la solution de
dY
t
= (W
t
+Z
t
) dt Z
t
dW
t
, Y
T
= 0 ,
verie
Y
0
= T
2
/2. (7.5)
5. Montrer que la solution de
dY
t
= (W
t
+Z
t
)dt Z
t
dW
t
, Y
T
= 0, (7.6)
verie
Y
0
=
_
T
0
E
_
M
T
W
t
_
dt =
_
T
0
E
_
M
t
W
t
_
dt.
2000-01 91
6. Montrer, au moyen de la formule dIto que
E
_
M
t
W
t
_
=
_
t
0
E (M
s
sign(W
s
)) ds,
pour 0 t T. et en deduire que
Y
0
= T
2
/2 2
_
T
0
(T s)(

s)ds. (7.7)
o` u est la fonction de repartition de la loi normale centree reduite.
7. Supposons que Y
0
represente lutilite (mesure le bien etre que lon eprouve
quand on consomme c) associee `a un plan de consommation (c
t
= exp(W(t)))
et une information F et que Y
0
represente lutilite associee au meme plan
de consommation mais avec linformation F. Interpretez alors le resultat
trouve en (7.5) et en (7.7) selon que > 0 ou que < 0.
Exercice 7.2.4 facts on quadratic BSDE The solution of the BSDE dy
t
=
az
2
t
z
t
dW
t
, y
T
= is y
t
=
1
2a
lnE(e
2a
[T
t
). The solution of
dy = (az
2
+bz)dt zdW
t
obtained by Girsanov.
dy = (az
2
+bz)dt zdW
t
= az
2
dt z(dW
t
bdt) = az
2
dt z
t
d

W
t
)
leads to
y
t
=
1
2a
ln

E(e
2a
[T
t
)
=
1
2a
lnE(e
bW
T

1
2
b
2
T
e
2a
[T
t
)e
bW
t

1
2
b
2
t
=
1
2a
_
lnE(e
bW
T

1
2
b
2
T
e
2a
[T
t
) +bW
t

1
2
b
2
t
_
The solution of
dy = (az
2
+bz +c
t
)dt zdW
t
follows setting y
t
= y
t
+
_
t
0
c
s
ds. The process y satises
d y = (az
2
+bz)dt zdW
t
, y
T
= +
_
T
0
c
s
ds
therefore
1
2a
_
lnE(e
bW
T

1
2
b
2
T
e
2a(+

T
0
c
s
ds)
[T
t
) +bW
t

1
2
b
2
t
_

_
t
0
c
s
ds
92 Complements. Enonces
7.3 Theor`emes de representation
Exercice 7.3.1 Soit W
(i)
, i = 1, 2, 3 trois MB, avec W
(i)
, i = 1, 2 independants.
Montrer quil nest pas possible davoir (W
(3)
s
, s t)) = (W
(1)
s
, W
(2)
s
, s t).
Exercice 7.3.2 Changement de temps Soit M
t
=
_
t
0
11
W
s
>0
dW
s
.
1. Justier que (M
t
, t 0) est une martingale.
2. Trouver un processus (A
t
, t 0) croissant tel que M
2
t
A
t
est une (T
t
)-
martingale.
3. On admet quil existe un processus croissant C tel que A(C(t)) = t. Mon-
trer que (M
C
t
, t 0) est un ((
t
)-mouvement Brownien. Preciser quelle
est la ltration ((
t
)-utilisee.
Exercice 7.3.3 Crochet et indedendance. Soient W
1
et W
2
deux MB tels
que leur crochet soit nul. Montrer quils sont independants.
7.4 Temps local.
Exercice 7.4.1 Formule de Tanaka.
1. Peut-on appliquer la formule dIto pour calculer dZ
t
avec Z
t
= [W
t
[?
2. On admet quil existe un processus croissant L tel que
[W
t
[ = [W
0
[ +
_
t
0
f(W
s
)dW
s
+L
t
avec f(x) = 1 si x > 0 et f(x) = 1 sinon. Montrer que (
_
t
0
f(W
s
)dW
s
, t
0) est un mouvement Brownien que lon notera .
3. Soit S
t
= sup
st
W
s
. Verier que S est un processus croissant. Comparer
les decompositions [W
t
[ =
t
+ L
t
et S
t
W
t
= W
t
+ S
t
. Pour cette
question, je ne vous demande aucun raisonnement precis.
Exercice 7.4.2 Temps local. Soit L le temps local. Montrer que L
t
=
inf
st
([B
s
[ +L
s
).
Exercice 7.4.3 Temps aleatoire. Soit B un MB, S son maximum sur [0, 1]
(soit S = supB
s
, s 1 et = inft 1 : B
t
= S. La v.a. est-elle un
temps darret? Quelle est la loi de ? On calculera P( u) et on utilisera le
principe de reexion et lidentite de Levy (S
t
B
t
, t 0)
loi
= ([B
t
[, t 0).
Calculer P( t[T
t
).
2000-01 93
Exercice 7.4.4 Des martingales. Soit X une martingale continue et S
t
=
sup
st
X
s
.
1. Pour quelles fonctions f le processus Y
t
= f(X
t
, S
t
, X)
t
) est-il une mar-
tingale locale?
2. Montrer que si g est C
2
et g(0) = 0, le processus
g(S
t
) (S
t
X
t
)g

(S
t
)
est une martingale locale.
3. Montrer que si g est C
2
et g(0) = 0, le processus
g(L
t
) [X
t
[g

(L
t
)
est une martingale locale.
Exercice 7.4.5 Scaling Soit B un MB et L son temps local. Montrer que
(L
x

2
t
, x IR, t 0)
loi
= (L
x/
t
x IR, t 0)
On utilisera
_

2
t
0
f(B
s
)ds
loi
=
2
_
t
0
f(B
u
)du
Exercice 7.4.6 Calculer E(L
x
T
a
).
Exercice 7.4.7 Let M be a continuous martingale such that M)

= and
the associated Dubins-Schwarz BM. Prove that L
a
t
(M) = L
a
M
t
().
Exercice 7.4.8 Let be a non negative process indexed by IR
+
IR. Prove
that
_

dy
_
t
0
d
s
L
y
s
(s, y) =
_
t
0
d
s
Y )
s
(s, Y
s
) .
7.5 Lois
Exercice 7.5.1 Temps datteinte. Soit X solution de
X
t
= a(X
t
)dt +b(X
t
)dW
t
, X
0
= x.
On note T
a
= inft 0 [ X
t
= a.
1. Donner des conditions sur la fonction V pour que (e
t
V (X
t
), t 0) soit
une martingale.
2. En deduire E(e
T
a
11
(T
a
<)
) en fonction de V . On ne demande pas
dexpliciter V .
94 Complements. Enonces
3. Soit f(x) =
_
x
0
y
b(y)
dy et Y
t
= f(X
t
). On suppose b C
1
. Calculer dY
t
.
4. En deduire que
_
t
0
X
s
dW
s
= f(X
t
) f(x) +
_
t
0
g(X
s
) ds o` u g est une
fonction que lon precisera.
Exercice 7.5.2 Temps datteinte Soit V
t
= v + W
t
et
a
(V ) = inft : V
t
=
a. Montrer que
a
(V )
loi
=
(a v)
2
G
2
, o` u G est une variable de loi ^(0, 1).
Comment calculer E
_
11
{T<
a
(V )}
h(V
T
)
_
?
Exercice 7.5.3 Soit M une martingale telle que M
0
= a et lim
t
M
t
= 0.
On rappelle (exercice 1.5.11) supM
t
loi
=
a
U
o` u U est une v.a. de loi uniforme sur
[0, 1].
On propose des applications de ce resultat.
1. Let B be a BM with initial value a > 0 and T
0
= inft : B
t
= 0. Identify
the law of sup
uT
0
B
u
.
2. Prove that, for a > 0, sup
u
(B
u
au)
loi
=
1
2a
e, where e is a standard
exponential variable with mean 1.
3. Let B be a BM and T
1
the rst hitting time of 1. Dene I
t
= inf
st
B
s
.
Identify the law of I
T
1
.
Exercice 7.5.4 Loi du maximum.
On rappelle que, pour T xe, max
tT
W
t
loi
= [W
T
[. On note C = E[(e
W
T
1)
+
]
et P = [(1 e
W
T
)
+
]. Montrer que pour x > 0
E[max
tT
(xe
W
t
xe
W
T
)] = x[C +P]
(Il ny a aucun calcul `a faire)
7.6 Filtrations
Exercice 7.6.1 Agent initie Lagent initie connait la valeur terminale du
Brownien. Le probl`eme est de savoir comment se transforment les martingales.
Soit Z
t
def
= W
t

_
t
0
W
T
W
u
T u
du
1. Soit f une fonction deterministe. Montrer que
E[Z
u
_
T
0
f(v)dW
v
] =
_
u
0
f(v)dv
_
u
0
ds
1
T s
_
T
s
dvf(v)
En deduire que si, pour tout u, E[Z
u
_
T
0
f(v)dW
v
] = 0 , alors f verie
f(u) =
1
T u
_
T
u
dvf(v) et montrer que f est une constante.
2000-01 95
2. Soit t < T. On admet que E(W
t
[W
T
) = aW
T
+ b o` u a et b sont des
constantes. Montrer que b = 0 et que a =
t
T
. (On pourra prendre
lesperance des deux membres et calculer E(W
t
W
T
))
3. Soit s < t < T. On admet que E(W
t
[W
s
, W
T
) = aW
s
+ bW
T
+ c o` u a, b
et c sont des constantes. Montrer que a =
T t
T s
, b =
t s
T s
, c = 0.
4. On note T

t
= T
t
(W
T
) la tribu engendree par (W
u
, u t) et par W
T
.
On admet que pour s < t, E(W
t
[W
T
, W
s
) = E(W
t
[T

s
). Montrer que Z
est une (T

t
)- martingale. On pourrait montrer que cest un MB.
Exercice 7.6.2 Soit G une ltration et W un G mouvement brownien.
1. Soit H une ltration plus petite que G. Verier que le processus M
t
=
E(W
t
[H
t
) est une martingale. (on precisera par rapport `a quelle ltra-
tion).
2. Soit X
t
= W
t
+
_
t
0
Y
u
du o` u Y est un processus G adapte integrable. On
note F
X
la ltration de X (qui verie T
X
t
(
t
) et

Y
u
= E(Y
u
[T
X
u
).
Verier que Z
t
= (X
t

_
t
0

Y
u
du, t 0) est une F
X
-martingale (on cal-
culera lesperance conditionnelle de Z
t
par rapport `a T
X
s
). Montrer que
Z est un mouvement Brownien.
7.7 Options barri`eres
Exercice 7.7.1 On note ^ la fonction de repartition de la loi normale et M
t
=
sup(B
s
, s t).
1. Soit x IR. Montrer que P(B
t
x) = P(B
t
x) = ^(x(

t)
1
).
2. Soit y > 0 donne, T = inft 0 [B
t
= y.
Soit B

t
= B
T+t
B
T
. On admet que T est un temps darret et (B

t
, t 0)
est un Brownien independant de T
T
.
(a) Montrer que
P(B
t
x, M
t
> y) = P(T < t, B

tT
x y)
(b) Montrer que
P(T < t, B

tT
xy) =
_
t
0
P(T du)P(B

tu
xy) = P(T < t, B

tT
yx)
96 Complements. Enonces
(c) Montrer que pour y > x, on a
P(B
t
x, M
t
> y) = P(B
t
2y x)
En deduire que
P(B
t
x, M
t
< y) = ^(
x

t
) ^(
x 2y

t
)
3. En deduire la loi de T, celle de M
t
et la densite du couple (B
t
, M
t
).
4. Soit X
t
= t + B
t
, Y
t
= sup(X
s
, 0 s t. Montrer, en utilisant le
theor`eme de Girsanov, que le calcul de
P(X
t
< x, Y
t
< y)
se deduit du calcul precedent.
7.8 Meandres, ponts, excursions
Exercice 7.8.1 Loi conditionnelle. Soit d
t
= infs t : B
s
= 0. Mon-
trer que d
t
(W)
loi
= t +
(W
t
)
2
G
2
o` u G est une variable gaussienne de loi ^(0, 1)
independante de W
t
. Soit g = supt 1 : B
t
= 0. Calculer P(g t[T
t
).
Exercice 7.8.2 Martingale dAzema. On admet que le processus m
u
=
1

t g
t
[B
g
t
+u(tg
t
)
[, u 1 est independant de T
g
t
, que sgneB
t
est T
g
t
mesurable
et que m
1
a pour densite xe
x
2
/2
11
x>0
dx. Calculer E(B
t
[T
g
t
), E(B
2
t
t[T
g
t
) et
E(e
B
t

2
2
t
[T
g
t
). Montrer que ces processus sont des martingales.
7.9 Divers
Exercice 7.9.1 Soit dS
t
= S
t
(dt + dW
t
) et

S
t
= S
t
max(1, max
0st
K
S
s
).
Calculer e
rT
E(

S
T
)
Exercice 7.9.2 Soit S un brownien geometrique
dS
t
= S
t
(dt +dW
t
)
On pose M
t
=
1
t
_
t
0
S
u
du. Calculer
E((M
T
k)
+
[T
t
)11
M
t
(Tk/t)
1. Soit s < t M
s
= sup
us
W
u
, M
s
t
= sup
sut
W
u
. Calculer P(M
s
<
a, M
s
t
< b, W
t
< c). On donnera le resultat sous forme dune integrale.
2005-06 97
2. Soit X
t
= e
2(W
t
+t)
(x +
_
t
0
e
2(W
s
+s)
ds). Montrer que
dX
t
= f(t, X
t
)dt +g(t, X
t
)dW
t
o` u lon explicitera les fonctions f et g. Comment pourrait-on calculer le
prix dune option europeenne sur le sous jacent X, en presence dun actif
sans risque de taux constant r?
Exercice 7.9.3 Let B be a Brownian motion and T
a
= inft 0 : B
t
= a
where a > 0.
1. Using the Doleans-Dade exponential of B, prove that
E(e

2
T
a
/2[T
t
) = e
a
+
_
T
a
t
0
e
(aB
u
)
2
u/2
du
and that
e

2
T
a
/2
= e
a
+
_
T
a
0
e
(aB
u
)
2
u/2
du
2. By dierentiating the Laplace transform of T
a
, and the fact that satises
the Kolmogorov equation, prove that
e
c
= 2
_

0
e

2
t/2

t
(t, c) dt
where (t, x) =
1

2t
e
x
2
/(2t)
.
3. Prove that, for any f
E(f(T
a
)[T
t
) = E(f(T
a
)) + 2
_
T
a
t
0
_

0
f(u +s)

u
(u, B
s
a)dudB
s
4. Deduce that
11
T
a
<t
= P(T
a
< t) + 2
_
T
a
t
0
(T t, B
t
a)dB
t
98 Sauts. Enonces
Chapter 8
Processus `a sauts
8.1 Processus de Poisson
Dans cette section, N
t
est un processus de Poisson dintensite deterministe (s)
et M
t
= N
t

_
t
0
(s)ds la martingale compensee.
Exercice 8.1.1 Soit N
i
, i = 1, 2 deux processus de Poisson independants de
meme intensite. Montrer que N
1
N
2
est une martingale.
Exercice 8.1.2 Soit T

t
= (N
s
, s t, N
T
). Montrer que
M

t
def
= N
t

_
t
0
N
T
N
s
T s
ds
est une T

t
-martingale.
Exercice 8.1.3 Montrer que les processus
X
t
= exp(
_
t
0
sdN
s
+
_
t
0
(s)(1 e
s
)ds)
Y
t
= exp(
_
t
0
ln(1 +s)dM
s
+
_
t
0
[ln(1 +s) s](s)ds)
sont des martingales.
Exercice 8.1.4 Caracterisation de Processus de Poisson.
1. Calculer (z, t) =

n
z
n
P(N
t
= n).
2. Soit X un processus `a accroissements independants, `a valeurs dans lensemble
des entiers, tel que X
t+s
X
t
loi
= X
s
et (z, t) =

n
z
n
P(X
t
= n). Mon-
trer que (z, t +h) = (z, t)(z, h). On suppose quil existe tel que
1
h
P(X
h
2) 0 ,
1
h
P(X
h
= 1) ,
1
h
(1 P(X
h
= 0))
99
100 Sauts. Enonces
quand h tend vers 0. Montrer que

t
(z, t) = (z 1)(z, t). Quel est le
processus X?
Exercice 8.1.5 Soit (Y
i
, i 1) des variables independantes equidistribuees
desperance et independantes de N. On note X
t
=

N
t
i=1
Y
i
le processus
de Poisson compose. Soit M
t
= N
t
t et Z
t
= X
t
t. Montrer que Z et
(M
t
Y
t
t, t 0) sont des martingales.
Exercice 8.1.6 On consid`ere lequation
X
t
= x +N
t
c
_
t
0
X
s
ds
1. Montrer que cette equation admet au plus une solution.
2. Montrer que
e
ct
x +
_
t
0
e
c(ts)
dN
s
est une solution.
Exercice 8.1.7 On note = T
1
le premier saut de N et D
t
= N
t
1. Determiner tel que Z
t
= D
t

_
t
0

u
du soit une martingale.
2. On note L
t
= (1 D
t
)/(1 F(t)) o` u F(t) = P( t) est supposee
continue. Montrer que dL
t
=
t
dZ
t
o` u on explicitera . Meme question
si F est seulement continue `a droite.
3. Soit N
1
et N
2
deux PP dintensite constante
1
et
2
et D
i
les processus
associes. On note
1
(t) = (

1
1)D
2
(t) et
2
(t) = (

2
1)D
1
(t).
Soit
t
solution de d
t
=
t
(
1
(t)dZ
1
(t) +
2
(t)dZ
2
(t)). Expliciter
t
.
Soit dQ =
t
dP. Calculer Q(
1
> t,
2
< s) pour s < t.
Exercice 8.1.8 Calculer la TL de
_
t
0
N
s
ds.
Exercice 8.1.9 Montrer que
f(N
t
== f(N
0
) + f(0)
_
t
0
dN
s
+
_
t
0
dN
s
__
s
0

2
f(N
u
dN
u
_
Calculer
_
t
0
dN
s
__
s
0
dN
u
_
et
_
t
0
dN
s
__
s
0
dN
u
_
u
0
dN
v
_
2005-06 101
8.2 Poisson compose
Let 0 be a positive number and be a probability law on IR. A (, ) compound
Poisson process is a process X = (X
t
, t 0) of the form
X
t
=
N
t

k=1
Y
k
where N is a Poisson process with intensity > 0 and (Y
k
, k IN) are non-
negative i.i.d. random variables with law , independent of N. It diers from a
Poisson process since the sizes of the jump are random variables, independent
of the Poisson process.
Exercice 8.2.1 We denote by Y a random variable with law . Prove that a
compound Poisson process is with independent increments, and
E(X
t
) = tE(Y )
Var (X
t
) = tE(Y
2
).
Exercice 8.2.2 Let X be a (, ) componud Poisson process. Prove that the
process
M
f
t
=

st
f(X
s
)11
X
s
=0
t(f)
is a martingale; the process
(M
f
t
)
2
t(f
2
)
is a martingale.
Suppose that X is a pure jump process and that there exists a nite positive
measure such that

st
f(X
s
)11
X
s
=0
t(f)
is a martingale for any f, then X is a compound Poisson process.
Exercice 8.2.3 If X is a (, ) compound Poisson process,
E(e
X
t
) = exp
_
t
_
1
_

0
e
u
(du)
__
.
Exercice 8.2.4 Let X be a (, ) compound Poisson process and f a bounded
Borel function. Then,
exp
_
N
t

k=1
f(Y
k
) +t
_
(1 e
f(x)
)(dx)
_
is a martingale.
102 Sauts. Enonces
8.3 Formule dIto
Exercice 8.3.1 Soit W un mouvement Brownien et M
t
= N
t
t la martingale
compensee associee au processus de Poisson N dintensite constante .
1. Montrer que la solution de
dS
t
= S(t

)(rdt +dW
t
+dM
t
), S
0
= x
est, pour > 1
S
t
= xe
rt
exp(W
t

1
2

2
t) exp(ln(1 +)N
t
t) . (8.1)
2. Ecrire la solution en faisant apparaitre la martingale M.
3. Quelle est la dynamique de 1/S
t
?
4. Quelle est la dynamique de S
2
t
?
5. Calculer E(S
t
) et E(S
2
t
).
6. Quelle est la solution de (8.1)pour = 1? et pour < 1?
7. Quelle est la solution de (8.1) lorsque les coecients dependent du temps?
Exercice 8.3.2 Soit
dX
t
= (t, X
t
)dt +(t, X
t
)dW
t
+(t, X
t
)dM
t
et H une fonction de classe C
1,2
. Sous quelles conditions le processus Y
t
=
H(t, X
t
) est-il une martingale locale?
Exercice 8.3.3 Soit un espace de probabilite (, F, P) sur lequel evoluent un
mouvement Brownien W et un processus de Poisson N, dintensite deterministe
. On suppose que T
t
= (W
s
, N
s
, s t).
1. Determiner la dynamique de toutes les martingales strictement positives.
2. Soit Q une probabilite equivalente `a P sur tout T
t
. Caracteriser la dy-
namique de la densite L
t
de Q par rapport `a P.
3. Quelle sont les formes possibles de L si on impose que, sous Q le processus

S = e
rt
S
t
o` u S a pour dynamique
dS
t
= S(t

)(rdt +dW
t
+dM
t
)
soit une martingale?
4. Meme question si
dS
t
= S(t

)(dt +dW
t
+dM
t
)
2005-06 103
8.4 Defaut
Exercice 8.4.1 Soit un temps aleatoire sur un espace (, (
t
, P). On suppose
quil existe un processus positif, G-adapte (
s
, s 0) tel que 11
t

_
t
0

u
du
soit une (
t
martingale. Soit h une fonction borelienne, X une variable aleatoire
(
T
mesurable et
V
t
= E(X exp
_
T
t

s
ds +
_
T
t
duh
u

u
_
exp
_
u
t

s
ds
_
[(
t
) .
Montrer que
11
{t<}
V
t
= E
_
(V

)11
{t<T}
+X11
{T<}

(
t
_
.
(Appliquer Ito `a V
t
exp
_
t
0

s
ds +
_
t
0
duh
u

u
_
exp
_
u
0

s
ds
_
= U
t
et `a
U
t
(1 11
t
).
8.5 Marche complets, incomplets
Exercice 8.5.1 Soit
dS
t
= S
t
[dt +dM
t
]
and r = 0. Quelle est la condition pour que ce marche soit sans arbitrage?
Quelle est le m.m.e.? Quelle est la dynamique de S sous Q?
Exercice 8.5.2 On etudie un mod`ele dans lequel il y a un actif sans risque de
taux r et un actif risque
dS
t
= S(t

)(rdt +dW
t
+dM
t
) (8.2)
1. Montrer que ce marche est incomplet, determiner les m.m.e..
2. Quels sont les actifs duplicables?
3. On note X
x,,C
la valeur dun portefeuille de richesse initiale x, avec
processus de consommation cumule C. Montrer que
R
t
X
t
= x +
_
t
0

s
X
s
d(RS)
_
t
0
R
s
dC
s
4. Soit Q lensemble des probabilites risque neutre, et
V
t
= esssup
Q
E
Q
(R
T
B[T
t
)
On admettra que V est une surmartingale pour tout Q et que toute sur-
matingale secrit comme une martingale moins un processus croissant.
104 Sauts. Enonces
Montrer quil existe A
Q
processus croissant, , tels que V
t
= v+
_
t
0

s
dW
Q
s
+
_
t
0
dM
Q
s
A
Q
t
, o` u W
Q
et M
Q
sont des Q-martingales et W
Q
un MB..
Preciser le lien entre A
P
et A
Q
.
5. Montrer que
t


t
0
6. Montrer que A
P

_
t
0
(
s


s
) est un processus croissant.
7. En deduire que V est la valeur dun portefeuille X dont on explicitera le
processus de consommation.
Exercice 8.5.3 On consid`ere un actif de prix
dS
t
= S
t
(rdt +dM
t
)
o` u M est la martingale compos ee associe `a un processus de Poisson dintensite
constante .
1. Verier que S
t
e
rt
est une martingale.
2. Soit X le valeur dun portefuille autonancant comportant parts dactif
risque, soit
dX
t
= rX
t
dt +
t
(dS
t
rS
t
dt)
Verier que

X
t
= e
rt
X
t
est une martingale. Ecrire la dynamique de

X en
fonction de

S.
3. Ecrire lEDS veriee par X/S.
4. On pose dQ = S
t
e
rt
/S
0
dP. Verier que X/S est une martingale sous
Q.
Corriges. 2005-06 105
s
CORRIGES
106 Rappels
Chapter 1
Rappels, Corriges
1.1 Tribu
Exercice 1.1.1: Lensemble B A secrit B A
c
. Si T est une tribu, elle est
stable par passage au complementaire et par intersection, do` u le resultat.
Exercice 1.1.2 : 1) La tribu engendree par A est constituee des quatre ensem-
bles A, A
c
, , .
2) Cette tribu doit contenir Aet B, lensemble vide et . Puis les complementaires,
soit A
c
et B
c
(les complementaires de et de lensemble vide egaux `a lensemble
vide et `a sont dej`a dans la liste). Puis les unions densembles soit A B, les
autres unions A = , A B
c
= B
c
,... sont deja dans la liste. Puis les
intersections A
c
B
c
. On a termine car les autres ensembles formes `a partir
doperations de passage au complementaire, dintersection et dunion sont dans
la liste par exemple (A
c
B
c
) B
c
= B
c
.
Exercice 1.1.4 : Soit ( = T
1
T
2
la famille composee des ensembles qui ap-
partiennent `a T
1
et `a T
2
. La famille ( est une tribu si
(i) (, ce qui est le cas car T
1
, T
2
donc T
1
T
2
.
(ii) la famille ( est stable par passage au complementaire: si
A (, la stabilite des tribus T
1
et T
2
par passage au complementaire implique
A
c
T
1
, A
c
T
2
donc A
c
T
1
T
2
.
(iii) la famille ( est stable par intersection denombrable: si A
i
(,
la stabilite des tribus T
1
et T
2
par intersection denombrable implique
i
A
i

T
1
, A
c
T
2
donc
i
A
c
T
1
T
2
.
Les autres proprietes resultent des precedentes: Lensemble vide appartient `a (
car cest le complementaire de ( utiliser (i) et (ii)), la famille ( est stable par
union denombrable: en passant au complementaire lidentite (A
i
)
c
(A
c
i
) on
obtient A
i
= (
i
A
i
)
c
. Il reste `a utiliser (ii) et (iii).
Lunion de tribus nest pas une tribu: consid`erer le cas T
1
= (A), T
2
= (B).
la famille T
1
T
2
ne contient pas A
c
B
c
. Ne pas confondre sous ensembles
107
108 Rappels
et elements. Par exemple, un intervalle est un sous ensemble de IR, et nest pas
un element de IR.
Exercice 1.1.6 : On utilise que X
1
(B) = : X() B. La famille (
est une tribu: la stabilite requise provient des egalites suivantes: X
1
(B
c
) =
(X
1
(B))
c
, X
1
(B
n
) = X
1
(B
n
). On trouvera une demonstration de la
reciproque dans tout ouvrage de proba, cette demonstration est basee sur le
theor`eme qui precise que si une tribu contient une classe stable par intersection
nie, elle ccntient la plus petite tribu engendree par cette classe.
Exercice 1.1.7 : Les diverses quantites que lon veut comparer sont egales.
Les esperances E(f(X)) et E(f(Z)) sont egales parce que X et Z ont meme
loi, et E(f(X, Y )) = E(f(Z, T)) car le couple (X, Y ) a meme loi que le couple
(Z, T). Si lhypoth`ese (Z, T) sont independantes netait pas faite, legalite en loi
des variables X et Z et celle des variables Y et T ne surait pas. Par exemple,
on peut prendre X
loi
= Y de loi gaussienne ^(0, 1), X et Y independantes et
Z = T = X. On aurait alors E(X
2
Y
2
) = 1 et E(Z
2
T
2
) = E(X
4
) = 3. (contre
exemple pour la question 3)
1.2 Variables gaussiennes.
Exercice 1.2.1 : Par symetrie de la densite et imparite de x
3
, on a E(X
3
) = 0
et, par parite de x
4
on a E(X
4
) =
2

2
_

0
x
4
e

x
2
2
2
dx. Cette derni`ere
integrale se calcule par integrations par parties successives et on obtient E(X
4
) =
3
4
.
On a egalement E([X[) =
2

2
_

0
xexp
x
2
2
2
dx, do` u E([X[) =
2

2
et,
par des calculs analogues E([X
3
[) =
4
3

2
.
Exercice 1.2.4 : Si X et Y sont gaussiennes independantes, la somme X +Y
est gaussienne: ceci se voit tr`es facilement avec les fonctions caracteristiques:
E(e
it(X+Y )
) = E(e
itX
)E(e
itY
) = e
itm
1

t
2

2
1
2
e
itm
2

t
2

2
2
2
= e
itm
t
2

2
2
avec m = m
1
+m
2
et
2
=
2
1
+
2
2
.
On peut le voir aussi en se souvenant que si X et Y sont independantes, de
densite f et g, la somme X + Y a pour densite h(x) =
_

f(x y) g(y) dy
et en eectuant le calcul. Attention, ce resultat nest pas vrai si on na pas
lindependance de X et Y .
On peut aussi calculer la transformee de Laplace de la somme
E
_
exp((X+Y ))
_
= E(exp((X))E(exp((Y )) = exp[(m(X)+m(Y ))+

2
2
(
2
(X)+
2
(Y ))]
Corriges. 2005-06 109
ce qui montre que la somme a une loi gausienne desperance m(X) + m(Y ) et
de variance
2
(X) +
2
(Y ).
Exercice 1.2.5 :
1. Si X est ^(m,
2
),sa densite est f(x) =
1

2
exp
(x m)
2
2
2
et la v.a.
Y =
X m

est ^(0, 1). On peut le verier de plusieurs facons.


En calculant la fonction de repartition de Y : Soit F
Y
la fonction de
repartition de Y . On a F
Y
(y) = P(Y y) = P(X m + y) =
F
X
(m+y). Il reste `a deriver par rapport `a y pour obtenir la densite
de Y qui est f(m+y) =
1

2
exp
y
2
2
.
On peut utiliser les fonctions caracteristiques. Soit (t) = E(e
itX
) =
e
itm
t
2

2
2
la fonction caracteristique de X; la fontion caracteristique
de Y est
E(e
itY
) = E(e
it
Xm

) = e

itm

(
t

) = e

t
2
2
Cette remarque permet de ramener des calculs sur ^(m,
2
) `a des
calculs sur ^(0, 1).
La variable X m est gaussienne centree. Do` u en utilisant lexercice 1,
E([X m[) =
2

2
.
2. On a E(e
X
) =
1

2
_

e
x
exp
(x m)
2
2
2
dx.
On montre que e
x
exp
(xm)
2
2
2
= exp(m +
1
2

2
) exp[
1
2
2
(x (m +

2
))
2
] et le resultat sobtient facilement. item Soit X une v.a. de loi
^(0, 1). On a
E(11
X<b
e
X
) =
1

2
_
b

e
x
e

x
2
2
dx =
1

2
e

2
2
_
b

x
2
2
dx = e

2
2
(b).
3. Soit U une variable gaussienne desperance m et de variance
2
. Pour
calculer E(expU
2
+U), on doit calculer
1

2
_

e
u
2
+u
e

1
2
2
(um)
2
du.
On montre que
u
2
+u
1
2
2
(um)
2
=
1
2
2
_
u ( +
m

2
)
2
_
2
+

2
2
(+
m

2
)
2

m
2
2
2
110 Rappels
avec
2
=

2
12
2
.
Il vient
E(expU
2
+U) =

exp
_

2
2
( +
m

2
)
2

m
2
2
2
_
.
En particulier
E(expU
2
) =
1

1 2
2
exp
m
2

1 2
2
4. Il est facile, par changement de variable, dobtenir E(e
X
f(X)) = e
m+
2

2
/2
E(f(X+

2
) pour f continue bornee.
5. Par derivation par rapport `a , on obtient pour f reguli`ere E(f(X)(X
m)) =
2
E(f

(X)).
6. En derivant E(e
aG
^(bG+c)) par rapport `a b, on obtient le resultat.
Exercice 1.2.6 : Rappels:
la convergence L
2
implique la convergence L
1
: [[X
n
X[[
2
converge vers 0
implique [[X
n
X[[
1
converge vers 0, avec [[X[[
1
=
_

[X[dP. Ce resultat est


evident compte tenu de linegalite [[X[[
1
[[X[[
2
qui resulte de la positivite de
la variance Var ([X[ ) = [[X[[
2
2
[[X[[
2
1
.
Si X
n
converge vers X dans L
2
(resp. L
1
), on a E(X
2
n
) converge vers E(X
2
)
(resp E(X
n
) converge vers E(X)). (La reciproque est fausse)
Si X
n
converge dans L
2
vers X, on a en particulier m
n
converge vers m et
2
n
converge vers . La suite de fonctions caracteristiques e
itm
n

t
2

2
n
2
converge vers
e
itm
t
2

2
2
et la loi de X est gaussienne.
Exercice 1.2.7 : Soit X un vecteur gaussien. Le vecteur Y = AX est un
vecteur gaussien, car toutes les combinaisons lineaires de composantes de Y sont
des combinaisons lineaires de composantes de X, donc une variable gaussienne.
Que le vecteur X soit gaussien ou non, on a E(AX) = AE(X) et Var AX =
A
t
(Var X)A, o` u VarX designe la matrice de variance covariance du vecteur X.
On obtient dans le cas p = 1 que A
t
(Var X)A 0, cest-`a-dire que les matrices
de variance covariance sont semi denies positives.
Exercice 1.2.8 : La v.a. X+Y est gaussienne desperance E(X) +E(Y )
et de variance
2

2
(X) +
2

2
(Y ). On en deduit
E(exp(X +Y )) = exp
_
E(X) +E(Y ) +
1
2
(
2

2
(X) +
2

2
(Y ))
_
= exp
_
E(X) +
1
2

2
(X)
_
exp
_
E(Y ) +
1
2

2
(Y )
_
= E(expX) E(expY )
do` u lindependance.
Corriges. 2005-06 111
Exercice 1.2.9 : Si (X, Y ) est un vecteur gaussien, X et Y sont des vecteurs
gaussiens.
Cas d = 1. La projection de X sur (Y
1
, Y
2
, . . . , Y
n
) est de la forme Pr X =

n
i=1
a
i
Y
i
Cest une v.a. gaussienne car Y est gaussien. Le vecteur (X
Pr X, Y ) est gaussien. Les vecteurs X Pr X et Y sont independants car
E((X Pr X)Y
i
) = 0 par denition de la projection.
Exercice 1.2.10 : Toujours avec la transformee de Laplace.
On verie dans un premier temps que
E(exp(X)) = E[E(exp(X)[Y )] = E[exp((aY +b) +

2
2

2
)]
= exp[aE(Y ) +

2
a
2
2

2
(Y )] exp[b +

2
2

2
]
donc, la v.a. X est gaussienne desperance b+aE(Y ) et de variance
2
+a
2

2
(Y ).
On calcule de la meme facon E(Y e
X
) = E(Y exp((aY + b) +

2
2

2
)] et en
derivant par rapport `a , on trouve E(XY ) = aE(Y
2
) +bE(Y ).
Dautre part
E(exp(X +Y )) = E[exp(Y )E(exp(X[Y )]
= E[exp(Y ) exp((aY +b) +

2
2

2
)] = E[exp[(a +)Y ]] exp(b +

2

2
2
)
= exp[(a +)E(Y ) +
(a +)
2
2

2
(Y )] exp(b +

2

2
2
)
et on verie que ceci est
exp(E(X) +E(Y )) +
1
2
Var(X +Y ))
1.3 Esperance conditionnelle
Exercice 1.3.2 : Il sut de calculer E([X Y ]
2
[() qui vaut 0 (developper le
carre) donc, en prenant lesperance E([X Y ]
2
) = 0.
Exercice 1.3.5 : Sous les hypoth`eses de lexercice E(XY [() = E(X[() Y
car Y est (-mesurable et E(XY [() = E(XY ) = m par independance. Do` u
E(X[() = m+Y . De la meme facon E((XY )
2
[() = E(X
2
[()2Y E(X[()+
Y
2
do` u E(X
2
[() =
2
+ (Y +m)
2
.
Exercice 1.3.6 : Par denition de la projection E(XZ) = E((Pr X)Z) pour
tout Z combinaison lineaire des Y
i
. Cela ne sut pas `a dire que Pr X est
lesperance conditionnelle car il existe des v.a. qui sont Y -mesurable et qui ne
sont pas combinaison lineaire des Y
i
. Mais nous avons montre que X Pr X
et Y sont independantes, do` u E(X Pr X[Y ) = E(X Pr X) = 0. Do` u
112 Rappels
E(X[Y ) = Pr X.
Si n = 1, E(X[Y ) = Pr X appartient `a lespace engendre par Y donc secrit
Y , et on deduit de E(X[Y ) = Y , apr`es multiplication par Y et integration
=
E(XY )
E(Y
2
)
.
Exercice 1.3.7 : Soit X = X
1
+ X
2
. On a E(X[() = E(X
1
[() + E(X
2
[() =
E(X
1
) +X
2
. Puis E(X
2
[() = E(X
2
1
) +X
2
2
+ 2X
2
E(X
1
) et
Var (X[() = E(X
2
[() (E(X[())
2
= Var X
1
.
E(e
X
[() = E(e
X
1
e
X
2
[() = e
X
2
E(e
X
1
) = e
X
2
exp(E(X
1
) +

2
2
Var (X
1
))
Exercice 1.3.8 : Il est facile de montrer la suite degalites
Cov (Z
1
, Z
2
[() = E(Z
1
Z
2
[() E(Z
1
[()E(Z
2
[()
= E(Z
1
Z
2
[() E(Z
2
(E(Z
1
[())[()
= E((Z
1
E(Z
1
[() Z
2
[()
Exercice 1.3.9 : Le membre de droite, note K est H mesurable. Il sut de
verier que
E(X11
H
) = E(K11
H
)
pour tout H H, ce qui se reduit `a
E(X11
C
11
A
) = E(K11
C
11
A
, et E(X11
C
11
A
c ) = E(K11
C
11
A
c )
ce qui est routine.
Exercice 1.3.10 : Par linearite, E(aX + b[Z) = aE(X[Z) + b. La tribu en-
gendree par Z est composee des sous-ensembles de de la forme Z
1
(A) o` u
A est un borelien de IR et Z
1
(A) = [Z() A = [Y () + b A =
[Y () B o` u B est lensemble des nombres reels tels que x B
x +b A et est un borelien (La preuve parfaite exigerait la demonstration de
ce point, qui tient au fait que B est limage reciproque de A par lapplication
g : y
1

y b, soit B = g
1
(A) et que g est continue, donc borelienne)
Exercice 1.3.11 : La premiere question est directe en utilisant le resultat ad-
mis dans lexercice 1.1.6. En utilisant cette question, on a que E(X[()11
1
est de la forme h(1 )11
1
= h(1)11
1
. En prenant lesperance des deux
membres, on identie la constante h(1).
Exercice 1.3.12 : Trivial.
Exercice 1.3.13 : E(X[T) est ( T mesurable. Soit F T et G (, on a
alors, en utilisant lindependance
E(X11
F
11
G
) = E(X11
F
)E(11
G
)
Corriges. 2005-06 113
et
E(11
F
11
G
E(X[T)) = E(11
F
E(X[T))E(11
G
)
donc E(X11
F
11
G
) = E(11
F
11
G
E(X[T)). Nous avons donc montre que E(X11
H
) =
E(11
H
E(X[T)) pour tout H ( T de la forme H = F G. Ces en-
sembles engendrent la tribu ( T et forment une famille stable par intersec-
tion. Lapplication qui `a H associe E(X11
H
) (resp. E(11
H
E(X[T))) denit une
mesure positive sur cette tribu, les deux mesures, apr`es normalisation par E(X)
sont des probabilites (cest-`a-dire lapplication qui `a H associe E(X11
H
)/E(X)
est une probabilite) qui coincident sur les ensembles de la forme F G, donc,
par theor`eme de classe monotone, elles coincident sur la tribu engendree.
Exercice 1.3.14 : Seule la reciproque demande une demonstration. Si
E
Q
(X[() = E
P
(X[() alors E
P
(LX[() = E
P
(X[()E
P
(L[() = E
P
(XE
P
(L[()[()
Do` u E
P
(X(L E
P
(L[())[() = 0 pour tout X. Il en resulte (prendre X =
L E
P
(L[()) que L E
P
(L[() = 0.
Exercice 1.3.15 : Soit dQ = (X)dP. On a E
P
((X)) =
_
(x)f(x)dx, E
Q
((X)) =
E
P
((X)(X)) =
_
(x)(x)f(x)dx. Il sut de choisir telle que (x)f(x) =
g(x).
1.4 Martingales
Exercice 1.4.1 : Soit s t et X
t
= E(X[T
t
). On a, en utilisant T
t
T
s
E(X
s
[T
t
) = E(X[T
s
[T
t
) = E(X[T
t
) = X
t
.
Exercice 1.4.2 : Soit X
t
= M
t
A
t
. On a, pour t s E(X
t
[T
s
) = M
s

E(A
t
[T
s
) et comme A
s
A
t
ou A
t
A
s
, E(X
t
[T
s
) M
s
E(A
s
[T
s
) =
M
s
A
s
= X
s
.
Exercice 1.4.3 : Cest le lemme de Fatou: de linegalite
E(M
t
n
[T
s
) = M
s
n
on en deduit linegalite de surmartingale en utilisant que M
s
n
converge vers
M
s
et que
limE(M
t
n
[T
s
) E(limM
t
n
[T
s
) = E(M
t
[T
s
)
(le lemme de Fatou assure que limE(X
n
[() E(limX
n
[() si les v.a. sont pos-
itives).
Soit F T et G ( E(X11
F
11
G
) = E(11
F
11
G
E(X[T)) car E(X11
F
11
G
) =
E(X11
F
)E(11
G
) et E(11
F
11
G
E(X[T)) = E(11
F
E(X[T))E(11
G
).
114 Rappels
Exercice 1.4.4 : Par denition de la propriete de martingale, X
t
= E(X
T
[T
t
).
Cette propriete est `a la base de tous les calculs devaluation en nance. En ef-
fet, ces formules reposent sur le fait quun certain processus est une martingale
et donc que sa valeur `a linstant t est lesperance conditionnelle de sa valeur
terminale.
Exercice 1.4.7 : Soit G = ((
t
, t 0) la ltration de M, cest `a dire (
t
=
(M
s
, s t). Par denition, (
t
T
t
(La martingale M est F adaptee, et la
ltration de M est la plus petite ltration telle que la propriete dadaptation
soit vraie. On a alors E(M
t
[(
s
) = E(M
t
[T
s
[(
s
) = E(M
s
[(
s
) = M
s
On peut
aussi montrer que si que si M est une F-martingale et H
t
T
t
, E(M
t
[H
t
) est
une H-martingale.
Exercice 1.4.8 : Pour s < t, on a ( s) ( < t), do` u
Z
t
= E( t[T
t
) E( s[T
t
)
et le resultat suit en prenant lesperance conditionnelle par rapport `a T
s
.
1.5 Temps darret
Exercice 1.5.1 : La seule diculte est la stabilite par passage au complementaire.
Si A T

on ecrit
A
c
( t) = ( t) (A ( t) T
t
Exercice 1.5.2 :Par hypoth`ese sur X, pour tout a, X a T
T
Par
denition de la tribu T
T
, X a T t T
t
. Par suite X a T
a T
a
. Le premier membre de cette inclusion est X a.
Exercice 1.5.4 : Il sut decrire
A (T t) = A (S t) (T t)
et donc, si A T
S
on a A (T t) T
t
.
Exercice 1.5.5: Il sut decrire
(S a) (S t) = (S (a t)) T
at
Exercice 1.5.6: Montrons que S T T
T
. pour cela , on ecrit
(S T) (T t) = (S t T t) (T t) (S t)
et chacu des trois ensembles du membre de droite est dans T
t
(car S t est plus
petit que t donc T
t
mesurable.
Corriges. 2005-06 115
On introduit R = S T. Cest un temps darret, T
R
mesurable avec
T
R
T
T
. Donc (R = T) T
T
, et (R < T) T
T
, par suite (S < T) T
T
et
S = T T
T
, ainsi que T S et T < S.
Exercice 1.5.7 : Soit xe. La fonction t Z
t
() vaut 1 pour t [S(), T([
et 0 sinon. Elle est continue sur les trois intervalles [0, S()[, ]S(), T()[, ]T(), [.
Elle est continue `a droite en S() car si t S() par la droite (soit t > S()),
Z
t
() = 1 tend vers Z
S()
() = 1.
Exercice 1.5.11 : Utiliser le theor`eme darret et le temps darret T
y
pour
y > a. On a E(M
T
y
t
) = a. On fait alors tendre t vers linni M
T
y
t
converge
vers y sur T
y
< et vers 0 sinon. (et est borne). Do` u P(T
y
< ) = a/y. Il
reste `a remarquer que P(T
y
< ) = P(supM
t
y).
1.6 Temps discret
Exercice 1.6.3 : Legalite E(X
n+p
[T
n
) = X
n
est vraie pour p = 1. En utilisant
E(X
n+p
[T
n
) = E(X
n+p
[T
n+p1
[T
n
) = E(X
n+p1
[T
n
)
on demontre le resultat par recurrence.
Exercice 1.6.4 : On obtient
E((H M)
n
[T
n1
) =
n

k=1
E(H
k
(M
k
M
k1
) [T
n1
)
=
n1

k=1
H
k
(M
k
M
k1
) +E(H
n
(M
n
M
n1
) [T
n1
)
=
n1

k=1
H
k
(M
k
M
k1
) +H
n
E(M
n
M
n1
[T
n1
)
=
n1

k=1
H
k
(M
k
M
k1
)
1.7 Alg`ebre beta-gamma
1.8 Divers
Exercice 1.8.1 :
E(expM

) = E(
_

0
dte
t
e
M
t
) = E(
_

0
dte
t

_

M
t
e
u
du)
116 Brownien.
= E(
_

0
dt
_

0
due
t
11
u>M
t
e
u
) = E(
_

0
du
_

0
dte
t
11
T
u
>t
e
u
)
= E(
_

0
due
u

_
T
u
0
dte
t
) =
_

0
due
u
(1 e
T
u
)
Exercice 1.8.2 : La partie directe est evidente, car e
X
et e
Y
sont independantes.
La reciproque nest pas vraie, comme le montre le contre exemple suivant: Soit
X, Y telles que P(X = i, Y = j) = a
i,j
o` u les a
i,j
sont donnes pas les coecients
de la matrice
_
_
1/9 1/6 1/18
1/18 1/9 1/6
1/6 1/18 1/9
_
_
La loi de X est egale `a celle de Y et P(X = i) = 1/3 = P(Y = j). On verie
que X et Y ne sont pas independantes (par exemple P(X = 1, Y = 3) ,= 1/9.
La loi de X + Y est egale `a la loi de X
1
+ Y
1
o` u X
1
a meme loi que X, Y
1
a
meme loi que Y et X
1
et Y
1
sont independantes.
Cet exercice montre que la loi de la somme de deux v.a. depend tr`es forte-
ment de la loi du COUPLE. Rappellons `a ce sujet que si Z
1
et Z
2
sont gaussi-
ennes, cela nimplique pas que Z
1
+Z
2
est gaussienne: Le contre exemple suivant
du `a Nelson le prouve: Soit n la densite gaussienne reduite centree et u une fonc-
tion impaire continue, nulle hors de [1, +1] telle que [u(x)[ < (2e)
1/2
. On
verie que f(x, y) = n(x)n(y)+u(x)u(y) est une densite, que les lois marginales
sont normales, et la loi de la somme nest pas normale.
Par contre, si le vecteur (X, Y ) est gaussien, la somme X + Y est gaussienne.
Pour que le vecteur (X, Y ) soit gaussien, il faut et il sut que X soit gaussien
et que la loi conditionnelle de Y `a X soit gaussienne.
Chapter 2
Mouvement Brownien,
Corriges
2.1 Proprietes elementaires
Exercice 2.1.1 : Trivial. Ceci constitue une caracterisation du mouvement
Brownien comme processus gaussien.
Exercice 2.1.2 :
1. On a E(B
s
B
2
t
) = E( E(B
s
B
2
t
[T
s
)). La variable B
s
est T
s
-mesurable,
do` u, si t > s, E(B
s
B
2
t
) = E(B
s
E(B
2
t
[T
s
)).
On sait que B
2
t
t est une martingale, do` u E(B
2
t
[T
s
) = B
2
s
s + t. En
utilisant que B
t
est centre et que E(B
3
t
) = 0, on obtient que
E(B
s
B
2
t
) = E(B
s
(B
2
s
s +t)) = E(B
3
s
) = 0.
Si s > t, on a E(B
s
B
2
t
) = E( E(B
s
B
2
t
[T
t
)) = E(B
2
t
E(B
s
[T
t
)) = E(B
3
t
) =
0.
2. Le MB est une martingale, donc E(B
t
[T
s
) = B
s
pour t s et E(B
t
[T
s
) =
B
s
pour t < s car B
t
est T
s
-mesurable dans ce cas. Si s < t, E(B
t
[B
s
) =
E(B
t
B
s
+B
s
[B
s
) = E(B
t
B
s
[B
s
)+B
s
= B
s
car B
t
B
s
est independant
de B
s
et centre. Si t < s, on sinspire du pont Brownien (voir ex suivant)
pour ecrire E(B
t
[B
s
) = E(B
t

t
s
B
s
[B
s
) +
t
s
B
s
. La v.a. B
t

t
s
B
s
est centree et independante de B
s
: en eet, le couple (B
t

t
s
B
s
, B
s
)
est un couple gaussien centre et sa covariance est nulle. On en deduit
E(B
t
[B
s
) =
t
s
B
s
.
On peut aussi utiliser les resultats sur le conditionnement dun vecteur
gaussien.
117
118 Brownien.
3. La variable B
t
+ B
s
est gaussienne (car B est un processus gaussien)
centree. On peut aussi ecrire (B
t
+B
s
) comme une somme de v.a. gaussi-
ennes independantes: B
t
+ B
s
= B
t
B
s
+ 2B
s
. On en deduit que sa
variance est t + 3s.
4. Soit
s
une variable aleatoire bornee T
s
-mesurable. On a, pour s t
E(
s
(B
t
B
s
)) = E(E(
s
(B
t
B
s
)[T
s
)) = E(
s
E((B
t
B
s
)[T
s
)) = 0.
De meme
E(
s
(B
t
B
s
)
2
) = E(E(
s
(B
t
B
s
)
2
[T
s
)) = E(
s
E((B
t
B
s
)
2
[T
s
)) = (ts)E(
s
).
5. E(11
B
t
a
) =
_

11
B
t
a
dP =
_
a

2t
exp(
x
2
2t
) dx =
_
a/

2
exp(
y
2
2
) dy =
^(
a

t
). On peut aussi ecrire
E(11
B
t
a
) = P(B
t
a) = P(

tU a) = P(U a/

t) o` u U est une v.a.


de loi ^(0, 1).
E(B
t
11
B
t
a
) =
_
a

x
1

2t
exp(
x
2
2t
) dx =

t
_
a/

y
1

2
exp(
y
2
2
) dy
et la derni`ere integrale se calcule facilement.
Exercice 2.1.3 :
Pour t > u, la propriete dindependance et de stationarite des accroissements
conduit `a
f(B
t
) = f(B
t
B
u
+B
u
)
loi
= f(

B
tu
+B
u
))
loi
= f(

B
tu
+

uG))
o` u

B
s
= B
s+u
B
u
est un MB independant de T
u
.
Exercice 2.1.4 :
On peut calculer la densite de B

P(B

dx) =
_
P(B
t
dx)e
t
11
t>0
dt =
_

0
1

2t
exp(
x
2
2t
)e
t
dt
On trouve
P(B

dx) =

2
2
e
|x|

2
dx
mais ce calcul dintegrale nest pas trivial. Cependant, on peut y arriver sans
utiliser un attirail lourd de changement de variables. On sait que la transformee
de Laplace du temps datteinte du niveau a par un mouvement Brownien est
e
|a|

2
et que la densite de ce temps datteinte est
[a[

2u
3
e
a
2
/2u
. Ce qui
secrit
|a|

2
= E(e
T
a
) =
_

0
e
t
[a[

2t
3
e
a
2
/2t
dt .
Corriges. 2002-03 119
Par derivation par rapport `a , on obtient
[a[

2
e
|a|

2
=
_

0
e
t
[a[

2t
e
a
2
/2t
dt .
Do` u

_

0
e
t
1

2t
e
a
2
/2t
dt =

2
2
e
|a|

2
.
Exercice 2.1.5 :
1. Le processus M est F-mesurable. M
t
est integrable: E([B
3
t
[) = Ct
3
2
o` u C
est une constante et E[
_
t
0
B
s
ds[
_
t
0
E([B
s
[) ds =
_
t
0
_
2s

ds < .
En utilisant que, pour t > s, la v.a. B
t
B
s
est independante de T
s
, on
obtient
E(B
3
t
[T
s
) = E((B
t
B
s
+B
s
)
3
[T
s
) = E((B
t
B
s
)
3
)+3B
s
E(B
t
B
s
)
2
+3B
2
s
E(B
t
B
s
)+B
3
s
do` u E(B
3
t
[T
s
) = 3B
s
(t s) +B
3
s
.
Dautre part
E(
_
t
0
B
u
du[T
s
) =
_
t
0
E(B
u
[T
s
) du =
_
s
0
E(B
u
[T
s
) du+
_
t
s
E(B
u
[T
s
) du =
_
s
0
B
u
du+B
s
(ts)
La propriete de martingale est alors facile `a verier.
2. Des calculs analogues montrent que B
3
t
3tB
t
est une martingale. Il
sut de montrer que pour s < t, E(B
3
t
3tB
t
[T
s
) = B
3
s
3sB
s
. Or, en
utilisant que B
t
B
s
est independant de T
s
, on obtient E((B
t
B
s
)
3
[T
s
) =
E((B
t
B
s
)
3
) = 0 car E(X
3
) = 0 si X est une variable gaussienne centree.
Il reste `a utiliser (a b)
3
= a
3
3a
2
b + 3ab
2
b
3
pour obtenir
E(B
t
B
s
)
3
[T
s
) = E(B
3
t
[T
s
) 3B
s
E(B
2
t
[T
s
) + 3B
2
s
E(B
t
[T
s
) B
3
s
= E(B
3
t
[T
s
) 3B
s
(B
2
s
s +t) + 3B
2
s
B
s
B
3
s
Le processus B
3
t
3tB
t
est une martingale, donc par dierence tB
t

_
t
0
B
s
ds est une martingale, egale (integration par parties) `a
_
t
0
sdB
s
.
3. La v.a. X
t
est T
t
mesurable et integrable : en eet [X
t
[ t[B
t
[ +
_
t
0
[B
s
[ds = Z et il est facile de verier que Z est integrable (soit E(Z) <
, car E([B
t
[) =
2t

2
).
Soit t > s.
E(X
t
[T
s
) = E(tB
t

_
t
0
B
u
du[T
s
) = tE(B
t
[T
s
)
_
t
0
E(B
u
[T
s
)du
= tB
s

_
s
0
B
u
du
_
t
s
B
s
du = tB
s

_
s
0
B
u
du B
s
(t s) =
_
s
0
B
u
du +B
s
s = X
s
120 Brownien.
le processus X est une martingale.
On peut aussi appliquer la formule dIto et verier que dX
t
= tdB
t
.
Comme f(s) = s est de carre integrable (soit
_
t
0
s
2
ds < ) , lintegrale
de Wiener
_
t
0
sdB
s
est une martingale. On peut aussi remarquer que, par
integration par parties, X
t
=
_
t
0
sdB
s
.
4. On verra plus tard que U nest pas une martingale. On peut remarquer
que E(U
t
) nest sans doute pas constant.
5. Soit t > s. E(Y
t
[T
s
) = E(t
2
B
t
2
_
t
0
B
u
du[T
s
) = t
2
E(B
t
[T
s
)2
_
t
0
E(B
u
[T
s
)du =
t
2
B
s
2
_
s
0
B
u
du 2
_
t
s
B
s
du = t
2
B
s
2
_
s
0
B
u
du 2B
s
(t s) = Y
s
+
(t
2
s
2
)B
s
2B
s
(t s) Pour que Y soit une martingale, il faudrait que
0 = (t
2
s
2
)B
s
2B
s
(t s) = (t s)B
s
(t +s 2), ce qui nest pas.
Exercice 2.1.6 : En ecrivant M
t
= (B
2
t
t) + (a +b)B
t
ab et en utilisant
que B et (B
2
t
t, t 0) sont des martingales, le caract`ere martingale de M
provient de la structure espace vectoriel de lensemble des martingales. Le pro-
cessus M
tT
a,b
est une martingale de valeur initiale ab, donc E[M
tT
a,b
] = ab.
Le temps darret T
a,b
, majore par T
a
est ni. Lorsque t converge vers linni
M
tT
a,b
= (aB
tT
a,b
)(B
tT
a,b
b)+t T
a,b
converge vers (aB
T
a,b
)(B
T
a,b
b)+
T
a,b
= T
a,b
, car (aB
T
a,b
)(B
T
a,b
b) = 0. La quantite (aB
tT
a,b
)(B
tT
a,b
b)
est majoree par (a b)
2
et la quantite t T
a,b
converge en croissant vers T
a,b
dont on ne sait pas quelle est integrable. On peut conclure en appliquant le
theor`eme de Lebesgue domine pour la partie E(a B
tT
a,b
)(B
tT
a,b
b) et le
theor`eme de convergence monotone pour la partie portant sur le temps darret.
On en deduit E(T
a,b
) = ab.
Exercice 2.1.9 :Soit t s. E
x
(f(B
t
)g(B
s
)) = E
x
(f(

B
ts
+ B
s
)g(B
s
)) =
E
__
dyf(y)p
ts
(B
s
, y)g(B
s
)
_
= E((X
s
)) avec (z) = g(z)
_
f(y)p
ts
(z, y)dy.
Do` u E
x
(f(B
t
)g(B
s
)) =
_
p
s
(x, z)(z)dz.
Autre mode de raisonnement: On applique la propriete de Markov.
E
x
(f(B
t
)g(B
s
)) = E
x
(g(B
s
)E((f(B
t
)[T
s
)) = E
x
(g(B
s
)E((f(B
t
)[B
s
)) = E
x
(g(B
s
)(B
s
))
avec (z) = E
z
(f(B
ts
)) =
_
f(y)p
ts
(z, y)dy.
Exercice 2.1.11 :
E
x
(exp(W
t
)
2
) =
1

1 + 2t
exp(
x
2
1 + 2t
)
Corriges. 2002-03 121
Exercice 2.1.13 : E[
_
1
0
B
s
s
ds[
_
1
0
E[
B
s
s
[ds = c
_
1
0
1

s
ds < .
Exercice 2.1.14 Utiliser que B
t
< 0 t.
Exercice 2.1.16 La quantite e
t
u(B
t
) est majoree par e
t
M, qui est integrable
sur [0, ], do` u lexistence de f et g.
La suite degalites
E
x
__

dte
t
u(B
t
)
_
= E
x
_
E
x
__

dte
t
u(B
t
) [T

__
E
x
__

dte
t
u(B
t
)[T

_
= e

E
x
__

0
dte
t
u(B
t+
B

+B

)[T

_
E
x
__

0
dte
t
u(B
t+
B

+B

)[T

_
=
_

0
dte
t
E
x
(u(B
t+
B

+B

)[T

)
E
x
(u(B
t+
B

+B

)[T

) = E
B

[u(

B
t
)]
o` u la derni`ere egalite resulte de la propriete forte de Markov,

B etant le Brownien
(B
t+
B

, t 0), independant de T

, conduisent `a
E
x
__

dte
t
u(B
t
)
_
= E
x
(e

(B

))
avec (x) =
_

0
dte
t
E
x
[u(

B
t
)] = f(x) ce qui est le resultat souhaite.
Exercice 2.1.17 : Il sut decrire

k
k!
E(B
k
t
[T
s
) =

k
k!
H
k
(B
s
, (t s))
Exercice 2.1.19 :P(au moins un zero dans ]s, t[[B
s
= a) = T(T
a
t s).
Il reste `a calculer
2
_

0
da
1

2s
e
a
2
/2s
_
ts
0
dx(2x
3
)
1/2
a exp(
a
2
2x
)
On utilise Fubini et de la trigo.
2.2 Processus Gaussien
Exercice 2.2.1 : Soit Y
t
=
_
t
0
B
u
du. Le processus Y est deni trajectoire
par trajectoire, comme integrale de Riemann dune fonction continue. En par-
ticulier, on a dY
t
= B
t
dt. Le processus Y est un processus gaussien. Tout
dabord, Y
t
est une gaussienne comme limite de sommes de Riemann qui sont
des gaussiennes car B est un processus gaussien. Le caract`ere gaussien du pro-
cessus sobtient par un raisonnement analogue.
122 Brownien.
On a E(Y
t
) =
_
t
0
E(B
u
) du = 0.
La covariance de Y est E(Y
t
Y
s
) =
_
t
0
du
_
s
0
dvE(B
u
B
v
). Il reste `a integrer
_
t
0
du
__
s
0
dv(u v)
_
.
On se place dans le cas s < t et il vient
E(Y
t
Y
s
) =
_
s
0
du
__
s
0
(v u)dv
_
+
_
t
s
du
__
s
0
(v u)dv
_
=
_
s
0
du
__
u
0
vdv +
_
s
u
udv
_
+
_
t
s
du
__
s
0
vdv
_
.
Tous calculs faits, pour s < t: E(Y
t
Y
s
) =
s
2
6
(3t s).
Exercice 2.2.2
La solution est
X
t
= e
at
x +e
at
_
t
0
e
(a+b)t
dB
t
On proc`ede comme pour le processus dOU. On peut aussi resoudre dX
t
=
aX
t
dt ce qui donne X
t
= ce
at
et appliquer une methode de variation de la
constante. On cherche un processus c tel que X
t
= C
t
e
at
verie lequation
(cette methode ne prend toute sa signication que si on a vu le lemme dIto)
dX
t
= aC
t
e
at
dt +e
at
dC
t
= aX
t
dt +e
bt
dB
t
dou e
at
dC
t
= e
bt
dB
t
soit dC
t
= e
(b+a)t
dB
t
. Il resterait `a verier que lon a
bien trouve une solution, car on ne dispose pas du lemme dIto et on ne sait pas
justier que la derivee de C
t
e
at
est aC
t
e
at
dt +e
at
dC
t
.
Exercice 2.2.4 :
1. Le processus (Z
t
= B
t
tB
1
, 0 t 1) est un processus gaussien car
pour tout choix de (a
i
, t
i
)

a
i
Z
t
i
=

a
i
B
t
i
(

a
i
t
i
)B
1
est une v.a.r. gaussienne (B est un processus gaussien). De la meme facon,
on obtient que le vecteur (Z
t
, B
1
) est gaussien. Ses deux composantes Z
t
et B
1
sont independantes car E(Z
t
B
1
) = E(B
t
B
1
) tE(B
2
1
) = 0. La
covariance de Z est
E(Z
t
Z
s
) = E(B
s
B
t
) sE(B
1
B
t
) tE(B
s
B
1
) +tsE(B
2
1
) = (s t) st.
On appelle Z un pont Brownien.
Corriges. 2002-03 123
2. Le processus (Y
t
= Z
1t
, 0 t 1) est gaussien centre. Sa covariance est,
pour s t,
E(Y
t
Y
s
) = (1 t) (1 s) (1 s)(1 t) = (s t) st = s(1 t).
3. Soit Y
t
= (1 t)B t
1t
. Le processus Y est un processus gaussien car

a
i
Y
t
i
=

b
i
B
s
i
. On a E(Y
t
) = 0 et pour s < t
E(Y
s
Y
t
) = (1 t)(1 s)E(B t
1t
B
s
1s
) = (1 t)(1 s)
s
1 s
= s(1 t)
Exercice 2.2.5 : Par denition de lintegrale de Riemann, toute combinaison
lineaire

i
a
i
Z
t
i
est limite dans L
2
de sommes du type

j
b
j
B
t
j
, do` u le car-
act`ere gaussien. (Attention, il ne faut pas se contenter de dire que Z est la
somme de deux processus gaussiens. La somme de deux v.a. gaussiennes nest
pas necessairement une gaussienne. Cette propriete est vraie si les variables
sont independantes) On utilise ici que
_
t
0
B
s
s
ds = lim
n

i=0
B
t
i
t
i
(t
i+1
t
i
).
Pour caracteriser la loi du processus gaussien Z, il sut de donner son
esperance et sa covariance( sa variance sen deduira)
Il est immediat de montrer que E(Z
t
) = 0. Il reste `a calculer la covariance. Soit
s < t.
E(Z
s
Z
t
) = E(B
s
B
t
)E[
_
t
0
B
s
B
u
u
du]E[B
t
_
s
0
B
u
u
du]+E[
_
t
0
du
B
u
u
_
s
0
dv
B
v
v
On utilise que E(
_
b
a
f(B
u
)du) =
_
b
a
E[f(B
u
)]du et que E(B
u
B
v
) = u v).
Apr`es quelques calculs dintegration sur les integrales doubles, il vient E(Z
s
Z
t
) =
s. Le processus Z est un processus gaussien desperance nulle et de covariance
s t.
Le processus Z est donc un mouvement Brownien. Cependant le processus Z
nest pas une (T
t
) martingale: pour s > t
E(Z
s
Z
t
[T
t
) =
_
s
t
1
u
B
s
du ,= 0
On a ici lexemple dun processus qui est un MB (et une martingale par rapport
`a sa propre ltration), mais qui nest pas un brownien, ni meme une martingale
par rapport `a une ltration plus grosse. Le probl`eme est connu sous le nom de
grossissement de ltration. (Voir lexercice sur lagent initie, dans le chapitre
complements)
124 Brownien.
Exercice 2.2.6 : B
u

u
t
B
t
= (B
u

u
t +h
B
t+h
)
u
t
(B
t

t
t +h
B
t+h
) montre
la croissance et B
t
est orthogonal `a B
u

u
t
B
t
.
Exercice 2.2.7 : Rappel : soit X est une v.a. de loi N(m;
2
) et Y =
exp(X m)
1
2

2
. Soit dQ = Y dP. Sous Q, X est une v.a. de densite
N(m+
2
,
2
).
On montre alors que

B
t
= B
t
mt a une loi gaussienne sous Q.
On verie ensuite lindependance des accroissements: il sagit de montrer que
E
Q
((

B
t+s


B
s
) (

B
s
)) = E
Q
((

B
t+s


B
s
)) E
Q
((

B
s
))
pour toutes fonctions boreliennes bornees (, ). On a, par changement de
probabilite, avec L
t
= exp(mB
t

m
2
2
t)
A = E
Q
((

B
t+s


B
s
) (

B
s
)) = E
P
(L
t+s
(

B
t+s


B
s
) (

B
s
).
On a

B
t+s


B
s
= B
t+s
B
s
mt.
En utilisant lindependance de B
t+s
B
s
et de B
s
(sous P) et la forme de L,
on obtient
A = E
P
[exp(m(B
t+s
B
s
)
1
2
m
2
t)) (B
t+s
B
s
mt)] E
P
[exp(mB
s

1
2
m
2
s)(

B
s
)].
Sous P, B
t+s
B
s
et B
t
ont meme loi, do` u
A = E
P
[exp(mB
t

1
2
m
2
t)(B
t
mt)] E
P
[exp(mB
s

1
2
m
2
s)(

B
s
)]
= E
P
[exp(mB
t

1
2
m
2
t)(

B
t
)] E
P
[exp(mB
s

1
2
m
2
s)(

B
s
)]
ce qui conduit `a
A = E
Q
((

B
t
)) E
Q
((

B
s
)) .
Exercice 2.2.8 :
sup
t
([B
t
[t
p/2
)[ = sup
s
([B

2
s
)[(
2
s)
p/2
)
loi
= sup
s
([B
s
[(
2
s)
p/2
) = sup
s
([B
s
[s
p/2
)
E([B
T
[) E(([B
T
[ T
p/2
)) +E(T
p/2
) E(sup
t
([B
t
[ t
p/2
)) +E(T
p/2
)
2.3 Multidimensionnel
Exercice 2.3.2 : Si les coecients
i
sont des constantes, il sut de denir
B
3
(t) =
1

2
1
+
2
2
(
1
B
1
(t) +
2
B
2
(t)). Ce processus est un Brownien car cest
une martingale telle que (B
2
3
(t) t; t 0) est une martingale. Si les sont
Corriges. 2002-03 125
deterministes, on pose dB
3
=
1

2
1
(t)+
2
2
(t)
(
1
(t)dB
1
(t) +
2
(t)dB
2
(t)).
Le processus
B
(3)
(t) =
1
_
1
2
(B
(2)
(t) B
(1)
(t))
est une martingale
B
2
(3)
(t) =
1
1
2
(B
2
(2)
+
2
B
2
(1)
(t) 2B
(1)
(t)B
(2)
(t)
Par denition de la correlation, B
(1)
(t)B
(2)
(t) t est une martingale. Il sen
suit que B
2
(3)
(t) t est une martingale, donc B
(3)
est un MB. Il reste `a montrer
que B
(3)
est independant de B
(1)
. On peut utiliser le theor`eme de RP pour
etablir que si le coecient de correlation de deux MB est nul, ces processus sont
independants.
2.4 Temps datteinte
Exercice 2.4.1 : Soit > 0. Le processus M deni par M
t
= exp(B
t

1
2

2
t)
est une martingale. On applique le theor`eme darret de Doob. Si a > 0,
la martingale M
tT
a
est uniformement integrable, car majoree par exp(a).
Donc E(exp(B
T
a

1
2

2
T
a
)) = 1, soit E(exp(a
1
2

2
T
a
)11
T
a
<
) = 1. Do` u
E(exp(
1
2

2
T
a
) 11
T
a
<
) = exp a. Pour = 0; on obtient P(T
a
< ) = 1,
puis E(exp(
1
2

2
T
a
) ) = exp a. En derivant par rapport `a
2
, et en prenant
= 0, on en deduit lesperance de T
a
.
Exercice 2.4.2 : La propriete de Markov fort montre que

B
t
= B
T
a
+t
B
T
a
=
B
T
a
+t
a est independant de T
T
a
, donc de T
a
. Comme b > a, on a
T
b
= inft : B
t
= b = inft T
a
: B
t
= b = T
a
+ inft :

B
t
= b a
On en deduit que la v.a. T
b
T
a
est independante de T
a
et que T
b
T
a
loi
= T
ba
.
Le processus T
a
est donc `a accroissements independants et stationnaires. Cest
donc un processus de Levy.
Exercice 2.4.3 : Appliquer le theor`eme darret de Doob `a la martingale B
t
et
`a B
2
Tn
(T n).
Exercice 2.4.5 : On note S
t
= max
st
W
s
. En remarquant que S
T
=
max
st
W
s
max
t<sT
W
s
on en deduit
P( > T[T
t
) = P(S
T
< a[T
t
) = 11
S
t
<a
P( max
t<s<T
W
s
W
t
< a W
t
[T
t
)
126 Brownien.
Le processus

W
u
= W
t+u
W
t
est un MB independant de T
t
. Do` u P(max
t<s<T
W
s

W
t
< a W
t
[T
t
) = (a W
t
) avec
(x) = P( max
0<u<Tt

W
u
< x) = P([

W
Tt
[ < x) = P([

T t G[ < x) =
2

2
_ x

Tt
0
e
u
2
/2
du.
Exercice 2.4.6 : Des calculs simples montrent que E(e
T
d
) = E(exp[B
d
[

2)e
d
.
De meme, E(11
B
d

e
T
d
) = E(11
B
d

(B
d
))e
d
avec (x) = E
x
(e
T
0
) =
E
0
(e
T
x
) = exp([x[

2. Do` u
E(11
B
d

e
T
d
) = E(11
B
d

exp([B
d
[

2)e
d
) = E(11
G/

d
exp(G

2d)e
d
)
Exercice 2.4.9 : Par denition P(I x) = P(inf
sT
1
B
s
x) = P(T
1

T
x
). En utilisant le theor`eme darret E(B
T
1
T
x
) = E(B
0
) = 0, do` u
P(T
1
T
x
) xP(T
1
T
x
) = 0 = P(T
1
T
x
) x(1 P(T
1
T
x
))
et P(T
1
T
x
) =
x
1 +x
.
Exercice 2.4.10 : On regarde la martingale expX
t
t pour un . Ensuite,
on montre que
(e
b
e
a
)e
X
t
t
+ (e
ab
e
b
)e
X
t
t
est une martingale pour =

2
+ 2 , =

2
+ 2 .
Exercice 2.4.11 : On utilise que (M
T

a
< y) = (sup
u<v
B
u
< y).
P(M
T

a
y > x[M
T

a
> y) = P(T

> T
x+y
[T

a
> T
y
)
= P(M
u
B
u
a, T
y
< u < T
x+y
[M
u
B
u
< a, u < T
y
)
= P(

M
u


B
u
a, u, 0 < u <

T
x
) = P(

M
T

a
x)
Pour obtenir le param`etre, on calcule lesperance
0 = E(B
T

n
= E(M
T

a
n
) E(M
T

a
n
B
T

a
n
)
et on passe `a la limite E(M
T

a
n
) = a.
Exercice 2.4.12 : Le processus exp[2X
t
/
2
] est une martingale, en ef-
fet il est facile de mettre ce processus sous la forme exp(B
t

1
2

2
t). On en
deduit que h(X
t
) est une martingale et que E(h(X
t)
) = h(0). Linegalite
[h(X
t)
)[ sup
x[B,A]
(h(x)) permet dappliquer le theor`eme de convergence
dominee.
Exercice 2.4.18 : On sait que (poly, Lamberton et Lapeyre 2nd edition, page
96, Musiela et Rutkowski p. 49, Voir aussi Karatzas et Shreve, page 95) si
M
t
= sup
st
W
s
P(W
t
x, M
t
y) = P(W
t
x) P(W
t
2y x)
Corriges. 2002-03 127
pour 0 y, x y. On en deduit, par derivation
P(W
t
dx, M
t
y) =
1

2t
exp(
x
2
2t
)
1

2t
exp(
(2y x)
2
2t
)
et
P(M
t
y[W
t
= x) =
P(W
t
dx, M
t
y)
P(W
t
dx)
= 1 exp(
(2y x)
2
2t
+
x
2
2t
)
Si le MB est issu de x, on utilise
P(sup
st
W
s
+x y[W
t
+x = z) = P(M
t
y x[W
t
= z x)
2.5 Scaling
Exercice 2.5.2 : La partie a) resulte de
(T
1
> t) = (1 > S
t
)
loi
= (1 >

tS
1
) = (
1
S
2
1
> t)
La partie c) resulte de
d

a
= inft
a
: B
t
= 0 = inft :
1
a
A
t
1,
1

a
B
t
= 0
loi
= inft : A
t/a
1, B
t/a
= 0 = ad

1
et
(A
g
a) = (g
1
) = (1 d

a
loi
= (1 ad

1
) = (
1
d

1
a)
La partie d) est facile. Dans ce cas
1
loi
= T

1
= inft : sup
st
[B
s
[ 1.
Exercice 2.5.3 :
P( sup
1t1
[W
t
[ x) = P( sup
1t(1/x
2
)
[W
t
[ 1) = P(M
1

1
x
2
)
2.6 Complements
Exercice 2.6.1 : On calcule E((B
t


B
t
)
2
)
E((B
t


B
t
)
2
) = E(B
2
t
) +E(

B
2
t
) 2E(B
t

B
t
)
= 2t 2E(B
t

B
t
)
Il reste `a calculer
E(B
t

B
t
) = E[ E
_
(B
t

B
t
[(
t
_
]) = E(

B
2
t
) = t
128 Brownien.
do` u E((B
t


B
t
)
2
) = 0; il sen suit legalite souhaitee.
Exercice 2.6.4 : Soit s < t. Nous devons montrer que pour u s,
(s)
u
def
=
B
u

u
s
B
s

t
. Il sut decrire
(s)
u
= B
u

u
t
B
t
+
u
s
(
s
t
B
t
B
s
) =
(t)
u

u
s

(t)
s
. Le processus (
(t)
u
; u t) est independant de la variable
u
t
B
t
(calculer
les covariances), et B
u
= (
(s)
u
+
u
t
B
t
est la decomposition orthogonale de B,
la projection de F
t
est donc
_
t
0
f(s)d
s

(t)
s
. Le processus

B est un processus
gaussien centre de covariance t s, cest un MB (On peut aussi le voir en
utilisant des resultats dunicite en loi de solution dequa di) Il est facile de
montrer que

B
s
=
(t)
s

_
s
0
du
u

(t)
u
et que, en particulier

B
t
=
_
t
0
du
u

(t)
u
Do` u legalite des tribus. Il en resulte, en notant

F(t) =
_
t
0
f(s)ds et en utilisant
une integration par partie que
_
t
0
f(s)dB
s
=
_
t
0
f(s)d

B
s

B
t
t

F(t) +
_
t
0

F(s)
s
d

B
s
.
Exercice 2.6.7 : On utilisera le theor`eme de representation previsible pour
representer W
(1)
t
, W
(2)
t
en terme de W
(3)
. Si legalite etait possible, on aurait
W
(i)
t
=
_
t
0

(i)
s
dW
s
avec
_
t
0
E[
(i)
s
]
2
ds = t et E(W
(1)
t
W
(2)
t
) = E(
_
t
0

(1)
s

(2)
s
ds) =
0.
Exercice 2.6.8 : Les premieres questions se traitaient en utilisant des formules
dintegration par parties, ou la formule dIto. A la main, on calcule
B
t
+
_
t
0
W
s
X
s
1 s
ds = B
t
+
_
t
0
W
s
1 s
ds
_
t
0
ds
_
s
0
W
u
(1 u)
2
du
_
t
0
ds
_
s
0
1
1 u
dB
u
= B
t

_
t
0
t u
1 u
dB
u
+
_
t
0
W
s
1 s
(1
t s
1 s
)ds
=
_
t
0
(1
t u
1 u
)dB
u
+
_
t
0
W
s
1 s
(1
t s
1 s
)ds
= (1 t)
_
t
0
1
1 u
dB
u
+ (1 t)
_
t
0
W
s
(1 s)
2
ds
Par dierentiation
dX
t
= (1 t)
W
t
(1 t)
2
dt dt
_
t
0
W
s
(1 s)
2
ds + (1 t)
1
1 t
dB
t
dt
_
t
0
1
1 s
dB
s
2002-03 129
=
W
t
1 t
dt +dB
t

1
1 t
X
t
dt
Le calcul de la covariance du processus Gaussien X sobtenait en appliquant
plusieurs fois le resultat disometrie
E(
_
t
0
f(u)dW
u
_
s
0
g(u)dW
u
) =
_
ts
0
f(u)g(u)du
et en remarquant que les v.a.
_
t
0
f(u)dW
u
et
_
s
0
g(v)dB
v
sont independantes.
On trouvait pour s < t
E(X
s
X
t
) = s + 2s(1 t) + (2 s t) ln(1 s)
2.7 Finance
Exercice 2.7.1 : On calcule separement E(S
t
11
S
t
<K
) et E(11
S
t
<K
). On trouve
E(e
rt
(S
t
K)
+
) = x^(d
1
(t)) Ke
rt
^(d
2
(t))
avec
d
1
(t) =
1

t
(ln(
x
K
+
1
2

2
t +rt), d
2
(t) = d
1

t
En appliquant la propriete de Markov, on en deduit
E(e
r(ts)
(S
t
K)
+
[T
s
) = x^(d
1
(t s)) Ke
r(ts)
^(d
2
(t s)) .
Exercice 2.7.2 : Nous presentons le calcul pour deux dates. Il sagit de calculer
lesperance de
(S
T
S
t
1
)
+
11
S
t
1
<K
+ (S
T
K)
+
11
K<S
t
1
On utilise la formule de BS.
E[(S
T
S
t
1
)
+
11
S
t
1
<K
] = E[11
S
t
1
<K
E((S
T
S
+
t
1
[T
t
1
)]
E((S
T
S
+
t
1
[T
t
1
) = E((S
T
S
+
t
1
[
t
1
)
= S
t
1
^(d
1
) S
t
1
e
r(Tt
1
)
^(d
2
)
avec
d
1
=
1

T t
1
(
1
2

2
(T t
1
) +r(T t
1
))
Il vient
E[(S
T
S
+
t
1
11
S
t
1
<K
= aE(S
t
1
11
S
t
1
<K
avec
a = ^(d
1
) ^(d
2
)e
r(Tt
1
)
E[(S
T
K)
+
11
{K<S
t
1
}
] = E[11
{K<S
t
1
}
(S
t
1
^(d

1
) Ke
r(Tt
1
)
^(d

2
)
d

1
=
1

T t
1
(ln(
S
t
1
K
+
1
2

2
(T t
1
) +r(T t
1
))
130 Ito. Corriges
Chapter 3
Integrale dIto, Corriges
3.1 Integrale de Wiener
Exercice 3.1.1 : On a tB
t
=
_
t
0
sdB
s
+
_
t
0
B
s
ds (en utilisant la formule
dintegration par parties) et E(Y
t
) = 0, E(Y
s
Y
t
) = ts(t s). Le processus Y est
un processus gaussien (cetait dailleurs evident par denition de Y ). On peut
aussi utiliser la formule dIto (voir plus loin) qui conduit `a dY
t
= tdB
t
+B
t
dt.
Exercice 3.1.2 : La v.a. X
t
=
_
t
0
(sins) dB
s
est denie, car
_
t
0
sin
2
s ds < ,
pour tout t. Le processus X est gaussien desperance nulle et de covariance
E(X
s
X
t
) =
_
st
0
sin
2
udu. Il vient alors E(X
t
X
s
) =
st
2

1
4
sin2(s t).
Le processus X est une martingale, do` u, pour s < t, on a E(X
t
[T
s
) = X
s
. La
derni`ere egalite resulte dune IP.
Exercice 3.1.3 : La v.a. Y
t
=
_
t
0
(tans) dB
s
est denie, car
_
t
0
tan
2
s ds <
pour t <

2
. Le processus Y est gaussien, centre de covariance E(Y
t
Y
s
) =
_
st
0
tan
2
udu = tan(s t) (s t).
Le processus Y est une martingale.
Exercice 3.1.4 : Soit
X
t
= (1 t)
_
t
0
dB
s
1 s
; 0 t < 1
En appliquant le Lemme dIto (ou une I.P.) `a f(t, y) = (1t)y et Y
t
=
_
t
0
dB
s
1 s
131
132 Ito. Corriges
(donc dY
t
=
dB
t
1 t
) il vient dX
t
= (dt)
_
t
0
dB
s
1 s
+ (1 t)
dB
t
1 t
, do` u
_
dX
t
=
X
t
t 1
dt +dB
t
; 0 t < 1
X
0
= 0
On admet lunicite de la solution. Le processus X est gaussien car
_
t
0
dB
s
1 s
est
une integrale de Wiener, et on a E(X
t
) = 0 et pour s < t
E(X
s
X
t
) = (1t)(1s)E(
_
t
0
dB
u
1 u
_
s
0
dB
u
1 u
) = (1t)(1s)
_
s
0
du
(1 u)
2
= (1t)s
En particulier E(X
2
t
) = t(1 t) do` u X
t
tend vers 0 quand t tend vers 1. Le
processus X est un pont Brownien.
Exercice 3.1.5 : Formule evidente en ecrivant B
t
=
_
t
0
dB
s
et en utilisant
lisometrie.
Exercice 3.1.6 : E(
_
t
2
t
1
(B
t
B
t
1
) dt[T
t
1
) =
_
t
2
t
1
E((B
t
B
t
1
)[T
t
1
) , dt = 0.
Par integration par parties
_
t
2
t
1
B
t
B
t
1
) dt = t
2
(B
t
2
B
t
1
)
_
t
2
t
1
tdB
t
=
_
t
2
t
1
(t
2
t)dB
t
On en deduit que la variance cherchee est
_
t
2
t
1
(t
2
t)
2
dt.
3.2 Formule dIto
Exercice 3.2.1 : 1. Soit X
t
= B
2
t
. On a, en posant f(x) = x
2
dX
t
= f

(B
t
)dB
t
+
1
2
f

(B
t
) dt = 2B
t
dB
t
+dt .
2. Soit X
t
= t + expB
t
. En posant f(t, x) = t +e
x
, on a
dX
t
= dt + expB
t
dB
t
+
1
2
expB
t
dt .
3. Soit X
t
= B
3
t
3tB
t
. En posant f(t, x) = x
3
3tx on obtient
dX
t
= 3B
2
t
dB
t
3tdB
t
3B
t
dt +
1
2
3 2B
t
dB
t
dB
t
= (3B
2
t
3t)dB
t
.
On retrouve le caract`ere martingale de X etabli au chapitre precedent.
Exercice 3.2.2 : Soit X
t
= exp
_
t
0
a(s) ds et Y
t
= Y
0
+
_
t
0
[b(s) exp(
_
s
0
a(u)du) dB
s
,
o` u a et b sont des fonctions deterministes. En utilisant la notation dierentielle
2002-03 133
dX
t
= a(t)
_
exp
_
t
0
a(s) ds
_
dt et dY
t
= b(t) exp(
_
t
0
a(u)du) dB
t
, do` u dX
t

dY
t
=
0. On pose Z
t
= X
t
Y
t
. Par la formule dIto, on a
dZ
t
= X
t
dY
t
+Y
t
dX
t
= b(t) dB
t
+a(t)X
t
Y
t
dt
soit dZ
t
= a(t)Z
t
dt +b(t)dB
t
. Le processus (Z
t
exp
_
t
0
a(s) ds = Y
t
; t 0) est
une martingale locale.
Exercice 3.2.3 : La formule dIto donne (nous omettons les indices t
dY = X
1
X
2
dt +t(X
1
dX
2
+X
2
dX
1
+dX
1
, X
2
)
= X
1
X
2
dt +t(X
2
f(t) +
1

2
)dt +t(X
1

2
+X
2

1
)dB
Exercice 3.2.4 : La formule dIto appliquee `a sinB
t
donne
sinB
t
= 0 +
_
t
0
cos B
s
dB
s

1
2
_
t
0
sinB
s
ds,
do` u Y
t
=
_
t
0
cos B
s
dB
s
. Cest une martingale, car E(
_
t
0
cos
2
B
s
ds) < , pour
tout t. On a E(Y
t
) = 0 et var Y
t
= E(
_
t
0
cos
2
B
s
ds).
Exercice 3.2.5 : En appliquant la formule dIto, on obtient
d(X
2
t
+Y
2
t
) = 2X
t
dX
t
+2Y
t
dY
t
+dX)
t
+dY )
t
= 2X
t
Y
t
dB
t
2x
t
Y
t
dB
t
+(X
2
t
+Y
2
t
)dt
En posant Z
t
= X
2
t
+ Y
2
t
on montre que le processus Z verie dZ
t
= Z
t
dt ce
qui sint`egre en Z
t
= ze
t
.
Exercice 3.2.6 : Il est evident que dZ
t
= Y
t
dB
t
. On calcule facilement
E(Y
2
s
) =
_
t
0
e
2s
ds. Par suite Lintegrale stochastique est une martingale car
E(
_
t
0
Y
2
s
ds) =
_
t
0
E(Y
2
s
)ds <
et E(Z
t
) = 0, E(Z
2
t
) = E(
_
t
0
Y
2
s
ds).
Exercice 3.2.7 : Soit dX
t
= a(K
t
X
t
) dt + dB
t
. On voudrait que X
t
=
f(K
t
). La formule dIto appliquee `a f(K
t
) donne
dX
t
= f

(X
t
)dK
t
+
1
2
f

(K
t
)
2
dt
soit
dX
t
= (f

(K
t
)b +
1
2
f

(K
t
)
2
) dt +f

(K
t
)dB
t
Si on identie les deux drifts, on obtient
a(K
t
f(K
t
)) = f

(K
t
)b +
1
2
f

(K
t
)
2
134 Ito. Corriges
do` u f est solution de
1
2

2
f

(x) +bf

(x) +af(x) = ax.


On resout cette EDO et on montre que f est de la forme
e

1
x
+e

2
x
+ (x
b
a
)
avec
1
et
2
solutions de
1
2

2
+b +a = 0.
Exercice 3.2.8 : Soit X
t
=
_
t
0
(s) dB
s

1
2
_
t
0

2
(s) ds. On a
dX
t
= (t) dB
t

1
2

2
(t) dt.
Soit Y
t
= exp X
t
. On applique la formule dIto avec f(x) = e
x
.
dY
t
= exp(X
t
) dX
t
+
1
2
exp(X
t
)
2
(t) dt
= Y
t
(
1
2

2
(t) dt +(t)dB
t
) +
1
2
Y
t

2
(t) dt
= Y
t
(t) dB
t
.
Le processus Y est une martingale locale. Cest une martingale si
E
__
t
0
Y
2
t

2
(t) dt
_
< .
Ce crit`ere nest pas tr`es bon, nous en verrons dautres par la suite.
Si est une constante, Y est un brownien geometrique avec drift nul. En
particulier,
Y
t
= exp(B
t


2
2
t)
est une (vraie) martingale:
Verions `a titre dexercice dans ce cas les conditions dintegrabilite:
Y
t
= exp X
t
= exp(B
t

1
2

2
t)
do` u
E([Y
t
[) = E(Y
t
) = E(exp(B
t


2
2
t)) =
1

2t
_

e
x
1
2

2
t
e

x
2
2t
dx = 1
E(Y
2
t
) = E(exp(2B
t

2
t)) = exp(
2
t) .
En particulier, si = 1 le processus exp( B
t

t
2
) est une martingale.
2002-03 135
Soit Z
t
=
1
Y
t
. Pour calculer dZ
t
, on peut utiliser la formule dIto
dZ
t
=
Y
t
(t)
Y
2
t
dB
t
+
1
2
2Y
2
t

2
(t)
Y
3
t
dt = Z
t
((t)dB
t
+
2
(t)dt)
ce qui va secrire
Z
t
= Z
0
exp(
_
t
0
(s)dB
s
+
1
2
_
t
0

2
(s) ds)
formule que lon peut obtenir directement en inversant lexponentielle.
Exercice 3.2.9 : Par simple application de la formule dIto
dZ
t
= (aZ
t
+b)dt +cZ
t
dW
t
Exercice 3.2.10 : Dans le cas h = 0, on a
S
t
= S
0
e
(rq)t
e
W
t

1
2

2
t
= e
(rq)t
M
t
.
Donc M
t
= M
0
e
W
t

1
2

2
t
est une martingale positive, desperance 1 et on peut
lutiliser comme densite de RN. Sous Q, le processus

W
t
= W
t
t est un MB.
Dans le cas general
S
t
= S
0
e
(rq)t
e

t
0
h
s
ds
e
W
t

1
2

2
t
.
On en deduit e

t
0
h
s
ds
=
1
S
t
M
t
e
(rq)t
. Donc
e
rT
E(e

T
0
h(S
s
)ds
(S
T
)) = e
rT
E(
1
S
T
M
T
e
(rq)T
(S
T
)) = e
qT
E
Q
(
1
S
T
(S
T
)) .
On se place dans le cas h
t
= S
p
t
et on pose Z
t
= S
p
t
. Le calcul d Ito conduit `a
dZ
t
= pS
p
t
dW
t
+ (r q)pS
p
t
dt +pdt +
1
2
p(p 1)S
p2
t
S
2
t

2
dt
= pZ
t
dW
t
+
__
(r q)p +
1
2
p(p 1)
2
_
Z
t
+p
_
dt
= (aZ
t
+b)dt +cZ
t
dW
t
Le processus f(Z
t
) est une martingale locale si
f

(z)(az +b) +
1
2
f

(z)c
2
z
2
= 0 .
On pose g = f

. Lequation
g(z)(az +b) +
1
2
g

c
2
z
2
= 0
a pour solution g(z) = exp(
2b
c
2
z
)z
1/c
2
. Les fonctions f recherchees (ce que
lon appelle les fonctions dechelle) sont les primitives de g.
136 Ito. Corriges
Exercice 3.2.11 : Le processus Z est une martingale locale car dZ
t
= cX
t
Z
t
dB
t
.
On a
dU
t
= 2X
t
dX
t
+dX)
t
= 2X
t
(a bX
t
)dt + 2X
t
dB
t
+dt
soit U
t
= U
0
+ 2
_
t
0
X
s
dB
s
+
_
t
0
(2X
s
(a bX
s
) + 1)ds On en deduit
1
2
(X
2
t
X
2
0
t) =
_
t
0
X
s
dB
s
+a
_
t
0
X
s
ds b
_
t
0
X
2
s
ds
Exercice 3.2.12 : Pour montrer que Z est une martingale locale, on cal-
cule dZ et on verie que son drift est nul. On a Z
t
= f(t, B
t
) avec f(t, x) =
1

1 t
exp
x
2
2(1 t)
Il en resulte que
dZ
t
=
B
t
(1 t)
3/2
exp
B
2
t
2(1 t)
dB
t
Le processus (Z
t
, t < 1) est une martingale locale. Cest une vraie martingale
si pour tout T 1
E[
_
T
0
B
2
t
(1 t)
3
exp
B
2
t
(1 t)
dt] <
Le terme de gauche est majore par E[
_
T
0
B
2
t
(1 t)
3
dt] =
_
T
0
t
(1 t)
3
dt < .
Exercice 3.2.13 : Soit Z
t
= (L
t
)
a
exp((a)t). Alors
dZ
t
= dM
t
+e
(a)t
(L
t
)
a
((a) +a(a 1))
o` u M est une martingale.
Exercice 3.2.14 : Il est facile detablir que
dY
t
= Y
t
[(2X
t
a
t
+
2
t
(1 + 2X
2
t
))dt + 2X
t

t
dW
t
]
et, en utilisant que X
t
= 0 et Y
t
= 1 on obtient 0 =
2
t
dt.
Exercice 3.2.22 : La fonction dechelle de X
t
= exp(B
t
+t) est s(x) = x
2
.
Le processus croissant de s(X) est A
t
=
_
t
0
(s

)
2
(X
s
)ds.
Exercice 3.2.26 : On obtient facilement
E(f(B
1
)[T
t
) = E(f(B
1
B
t
+B
t
)[T
t
) = E(f(

B
1t
+B
t
)[T
t
) = (t, B
t
)
2002-03 137
avec
(t, x) = E(f(x +B
1t
)) . (3.1)
D autre part, la formule dIto et la propriete de martingale de (t, B
t
) conduisent
`a (t, B
t
) = E(f(B
1
)) +
_
t
0

x
(s, B
s
)dB
s
. On ecrit (grace `a 3.1)

x
(t, x) = E(f

(x +B
1t
))
et un raisonnement analogue au precedent montre que si on pose (t, x) =
E(f

(x +B
1t
)) on obtient
(t, B
t
) = E(f

(B
1
)[T
t
)
3.3 Cas multidimensionnel
Exercice 3.3.1 : De facon evidente, on a
dS
3
(t) =
1
2
[dS
1
(t) +dS
2
(t)] =
1
2
[r(S
1
(t) +S
2
(t)] dt+
1
S
1
(t)dB
1
(t)+
2
S
2
(t)dB
2
(t) .
On peut remarquer que
_

2
1
S
2
1
(t) +
2
2
S
2
2
(t) dB
3
(t) = (
1
S
1
(t)dB
1
(t) +
2
S
2
(t)dB
2
(t))
denit un Brownien B
3
qui permet decrire
dS
3
(t) = r S
3
(t)dt +(t)S
3
(t)dB
3
t
o` u (t) =

2
1
S
2
1
(t)+
2
2
S
2
2
(t)
S
1
(t)+S
2
(t)
est un processus.
En utilisant le lemme dIto, on obtient
dS
4
(t) = S
4
(t)(r dt
1
8
(
2
1
+
2
2
) dt +

1
2
dB
1
(t) +

2
2
dB
2
(t)) ,
ce que lon peut ecrire
dS
4
(t) = S
4
(t)(r dt
1
8
(
2
1
+
2
2
) dt +dB
4
(t)) .
Pour verier que B
3
et B
4
sont des browniens, on peut proceder de dierentes
facons (voir aussi les exercices sur le Brownien)
a. B
i
(t +s) B
i
(t) a meme loi que B
i
(s), cette loi est ^(0, s) et les accroisse-
ments sont independants
b. B
i
et (B
2
i
(t) t, t 0) sont des martingales et B
i
est un processus continu
c. pour tout , le processus exp(B
i
(t)

2
2
t) est une martingale.
138 Ito. Corriges
3.4 Complements
Exercice 3.4.1 : En utilisant le theor`eme de Fubini pour les integrales doubles
F(x) =
_
x

dz
_
z

dyf(y) =
_
x

dyf(y)
_
x
y
dz =
_
x

dyf(y)(x y)
+
Par derivation par rapport `a la borne superieure
F

(x) =
_
x

dyf(y) =
_

f(y)11
x>y
dy
Le lemme dIto conduit alors au resultat. La formule nale secrit aussi
_
t
0
f(B
s
)ds = 2
_

L
B
(t, y)f(y)dy
avec L
B
(t, y) =
_
(B
t
y)
+
(B
0
y)
+

_
t
0
11
B
s
>y
dB
s
_
et est connue sous
le nom formule de temps doccupation. Le processus L
B
(, y) est le temps local
de B au point y entre 0 et t. La diculte est de verier que le processus L(, y)
est un processus croissant.
Exercice 3.4.2 : On a, en exprimant X
t
comme le produit de expW
1
(t) et de
U
t
=
_
t
0
exp[W
1
(s)] dW
2
(s) qui verie dU
t
= exp[W
1
(t)] dW
2
(t)
dX
t
= exp W
1
(t)(exp W
1
(t)) dW
2
(t) +U
t
(exp[W
1
(t)]dW
1
(t) +
1
2
exp[W
1
(t)]dt)
= dW
2
(t) +X
t
dW
1
(t) +
1
2
X
t
dt
Soit f(x) = sinh x, alors, f

(x) =
1
2
(e
x
+e
x
) = coshx et f

(x) =
1
2
(e
x
e
x
) =
sinhx. O applique le lemme dIto:
dZ
t
= cosh(W
1
(t)) dW
1
(t) +
1
2
sinh(W
1
(t)) dt =
_
1 +Z
2
t
dW
1
(t) +
1
2
Z
t
dt
M
t
def
= W
2
(t) +
_
t
0
X
s
dW
1
(s) est une martingale locale comme somme de deux
martingales locales. Son crochet est t +
_
t
0
X
2
s
ds =
_
t
0
(1 + X
2
s
)ds, do` u
s
=
_
1 +X
2
s
. En regroupant les resultats X
t
=
_
t
0
_
1 +X
2
s
dW
3
(t) +
1
2
_
t
0
X
t
dt
et Z
t
=
_
t
0
_
1 +Z
2
s
dW
1
(s) +
1
2
_
t
0
Z
s
ds. On obtient donc legalite en loi de X
et de Z.
2002-03 139
Exercice 3.4.4 : (voir Brownien) Le processus Z est une martingale, et le
lemme dIto conduit `a
dZ
t
= 11
S
t
<a
2

2
a W
t

T t
exp
(a W
t
)
2
2
dW
t
.
3.5 Brownien geometrique et extensions
Exercice 3.5.1 : Soit dS
t
= S
t
(b dt + dB
t
) un brownien geometrique et

S
t
= e
bt
S
t
. La formule dIto montre que
d(

S
t
) = e
bt
dS
t
be
bt
S
t
dt = e
bt
S
t
dB
t
=

S
t
dB
t
.
Dapr`es les exercices precedents

S
t
=

S
0
exp(B
t

1
2

2
t)
et

S est une martingale. Il en resulte
S
t
= S
0
exp((b
1
2

2
)t +B
t
)
ou encore
S
t
= S
s
exp((b
1
2

2
)(t s) +(B
t
B
s
)), s t
On obtient
E(S
t
) = S
0
exp((b
1
2

2
)t) E(expB
t
) = S
0
expbt
en utilisant la transformee de Laplace de la gaussienne B
t
, et en utilisant les
proprietes de lesperance conditionnelle
E(S
t
[T
s
) = S
s
E
_
exp((b
1
2

2
)(t s) +(B
t
B
s
))[T
s
_
Le calcul de E
_
exp((b
1
2

2
)(t s) +(B
t
B
s
))[T
s
_
se fait aisement `a partir
de celui de E(exp((B
t
B
s
))[T
s
) = E(exp((B
t
B
s
))) pour lequel il sut
dutiliser la transformee de Laplace de la v.a. gaussienne B
t
B
s
. On obtient
E(S
t
[T
s
) = exp(b(t s))S
s
.
Cette derni`ere formule sobtient aussi directement en utilisant que

S est une
martingale.
Si Z
t
= (

S
t
)
1
, on a dZ
t
= Z
t
((
2
b) dt dB
t
).
Ces calculs se generalisent. Soit dS
t
= S
t
(b
t
dt+
t
dB
t
) et Y
t
= S
t
exp(
_
t
0
b
s
ds).
On a d(exp(
_
t
0
b
s
ds) = b
t
exp(
_
t
0
b
s
ds)dt. Le processus Y verie
dY
t
= exp(
_
t
0
b
s
ds)dS
t
S
t
b
t
exp(
_
t
0
b
s
ds)dt = exp(
_
t
0
b
s
ds)S
t

t
dB
t
= Y
t

t
dB
t
140 Ito. Corriges
et est une martingale locale.
La solution de dL
t
= L
t

t
dB
t
est une martingale locale, qui secrit
L
t
= L
0
exp(
_
t
0

s
dB
s

1
2
_
t
0

2
s
ds).
On pose Y
t
= S
t
L
t
. On a
dY
t
= S
t
dL
t
+L
t
dS
t
+d < S, L >
t
.
Par denition dS, L)
t
= S
t

t
L
t

t
dt, do` u
dY
t
= Y
t
((b
t

t

t
) dt +
t
dB
t
) .
En nance, on utilise souvent le cas
t
=
r(t)b
t

t
. Il vient alors
dY
t
= Y
t
(r(t) dt +
t
dB
t
) .
Soit R
t
= exp(
_
t
0
r(s) ds). Le processus Y R = LRS est une martingale locale
qui verie d(LRS) = LRSdB.
Exercice 3.5.2 : Soit
dS
t
= S
t
(rdt +dB
t
)
et A
t
=
1
t
_
t
0
lnS
s
ds. On a S
t
= S
0
exp(B
t

1
2

2
t +rt) et
lnS
t
= lnS
s
+(B
t
B
s
) + (r

2
2
)(t s)
Le processus lnS
t
est un processus gaussien, do` u A
t
est une variable gaussi-
enne.
Soit G(t, T) =
1
T
_
T
t
(B
s
B
t
) ds. Le processus s B
s
B
t
est gaussien,
do` u G(s, T) est une variable gaussienne. Le processus (B
s
B
t
, s t) est
independant de T
t
donc G(t, T) aussi, do` u E(G(t, T)[T
t
) =
1
T
_
T
t
E(B
s

B
t
) ds = 0.
Var (G(t, T)[T
t
) = E(G
2
(t, T)) =
1
T
2
_
T
t
_
T
t
E((B
s
B
t
)(B
u
B
t
))ds du.
E((B
s
B
t
)(B
u
B
t
)) = (s u) t. Tous calculs faits
Var (G(t, T)[T
t
) =
1
T
2
(
1
3
T
3

1
3
t
3
+tT(t T))
En ecrivant A
T
=
1
T
_
_
t
0
lnS
s
ds +
_
T
t
lnS
s
ds
_
et en remarquant que
_
T
t
lnS
s
ds = (T t) ln S
t
+
1
2
r
2
2
(T t)
2
+G(t, T)
2002-03 141
on obtient
A
T
=
t
T
A
t
+ (1
t
T
)[lnS
t
+
1
2
(r

2
2
(T t)] +G(t, T).
Exercice 3.5.4 : Soit

S
t
= e
rt
S
t
. On a vu deja plusieurs fois que

S
t
est une
martingale (par exemple verier, en utilisant le lemme dIto, que d

S
t
=

S
t
dB
t
).
Soit X
t
deni par
e
rt
X
t
= E[
e
rT
h
_
T
Th
S

u
du[T
t
] .
On a, X
T
= V
T
et si t T h
e
rt
X
t
= e
rT
1
h
_
T
Th
E(S
u
[T
t
) du
soit
e
rt
X
t
= S

t
e
rt
1 e
rh
rh
et si T h t T
e
rt
X
t
= e
rT
1
h
_
T
Th
E(S
u
[T
t
) du
= e
rT
1
h
_
t
Th
E(S
u
[T
t
) du+
1
h
_
T
t
E(S
u
[T
t
) du =
e
rT
h
_
t
Th
S

u
du+S

t
e
rt
1 e
r(Tt)
rh
.
dX
t
X
t
= rdt +
S

t
X
t
_
1
{t<Th}
1 e
rh
rh
+ 1
{Th<t<T}
1 e
r(Tt)
rh
_
dW
t
= rdt +
_
1
t<Th
+ 1
Th<t<T
S

t
X
t
1 e
r(Tt)
rh
_
dW
t
.
Exercice 3.5.5: Soit Z
t
= e
rt
S
t
+
_
t
0
(s)e
rs
S
s
ds. On a alors
dZ
t
= re
rt
S
t
dt +e
rt
dS
t
+
t
e
rt
S
t
dt
= S
t
e
rt
dW
t
Le processus Z est une martingale locale. On peut expliciter S qui est la solution
dune equation du type dS
t
= S
t
(a(t)dt +dW
t
par
S
t
= S
0
exp(rt (t) +W
t
)
avec (t) =
_
t
0
(s)ds. En ecrivant
S
t
= S
0
exp(rt (t)) exp(W
t

1
2

2
t)
142 Ito. Corriges
et en utilisant que exp(W
t

1
2

2
t) est une martingale desperance 1, on obtient
E(S
t
) = S
0
exp(rt (t)) .
On montre que S est de carre integrable : en eet
S
2
t
= S
2
0
exp(2rt2(t)+2W
t
) = S
2
0
exp(2rt2(t)+
1
2
(2)
2
t) exp(2W
t

1
2
(2)
2
t)
et lon sait que exp(2W
t

1
2
(2)
2
t) est une martingale egale `a 1 en t = 0, do` u
E(S
2
t
) = S
2
0
exp(2rt 2(t) +
1
2
(2)
2
t)
et E(
_
t
0
S
2
s
e
2rs
ds) < , ce qui etablit le caract`ere martingale de la martingale
locale Z.
On sait que (formule de Black et Scholes en changeant de nom les param`etres)
si dS
t
= S
t
(adt +dW
t
), S
0
= x alors
E(e
aT
(S
T
K)
+
)) = x^(d
1
) Ke
aT
^(d
2
)
avec d
1
=
1

T
ln(
x
Ke
aT
) +
1
2

2
T). Le calcul demande est alors facile.
3.6 Le crochet
3.7 Finance
Exercice 3.7.3 : Pour g(x) = (x K)
+
C
Am
t
C
t
= E(e
rT
(S
T
K)
+
[T
t
) = E(e
rT
g(S
T
)[T
t
)
et aussi
e
ru
g(S
u
) e
rT
g(S
u
e
r(Tu)
) = e
rT
g(e
rT
E(S
T
e
rT
T
u
)) = e
rT
g(E(e
rT
S
T
e
rT
T
u
))
= e
rT
g(E(S
T
T
u
)) E(e
rT
g(S
T
)[T
t
))
P P
Am
et la propriete de sous martingale de (KS
t
e
rt
) permet de conclure.
Exercice 3.7.11 : On ecrit la formule dintegration par parties
d(
X
t
Y
t
) = X
t
d(
1
Y
t
) +
1
Y
t
dX
t
+dX,
1
Y
)
t
.
En particulier (on omet les indices t) (X = Y )
d(
X
X
) = d(1) = 0 = Xd(
1
X
) +
1
X
dX +dX,
1
X
) .
Corriges. 2005-06 143
Soit dV =
1
dS
1
+
2
dS
2
. On a donc
dV,
1
S
1
) =
1
dS
1
,
1
S
1
) +
2
dS
2
,
1
S
1
) .
Par suite, si V
1
= V/S
1
, on peut ecrire la suite degalites (on utilise V =

1
S
1
+
2
S
2
)
dV
1
t
= V d(
1
S
1
) +
1
S
1
dV +dV,
1
S
1
)
= (
1
S
1
+
2
S
2
)d(
1
S
1
) +
1
S
1
_

1
dS
1
+
2
dS
2
_
+
1
dS
1
,
1
S
1
) +
2
dS
2
,
1
S
1
)
=
1
_
S
1
d(
1
S
1
) +
1
S
1
dS
1
+dS
1
,
1
S
1
)
_
+
2
_
S
2
d(
1
S
1
) +
1
S
1
dS
2
+dS
2
,
1
S
1
)
_
=
2
d(
S
2
S
1
)
Exercice 3.7.12 : On remarque que
T
T
= (W
s
, s t) = (S
1
s
, s t) = (S
2
s
, s t)
Le marche est complet: en eet, toute v.a. T
T
mesurable secrit comme valeur
terminale dun portefeuille auto-nancant compose des actifs sans risque et de
lactif 1, donc le marche compose dun actif supplementaire (avec les memes
actifs contingents) est egalement complet. La seule probabilite equivalente `a la
probabilite P telle que lactif sans risque et lactif 1, actualises, sont des mar-
tingales est Q denie par dQ[
F
t
= exp(W
t

1
2

2
t)dP[
F
t
avec =

i
r

.
Lactif 2, actualise nest pas une martingale sous Q, il nexiste donc pas de prob-
abilite equivalente `a la probabilite P telle que TOUS les actifs actualises soient
des martingales. Le marche presente des opportunites darbitrage. Supposons

1
>
2
. Si, `a la date 0, on ach`ete une part de lactif 1 et on vend une part de
lactif 2 (capital initial investi nul) et que lon maintient cette position jusquen
T, on a un portefeuille de valeur
S
1
T
S
2
T
=
_
exp(
1
T) exp(
2
T)

exp(W
T

1
2

2
T) > 0
ce qui constitue un arbitrage.
144 Equa. Di.
Chapter 4
Equations dierentielles
stochastiques, Corriges
4.1 Equation Lineaire
Exercice 4.1.4 : Lequation a une solution unique car b(t, x) = a + x et
(t, x) = b +x sont lipschitziennes et ont une croissance lineaire. On a
X
t
= x +
_
t
0
(a +X
s
) ds +
_
t
0
(b +X
s
) dB
s
Lintegrale stochastique est une martingale car E(
_
t
0
(b+X
s
)
2
ds) E(
_
t
0
2(b
2
+

2
X
2
s
) ds) et la solution de lequation verie E(sup
st
X
2
s
) < . Do` u en
prenant lesperance de X
t
et en posant m(t) = E(X
t
)
m(t) = x +
_
t
0
(a +m(s)) ds .
La fonction m est derivable et verie m

(t) = a + m(t). Compte tenu de la


condition initiale m(0) = x, la solution est
m(t) = (x +
a

)e
t

La formule dIto conduit `a


d(X
2
t
) = 2X
t
(a +X
t
) dt + 2X
t
(b +X
t
) dB
t
+ (b +X
t
) dt .
En admettant que lintegrale stochastique est une martingale et en posant
M(t) = E(X
2
t
)
M(t) = x
2
+ 2
_
t
0
(am(s) +M(s)) ds +
_
t
0
(b
2
+
2
+ 2bm(s)) ds
145
146 Equa. Di.
soit
_
M

(t) (2 +
2
)M(t) = 2(a +b)m(t) = b
2
M(0) = x
2
la solution est
_

_
M(t) = Ce
2+
2
)t
+ke
t
+c
k(
2
) = 2(a +b)(x +
a

)
c = (b
2
2(a +b)
a

)
1
2+
2
K +k +c = x
2
Exercice 4.1.5 : On a dY
t
= Y
t
(dt +dB
t
) dont la solution est (cf brownien
geometrique)
Y
t
= exp[(
1
2

2
)t +B
t
)]
On a (cf propriete de martingale du Brownien)
E(Y
t
[T
s
) = exp(t)E(exp[
1
2

2
t +B
t
] [T
s
) = exp(t) exp[
1
2

2
s +B
s
]
Do` u, si 0, on a E(Y
t
[T
s
) Y
s
. Le processus Y est une martingale si on a
egalite soit si = 0.
c. Le processus Y ne sannule pas. Le processus Z
t
est un processus dIto car
Y
1
t
est de carre integrable (voir brownien geometrique) et
dZ
t
= (a b)Y
1
t
dt +bY
1
t
dB
t
On a ainsi dY, Z)
t
= bY
1
t
Y
t
= b.
Soit U
t
= Y
t
Z
t
. La formule dIto conduit `a
dU
t
= (ab) dt+b dB
t
+U
t
(dt+ dB
t
)+b dt = (a+U
t
) dt+(b+U
t
) dB
t
et comme U
0
= x on a par unicite X
t
= U
t
.
Exercice 4.1.6: Soit dX
t
= X
t
dt + b dB
t
. On sait (ex precedents) que
cette equation admet une solution unique. En posant Z
t
= e
t
X
t
on voit que
dZ
t
= e
t

dB
t
do` u
X
t
= e
t
x +e
t
_
t
0
e
s
b dB
s
Il en resulte que X est un processus gaussien de moyenne E(X
t
) = e
t
x et de
variance
V (X
t
) = b
2
e
2t
1 e
2t
2
def
=
2
(t) .
Si Y
t
= (X
t
), la formule dIto conduit `a
dY
t
=

(X
t
)dX
t
+
1
2

(X
t
)b
2
dt .
Corriges. 2005-06 147
Dans le cas particulier de lenonce,
dY
t
= exp(

b
2
X
2
t
)(bdB
t
)
soit
Y
t
= b
_
t
0
exp(

b
2
X
2
s
)dB
s
Cest une martingale car E(
_
t
0
exp(
2
b
2
X
2
s
)ds) < (faire le calcul en utilisant
ce qui suit) de carre integrable.
En utilisant le calcul de E(e
U
2
) quand U est une gaussienne, on trouve, en
posant m(t) = e
t
E(e
X
2
t
) =
1
_
1 2
2
(t)
exp
m
2
(t)x
2
1 2
2
(t)
= (t, x)
et
E(e
X
2
t
[T
s
) =
1
_
1 2
2
(t s)
exp
m
2
(t s)X
2
s
1 2
2
(t s)
= (t s, X
s
)
Soit t xe. Par denition, le processus dIto V deni par V
s
= (t s, X
s
)
est une martingale, donc son drift est nul. On a donc

1
(t s, x) +x
2
(t s, x) +
1
2
b
2

22
(t s, x) = 0

1
(u, x) +x
2
(u, x) +
1
2
b
2

22
(u, x) = 0
En posant = ln et en recherchant sous la forme
(t, x) = x
2
a(t) +b(t)
on a (voir la forme de ) les conditions de lenonce sur les fonctions a et b.
Exercice 4.1.13 : Dans un premier temps, on pose Y
t
= e
t
X
t
. Ce processus
verie
dY
t
= e
t
( V
t
)dt) +e
t
_
V
t
dW
1,t
Calculer () = E(exp(X
T
)) revient `a calculet () = E(exp(Y
T
)). On a
en eet () = (e
T
. Le calcul des esperances conditionneles se reduit `a un
calcul desperance par la propriete de Markov. On a
Y
t
= Y
0
+
_
t
0
e
s
( V
s
)ds +
_
t
0
e
s
_
V
s
dW
1,s
On est donc ramene `a calculer
A = E
_
exp
_

_
t
0
e
s
V
s
ds +
_
t
0
e
s
_
V
s
dW
1,s
__
148 Equa. Di.
En decorrelant W
1,t
, le terme sous lexponentielle est

_
t
0
e
s
V
s
ds +
_
t
0
e
s
_
V
s
W
2,s
+
_
1
2
_
t
0
e
s
_
V
s
dW
s
En utilisant lindependance entre W et V
A = E
_
exp
_

_
t
0
e
s
V
s
ds +
_
t
0
e
s
_
V
s
W
2,s
+
_
1
2
2
_
t
0
e
2s
V
s
__
Il reste un calcul du type esperance de lexponentielle de
_
t
0
f(s)V
s
ds +
_
t
0
g(s)
_
V
s
dW
2,s
Cette expression secrit
_
t
0
f(s)V
s
ds +
_
t
0
g(s)(dV
s
k( V
s
)ds) =
_
t
0
F(s)V
s
ds +
_
t
0
G(s)dV
s
=
_
t
0
F(s)V
s
ds +G(t)V
t
G(0)V
0

_
t
0
G

V
s
ds
= G(t)V
t
+
_
t
0
H(s)V
s
ds
ou f, g, F, G, H sont des fonctions deterministes. (remarque: pour un ornstein
Uhlenbeck, ce type de calcul est standard)
Exercice 4.1.10 : On pose Y
t
= e
at
X
t
. On a
dY
t
= abe
at
dt +e
at/2
_
Y
t
dW
t
et E(Y
t
) = x +b(e
at
1) En utilisant
Y
t
= x +
_
t
0
abe
as
ds +e
as/2
_
Y
s
dW
s
= E(Y
t
) +e
as/2
_
Y
s
dW
s
on obtient Y
t
E(Y
t
) =
_
t
0
e
as/2
_
Y
s
dW
s
par suite
V ar(Y
t
) =
_
t
0

2
e
as
E(Y
s
)ds
Exercice ?? : Si et existent, le processus M
t
= e
(t)+(t)S
t
exp
_

_
t
0
(S
s
)ds
_
est une martingale, donc E(M
T
[T
t
) = M
t
ce qui conduit `a
E
_
e
S
T
exp
_

_
T
0
(S
s
)ds
_
[T
t
_
= e
(t)+(t)S
t
exp
_

_
t
0
(S
s
)ds
_
.
Corriges. 2005-06 149
Do` u le resultat en remarquant que exp(
_
t
0
(S
s
)ds) est T
t
adapte. Pour que
M soit une martingale, il faut que sa partie `a variation bornee soit nulle. Il est
facile de voir que
d(e
(t)+(t)S
t
) = e
(t)+(t)S
t
(

)dt +dS
t
+
2
(S
t
)
2
dt
Ce qui conduit `a

S
t
(S
t
) +(S
t
)dt +
2
(S
t
)
2
= 0
soit

x (x) +(
0
+
1
x) +
2
(
0
+
1
x) = 0
Cette equation doit etre veriee pour tout (t, x) do` u (cours elementaire sur les
ED)


0
+
0
+
2

0
= 0


1
+
1
+
2

1
= 0
La seconde equation est une equation de Ricatti
4.2 Finance
Exercice 4.2.1 : Soit S
t
solution de
dS
t
= S
t
(r dt + dB
t
) .
On a pour t u
S
u
= S
t
exp
_
r(u t) +(B
u
B
t
)

2
2
(u t)
_
(4.1)
Le processus S est `a valeurs positives (si S
0
> 0) et ne sannule pas.
1. Le processus M
t
= E
_
[
1
T
_
T
0
S
u
du K]
+
[T
t
_
est une martingale, car il
secrit E(Z[T
t
).
2. En utilisant que s(a b)
+
= (sa sb)
+
si s > 0 et la T
t
-mesurabilite de
S
t
, on obtient M
t
= S
t
E
_
[
1
T
_
T
0
S
u
S
t
du
K
S
t
]
+
[T
t
_
ce qui secrit de facon
evidente
S
t
E
_
[
1
T
_
T
t
S
u
S
t
du
t
]
+
[T
t
_
avec
t
= S
1
t
(K
1
T
_
t
0
S
u
du), variable T
t
-mesurable.
3. On rappelle que, si X est independante de ( et Y est (-mesurable,
E(f(X, Y )[() = [E(f(X, y)]
y=Y
.
150 Equa. Di.
Les variables (
S
u
S
t
, u t) sont independantes de T
t
(utiliser (4.1)), et
t
est T
t
mesurable. Il en resulte
M
t
= S
t
(t,
t
)
avec
(t, x) = E
_
1
T
_
T
t
S
u
S
t
du x
_
+
.
4. En utilisant que
S
u
S
t
est independant de T
t
, on obtient le resultat.
5. On a (appliquer Ito `a f(x) =
1
x
)
dS
1
t
=
1
S
2
t
dS
t
+
1
2
2
S
3
t
d < S, S >
t
= (

2
S
t

r
S
t
)dt

S
t
dB
t
.
on en deduit les egalites suivantes
d
t
= S
1
t
S
t
T
dt + (K
1
T
_
t
0
S
u
du)dS
1
t
=
1
T
dt +
t
(dB
t
rdt +
2
dt)
d < , >
t
=
2
t

2
dt
d(t,
t
) =

t
dt +

x
d
t
+
1
2

xx
d < , >
t
= (...) dt
t

x
dB
t
d < S, >
t
= S
t

x
La formule dIto appliquee `a M
t
est alors (ecriture volontairement simpliee)
dM
t
= dS +Sd +dSd
ce qui secrit
(t,
t
)dS
t
+S
t
[

t
(t,
t
)dt+

x
(t,
t
)d
t
+
1
2

xx
(t,
t
)d < , >
t
] +d < S, >
t
Soit
dM
t
= S
t
(r +

t
(
1
T
+r)

x
+
1
2

x
2
) dt +dN
t
o` u N est une martingale du type (...) dB
t
. Le processus M etant une martingale,
on doit avoir la partie processus `a variation nie nulle, soit
0 = r +

t
(
1
T
+r)

x
+
1
2

x
2
Exercice 4.2.2 :
S
t
= S
0
exp
_
rt +
_
t
0
(s)dB
s

1
2
_
t
0

2
(s) ds
_
est solution de lequation proposee. Il sut dappliquer la formule dIto.
Corriges. 2005-06 151
2.
_
t
0
(s)dB
s
est une variable gaussienne (integrale de Wiener) centree
de variance
_
t
0

2
(s)ds. Il en resulte que
_
t
0
(s)dB
s

1
2
_
t
0

2
(s) ds est une
variable gaussienne car desperance
1
2
_
t
0

2
(s) ds et de variance
_
t
0

2
(s)ds.
3. La formule de valorisation dune option revient `a calculer E
Q
(S
T
K)
+
.
Dans le cas o` u S
T
= S
0
e
U
o` u U est une variable desperance rT et de variance
V
2
=
2
T, on a
C(0, x) = x^(d
1
) Ke
rT
^(d
2
)
avec
d
1
=
1
V
_
ln(
x
K
) +Tr +
V
2
2
_
, d
2
= d
1
V
Il sut donc de remplacer
2
T par
2
=
_
T
0

2
(s)ds
C(0, x) = x^(d
1
) Ke
rT
^(d
2
)
avec
d
1
=
1

_
ln(
x
K
) +Tr +

2
2
)
_
, d
2
= d
1

4.3 Equations dierentielles
Exercice 4.3.4 : Nous verions que
X
t
= tN + (1 t)
_
t
0
1
1 s
dB
s
(4.2)
est solution de dX
t
= dB
t
+
N X
t
1 t
dt. Par dierentiation de (4.2)
dX
t
= Ndt 1
_
t
0
1
1 s
dB
s
+dB
t
= Ndt
1
1 t
(X
t
tX
1
)dt +dB
t
= dB
t
+
1
1 t
(X
t
+N)dt
Le processus X est donc gaussien, centre, de covariance (s < t)
E(X
s
X
t
) = ts + (1 t)(1 s)E(
_
t
0
1
1 u
dB
u
_
s
0
1
1 v
dB
v
ts + (1 t)(1 s)
_
s
0
1
(1 u)
2
du = s
152 Exemples
Chapter 5
Exemples, Corriges
5.1 Processus de Bessel
Exercice 5.1.3 :
La formule dIto conduit `a
dZ
t
=
1
R
2
t
dR
t
+
1
2
2
R
3
t
dR)
t
=
1
R
2
t
dB
t

1
R
3
t
dt +
1
R
3
t
dt =
1
R
2
t
dB
t
Soit V
t
=
sinh R
t
R
t
. On pose f(x) =
sinhx
x
, do` u
f

(x) =
sinhx
x
2
+
coshx
x
f

(x) = +2
sinhx
x
3

coshx
x
2

coshx
x
2
+
sinhx
x
.
La formule dIto conduit `a
dU
t
= e

t
2
2
[

2
2
V
t
dt +dV
t
]
et on verie que les termes en dt sannulent.
Il sut dappliquer le theor`eme darret de Doob `a la martingale U
t
et au
temps darret T
b
. On obtient E(exp(

2
T
b
2
)(
sinhb
b
)) = 1, do` u E(exp(

2
T
b
2
)) =
b
sinh b
.
Exercice 5.1.4 :
1. On applique Ito
d(ln R
t
) =
1
R
t
dR
t

1
2(R
t
)
2
dR
t
dR
t
=
1
R
t
dW
t

1
R
t
1
2R
t
dt+
1
2(R
t
)
2
dt =
1
R
t
dW
t
.
153
154 Exemples
2. Toujours en appliquant Ito
dR

t
= R
1
t
dR
t
+
( 1)
2
R
2
t
dR
t
dR
t
= R
1
t
dW
t
+R
1
t
1
2R
t
dt+
( 1)
2
R
2
t
dt .
= R
1
t
dW
t
+

2
2
R
2
t
dt
3. On pose Z
t
= exp(

2
2
_
t
0
ds
R
2
s
) et on applique le lemme dIto.
dZ
t
= d exp(

2
2
_
t
0
ds
R
2
s
) = Z
t
(

2
2
)
1
R
2
t
dt
dL
t
= Z
t
dR

t
+R

t
dZ
t
= Z
t
_
R
1
t
dW
t
+R
1
t
1
2R
t
dt +
( 1)
2
R
2
t
dt

2
2
1
R
2
t
R

t
dt
_
= Z
t
R
1
t
dW
t
Exercice 5.1.5 :
dY
t
= 2
_
Y
t
dW
t
+dt
La formule dIto conduit a
dZ
t
= Z
t
(

Y )dW
t
Sous Q

W
t
def
= W
t
+
_
t
0
_
Y
u
du est un MB et dY
t
= 2

Y
t
d

W
t
+( 2Y
t
)dt.
Exercice 5.2.2 : Par application de la formule dIto `a Z
t
= W
2
t
dZ
t
= 2W
t
dW
t
+dt = 2
_
Z
t
dW
t
+dt
on a alors
dZ
t
= 2W
t
dW
t
+2W
1
t
dW
1
t
+2dt =
2
_
(W
t
)
2
+ (W
1
t
)
2
_
(W
t
)
2
+ (W
1
t
)
2
(W
t
dW
t
+W
1
t
dW
1
t
)
= 2
_
Z
t
dW
3
t
+ 2dt
Avec n Browniens on obtient = n.
Si
t
def
=

R
t
, la formule dIto conduit `a
d
t
=
1
2
t
( 1)dt +dW
t
dX
t
= dR
()
t
+dR
()
t
= ( +)dt + 2
_
R
()
t
+R
()
t
dZ
t
o` u Z est un MB. On en deduit que la somme de deux Bessels carres independants
est un Bessel carre.
Exercice 5.1.6 : P
x
(inf
st
X
s
) = P
x
(T
a
> t) et on connait la transformee de
Corriges. 2005-06 155
Laplace de T
a
E
()
(exp

2
2
T
a
).
Dans le cas du BES(3) P
(3)
x
[
F
t
=
_
X
t
x
_
W
x
[
F
t
do` u pour a < x P
(3)
x
((T
a
)11
T
a
<
) =
a
x
W
x
((T
a
)) Do` u P
(3)
x
(T
a
> t) = P
(3)
x
( > T
a
> t) + (1
a
x
) et P
(3)
x
( >
T
a
> t) =
a
x
P
0
(T
(xa)
> t) =
a
x
P
0
((x a) > [N[

t).
Voir Borodin pour l autre cas
5.2 Processus de Bessel carre
Exercice 5.2.4 : Remarquer que E(R
(2)
1
) = E
_

2
1
+
2
2
.
Exercice 5.2.5 : On part de
W
()
[T
t
= exp(W
t


2
2
t)W[T
t
On sait que (R
t
; t 0)
loi
= xexp(B
C
t
+C
t
)
P
()
(F(R
s
), s t) = W
()
(F(xB
u
), u C
t
)
W
()
(F(xB
u
), u C
t
) = W(exp(B
C
t
+C
t
)F(xB
u
), u C
t
) = P
(0)
(
R
t
x
)

exp

2
2C
t
F(R
s
), s t)
car sous P
(0)
expB
C
t
= (expB
C
t
)

, R
t
= xexpB
C
t
5.3 Autres processus
Exercice 5.3.3 :
La premi`ere question resulte dune application du lemme dIto: f(t, X
t
) est
une martingale locale si (f(t, X
t
) = 0 avec (f(t, x) =
t
f + x(1 x)(
x)
x
f +
1
2
x
2
(1 x)
2

xx
f. Dire que h
0
(X) est une martingale locale revient `a
verier que h
0
est solution de x(1 x)( x)h

+
1
2
x
2
(1 x)
2
h

= 0. Montrer
que h
1
(X
t
) t est une martingale locale revient `a verier que h
1
satisfait
1 +x(1 x)( x)h

+
1
2
x
2
(1 x)
2
h

= 0 .
En appliquant le theor`eme daret de Doob (la fonction h
0
est bornee sur [a, b],
la martingale locale h
0
(X
t
) est uniformement integrable) E(h
0
(X

)) = h
0
(x)
soit
h
0
(x) = E(h
0
(X

)) = h
0
(a)P(X

= a)+h
0
(b)P(X

= b) = h
0
(a)P(X

= a)+h
0
(b)(1P(X

= a)) .
156 Exemples
On applique ensuite le theor`eme de Doob `a h
1
(X
t
) t
h
1
(x) = E[(h
1
(a) )11
X

=a
)] +E[(h
1
(b) )11
X

=b
)]
= h
1
(a)P(X

= a) +h
1
(b)(1 P(X

= a)) E()
5.4 Des Calculs
Exercice 5.4.2 : For t 1 and a > 0, the events Y
t
a and T
a
t are
equal, where T
a
= inft 0, X
t
= a.
Then, P(Y
t
a) = P(T
a
t). Let

X = X/ and T

X) = inft 0,

X
t
= .
Then, T
a
= T

X) where = a/.
It is well known (the proof follows, from example from inversion of Laplace
transform) that
P
0
(T

X) dt) =
[[

2t
3
exp
( t)
2
2t
where = / (see Borodin-Salminen p. 223, formula 2.0.2. or Revuz Yor,
second edition, page 320, ex. 1.21).
Therefore, you get the cumulative function of Y for t 1.
Let us denote (t, a, , ) = P(sup
0st
(s +W
s
) a).
Suppose now that 2 > t > 1. Then
X
t
= X
1
+
1
(t 1) +
1
(W
t
W
1
) = X
1
+
1
(t 1) +
1

W
t1
where

W is a BM independent of (W
s
, s 1).
Then,
P(Y
t
a) = P
_
Y
1
a , max
1st
(X
1
+
1
(s 1) +
1

W
s1
) a
_
= P
_
Y
1
a P
_
max
1st
(X
1
+
1
(s 1) +
1

W
s1
) a)[T
1
_
= E(11
(Y
1
a)
(t 1, X
1
))
where
(u, x) = E( max
0su
(x +
1
s +
1

W
s
) a) = E( max
0su
(
1
s +
1

W
s
) a x)
and this quantity is known from step 1: (u, x) = (u, a x,
1
,
1
).
Then, it remains to know the law of the pair Y
1
, X
1
. This is the reection
principle in the case = 0 (Revuz Yor, page 105 ex. 3.14) and the general
result follows from Girsanovs theorem. For example Borodin-Salminen, page
198, formula 1.18 in the case where = 1
P(Y
1
y, X
1
dz) =
1

2t
exp[y

2
t
2

([z y[ +y)
2
2t
] dz
Corriges. 2005-06 157
References:
Borodin, A. and Salminen, P.: Handbook of Brownian Motion. Facts and
Formulae, Birkhauser, 1996.
Exercice 5.4.3 : On ecrit dS = D(rdt +
t
d

W
t
). Si

C est la valeur de C
actualise, alors dC = Cmd

W
t
. Il sut de resoudre et didentier
C
t
= C
0
_
S
t
S
0
exp[
m1
m
[
_
t
0
r
s
ds +
1
2
_
t
0

2
s
ds]]
_
m
Exercice 5.4.4 : On remarque que Y
t
= e
t
X
t
est un MB change de temps:
Y
t
= B
(t)
avec (t) =
2
_
t
0
e
2u
du =
2
e
2t
1
2
. Par suite = inft : [Y
t
[ >
e
y
g(t). Do` u la suite degalites
> t = [B
(u)
[ < e
u
g(u), (u) < (t)
= [B
v
[ < e
C(v)
g(C(v)), v < (t) =

> (t)
avec

= inft : [W
t
[ > e
C(t)
g(C(t))
158 Girsanov.
Chapter 6
Girsanov, Corriges
6.1 Resultats elementaires
Exercice 6.1.2 : Par changement de proba, le processus H etant une mar-
tingale positive desperance 1, en posant dQ = H
t
dP, on denit une nouvelle
probabilite Q et E
P
(H
T
lnH
T
) = E
Q
(ln H
T
). Or,
H
t
= exp(
_
t
0

s
dW
s

1
2
_
t
0

2
s
ds)
Do` u
E
Q
(lnH
T
) = E
Q
(
_
t
0

s
dW
s

1
2
_
t
0

2
s
ds)
Le processus

W
t
= W
t
+
_
t
0

s
ds est un Qmouvement Brownien, et
_
t
0

s
dW
s

1
2
_
t
0

2
s
ds =
_
t
0

s
d

W
s
+
1
2
_
t
0

2
s
ds, do` u le resultat.
Exercice 6.1.4 : On a
t
= exp(
_
t
0

s
ds) exp(
_
t
0

s
dW
s

1
2
_
t
0

2
s
ds), do` u

t
exp(
_
t
0

s
ds) est une martingale. Lecriture d
t
=
t

t
(dW
t
+

t

t
dt) mon-
tre que sous Q deni par dQ = L
t
dP, avec dL
t
= L
t

t
dW
t
, le processus

W
t
deni par d

W
t
= dW
t
+

t

t
dt est un mouvement Brownien.
Le processus veriant d
t
=
t

t
d

W
t
est une Q-martingale locale. On obtient
facilement d(
1
t
) =
1
t

t
(dW
t


2
t

t

t
dt) et le choix de R sen suit.
159
160 Girsanov.
6.2 Crochet
Exercice 6.2.1 : Soit Z = N < N, M > et L
t
= exp(M
t

1
2
M)
t
). On a
d(ZL) = ZdL +LdZ +dZ, L) = mart +dZ, L) LdM, N) = mart
Exercice 6.2.2 : On verie que Z
t
= h(X
t
)M
t

_
t
0
h

(X
s
)
h(X
s
)
dM, X) est une
P-martingale.
6.3 Processus
Exercice 6.3.4 :
1. La question 1 a deja ete traitee dans lexercice 1.2.3.
2. On se place dans le cas dun Brownien issu de a. Soit
dP
b
= expb
_
T
0
B
s
dB
s

b
2
2
_
T
0
B
2
s
dsdP .
En posant
s
= bB
s
et en appliquant Girsanov, on montre que sous P
b
le processus B
t
+ b
_
t
0
B
s
ds est un brownien issu de a que lon note W
t
.
Legalite
B
t
=
_
t
0
bB
s
ds +W
t
qui secrit dB
t
= bB
t
dt + dW
t
montre que le processus (B
t
, t 0) est
un processus dOrnstein-Uhlenbeck sous P
b
. Do` u (cf. cours) B
t
est une
variable gaussienne sous P
b
, desperance ae
bt
et de variance
1 e
2tb
2b
.
Soit x = a
2
. En utilisant que, sur T
t
,
dP = expb
_
t
0
B
s
dB
s
+
b
2
2
_
t
0
B
2
s
dsdP
b
on a, pour tout Z, T
t
-mesurable P-integrable,
E
P
(Z) = E
b
(Z expb
_
T
0
B
s
dB
s
+
b
2
2
_
T
0
B
2
s
ds)
do` u
E
P
(expB
2
t

b
2
2
_
t
0
B
2
s
ds) = E
b
(expB
2
t
+b
_
t
0
B
s
dB
s
)
La formule dIto montre que
_
t
0
B
s
dB
s
=
1
2
(B
2
t
a
2
t)
Corriges. 2005-06 161
(sous P et sous P
b
).
On obtient, en posant x = a
2
E
P
(expB
2
t

b
2
2
_
t
0
B
2
s
ds) = E
b
(expB
2
t
+
b
2
(B
2
t
x t))
Sous P
b
, B
t
est une gaussienne. On applique le resultat de la question 1
et on trouve (calculs)
E
P
(expB
2
t

b
2
2
_
t
0
B
2
s
ds) = (cosh bt+2

b
sinh bt)

1
2
exp[
xb
2
1 +
2
b
coth bt
coth bt +
2
b
]
On note (, b) lexpression de droite.
Exercice 6.3.3 : Soit dX
t
= X
t
dt+dW
t
un processus dOrnstein-Uhlenbeck.
Sous P

, X est un Brownien car X


t
=
_
t
0
X
s
ds +W
t
. On a
E
P
(exp
b
2
2
_
T
0
X
2
s
ds) = E
P

(L
1
T
exp
b
2
2
_
T
0
X
2
s
ds)
= E
P

_
exp
_

_
T
0
X
s
dX
s


2
2
_
T
0
X
2
s
ds
b
2
2
_
T
0
X
2
s
ds
__
= E
P

_
exp
_

2
(X
2
T
T)

2
+b
2
2
_
T
0
X
2
s
ds
__
=
_
exp
T
2
_
(

2
,
_

2
+b
2
)
(On comparera cet exercice au precedent)
Exercice 6.3.5 : Soit S solution de
dS
t
= S
t
(dt + dB
t
) , S
0
= s .
S
t
= S
0
exp(t +B
t


2
2
t).
1. Soit dQ = L
t
dP avec L
t
= exp(B
t

1
2

2
t). Le theor`eme de Girsanov
montre que W est un Q-mouvement Brownien.
2. Soit d

P = Z
t
dQ avec Z
t
= exp(W
t


2
2
t)
Le theor`eme de Girsanov montre que (

B
t
= W
t
t, t 0) est un

P-
mouvement brownien. On a alors
dS
t
= S
t
((r +
2
) dt + d

B
t
)
162 Girsanov.
3. Soit P
t
= P
0
e
rt
. Le processus (Y
t
=
S
t
P
t
, t 0) est une Q-martingale, car
Y
t
= Y
0
exp(W
t


2
2
t) (ou parce que (Ito) dY
t
=
d(S
t
e
rt
)
P
0
= Y
t
dW
t
.)
Le processus Z
t
=
P
t
S
t
est une

P-martingale car Z
t
= Z
0
exp(

B
t


2
2
t)
4. Soit F
t
= e
t
_
_
t
0
S
u
du +sA
_
o` u A, sont des constantes
Soit
t
=
F
t
P
t
e
t
. On a d
t
= (1 r
t
) dt
t
d

B
t
Exercice 6.3.7 : Let B
Y
t
= Y t + B
t
and F be a functional on C([0, t], IR).
Using the independance between Y and B, and Cameron-Martin theorem, we
get
E[F(B
Y
s
, s t)] = E[F(sY +B
s
, s t)] =
_
(dy)E[F(sy +B
s
, s t)] (6.1)
=
_
(dy)E[F(B
s
, s t) exp(yB
t

y
2
2
t)] = E[F(B
s
; s t)h(B
t
, y)] (6.2)
= E
h
(F(X
s
, s t)] (6.3)
where h(x, t) =
_
(dy) exp(yx
y
2
2
t) and P
h
[
F
t
= h(B
t
, t)W[
F
t
. Therefore,
B
h
t
def
= B
t

_
t
0
ds
h

x
h
(B
s
, s)
is a P
h
-martingale, more precisely a P
h
Brownian motion and B
t
is solution of
X
t
= B
h
t
+
_
t
0
ds
h

x
h
(X
s
, s)
Under P
h
, B has the same law as B
Y
under P. Then, B
Y
t
=

B
h
t
+
_
t
0
ds
h

x
h
(B
Y
t
, t).
Let us remark that
E(Y [B
Y
t
) =
h

x
h
(B
Y
s
, s)
where B
Y
t
= (B
Y
s
, s t). On a
E
Q
(f(Y )F(B
Y
s
, s t)) = E
P
(e
Y B
t

1
2
Y
2
t
F(B
Y
s
, s t))
=
_
(dy)f(y)E
P
(e
yB
t

1
2
y
2
t
F(B
s
+ys, s t))
=
_
(dy)f(y)E(F(B
s
, s t)) = E(F(B
s
, s t))E
P
(f(Y ))
Corriges. 2005-06 163
et la loi de Y est la meme sous P et sous Q. Exercice gi:4 : On remarque que
e
2W
t
1 = 2
_
t
0
e
2W
s
dW
s
+ 2
_
t
0
e
2W
s
ds

1
4
_
e
2W
t
1
_
+
1
2
_
t
0
_
e
2W
s

1
4
e
4W
s
_
ds
=
1
2
_
t
0
e
2W
s
dW
s

1
2
_
t
0
e
2W
s
ds +
1
2
_
t
0
_
e
2W
s

1
4
e
4W
s
_
ds
=
1
2
_
t
0
e
2W
s
dW
s

1
4
_
t
0
e
4W
s
ds
et on sait que exp
_
_
t
0

s
dW
s

1
2
_
t
0

2
ds
_
est une martingale locale. On peut
verier que la condition de Novikov est satisfaite Sous Q, le processus

W =
W
1
2
_
t
0
e
2W
s
ds est un MB.
6.4 Cas multidimensionnel
6.5 Temps darret
Exercice 6.5.1 : Soit dP

= L
t
dP o` u L
t
= exp(

B
t


2
2
2
t). Sous P

,
(

B
t
= B
t
+

t =
X
t

, t 0) est un Brownien et X
t
=

B
t
.
De legalite T
a
= inft [

B
t
=
a

, on en deduit le resultat qui gure dans le


cours en procedant comme suit:
On a dP = L
1
t
dP

avec
L
1
t
= exp(

B
t
+

2
2
2
t) = exp(

B
t


2
2
2
t)
et pour tout temps darret T, on a
E
P
(exp((Tt)) = E
P

(L
Tt
e
(Tt)
) = E
P

_
exp(

B
Tt

2
+ 2
2
2
2
(Tt))
_
On en deduit
E
P
(exp(T
a
)11
T
a
<
) = exp

2
a E
P

_
exp(

2
+ 2
2
2
2
T
a
) 11
T
a
<
_
Le passage `a la limite quand t est licite pour a 0, car dune part
e
(Tt)
1 et dautre part

B
T
a
t
a, do` u exp(

B
Tt


2
+ 2
2
2
2
(T t))
est borne. On utilise aussi

B
T
a
11
T
a
<
=
a

.
164 Girsanov.
Exercice 6.5.2 :
E(11
T<
exp(B
T


2
2
T)) = P
()
(T < ) =
and use that
T = inft : B
t
t/2 > lna = inft : W
t
+ ( 1/2)t > lna
Exercice 6.5.3 : Le processus (M
t
= exp(

B
t


2
t
2
) , t 0) est une P

-
martingale et si a et sont positifs (M
tT
a
, t 0) est uniformement integrable,
car majoree par exp(a). On en deduit E
P

(M
T
a
) = 1 do` u
E
P
(e
T
a
11
T
a
<
) = exp(
a

2

a
_

2
+ 2
2

2
)
et on verie que T
a
est ni (faire = 0).
Exercice 6.5.4 : L est une martingale exponentielle desperance 1, en utilisant
que dF
2
t
= 2F
t
f(t)dW
t
+f
2
(t)dt on obtient la premi`ere egalite. Une integration
par partie montre que
_
T
0
h(s)
2f(s)
dF
2
s
dW
s
=
h(T)
f(T)
F
2
T

h(0)
f(0)
F
2
0

_
T
0
F
2
t
d
_
h(t)
f(t)
_
ce qui donne le resultat. On prend ensuite h(t) =
u

u(t)f(t)
et on utilise que
E
_
exp
_
1
2
_
u

(T)
u(T)f
2
(T)
_
F
2
T

_
T
0
F
2
t
_
u

(t) 2u

(t)f

(t)/f(t)
u(t)f
2
(t)
_
dt
__
= exp
_
_
T
0
u

(t)
u(t)
_
dt
Pour calculer lexpression avec , on fait un changement de probabilite en
posant dQ = L
T
dP. On a
K =
_
u(T)
u(0)
_
1/2
E
Q
_
(A+BF
T
+
_
T
0
(t)F
2
t
dt)
_
et en appliquant Girsanov,
K =
_
u(T)
u(0)
_
1/2
E
Q
_
(A+Bu(T)
_
T
0
u(t)
f(t)
dB
t
+
_
T
0
dt(t)u(t)
_
t
0
dB
s
f(s)
u(s)
)
_
On peut calculer le membre de droite, car cest lexponentielle dune gausienne.
Exercice 6.6.16 : On a dr = 2
_
(t)r
t
dW
t
+ ([2(t) +

(t)
(t)
]r
t
+ (t))dt.
Letude de Z se fait par une IP.
Exercice 6.5.5 :
1. Utiliser Girsanov et Bayes.
2. Cest le theor`eme de Girsanov applique sur lespace produit.
3. Appliquer Ito. Les termes en dt sont nuls car est une martingale.
Corriges. 2005-06 165
6.6 Finance
Exercice 6.6.14 : Il sagit de calculer A = E
_
_
e
rT
_
1
T
_
T
0
S
u
du S
T
_
+
_
_
que lon ecrit
A =
1
T
E(e
rT
S
T
(Y
T
K)
+
)
avec Y
t
=
1
S
t
_
t
0
S
u
du et K = T. Par un changement de probabilite (le pro-
cessus e
rt
S
t
S
0
est une Q-martingale positive desperance 1), on obtient A =
S
0
T

E((Y
T
K)
+
) avec, sous

Q
dY
t
= (1 rY
t
)dt +Y
t
d

W
t
.
On peut utiliser que Y
t
= U
t
+V
t
avec U solution de
dU
t
= rU
t
dt U
t
d

W
t
, U
0
= 1
et V
t
= y +
_
t
0
(U
s
)
1
ds, ce qui ne nous avance pas beaucoup.
Exercice 6.6.15 :
1. On a dr
t
=

(t)
(t)
r
t
dt +(t)(dW
t
+h(t)dt).
2. On reconnait une exponentielle de Doleans Dade, et une integration par
parties donne le resultat.
3. En appliquant Girsanov, et en utilisant que r
t
= (t)Y
t
E
_
exp
_

_
T
0
r
s
ds
__
= E
_
exp
_
_
T
0
h(s)dW
s

1
2
_
T
0
h
2
(s)ds
_
T
0
(s)W
s
ds
__
Une integration par parties permet de conclure.
4. La quantite
A = E
_
exp
_
h(T)W
T

_
T
0
W
s
(h

(s) +(s))ds
__
se calcule en recherchant une fonction g telle que g

(s) = (s)+h

(s), g(T) =
h(T). On obtient alors
E
_
exp
_

_
T
0
r
s
ds
__
= exp
_

1
2
_
T
0
h
2
(s)ds
_
A = exp
_
1
2
_
T
0
(g
2
(s) h
2
(s))ds
_
166 Complements
On peut aussi remarquer que
h(T)W
T

_
T
0
W
s
(h

(s) +(s))ds
est une variable gaussienne centree dont on identie la variance.
Exercice 6.6.17 : S
t
= x +mart + 2( + 1)
_
t
0
S
u
du. Utiliser que
1 e
b
b

e
b
. On en deduit que E((
1
T
_
T
0
exp(2(W
s
+s))ds K)
+
) E((exp2(W
T
+
T) k)
+
) pour k assez petit.
Exercice 6.6.7 Pour evaluer E
P
(h(S
T
)[T
t
) dans le cas h(x) = (x

K)
+
, on
utilise ce qui prec`ede en ecrivant S

T
sous la forme xexp((a
b
2
2
)t + bW
t
). IL
est facile de verier que sous Q,
dZ
t
= Z
t
d

W
t
et comme

W donc

W est un MB, Z a meme dynamique sous Q que S sous
P. Par suite
, E
P
((S
T
)) = E
Q
((Z
T
)) .
Par denition de Q
1
x
E
P
(S
T
f(
x
2
S
T
)) = E
Q
(f(
x
2
S
T
)) .
Par denition de Z,
E
Q
(S
T
f(
x
2
S
T
)) = E
Q
(f(Z
T
)) = E
P
(f(S
T
)) .
Si S
a
est une martingale, le meme raisonnement conduit `a la formule souhaitee.
Un peu dalg`ebre permettait decrire x

(x K)
+
comme
(x
+1
K
+1
)
+
K(x

)
+
.
Chapter 7
Complements, Corriges
7.1 Theor`eme de Levy.
Exercice 7.1.1 : Soit S
t
= sup
0st
W
s
et
D = sup
0st1
(W
s
W
t
) = sup
0t1
sup
0st
(W
s
W
t
)
= sup
0t1
(S
t
W
t
)
loi
= sup
0t1
[W
t
[
Grace au theor`eme de Levy
(S
t
W
t
, S
t
, W
t
; t 1)
loi
= ([W
t
[, L
t
, L
t
[W
t
[; g t 1)
Do` u
W

, sup
t1
(S
t
W
t
S
t
))
loi
= L
g
[B
g
[, sup
gt1
([W
t
[ L
t
) = (L
g
, sup
gt1
([W
t
[ L
g
)
Thus
D
1
= W

+ sup
t1
(S
t
W
t
S
t
)
loi
= L
g
+ sup
gt1
[W
t
[ L
g
Exercice 7.1.2 : La premiere egalite provient du theor`eme de Levy et de la
connaissance de la loi du couple S
t
, B
t
). La seconde egalite en loi provient de la
symetrie de la loi du couple. Pour le semi groupe, on utilise la formule de Levy
et lindependance de (B
u
, u t) et de

B
v
= B
t+v
B
t
E(f(S
t+s
B
t+s
, S
t+s
[T
s
) = E(f((S
s
B
s
)

S
t


B
t
, B
s
+ (S
s
B
s
)

S
t
S
t+s
)[T
s
)
=
_

t
(da, d)f( ( a), ( ) + )
Les resultats concernant lindependance de S
t
(S
t
B
t
) et B
t
sont dus `a Seshadri.
167
168 Complements
7.2 Equations retrogrades
Exercice 7.2.1 : Il sagit dappliquer la formule dIto et le theor`eme de
representation. La propriete de martingale de X provient de X
t
= E(e

H
T
[T
t
)
et le theor`eme de representation etablit lexistence de z. Puis, en utilisant la
formule dIto
d(1/H
t
) =
1
H
2
t
dH
t
+
1
H
3
t
dH)
t
=
1
H
t
[(r +
2
)dt +dW
t
)]
d(Z
t
/H
t
) =
Z
t
H
t
[(r +
2
)dt +dW
t
) +H
t
z
t
dW
t
+
z
t
H
t
dt
dX
t
= (
z
t
H
t
+)dW
t
+
_
(r +
2
) +
z
t
H
t

1
2
(
z
t
H
t
+)
2
_
dt
=

X
t
dW
t
+ (r +

X
t

1
2

X
2
t
)dt
7.3 Theor`emes de representation
Exercice 7.3.1 : On utilisera le theor`eme de representation previsible pour
representer W
(1)
t
, W
(2)
t
en terme de W
(3)
. Si legalite etait possible, on aurait
W
(i)
t
=
_
t
0

(i)
t
dW
t
avec
_
t
0
E[
(i)
t
]
2
dt = t et E(W
(1)
t
W
(2)
t
) = E(
_
t
0

(1)
t

(2)
t
dt) =
0.
Exercice 7.3.2 : M est une integrale stochastique, lintegrand est borne donc
de carre integrable, M est une martingale.
Par propriete de lintegrale stochastique
__
t
0
11
W
s
>0
dW
s
_
2

_
t
0
(11
W
s
>0
)
2
ds
est une martingale. Une autre methode consiste `a appliquer la formule dIto `a
Y
2
t
avec Y
t
=
_
t
0
11
W
s
>0
dW
s
. Le processus A
t
=
_
t
0
11
W
s
>0
ds est un processus
croissant.
Le processus M
C
t
est une (
t
def
= T
C
t
martingale et
M
2
C
t
A
C
t
= M
2
C
t
t
est une martingale.
7.4 Temps local.
Exercice 7.4.1 : On ne peut pas appliquer Ito car x [x[ nest pas de classe
C
2
. Un calcul fait en pensant quun point ne compte pas et que lon peut negliger
le point o u la derivee nexiste pas conduirait `a (la derivee de [x[ est egale `a sgn
Corriges. 2005-06 169
sauf en 0 et la derive seconde est nulle sauf en 0) [B
t
[ =
_
t
0
sgn(B
s
)dB
s
et
lintegrale du membre de droite nest pas positive (nous verrons plus loin que
cest un mouvement Brownien).
Le processus est une martingale de crochet
_
t
0
f
2
(B
s
)ds = t, cest un MB. Il
est evident que pour u t
S
u
= sup
su
W
s
S
t
= sup
st
W
s
La premi`ere decomposition exprime que [W
t
[ est egal `a un MB plus un processus
croissant, la seconde decomposition dit que S
t
W
t
a la meme propriete. On
peut montrer, grace au lemme de Skohorod (voir poly) que (S
t
W
t
, t 0)
loi
=
([W
t
[, t 0) et que (L
t
, t 0)
loi
= (S
t
, t 0).
Exercice 7.4.2 : [B
s
[ +L
s
L
t
= L
d
t
for s t, and [B
d
t
[ +L
d
t
= L
d
t
.
Exercice 7.4.3 : ( u) = sup
su
B
s
sup
su
B
s
= sup
1su
(B
s
B
u
) +
B
u
sup
su
B
s
do` u P( u) = P(

S
1u
S
u
B
u
) On trouve nalement
que a une loi Arc Sinus.
Exercice 7.4.4 : On utilise la formule dIto
dY
t
= f

x
(X
t
, S
t
, X)
t
)dX
t
+f

s
(X
t
, S
t
, X)
t
)dS
t
+(f

t
+
1
2
f

xx
)(X
t
, S
t
, X)
t
)dX)
t
Or f

s
(X
t
, S
t
, X)
t
) = f

s
(S
t
, S
t
, X)
t
) dS
t
presque surement. Si
1
2
f

xx
+ f

t
= 0
et f

s
(s, s, t) = 0, Y est une martingale locale.
g(S
t
) (S
t
X
t
)g

(S
t
) = g(S
t
)
_
t
0
g

(S
s
)dS
s
+
_
t
0
g

(S
s
)dX
s
+
_
t
0
(S
s
X
s
)g

(S
s
)dS
s
=
_
t
0
g

(S
s
)dX
s
Exercice 7.4.5 : On utilise le scaling du MB pour ecrire
_

2
t
0
f(B
s
)ds
loi
=
2
_
t
0
f(B
u
)du =
2
_
da f(a)L
a
t
Exercice 7.4.7 : From the occupation formula and change of time
_
t
0
dM)
s
f(M
s
) =
_
t
0
dM)
s
f(
M
s
) =
_
M
t
0
duf(
u
) =
_
dyf(y)L
y
M
t
().
170 Complements
7.5 Lois
Exercice 7.5.1 : Soit Y
t
= f(X
t
). On en deduit
dY
t
=
X
t
b(X
t
)
dX
t
+
1
2
_
1
b(X
t
)

X
t
b

(X
t
)
b
2
(X
t
)
_
b
2
(X
t
)dt
= X
t
_
a(X
t
)
b(X
t
)
dt +dW
t
_
+
1
2
_
b(X
t
) X
t
b

(X
t
)
_
dt
Le resultat souhaite en decoule.
f(X
t
) f(X
0
)
_
t
0
_
X
s
a(X
s
)
b(X
s
)
+
1
2
_
b(X
s
) X
s
b

(X
s
)
_
ds =
_
t
0
X
s
dW
s
Exercice 7.5.2 : Let V be a standard Brownian motion starting at v, that
is, V
t
= v + W
t
. In this case, the two events
a
(V ) t and sup
st
W
s

, where = a v are equal. The reection principle implies that the r.v.
sup
st
W
s
is equal in law to the r.v. |W
t
|. Therefore,
P(

(W) t) = P(sup
st
W
s
) = P(|W
t
| ) = P(W
2
t

2
) = P(tG
2

2
)
where G is a Gaussian variable, with mean 0 and variance 1. It follows that

(W)
loi
=

2
G
2
, and the probability density function of
a
(V ) is
f(t) =
a v

2t
3
exp
_

(v a)
2
2t
_
.
The computation of
E
_
11
{T<
a
(V )}
h(V
T
)
_
= E
_
h(V
T
)
_
E
_
11
{T
a
(V )}
h(V
T
)
_
can be done using Markov property:
E
_
11
{T
a
(V )}
h(V
T
)
_
= E
_
11
{T
a
(V )}
E(h(V
T
)[T

a
(V )
)
_
= E
_
11
{T
a
(V )}
h(

V
T
a
(V )
+a)
_
,
where

V is a Brownian motion independent of
a
(V ).
Exercice 7.5.3 : Soit y > a. On admettra que M est uniformement integrable.
a = E[M
T
y
] = yP(T
y
< ) = yP(supM
t
y)
Soit
a
y
= P(supM
t
y) = P(
a
y
U) = P(
a
U
y).
7.6 Filtrations
Exercice 7.6.2 : M
t
= E(W
t
[H
t
) est un processus H-adapte. Pour montrer
que cest une H-martingale, il sut decrire la suite degalites suivantes, pour
Corriges. 2005-06 171
t s
E(M
t
[H
s
) = E(W
t
[H
t
[H
s
) = E(W
t
[H
s
)
= E(W
t
[(
s
[H
s
) = E(W
s
[H
s
)
Pour montrer que Z est une F
X
-martingale, on ecrit (en justiant chaque egalite,
ce que je ne fais pas)
E(Z
t
[T
X
s
) = E(X
t
[T
X
s
) E(
_
t
0

Y
u
du[T
X
s
)
= E(W
t
+
_
t
0
Y
u
du[T
X
s
) E(
_
t
0

Y
u
du[T
X
s
)
= E(W
t
[T
X
s
) +E(
_
s
0
Y
u
du[T
X
s
) +E(
_
t
s
Y
u
du[T
X
s
)
_
s
0

Y
u
du E(
_
t
s

Y
u
du[T
X
s
)
= E(W
s
[T
X
s
) +E(
_
s
0
Y
u
du[T
X
s
) +E(
_
t
s
Y
u
du[T
X
s
)
_
s
0

Y
u
du E(
_
t
s

Y
u
du[T
X
s
)
= E(X
s
[T
X
s
) +
_
t
s
E(Y
u
[T
X
s
)du
_
s
0

Y
u
du E(
_
t
s

Y
u
du[T
X
s
)
= X
s
+
_
t
s

Y
u
du
_
s
0
E(

Y
u
[T
X
s
)du E(
_
t
s

Y
u
du[T
X
s
)
= X
s

_
s
0

Y
u
du)
on a utilise que E(W
t
[T
X
s
) = E(W
s
[T
X
s
) et que, pour u > s
E(Y
u
[T
X
s
) = E(Y
u
[T
X
u
[T
X
s
) = E(

Y
u
[T
X
s
)
7.7 Options barri`eres
Exercice 7.7.1 : Soit
t
(x) = P(B
t
< x) =
1

2t
_
x

exp(
u
2
2t
)du. on a

t
(x) = 1
t
(x) do` u, P(B
t
< x) = P(B
t
> x).
Soit T = inft 0[B
t
= y. Par denition P(B
t
x, M
t
> y) = P(T <
t, B

tT
< xy). Si M
t
> y, cest que lon a depasse y avant t: Si M
t
> y, on a
T < t. De plus B

tT
= B
t
B
T
= B
t
y. Par independance, P(T < t, B

tT
<
xy) =
_
t
0
P(T du, B

tu
< xy) =
_
t
0
P(T du)P(B

tu
< xy). Dapr`es
1, P(B

tu
< x y) = P(B

tu
> x +y), do` u
_
t
0
P(T du)P(B

tu
< x y) =
_
t
0
P(T du)P(B

tu
> y x)
et par independance
_
t
0
P(T du)P(B

tu
> yx) =
_
t
0
P(T du, B

tu
> yx) = P(T < t, B
t
> 2yx)
172 Complements
En tenant compte du fait que si B
t
> 2y x et y > x , alors B
t
> y, donc T < t
on en deduit P(T < t, B
t
> 2y x) = P(B
t
> 2y x) do` u
P(B
t
x, M
t
> y) = P(B
t
> 2y x)
En utilisant
P(B
t
x, M
t
< y) = P(B
t
x) P(B
t
x, M
t
> y)
on obtient
P(B
t
x, M
t
< y) = ^(
x

t
) ^(
x 2y

t
)
3. La loi de T sobtient en ecrivant P(T < t) = P(M
t
< y) et la densite du
couple (B
t
, M
t
) en derivant P(B
t
x, M
t
< y).
4. Soit X
t
= t + B
t
, Y
t
= sup(X
s
, 0 s t. Soit dQ = dP avec =
exp(X
t
+
1
2

2
t). En utilisant le theor`eme de Girsanov, on a
P(X
t
< x, Y
t
< y) = E
Q
(exp(X
t

1
2

2
t) 11
X
t
<x
11
Y
t
<y
)
que lon peut calculer car sous Q, X est un mouvement Brownien et on connait
la loi du couple (x, Y ) sous Q.
7.8 Meandres, ponts, excursions
Exercice 7.8.1: Let V be a standard Brownian motion starting at v, that is,
V
t
= v + W
t
. In this case, the two events
a
(V ) t and sup
st
W
s

, where = a v are equal. The reection principle implies that the r.v.
sup
st
W
s
is equal in law to the r.v. |W
t
|. Therefore,
P(

(W) t) = P(sup
st
W
s
) = P(|W
t
| ) = P(W
2
t

2
) = P(tG
2

2
)
where G is a Gaussian variable, with mean 0 and variance 1. It follows that

(W)
loi
=

2
G
2
, and the probability density function of
a
(V ) is
f(t) =
a v

2t
3
exp
_

(v a)
2
2t
_
.
The computation of
E
_
11
{T<
a
(V )}
h(V
T
)
_
= E
_
h(V
T
)
_
E
_
11
{T
a
(V )}
h(V
T
)
_
can be done using Markov property:
E
_
11
{T
a
(V )}
h(V
T
)
_
= E
_
11
{T
a
(V )}
E(h(V
T
)|T

a
(V )
)
_
= E
_
11
{T
a
(V )}
h(

V
T
a
(V )
+a)
_
,
where

V is a Brownian motion independent of
a
(V ).
Corriges. 2005-06 173
For t < 1, the set g t is equal to d
t
> 1.
d
a
t
(W) = t + inf u 0 : W
u+t
W
t
= a W
t
= t +
aW
t
loi
= t +
(a W
t
)
2
G
2
.
P
_
a
2
G
2
> 1 t
_
=
_
|a|

1 t
_
.
Then, the Ito-Tanaka formula combined with the identity x

(x) +

(x) = 0
lead to
P(g t[T
t
) =
_
[W
t
[

1 t
_
=
_
t
0

_
[W
s
[

1 s
_
d
_
[W
s
[

1 s
_
+
1
2
_
t
0
ds
1 s

_
[W
s
[

1 s
_
=
_
t
0

_
[W
s
[

1 s
_
sgn(W
s
)

1 s
dW
s
+
_
t
0
dL
s

1 s

_
[W
s
[

1 s
_
=
_
t
0

_
[W
s
[

1 s
_
sgn(W
s
)

1 s
dW
s
+
_
2

_
t
0
dL
s

1 s
.
Exercice 7.4.6 : The occupation time formula leads to
E
_
T
a
(X)
0
f(X
s
) ds =
_
a

f(x)E[L
x
T
a
]dx
It remains to compute (x) = E[L
x
T
a
]. Tanakas formula reads
(X
T
a
x)
+
= (x)
+
+
_
T
a
0
11
(X
s
>x)
dX
s
+
1
2
L
x
T
a
(a x)
+
= (x)
+
+
_
T
a
0
11
(X
s
>x)
(dW
s
+ds) +
1
2
L
x
T
a
Then, taking expectation of both sides
1
2
E[ L
x
T
a
] = (a x)
+
(x)
+
E[
_
T
a
0
11
(X
s
>x)
ds]
= (a x)
+
(x)
+
E[
_
a
x
L
y
T
a
dy]
Therefore, if (x) = E[ L
x
T
a
]
1
2
(x) = (a x)
+
(x)
+

_
a
x
(y)dy, (a) = 0
which gives
(x) =
_

_
1

(1 exp(2(x a)) for 0 x a


1

(1 exp(2a)) exp(2x) for x 0


174 Sauts.
Exercice 7.8.2 : Il sut decrire
B
t
= m
1

t g
t
(sgneB
t
)
On a alors E(B
t
[T
g
t
) = E(m
1

t g
t
(sgneB
t
)T
g
t
) =

t g
t
(sgneB
t
)E(m
1
) =

t g
t
(sgneB
t
)
_

2
On note
t
=

t g
t
(sgneB
t
), cest une martingale. Des
calculs analogues conduisent `a
E(B
2
t
t[T
g
t
) = E(m
2
1
)
2
t
t
E(e
B
t

2
2
t
[T
g
t
) = h(
t
)e

2
2
avec h(x) = E(e
xm
1
).
Chapter 8
Sauts, Corriges.
8.1 Processus de Poisson
Exercice 8.1.2 :
E(N
t
N
s
[T
s
(N
1
)) = E(N
t
N
s
[(N
s
N
1
))
Il est bien connu (ou tout au moins facile de verier ) que si X et Y sont deux
variables de Poisson, independantes, de param`etre et
P(X = k[X +Y = n) =
_
n
k
_

k
(1 )
nk
avec =

+
. On en deduit
E(N
t
N
s
[T
s
(N
1
)) =
t s
1 s
(N
1
N
s
)
La verication de la propriete de martingale est alors facile.
Exercice 8.1.4 : Si N est un processus de Poisson, P(N
t
= n) = e
t

n
t
n
n!
dou
(z, t) = e
t
e
tz
Si N un processus `a accroissements independants tel que N
t+s
N
t
loi
= N
s
(z, t +s) =

n
z
n
P(N
t+s
= n) = E(z
N
t+s
) = E(z
N
t+s
N
t
+N
t
)
= E(z
N
t+s
N
t
)E(z
N
t
) = E(z
N
s
)E(z
N
t
) = (z, t)(z, s)
On en deduit
(z, t +h) (z, t) = (z, t)[(z, h) 1]
ce qui conduit `a une EDO en urilisant les proprietes de donnees dans lenonce.
En tenant compte de (z, 0) = 1, on montrait que (z, t) = e
t
e
tz
, ce qui
175
176 Sauts.
caracterise le processus de Poisson (cette egalite caracterise la loi de N
t
, ce qui
avec N un processus `a accroissements independants tel que N
t+s
N
t
loi
= N
s
caracterise le processus de Poisson.)
Exercice 8.1.5 : Le processus de Poisson compose est un processus `a accroisse-
ments independants, donc pour s < t
E(Y
t
Y
s
[T
s
) = E(Y
t
Y
s
) = E(X
t
X
s
) (t s) = 0
On peut le demontrer `a la main, sans utiliser que le processus de Poisson com-
pose est un PAI
E(X
t
X
s
[T
s
) = E(
N
t

i=N
s
+1
Y
i
[T
s
) = E(
N
t
N
s
+N
s

i=N
s
+1
Y
i
[T
s
) = (N
s
)
avec
(n) = E(
n+N
ts

i=n+1
Y
i
) =

P(N
ts
= k)E(
n+k

i=n+1
Y
i
)
=

P(N
ts
= k)kE(Y
1
) = E(Y
1
)E(N
ts
) = E(Y
1
)(t s)
Exercice 8.1.6 : Si X et

X sont deux solutions,
Z
t
def
= X
t


X
t
= c
_
t
0
(X
s


X
s
)ds = c
_
t
0
Z
s
ds
et Z est solution de lequation dierentielle ordinaire Z

t
= cZ
t
avec condition
initiale nulle. Donc Z = 0.
Soit X
t
= e
ct
x +
_
t
0
e
c(ts)
dN
s
. On calcule
_
t
0
X
s
ds =
_
t
0
e
cs
xds +
_
t
0
ds
_
s
0
e
c(su)
dN
u
.
Lintegrale double se calcule en employant Fubini (pour des integrales de Stielt-
jes)
_
t
0
ds
_
s
0
e
c(su)
dN
u
=
_
t
0
dN
u
_
t
u
dse
c(su)
=
1
c
_
t
0
dN
u
(1 e
c(tu)
)
=
1
c
(N
t

_
t
0
e
c(ts)
dN
s
) .
En utilisant que M et Y sont des martingales
E(M
t
Y
t
[T
s
) = E(M
t
(Y
t
Y
s
)[T
s
) +M
s
Y
s
= E((M
t
M
s
)(Y
t
Y
s
)[T
s
) +M
s
Y
s
Le calcul de E((M
t
M
s
)(Y
t
Y
s
)[T
s
) se fait comme le precedent. Exercice
8.1.8 : Si jecris la formule d ito d(tN
t
) = N
t
dt +tdN
t
Dou
_
t
0
N
s
ds = tN
t

_
t
0
sdN
s
=
_
t
0
(t s)dN
s
Corriges. 2005-06 177
Pour calculer la TL, il sut d utiliser que pour toute fonction h (ici, pour t xe
h(s) = (t s)) si c est lintensite de N
E(exp(
_
t
0
h(s)dN
s
) = exp(c
_
t
0
(1 e
h(s)
)ds)
8.2 Poisson compose
Exercice 8.2.1 : From the independance of Y
k
, one gets
E(
n

k=1
Y
k
+
m

k=n+1
)) = E(Y
1
)
n
E(Y
1
)
m
Then, the independence and stationarity of the increments of N follows from
E(X
s
+(X
t
X
s
)) = E((, N
s
)(, N
t
N
s
)) = E((, N
s
))E((, N
ts
))
where (, n) = E(Y
1
)
n
. From the independence of N and the r.v. (Y
k
, k 1)
and using the Poisson law of N
t
, we get
P(X
t
x) =

n
P(N
t
= n,
n

k=1
Y
k
x)
=

n
P(N
t
= n)P(
n

k=1
Y
k
x)
= e
t

n
(t)
n
n!
F

(x) .
and
E(X
t
) =

n=1
E(
n

k=1
Y
k
11
N
t
=n
) =

n=1
nE(Y )P(N
t
= n)
= E(Y )

n=1
nP(N
t
= n) = tE(Y
1
) .
The computation of the variance can be done with the same method, however,
it is more convenient to use the Laplace transform of X
t
and the fact that the
second moment is obtained from the second derivative of the Laplace transform.
Exercice 8.2.2 : From the independence of increments, we obtain that
(X
t
tE(Y ), t 0) is a martingale. More generally, for any bounded Borel
function f, we denote by (f) =
_
f(x)(dx) the expectation E(f(Y )). From
the denition of M
f
,
E(M
f
t
) =

n
E(f(Y
n
))P(T
n
< t) t(f) = (f)

n
P(T
n
< t) t(f) = 0
178 Sauts.
The proof of the proposition is now standard and results from the computation
of conditional expectation which lead to, for s > 0
E(M
f
t+s
M
f
t
[T
t
) = E
_
_

t<ut+s
f(X
u
)11
X
u
=0
s(f)[T
t
_
_
= 0 .
For the reciprocal, write
e
iuX
t
= 1 +

st
e
iuX
s
(e
iuX
s
1)
= +
_
t
0
e
iuX
s
dM
f
s
+(f)
_
t
0
e
iuX
s
ds
where f(x) = e
iux
1. Hence,
E(e
iuX
t+s
[T
t
) = e
iuX
t
+(f)
_
t+s
t
drE(e
iuX
t+r
[T
t
)
Setting (s) = E(e
iuX
t+s
[T
t
) one get (s) = (0) +(f)
_
s
0
(r)dr, hence
E(e
iuX
t+s
[T
t
) = e
s

_
(dx)(e
iux
1)
where = (1) and = /).
Exercice 8.2.3 : From the independence between the r.v. (Y
k
, k 1) and
the process N,
E(e
X
t
) = E
_
exp(
N
t

k=1
Y
k
)
_
= E((N
t
))
where (n) = E
_
exp(
n

k=1
Y
k
)
_
= [
Y
()]
n
, with
Y
() = E (expY ).
Now, E((N
t
)) =

n
[
Y
()]
n
e
t

n
t
n
n!
.
8.3 Marche complets, incomplets
Exercice 8.5.1 : We shall now restrict our attention to the simple case of a
complete market where
dS
t
= S
t
[dt +dM
t
]
and r = 0. Here, M is the compensated martingale associated with a poisson
process with deterministic intensity.
The non-arbitrage condition is equivalent to the existence of such that
> 1 and + = 0. This implies that

> 0.
Corriges. 2005-06 179
The unique equivalent martingale measure Q is dened by
dQ
dP
[
F
t
= L
t
where
L is the strictly positive martingale
L
t
=
_

_
N
t
exp(t/)
which satises dL
t
= L
t

dM
t
.
Under the measure Q,

M
t
def
= M
t
+t/ is a martingale.
Exercice 8.5.2 : Les m.m.e. sont denies par leur densite L veriant
dL
t
= L
t
(
t
dW
t
+
t
dM
t
)
avec
(t) = b r +(t) , dP dt.p.s.
Elles sont indexees par un processus > 1. Sous P

, le processus W

deni
par
W

(t)
def
= W(t)
_
t
0
(s) ds
est un mouvement Brownien M

(t)
def
= M(t)
_
t
0
(s)ds est une martingale.
On utilisera
W

(t) = W(t) +t +
_
t
0

(s)

ds = W
0
(t) +
_
t
0

(s)

ds
avec =
b r

.
180 Sauts.
Bibliography
181