Vous êtes sur la page 1sur 88

ELEMENTS DE CALCUL STOCHASTIQUE

Monique Jeanblanc, Thomas Simon


IRBID, Septembre 2005
2
Table des mati`eres
1 Notions generales de probabilites 5
1.1 Espace probabilise . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.2 Independance, esperance conditionnelle . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
1.3 Theor`eme de Radon-Nikodym . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
1.4 Vecteurs Gaussiens . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
1.5 Convergence de variables aleatoires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
2 Martingales et temps darret 17
2.1 Generalites sur les processus stochastiques . . . . . . . . . . . . . . . . . . . . . . . . . . 17
2.2 Temps darret . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
2.3 Martingales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
3 Le mouvement brownien 23
3.1 Un peu dhistoire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
3.2 Denitions, constructions, et premi`eres proprietes . . . . . . . . . . . . . . . . . . . . . . 23
3.3 La propriete de Markov et ses consequences . . . . . . . . . . . . . . . . . . . . . . . . . 28
3.4 Equation de la chaleur . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
3.5 Mouvement brownien multidimensionnel . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
4 Lintegrale stochastique - Formule dIto 35
4.1 Lintegrale de Wiener . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
4.1.1 Le cas des fonctions en escalier . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36
4.1.2 Le cas general . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37
4.1.3 Lintegrale de Wiener vue comme processus gaussien . . . . . . . . . . . . . . . . 37
4.2 Application de lintegrale de Wiener . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39
4.2.1 Le processus dOrnstein-Uhlenbeck . . . . . . . . . . . . . . . . . . . . . . . . . . 39
4.2.2 Le processus de Vasicek . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42
4.3 Lintegrale stochastique generale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43
4.3.1 Cas des processus etages . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43
4.3.2 Cas general . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 44
4.4 Processus dIto . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48
4.5 Formule dIto . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49
4.6 Formule de Black & Scholes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51
5 Equations dierentielles stochastiques 53
5.1 Denitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53
5.2 Quelques proprietes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 57
5.2.1 Propriete de Markov . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 57
5.2.2 Theor`eme de comparaison . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 57
5.2.3 Fonction dechelle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 58
5.2.4 Martingale exponentielle et condition de Novikov . . . . . . . . . . . . . . . . . . 59
5.3 Lien avec les equations aux derivees partielles . . . . . . . . . . . . . . . . . . . . . . . . 59
5.3.1 Probl`eme parabolique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59
5.3.2 Formule de Black & Scholes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 60
5.3.3 Formule de Feynman-Kac . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61
5.4 Processus de Bessel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 63
3
4 TABLE DES MATI
`
ERES
5.4.1 Norme dun mouvement Brownien n-dimensionel . . . . . . . . . . . . . . . . . . 63
5.4.2 Denition g nerale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 63
5.4.3 Probabilites de transition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 64
5.5 Mod`ele de Cox-Ingersoll-Ross . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 64
6 Changement de probabilite - Theor`eme de Girsanov 67
6.1 Generalites . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 67
6.2 La formule de Cameron-Martin . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 67
6.3 Les deux theor`emes de Girsanov . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 69
6.4 Theor`eme de representation previsible . . . . . . . . . . . . . . . . . . . . . . . . . . . . 71
6.4.1 Representation previsible . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 71
6.5 Applications au mouvement brownien et aux EDS . . . . . . . . . . . . . . . . . . . . . 71
6.5.1 Calcul desperances Exemple 1 . . . . . . . . . . . . . . . . . . . . . . . . . . . . 71
6.5.2 Calcul desperances Exemple 2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . 72
6.5.3 Temps de passage du Brownien drifte . . . . . . . . . . . . . . . . . . . . . . . . 73
6.5.4 Solutions faibles dEDS . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 73
6.6 Theor`eme fondamental de la nance : Probabilite risque neutre . . . . . . . . . . . . . . 74
6.6.1 Changement de numeraire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 75
7 Introduction aux mod`eles poissonniens 79
7.1 Processus ponctuels sur R
+
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 79
7.2 Lhypoth`ese de Poisson . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 80
7.3 La propriete de Markov forte et ses consequences . . . . . . . . . . . . . . . . . . . . . . 83
7.4 Une formule dIto avec sauts . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 84
7.5 Des martingales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 85
7.5.1 Exemple de changement de probabilite . . . . . . . . . . . . . . . . . . . . . . . . 86
Chapitre 1
Notions generales de probabilites
Dans ce chapitre introductif nous rassemblons les notions basiques de theorie des probabilites qui
seront utilisees dans la suite du cours. Nous renvoyons aux ouvrages [7] [9] ou encore [24] pour les
demonstrations non ecrites ici, et aussi pour de plus amples informations. Ici comme dans les chapitres
suivants, la plupart des exercices (dont les plus diciles sont marques dun *) sont corriges dans [8] ou
dans [22].
1.1 Espace probabilise
On consid`ere un ensemble abstrait quelconque , qui modelise le caract`ere aleatoire dun certain
phenom`ene et portera dans la suite le nom densemble fondamental, ou despace des chances. On note
P() lensemble des parties de . Rappelons que si Card = n, alors Card P() = 2
n
. Par exemple
si = 1, 2, 3, alors
P() = , 1, 2, 3, 1, 2, 1, 3, 2, 3, .
Remarquons que P() contient toujours et . Quand est ni ou denombrable, lensemble P()
decrit les evenements aleatoires associes `a lexperience consideree. Quand est inni non-denombrable
(ce sera le cas la plupart du temps), lensemble P() est parfois trop gros pour pouvoir etudier
mathematiquement la probabilite de ces evenements. On a alors recours `a la notion de tribu :
Denition 1.1 Une tribu ou -alg`ebre F sur est un sous-ensemble de P() contenant et veriant
les proprietes suivantes :
A F = A
c
F (stabilite par passage au complementaire).
A
1
, . . . , A
n
, . . . F = (A
1
. . . A
n
. . .) F (stabilite par intersection denombrable).
Il faut comprendre une tribu comme la quantite dinformation associee `a une certaine experience
aleatoire. Remarquons quune tribu contient forcement et reste stable par intersection denombrable,
du fait de la premi`ere loi de Morgan :

i=1
A
i

c
=
+

i=1
A
c
i
.
Les exemples les plus simples de tribus sur sont , (tribu triviale), P() (tribu maximale), ou
, A, A
c
, pour un certain A (tribu engendree par A). Quand F est une tribu sur , on dit
que (, F) est un espace mesurable. Une sous-tribu de F est une tribu G incluse dans F, au sens o` u
A G A F. On montre tr`es facilement la
Proposition 1.2 Toute intersection de tribus sur est une tribu sur .
Remarquons que cette propriete est fausse pour la reunion : une reunion de tribus nest pas forcement
une tribu. Par exemple si A
1
, A
2
, alors F
1
= , A
1
, A
c
1
, et F
2
= , A
2
, A
c
2
, sont des tribus,
mais pas F
1
F
2
en general, par exemple si A
1
A
2
F
1
F
2
. La denition suivante est fondamentale :
Denition 1.3 Soit A une partie quelconque de P(). On appelle tribu engendree par A et on note
(A) lintersection de toutes les tribus contenant A.
5
6 CHAPITRE 1. NOTIONS G

EN

ERALES DE PROBABILIT

ES
Si F
1
et F
2
sont deux tribus, on note F
1
F
2
la tribu engendree par F
1
F
2
. Cest la plus petite
tribu contenant les deux tribus F
1
F
2
. Remarquons que (A) est toujours bien deni comme tribu :
P() est une tribu contenant A et lintersection dune famille quelconque de tribus est une tribu.
Cependant, il est en general dicile (voire impossible) de decrire (A) plus precisement, sauf quand
A est un ensemble ni. Un exemple important est le suivant :
Denition 1.4 On appelle tribu des Boreliens de R et on note B(R) (ou B quand aucune ambigute
nest possible) la tribu engendree par les intervalles ouverts ]a, b[, a > b R.
Dans la denition on aurait evidemment pu remplacer ouvertpar ferme ou ouvert `a droite ferme `a
gauche...etc, vues les proprietes de stabilite des tribus. Soulignons quil est possible (mais dicile, voir
[14]) de construire des sous ensembles de R qui ne sont pas des Boreliens, autrement dit B(R) P(R).
Denition 1.5 Soit (, F) et (E, E ) deux espaces mesurables. Une application f : E est dite
(F, E ) mesurable (ou mesurable lorsquil ny a pas dambigute) si f
1
(A) F pour tout A E , o` u
lon a note
f
1
(A) = [f() A.
Une fonction f : R R est dite borelienne si elle est (B(R), B(R))-mesurable, autrement dit si
f
1
(A) B(R) pour tout A B(R). Par construction des Boreliens, il sut que cette propriete soit
veriee pour les intervalles ouverts A. En particulier, les fonctions continues sont boreliennes, puisque
limage reciproque dun intervalle ouvert par une fonction continue est une reunion dintervalles ouverts,
donc un Borelien.
Denition 1.6 Soit (, F) un espace mesurable. Une variable aleatoire reelle (v.a.r.) X est une ap-
plication mesurable de (, F) dans (R, B(R)).
Lexemple fondamental de variable aleatoire est la fonction indicatrice dun ensemble A F :
11
A
:

1 si A
0 sinon.
Remarquons que les variables aleatoires reelles sont stables par composition avec les fonctions boreliennes :
si X est une v.a.r. G-mesurable et f une fonction borelienne, alors f(X) est une v.a.r. G-mesurable. Les
v.a.r. peuvent etre approchees en limite croissante simple par des v.a.r. en escalier qui sont du type
n

i=1
a
i
11
A
i
avec A
i
G. Lespace (R, B) est lexemple plus simple despace detat associe `a une variable aleatoire.
On peut cependant denir des v.a. sur des espaces plus gros, comme C(R, R), lespace des fonctions
continues de R dans R, muni de sa tribu des Boreliens B(C(R, R)). Cette derni`ere est la tribu engendree
par les polynomes. Une v.a. `a valeurs dans C(R, R) portera le nom de processus.
Denition 1.7 La tribu engendree par une variable aleatoire X denie sur (, F) est lensemble
(X) =

X
1
(A), A B(R)

.
On verie que (X) est une tribu contenue dans F : cest la plus petite tribu sur rendant X mesurable.
Si G est une sous-tribu de F, alors une v.a.r. X est G-mesurable si (X) G. On a la
Proposition 1.8 Soit X une v.a.r. et Y une v.a.r. (X)-mesurable. Alors il existe une fonction
borelienne f : R R telle que Y = f(X).
Nous introduisons maintenant la denition centrale de ce chapitre :
Denition 1.9 Soit (, F) un espace mesurable. Une probabilite sur (, F) est une application P de
F dans [0, 1] telle que
P[] = 1
Si A
1
. . . A
n
. . . sont des parties de F deux `a deux disjointes, alors
P

n=0
A
n

n=0
P[A
n
] .
1.1. ESPACE PROBABILIS

E 7
La deuxi`eme propriete porte le nom de -additivite. On utilise souvent lecriture avec les fonctions
indicatrices :
P[A] =

A
dP =

11
A
dP.
Un espace mesurable (, F) muni dune probabilite P secrit (, F, P) et on parle alors despace de
probabilite ou despace probabilise. On demontre aisement les proprietes suivantes :
(a) P[A] +P[A
c
] = 1 pour tout A F.
(b) A B = P[A] P[B]
(c) P[A B] +P[A B] = P[A] +P[B] pour tout A, B F.
(d) Si les A
n
forment une suite croissante (resp. decroissante) delements de F, cest-`a-dire si A
n
A
n+1
(resp. A
n
A
n+1
), et si A =
n
A
n
(resp. A =
n
A
n
) alors P[A
n
] P[A] quand n +.
Exercice 1.10 (a) Montrer la generalisation suivante (connue sous le nom de Formule de Poincare) de
la propriete (c) : pour tout A
1
. . . A
n
F,
P

i=1
A
i

=
n

k=1
(1)
k+1

1i
1
<...<i
k
n
P[A
i
1
. . . A
i
k
] .
Sur une table reposent n lettres distinctes correspondant `a n enveloppes. Un postier est charge de
cacheter les lettres. Calculer la probabilite quaucune lettre ne soit dans la bonne enveloppe.
1
Quelle
est la limite de cette probabilite quand n +?
(b)* Montrer le principe dinclusion-exclusion : pour tout A
1
. . . A
n
F et pour tout p [1, . . . , n],
(1)
p

i=1
A
i

k=1
(1)
k+1

1i
1
<...<i
k
n
P[A
i
1
. . . A
i
k
]

0.
(c)* Montrer linegalite de Kounias : pour tout A
1
. . . A
n
F
P

i=1
A
i

i=1
P[A
i
]

max
k=1...n

j=k
P[A
j
A
k
]

.
En quoi cette inegalite est-elle plus forte que le principe dinclusion-exclusion pour p = 2 ?
Le theor`eme suivant est souvent utile pour identier deux mesures de probabilite :
Theor`eme 1.11 [Theor`eme de classe monotone] Soient P et Q deux probabilites sur lespace me-
surable (, F). Soit C F une famille stable par intersection nie et engendrant F. Si P[A] = Q[A]
pour tout A C, alors P = Q.
On prendra soin, pour appliquer ce theor`eme, de verier la stabilite par intersection de C, cest-`a-dire
de montrer que si C
1
C, C
2
C, alors C
1
C
2
C. Les intervalles ouverts ou fermes forment un
exemple de famille C sur la tribu des Boreliens. Le theor`eme de classe monotone permet de montrer
lunicite de la mesure de Lebesgue sur [0, 1], qui est denie comme lunique mesure de probabilite
sur B([0, 1]) telle que (]a, b[) = b a pour tout a < b. Lexistence de la mesure de Lebesgue est un
probl`eme delicat pour lequel nous renvoyons `a [14].
Denition 1.12 Soit (, F, P) un espace de probabilite. Un ensemble A F est dit negligeable pour
P si P[A] = 0.
Par exemple les singletons x sont negligeables dans [0, 1] pour la mesure de Lebesgue (on dit alors
que cette derni`ere ne charge pas les points). Par -additivite, une reunion denombrable densembles
negligeables est negligeable, mais pas forcement une reunion non denombrable. On dit quune propriete
est vraie presque s urement (p.s.) si elle est vraie en dehors dun ensemble negligeable. Un espace (, F, P)
est dit complet si F contient tous les ensembles G (dits negligeables au sens large) tels que infP[F] :
F F, G F = 0. Partant dun espace de probabilite donne (, F, P), il est toujours possible de le
completer en considerant F

= (F, N ) o` u N est lensemble des negligeables au sens large pour P.


1
Ce probl`eme est egalement connu sous le nom de probl`eme des echangistes.
8 CHAPITRE 1. NOTIONS G

EN

ERALES DE PROBABILIT

ES
Denition 1.13 Soit X une v.a.r. denie sur (, F, P). La loi de X est la probabilite P
X
sur (R, B(R))
denie comme mesure-image de P par X : pour tout A B(R),
P
X
(A) = P[X A] = P[ / X() A] .
En particulier, comme B(R) = ] , x] / x R , on voit par classe monotone que la loi de X est
caracterisee par les quantites F
X
(x) = P[X x]. On appelle F
X
la fonction de repartition de X. On
utilisera souvent la remarque elementaire suivante : si X et Y sont deux v.a.r. telles que P[X a] =
P[Y a] pour tout a R, alors X et Y ont meme loi, ce que lon notera
X
d
= Y.
Attention : legalite en loi nest pas legalite presque s ure. Par exemple, si X est une variable symetrique
(par exemple une Gaussienne centree), on a X
d
= X mais ces deux variables ne sont pas egales presque
s urement. La fonction F
X
est continue `a droite et limitee `a gauche (c`adl`ag), croissante, tend vers 0 en
et vers 1 en +. On a F
X
(x) = P[X < x] si P[X = x] = 0, autrement dit si P
X
ne charge pas x.
En particulier, F
X
est une fonction continue sur R si et seulement si P
X
ne charge aucun point (on dit
alors que X nest pas atomique).
Exemple 1.14 La fonction de repartition dune variable gaussienne centree reduite X (on notera alors
X N (0, 1)) est donnee par
F
X
(x) =
1

e
y
2
/2
dy.
Ici on a P[X x] = P[X < x] par propriete de lintegrale dune fonction mesurable bornee.
Dans cet exemple, F
X
est lintegrale dune fonction positive f
X
quon appelle la densite de X.
Si X a une densite, alors la fonction F
X
est continue, mais on prendra garde que la reciproque est
fausse : il existe des variables aleatoires non atomiques et sans densite. La densite f
X
dune variable
aleatoire X est la derivee de la fonction de repartition F
X
quand cette derivee existe. On peut alors
ecrire P[X A] =

A
f
X
(x) dx. En particulier P[X [a, b]] =

b
a
f
X
(x)dx. On utilise parfois la notation
dierentielle P[X dx] pour designer f(x)dx.
1.2 Independance, esperance conditionnelle
Denition 1.15 Soit X une v.a.r. telle que

[X()[ dP
def
=

R
[x[ dP
X
(x) < +.
On denit alors lesperance de X par
E[X] =

X() dP =

R
xdP
X
(x).
Il existe des variables aleatoires qui nont pas desperance, cest-`a-dire pour lesquelles lintegrale

X()dP na pas de sens. Par exemple la variable ayant pour densite f


X
(x) = 0 si [x[ < 1 et
f
X
(x) = 1/2x
2
si [x[ 1 verie

R
[x[ dP
X
(x) =

R[1,1]
c
[x[
dx
2x
2
=

+
1
dx
x
= +
et donc E[X] na pas de sens. On dit que X est integrable quand on peut denir son esperance, autrement
dit si [X[ a une esperance nie. On note L
1
(, F, P) (ou L
1
() quand il ny a pas dambigute) lensemble
des v.a. integrables. De la meme facon, on denit
L
p
(, F, P) =

X v.a.r. /

R
[x[
p
dP
X
(x) < +

pour tout p 1 et L

(, F, P) = X v.a.r. K/ X() K < + p.s. . Comme P est une mesure


nie, on montre aisement la chane dinclusions : L

() . . . L
p
() . . . L
1
(). Lespace
1.2. IND

EPENDANCE, ESP

ERANCE CONDITIONNELLE 9
L
2
(, F) des v.a. de carre integrable joue un role essentiel : cest un espace de Hilbert, muni du produit
scalaire < X, Y >= E(XY ).
Si : R R est une fonction borelienne telle que (X) soit integrable (ce qui a lieu par exemple si
est bornee, puisque L

() L
1
()), on note
E[(X)] =

(X)dP =

R
(x)dP
X
(x).
Dans cette formule, on a vu la loi de (X) comme limage par de la loi de P
X
. On peut aussi utiliser
la formule directe
E[(X)] =

R
xdP
(X)
(x),
mais alors il faut calculer la mesure P
(X)
, ce qui est parfois dicile. La fonction caracteristique ou
transformee de Fourier dune v.a.r. X, est la fonction

X
(t) = E[e
itX
] =

R
e
itx
P
X
(dx).
Elle est toujours denie puisque e
itX
L

, et caracterise la loi de X au sens suivant :


Theor`eme 1.16 Soient X et Y deux v.a.r. On a lequivalence
X
d
= Y
X
(t) =
Y
(t) pour tout t R.
Si la transformee de Fourier
X
(t) appartient `a L
1
(dt), cest-`a-dire si son module est integrable par
rapport `a la mesure de Lebesgue dt, alors X a une densite f
X
donnee par la formule dinversion de
Fourier :
f
X
(x) =
1
2

e
itx

X
(t)dt
Quand X est positive, on peut denir sa transformee de Laplace :

X
() = E[e
X
]
pour tout > 0, qui caracterise aussi la loi de X :
Theor`eme 1.17 Soient X et Y deux v.a.r. positives. On a lequivalence
X
d
= Y
X
() =
Y
() pour tout > 0.
Cependant, il ny a pas de formule dinversion simple pour les transformees de Laplace comme pour les
transformees de Fourier. Dans certains cas, on peut denir les transformees de Laplace de variables non
necessairement positives :
Exemple 1.18 Transformee de Laplace dune v.a. gaussienne : Soit X une variable gaussienne
de loi ^(m,
2
), i.e. une v.a.r. de densite donnee par
f
X
(x) =
1

2
e
(xm)
2
/2
2
.
On a alors E[e
X
] = e
(m+
2

2
/2)
pour tout R. Reciproquement, si X une v.a.r. ayant cette
transformee de Laplace, alors X N (m,
2
).
Quand
X
() est denie sur un voisinage ouvert contenant 0, le principe du prolongement analytique
permet decrire
X
(t) =
X
(it). Ainsi, pour X N (m,
2
), on a
X
(t) = e
(itmt
2

2
/2)
.
Proprietes de lesperance. (a) Linearite : si X, Y sont des v.a.r. integrables, alors pour tout a, b R
aX +bY est integrable et E[aX +bY ] = aE[X] +bE[Y ].
(b) Positivite : si X Y p.s. alors E[X] E[Y ]. En particulier, si X 0 p.s. alors E[X] 0. De plus,
si X 0 p.s. et si E[X] = 0, alors X = 0 p.s.
10 CHAPITRE 1. NOTIONS G

EN

ERALES DE PROBABILIT

ES
(c) Inegalite de Jensen : si est une fonction convexe et X une v.a.r. telle que (X) est integrable,
alors
E[(X)] (E[X]).
En particulier, x x
p
, p 1 et x e
x
sont des fonctions convexes et on a E[X
p
] (E[X])
p
, p 1
et E[e
X
] e
E[X]
. En revanche, x x
p
, p [0, 1] et x log x sont des fonctions concaves (soit lop-
pose dune fonction convexe), et on a les inegalites en sens inverse : E[X
p
] (E[X])
p
, p [0, 1] et
E[log X] log(E[X]).
Soit X L
1
; considerons X
n
= X11
|X|>n
0 p.s. quand n +. Comme [X
n
[ [X[ L
1
, le
theor`eme de convergence dominee de Lebesgue assure que
E[[X
n
[] 0
quand n +. Ceci motive la denition suivante :
Denition 1.19 Une famille X
i
, i I de v.a.r. dans L
1
() est dite uniformement integrable (U.I.)
si
sup
iI
E[[X
i
[ 11
|X
i
|>n
] 0
quand n +.
On vient de voir que E[[X
i
[ 11
|X
i
|>n
] 0 quand n + pour chaque i I. La subtilite de luniforme
integrabilite vient de ce que lon demande `a cette convergence detre uniforme sur I. Remarquons
cependant que sil existe Y L
1
() telle que [X
i
[ Y pour tout i I, alors la famille X
i
, i I est
U.I. La notion duniforme integrabilite joue un role primordial en theorie des martingales. Venons-en
maintenant `a une denition bien connue :
Denition 1.20 Soit (, F, P) un espace de probabilite. On dit que deux sous-tribus F
1
et F
2
sont
independantes si P[A B] = P[A]P[B] pour tout A C
1
et B F
2
. On notera alors F
1
F
2
.
Par classe monotone, remarquons que pour que F
1
et F
2
soient independantes, il faut et il sut que
P[A B] = P[A]P[B] pour tout A C
1
et B C
2
, o` u C
i
est une famille stable par intersection nie et
telle que (C
i
) = F
i
, i = 1, 2.
Denition 1.21 Une variable aleatoire X est independante dune sous-tribu G si les tribus (X) et
G sont independantes. En particulier, deux variables X et Y sont independantes si les tribus (X) et
(Y ) sont independantes.
Par theor`eme de classe monotone, on voit quune v.a. X est independante de la sous-tribu G si et
seulement si P[AX x] = P[A]P[X x] pour tout x R et A G. Ainsi, deux v.a.r. X et Y sont
independantes si et seulement si P[X x, Y y] = P[X x]P[Y y] pour tout x, y R. Un autre
crit`ere utile est le suivant :
X Y E[e
itX
e
isY
] = E[e
itX
] E[e
isY
] pour tout s, t R.
Si X et Y sont `a valeurs positives, on peut considerer les transformees de Laplace au lieu des transformees
de Fourier. Enn, si X et Y sont des variables independantes ayant une densite sur R, alors le couple
(X, Y ) a une densite sur R
2
donnee par la formule du produit :
f
X,Y
(x, y) = f
X
(x)f
Y
(y).
Denition 1.22 Une famille de sous-tribus T
i
, i I est independante si toutes les sous-familles
nies le sont, cest-`a-dire si
P[A
i
1
. . . A
i
n
] =
n

k=1
P[A
i
k
]
pour tout n 2 et pour tout A
i
k
F
i
k
avec i
k
1
= i
k
2
si k
1
= k
2
.
La denition est identique pour une famille de variables aleatoires. Lexercice suivant (lemme de Borel-
Cantelli) est classique :
1.2. IND

EPENDANCE, ESP

ERANCE CONDITIONNELLE 11
Exercice 1.23 Soit A
n
, n 1 une famille devenements de (, F, P). On pose
E =

n1

kn
A
k

.
(a) Montrer que si la serie de terme general P[A
n
] est convergente, alors P[E] = 0.
(b) Montrer que si la serie de terme general P[A
n
] est divergente et que si les A
n
sont mutuellements
independants, alors P[E] = 1.
La notion suivante jouera un role fondamental dans la suite :
Theor`eme 1.24 Soit (, F, P) un espace de probabilite, G une sous-tribu de F et X une v.a.r.
integrable. Il existe une unique v.a.r. Z G-mesurable telle que
E[X11
A
] = E[Z11
A
]
pour tout A G. On appelle Z l esperance conditionnelle de X sachant G et on note Z = E[X [ G ]
Elle est caracterisee par
E(XG) = E(ZG), G, v.a. bornee G-mesurable.
Quand X L
2
(), il existe une importante interpretation hilbertienne de lesperance conditionnelle :
E[X[G] est la projection de X sur lespace des v.a. G-mesurables de carre integrable, cest-`a-dire lunique
v.a. G mesurable qui minimise E[(X Y )
2
] parmi les v.a. Y qui sont G- mesurables. Quand G = (Y )
pour une certaine v.a. Y , on note parfois E[X[ G ] = E[X[ Y ] (esperance conditionnelle sachant Y ).
Le point important est quil sagit dune variable mesurable par rapport `a (Y ) et donc une fonction
deterministe de Y : il existe : R R borelienne telle que E[X[ Y ] = (Y ). En general il est cependant
dicile de calculer explicitement. La caracterisation de E[X[ Y ] est la suivante : cest lunique v.a.
de la forme (Y ) o` u est une fonction borelienne (denie P
Y
p.s.) telle que
E[X(Y )] = E[(Y )(Y )]
pour toute fonction borelienne bornee. En plus de la linearite et de la positivite (analogues `a celles
de lesperance classique), lesperance conditionnelle poss`ede les proprietes suivantes (les egalites entre
v.a. sont p.s.) :
(a) E[E[X[G ]] = E[X].
(b) Si X est G-mesurable, E[X[G ] = X.
(c) Si X est independante de G, E[X[ G ] = E[X].
(d) Si G est la tribu triviale, E[X[G] = E[X].
(e) Si G et H sont deux tribus telles que H G, alors E[X[ H ] = E[E[X[ G] [ H ] = E[E[X[ H ] [ G ]
(propriete dembotement).
Si Y est G-mesurable et XY inegrable, E[XY [G ] = Y E[X[G ]
(g) Si X Y et si : R
2
R est une fonction borelienne bornee, alors E[(X, Y ) [ Y ] = E[(X, y)]
y=Y
:
pour calculer E[(X, Y ) [ Y ], on explicite la fonction telle que (y) = E[(X, y)], puis on rem-
place y par Y pour obtenir la v.a. (Y ).
Exercice 1.25 Soit X une variable positive sur (, F, P) et G une sous-tribu de F. Montrer que p.s.
(a) E[X[G] = 0 X = 0 .
(b) X = + E[X[G] = + .
Exercice 1.26 * Soit Z L
1
(, F, P).
(a) Montrer que pour tout > 0 il existe > 0 tel que P[A] < =E[[X[11
A
] < .
(b) Soit G = G F une famille de sous-tribus de F. Deduire du (a) que la famille E[X[G], G G
est U.I.
12 CHAPITRE 1. NOTIONS G

EN

ERALES DE PROBABILIT

ES
Densite conditionnelle : soit (X, Y ) un couple de v.a.r. ayant une densite f(x, y). Les densites
marginales de X et Y sont donnees par
f
X
(x) =

R
f(x, y) dy et f
Y
(y) =

R
f(x, y) dx.
Quand X Y on a la formule du produit : f(x, y) = f
X
(x)f
Y
(y). Quand X et Y ne sont plus
independantes, la formule du produit est remplacee par une formule de desintegration : on pose
f
X/Y =y
(x) =
f(x, y)
f
Y
(y)
si f
Y
(y) = 0 et f
X/Y =y
(x) = 0 si f
Y
(y) = 0, et on remarque que necessairement f(x, y) = f
X/Y =y
(x)f
Y
(y)
p.s. en (x, y). En eet, si f
Y
(y) = 0, alors f(x, y) = 0 p.s. en x vu que f(x, y) 0. La fonction f
X/Y =y
(x)
peut etre vue comme la densite conditionnelle de X sachant Y = y. En eet pour toute fonction me-
surable bornee on a

R
2
(x, y)f
Y
(y)f
X/Y =y
(x) dxdy = E[(X, Y )] = E[E[(X, Y ) [ Y ]]
=

R
f
Y
(y)E[(X, y) [ Y ]
Y =y
dy
do` u lon deduit

R
(x, y)f
X/Y =y
(x) dy = E[(X, y) [ Y ]
Y =y
par identication, ce qui signie bien que f
X/Y =y
(x) est la densite conditionnelle de X sachant Y = y.
On peut denir f
Y/X=x
(y), densite conditionnelle de Y sachant X = x, de mani`ere analogue.
1.3 Theor`eme de Radon-Nikodym
Denition 1.27 Soient P et Q deux probabilites denies sur le meme espace (, F).
(a) On dit que P est absolument continue par rapport `a Q et on ecrit P < Q si pour tout A F,
P[A] = 0 Q[A] = 0 (les negligeables pour P sont aussi negligeables pour Q).
(b) On dit que P et Q sont equivalentes et on ecrit P Q si pour tout A F, P[A] = 0 Q[A] = 0
(P et Q ont les memes negligeables. )
(c) On dit que P et Q sont etrang`eres et on ecrit P Q sil existe A F tel que P[A] = 0 et Q[A] = 1.
(A est negligeable pour P et certain pour Q.)
Le theor`eme suivant, d u `a Radon-Nikodym, sera tr`es utile pour comprendre le theor`eme de Girsanov :
Theor`eme 1.28 Soient P et Q deux probabilites denies sur le meme espace (, F). Alors P < Q si
et seulement si il existe une variable Z 0 F-mesurable et desperance 1 sous Q telle que pour tout
A F,
P[A] = E
Q
[Z11
A
] .
On appelle Z la densite de Radon-Nikodym de P par rapport `a Q et on ecrit formellement dP = ZdQ
ou encore
Z =
dP
dQ
.
Ceci est motive par lecriture suivante, pour tout A F,
P[A] =

A
dP() =

A
dP
dQ
()dQ() = E
Q
[Z11
A
] .
De plus, dans le cas o` u P Q, on voit facilement que Z > 0 p.s. et que dQ = Z
1
dP.
Exercice 1.29 (a) Soit U une variable de Bernoulli sous P denie par P[U = 0] = 1p et P[U = 1] = p.
Soit Z la variable positive denie par Z = U +(1 U). Montrer que E[Z] = 1. Si on pose dQ = ZdP,
montrer que Q[U = 1] = p : sous Q, U est une variable de Bernoulli de param`etre p.
(b) Soit X une v.a. de loi N (m,
2
) sous P et soit Z = exp[h(X m) h
2

2
/2]. Si on pose dQ = ZdP,
alors sous Q, X est une v.a. de loi N (m+h
2
,
2
).
1.4. VECTEURS GAUSSIENS 13
1.4 Vecteurs Gaussiens
Les variables gaussiennes N (m,
2
) ont ete introduites dans lexemple 1.18 Leur generalisation sur
R
n
conduit `a la notion de vecteur gaussien :
Denition 1.30 Soit X = (X
1
, X
2
, . . . , X
n
) un vecteur aleatoire de R
n
. On dit que X est un vecteur
gaussien si pour tout vecteur deterministe u = (u
1
, . . . , u
n
), la variable aleatoire
(u, X) =
n

i=1
u
i
X
i
est une variable gaussienne `a valeurs reelles.
Par exemple, si X
1
, . . . , X
n
sont n Gaussiennes independantes, on sait que toute combinaison lineaire des
X
i
est une Gaussienne (par exemple si X
1
N (m
1
,
2
1
), i = 1, 2, et si X
1
X
2
, alors u
1
X
1
+u
2
X
2

N (u
1
m
1
+u
2
m
2
, u
2
1

2
1
+u
2
2

2
2
)). Donc (X
1
, . . . , X
n
) est un vecteur gaussien.
Mais attention, cette propriete nest plus vraie en general sans lhypoth`ese dindependance. Par
exemple si X N (0, 1), si est une variable independante de X telle que P[ = 1] = P[ = 1] = 1/2
et si Y = X alors on voit facilement que Y N (0, 1). Cependant, (X, Y ) nest pas un vecteur gaussien
puisque X + Y nest pas une Gaussienne : on voit immediatement que P[X + Y = 0] = 1/2 et ceci est
impossible pour une loi gaussienne qui est soit concentree en un seul point, soit absolument continue
(et donc non-atomique).
La loi dun vecteur gaussien est caracterisee par deux param`etres, comme dans le cas unidimension-
nel :
Theor`eme 1.31 Soit X = (X
1
, . . . , X
n
) un vecteur gaussien. Il existe un vecteur R
n
et une
matrice (n n), symetrique positive tels que la transformee de Fourier de X est donnee par
E

e
i(u,X)

= exp

i(u, )
t
uu/2

.
Ce theor`eme generalise lexemple 1.18 o` u lon avait montre que E

e
iuX

= e
(itmt
2

2
/2)
, soit
X
= m
et
X
=
2
dans ce cas. On fera attention que m se generalise en un vecteur et en une matrice.
Linterpretation de et est la suivante : est le vecteur esperance (E[X
1
], . . . , E[X
n
]) et la matrice
de covariance :

i,j
= cov(X
i
, X
j
) = E[X
i
X
j
] E[X
i
]E[X
j
].
Comme pour le cas unidimensionnel, on note X N (, ). Quand = 0 et = Id, on dit que X est
un vecteur gaussien centre reduit. La representation suivante est tr`es utile :
Proposition 1.32 Soit X N (, ). Alors on peut ecrire X = +Y o` u Y est un vecteur gaussien
centre reduit.
On deduit de cette proposition que la loi de X admet une densite si et seulement si la matrice est
inversible. La densite est alors donnee par
f(x
1
, . . . , x
n
) =
1
(2)
n/2

det
exp

1
2
t
(x )
1
(x )

o` u lon a ecrit x = (x
1
, . . . , x
n
). On voit par cette formule que si est une matrice diagonale, alors la
densite du vecteur gaussien est donnee par une formule produit, et donc les composantes de X sont
independantes. En particulier, pour un couple gaussien (X, Y ), on a
X Y cov(X, Y ) = 0,
ce qui se traduit par orthogonalite et independance sont des notions equivalentes. Attention, cette
propriete est enti`erement propre au cadre gaussien.
Exercice 1.33 Soit (X, Y ) est un vecteur gaussien bi-dimensionnel. Montrer quil existe tel que
X Y est independant de X.
14 CHAPITRE 1. NOTIONS G

EN

ERALES DE PROBABILIT

ES
Exercice 1.34 Soit (X, Y ) un vecteur gaussien centre bi-dimensionnel avec E[X
2
] = E[Y
2
] = 1 et
E[XY ] = . On pose S = X Y et T = X +Y .
(a) Montrer que (S, T) est un vecteur gaussien et determiner ses caracteristiques.
(b) On pose W = max(X, Y ). Exprimer W en fonction de S et T et en deduire la densite de W, son
esperance et sa variance. Meme question pour Z = min(X, Y ).
Exercice 1.35 Soit X un vecteur gaussien centre reduit sur R
n
. Determiner la loi (appelee loi du
chi-deux `a n degres de liberte) de Z
n
= X
2
1
+. . . +X
2
n
.
1.5 Convergence de variables aleatoires
On consid`ere, sur un espace de probabilites xe (, F, P), une suite de variables aleatoires X
n
, n 0
et lon sinteresse `a la convergence de cette suite. Le caract`ere aleatoire de la suite met en evidence plu-
sieurs types de convergence :
Convergence presque s ure. Une suite de variables aleatoires X
n
converge p.s. vers X si
X
n
() X() quand n ,
pour P presque tout . Cette notion de convergence depend du choix de P mais evidemment, si Q P,
alors X
n
X P p.s. X
n
X Q p.s. Rappelons trois theor`emes fondamentaux :
Theor`eme 1.36 [Theor`eme de convergence monotone] Soit X
n
, n 0 une suite croissante
(ou decroissante) de variables aleatoires et soit X = limX
n
p.s. Supposons que X soit integrable. Alors
E[X] = limE[X
n
].
Theor`eme 1.37 [Theor`eme de convergence dominee] Soit X
n
, n 0 une suite de variables
aleatoires convergeant p.s. vers X. Supposons quil existe une variable aleatoire Y integrable telle que
[X
n
[ Y , alors X est integrable et E[[X
n
X[] 0 quand n +.
Theor`eme 1.38 [Loi des grands nombres] Soit X
n
, n 0 une suite de variables aleatoires equidis-
tribuees, independantes, et integrables. Alors
1
n
n

i=1
X
i
E[X
1
] p.s.
Convergence en probabilite. Une suite X
n
, n 0 de variables aleatoires converge en probabilite
vers X si
P[[X
n
X[ ] 0
quand n +, pour tout > 0. Il est immediat que la convergence presque s ure implique la conver-
gence en probabilite. Reciproquement, on peut montrer avec le lemme de Borel-Cantelli que la conver-
gence en probabilite de X
n
vers X implique quune sous-suite des X
n
converge vers X p.s.
Convergence dans les L
p
. Une suite X
n
, n 0 de variables aleatoires dans L
p
converge vers X
dans L
p
si
|X
n
X|
p
= E[[X
n
X[
p
]
1/p
0
quand n . Remarquons que si X
n
X dans L
p
, alors E[X
p
n
] E[X
p
], mais que la reciproque est
fausse. Si une suite converge dans L
p
, alors elle converge en probabilite et en particulier il existe une
sous-suite qui converge p.s. Dans le cas p = 1, la reciproque est donnee par le theor`eme de convergence
dominee. Remarquons enn que la convergence dans L
p
implique la convergence dans L
q
pour tout
q p.
Convergence en loi. Cest la notion la plus faible, et aussi la plus delicate. Une suite de variables
aleatoires X
n
converge en loi vers X si
E[(X
n
)] E[(X)]
1.5. CONVERGENCE DE VARIABLES AL

EATOIRES 15
quand n , pour toute fonction continue bornee. On note cette convergence X
n
d
X. La
convergence en loi est egalement denie par la convergence simple des fonctions caracteristiques, au
sens o` u
X
n
(t)
X
(t) pour tout t. Enn, si X est une v.a. de fonction de repartition F continue,
et si X
n
est une suite de v.a. de fonctions de repartition F
n
telles que F
n
(x) converge vers F(x) pour
tout x, alors X
n
converge en loi vers X et reciproquement. La convergence en probabilite (et donc aussi
la convergence p.s. et la convergence dans les L
p
) implique la convergence en loi. Le theor`eme suivant,
qui ane la loi des grands nombres, est lun des resultats fondamentaux du calcul des probabilites, qui
souligne le role central de la loi gaussienne :
Theor`eme 1.39 [Theor`eme Central Limite] Soit X
n
, n 0 une suite de v.a. equidistribuees,
independantes, et de variance nie
2
. Alors

n
i=1
X
i
nE[X
1
]

n
d
N (0, 1).
quand n +.
16 CHAPITRE 1. NOTIONS G

EN

ERALES DE PROBABILIT

ES
Chapitre 2
Martingales et temps darret
2.1 Generalites sur les processus stochastiques
On commence par introduire une notion mathematique qui joue un role central en theorie des
marches nanciers :
Denition 2.1 Soit (, F, P) un espace de probabilite et F
t
, t 0 une famille de sous-tribus de F.
On dit que F
t
, t 0 est une ltration si cest une famille croissante, au sens o` u F
s
F
t
si s t.
Il faut comprendre F
t
comme linformation au temps t : plus le temps crot (s t), plus on a
dinformations (F
s
F
t
). Une ltration G
t
, t 0 est dite plus grosse que F
t
, t 0 si F
t
G
t
pour tout t 0. Une ltration est dite normale si elle verie deux proprietes supplementaires :
Les negligeables au sens large sont dans tous les F
t
au sens o` u P[A] = 0 A F
0
.
La ltration est continue `a droite au sens o` u
F
X
t
= F
X
t+
def
=

s>t
F
X
s
.
Si F
t
, t 0 est une ltration sur un espace de probabilite (, F, P), on dit que (, F, F
t
, t
0, P) est un espace de probabilite ltre.
Denition 2.2 Soit (, F, F
t
, t 0, P) est un espace de probabilite ltre. Une famille X = X
t
, t 0
de v.a. sur est appelee un processus stochastique. On dit que le processus X est (F
t
)-adapte si X
t
est F
t
-mesurable pour tout t 0.
A un processus stochastique X on peut associer sa ltration naturelle completee

F
X
t
, t 0

, denie
par F
X
t
= ((X
s
, s t), N ) o` u lon rappelle que N designe la tribu des negligeables pour P. La tribu
F
X
t
represente linformation portee par X
s
, s t, et les negligeables. Evidemment, X est un processus
(F
X
t
)-adapte. On peut montrer que si X a p.s. des trajectoires continues `a droite, pourvues de limites
`a gauche (c`adl`ag), en particulier continues, alors la ltration

F
X
t
, t 0

est continue `a droite.


Denition 2.3 On dit que deux processus X et Y sont egaux `a modication pr`es si P[X
t
= Y
t
] = 1
pour tout t.
Remarquons que si deux processus continus `a droite sont egaux `a modication pr`es, alors
P[X
t
= Y
t
, t 0] = 1.
En eet, comme Q est denombrable et que lintersection dune famille denombrable devenements cer-
tains est un evenement certain, on voit facilement que
P[X
t
= Y
t
, t Q] = 1
si X et Y sont egaux `a modication pr`es. De plus, comme Q est dense dans R et X et Y sont continus
`a droite, les trajectoires de X et Y sont uniquement determinees par leurs valeurs sur Q puisque
X
t
= lim
t
n
Qt
X
t
n
pour tout t 0. On a donc P[X
t
= Y
t
, t 0] = 1.
17
18 CHAPITRE 2. MARTINGALES ET TEMPS DARR

ET
Denition 2.4 On dit que deux processus X et Y sont egaux en loi et on ecrit X
d
= Y si pour tout
n N et pour tout (t
1
, t
2
, . . . , t
n
) on a
X
t
1
, X
t
2
, . . . , X
t
n

d
= Y
t
1
, Y
t
2
, . . . , Y
t
n
.
On dit aussi que X et Y sont des versions lun de lautre.
On remarque immediatement que si X et Y sont continus `a droite et modication lun de lautre, alors
ils sont egaux en loi. Attention, la reciproque est fausse : en eet, si X est symetrique au sens o` u
X
d
= X, alors X et X sont des versions lun de lautre mais evidemment P[X
t
= X
t
, t 0] = 1
si et seulement si X 0.
Proprietes fonctionnelles. (a) Un processus X est croissant si p.s. t X
t
est une fonction croissante,
cest-`a-dire si X
t
() X
s
() pour tout t s, p.s. De meme, on dira quun processus est continu `a
droite, continu, derivable, de classe (
2
... etc si la fonction t X
t
() verie p.s. la propriete consideree.
(b) Un processus X est dit `a variation nie (V.F.) sur [0, t] si
sup
0t
0
<...<t
n
t

k=0
[X
t
k+1
X
t
k
[

< +.
Cette derni`ere notion, assez delicate, joue un role fondamental en theorie de lintegration. Elle signie
que la longueur de la courbe trajectoire de X est localement nie (quand cette longueur est innie - ce
qui sera le cas pour la courbe brownienne par exemple, on mesure la complexite de la courbe `a laide des
notions de dimension fractale et de mesure de Hausdor). En particulier, X est V.F. sil est derivable.
Dans le cas reel, on peut montrer que X est V.F. si et seulement si X est la dierence de deux processus
croissants.
Processus Gaussiens. Un processus X est appele un processus gaussien si toute combinaison lineaire
nie de X
t
est une variable aleatoire gaussienne, autrement dit si pour tout n N, t
1
. . . t
n
, a
1
. . . a
n
,
n

i=1
a
i
X
t
i
est une variable gaussienne. Un processus gaussien est caracterise par deux fonctions : sa fonction
esperance t m(t) = E[X
t
] et sa fonction de covariance (s, t) (s, t) = E[(X
t
m(t))(X
s
m(s))].
La fonction (s, t) est de type positif au sens o` u pour tout n N, t
1
. . . t
n
, a
1
. . . a
n
n

i,j=1
a
i
a
j
(t
i
, t
j
) 0.
Theor`eme 2.5 [Kolmogorov] Soit m : R
+
R une fonction quelconque et : R
+
R
+
R une
fonction symetrique de type positif. Alors il existe un processus gaussien X de fonction esperance m et
de fonction de covariance .
Lespace gaussien engendre par un processus gaussien X est le sous espace de L
2
() engendre par les
v.a.r. centrees X
t
E[X
t
], t 0, cest-`a-dire le sous-espace forme par les combinaisons lineaires de
ces variables centrees et leurs limites en moyenne quadratique.
Denition 2.6 Un processus est dit stationnaire si X
t+s
, t 0
d
= X
t
, t 0 pour tout s R
+
. En
particulier, tous les X
t
ont meme loi.
On voit immediatement quun processus gaussien stationnaire est tel que sa fonction esperance est
constante et sa fonction de covariance (s, t) ne depend que de (s t).
Theor`eme 2.7 [Bochner] Soit X un processus gaussien stationnaire. Il existe une unique mesure nie
, appelee mesure spectrale associee `a X, telle que
(s, t) =

R
cos((t s)z) (dz).
2.2. TEMPS DARR

ET 19
Exercice 2.8 Montrer que la fonction (s, t) inf(s, t) est une fonction de type positif sur R
+
R
+
,
autrement dit que pour tout t
1
. . . t
n
et pour tous reels a
1
. . . a
n
n

i,j=1
inf(t
i
, t
j
)a
i
a
j
0.
Le processus gaussien centre ayant pour fonction de covariance (s, t) inf(s, t) est appele mouvement
brownien.
2.2 Temps darret
Denition 2.9 Soit (, F, F
t
, t 0, P) un espace de probabilite ltre. Un temps darret relativement
`a (F
t
) est une variable aleatoire `a valeur dans R
+
+ telle que t F
t
pour tout t R
+
.
La denition est equivalente `a > t F
t
pour tout t R
+
, par stabilite des tribus par passage au
complementaire. Un temps darret doit etre vu comme un temps aleatoire qui suit levolution aleatoire
sous-jacente. La raison pour laquelle levenement t et non levenement = t intervient dans la
denition du temps darret vient du temps discret : relativement `a une ltration F
n
, n 0, un temps
darret est plus simplement deni par = n F
n
pour tout n N - voir [6] [24]. On voit facilement
que ceci est equivalent `a n F
n
pour tout n N. Typiquement, levenement = t est de pro-
babilite nulle en temps continu. Cest pourquoi on etend la denition en utilisant les evenements t.
On voit facilement que si S et T sont des temps darret, alors S T est un temps darret. Lexemple
le plus simple de temps darret est un temps deterministe t
0
0 : en particulier, si T est un temps
darret, alors T n est un temps darret pour tout n N, propriete tr`es utile dans la suite. Un exemple
plus elabore et extremement important de temps darret est le suivant :
Exemple 2.10 Soit X
t
, t 0 un processus (F
t
)-adapte `a valeurs reelles, continu `a droite et partant
de 0 (X
0
= 0). Pour tout a > 0, le temps aleatoire suivant
T
a
= inf t > 0, X
t
> a ,
appele premier temps de passage au seuil a, est un (F
t
)-temps darret. En eet, pour tout t > 0, on a
lidentication
T > t = X
s
a, s t =
sQ
+
t
X
s
a ,
la deuxi`eme egalite provenant de lhypoth`ese cruciale de continuite `a droite de X (qui est alors enti`erement
determine par ses evaluations sur les rationnels). Comme X est (F
t
)-adapte et par stabilite des tri-
bus par intersection denombrable, on voit que levenement de droite est dans F
t
. Remarquons que si
X est continu, on a de plus T
a
= inf t > 0, X
t
= a et X
T
a
()
() = a. On montre de meme que
T
a
= inf t > 0, X
t
< a est un temps darret pour tout a < 0. Dune mani`ere generale, on peut mon-
trer que si X est un processus c`ad et adapte `a valeurs dans R
d
et si A est un Borelien de R
d
, alors
T
A
= inf t > 0, X
t
A (premier temps datteinte de A) est un temps darret. Cette demonstration
repose cependant sur des outils mathematiques de haute distinction - voir par exemple la bibliographie
de [1]. On prendra garde quen general, le dernier temps de passage en A : L
A
= sup t > 0, X
t
A
nest pas un temps darret, meme dans les situations les plus simples.
Denition 2.11 Soit (, F, F
t
, t 0, P) un espace de probabilite ltre et un temps darret relati-
vement `a (F
t
). On appelle ltration arretee en la -alg`ebre
F

= A F [ A t F
t
t R
+
.
Pour bien comprendre linteret de cette notion, remarquons que est toujours F

-mesurable : les
Boreliens de R
+
etant engendres par les intervalles du type ] , u], il sut de montrer que u
F

. Mais cest evident car u t = t u F


tu
F
t
. De meme, on montre la
Proposition 2.12 Si S et T sont des temps darret tels que p.s. S T, alors F
S
F
T
.
20 CHAPITRE 2. MARTINGALES ET TEMPS DARR

ET
Preuve : Soit A F
S
. Montrons que A F
T
. Pour tout t 0 on a AT t = AS tT t
puisque S T. Dune part T t F
t
puisque T est un temps darret, dautre part AS t F
t
puisque A F
S
. Donc A S t T t F
t
pour tout t 0, ce qui est la propriete recherchee.

Une propriete importante, mais plus dicile `a demontrer - voir [17] ou [24], est la suivante : soit
X : R
+
R un processus et T un temps darret. Rappelons que la v.a. X
T
est denie par
X
T
() = X(T(), ). On a la
Proposition 2.13 Si le processus X est c`ad et adapte, alors la v.a. X
T
11
{T<+}
est F
T
-mesurable.
2.3 Martingales
Pour de plus amples informations sur ce sujet important, la lecture du livre de Williams [24] est
vivement conseillee.
Denition 2.14 Soit (, F, F
t
, t 0, P) un espace de probabilite ltre et X = X
t
, t 0 un
processus (F
t
)-adapte. On dit que X est une (F
t
)-martingale si
E[[X
t
[] < + (autrement dit X
t
L
1
()) pour tout t 0.
E[X
t
[ F
s
] = X
s
pour tout s t.
On peut en fait denir X sur (, F, P) sans ltration prealable, en disant que cest une martingale si
E[[X
t
[] < + pour tout t 0 et E[X
t
[F
X
s
] = X
s
pour tout s t, o` u lon rappelle que

F
X
t
, t 0

est la ltration naturelle de X. Si X est une (F


t
)-martingale, alors cest necessairement une (F
X
t
)-
martingale. En eet, on a dabord F
X
u
=

X
1
s
(A), A B(R), s u

F
u
, puisque X est
(F
t
)-adapte et donc X
1
s
(A) F
s
F
u
pour tout s u. Do` u
E[X
t
[ F
X
s
] = E[E[X
t
[ F
s
] [ F
X
s
] = E[X
s
[ F
X
s
] = X
s
,
o` u lon a successivement utilise la propriete dembotement de lesperance conditionnelle, que X est une
(F
t
)-martingale, et la mesurabilite de X
s
par rapport `a F
X
s
.
La propriete fondamentale (et constamment utilisee en nance) dune martingale est que pour tout
horizon T > 0, lensemble du processus X
t
, t T est compl`etement determine par la valeur terminale
X
T
au sens o` u X
t
= E[X
T
[ F
t
] pour tout t T.
Denition 2.15 Soit X
t
, t 0 une (F
t
)-martingale. On dit que cest une martingale fermee si il
existe Z L
1
() tel que
X
t
= E[Z [ F
t
]
pour tout t 0. Autrement dit, lensemble du processus est determine par une valeur terminale `a
lhorizon inni.
On verra plus tard que Z est en fait la limite de X
t
quand t +. Le theor`eme suivant caracterise les
martingales fermees par leur uniforme integrabilite :
Theor`eme 2.16 Soit X
t
, t 0 une F
t
-martingale. Cest une martingale fermee si et seulement si
la famille de v.a. X
t
, t 0 est U.I.
On remarque que dans ce theor`eme, linclusion (X
t
, t 0 fermee X
t
, t 0 U.I.) est une
consequence immediate de lexercice 1.26 (b). Linclusion reciproque est plus delicate, voir [24].
Denition 2.17 Soit (, F, F
t
, t 0, P) un espace de probabilite ltre et X = X
t
, t 0 un
processus (F
t
)-adapte tel que E[[X
t
[] < + pour tout t 0. On dit que X est une (F
t
)-sousmartingale
(resp. (F
t
)-surmartingale) si E[X
t
[ F
s
] X
s
(resp. E[X
t
[ F
s
] X
s
) pour tout s t.
Par analogie, on dira quune (F
t
)-sousmartingale (resp. une (F
t
)-surmartingale) est fermee sil existe
une v.a. Z F-mesurable telle que E[Z [ F
t
] X
t
(resp. E[Z [ F
t
] X
t
) pour tout t 0. Il decoule
facilement des denitions quune martingale est un processus `a esperance constante : E[X
t
] = E[X
s
] ne
depend pas de t. Une martingale modelise ainsi un jeu equitable. Une sous-martingale est un processus
`a esperance croissante (jeu favorable), une surmartingale un processus `a esperance decroissante (jeu
defavorable). La mani`ere la plus simple de construire une sous-martingale et dajouter `a une martingale
donnee une fonction croissante deterministe. Le theor`eme suivant, tr`es cel`ebre, dit que la reciproque est
presque vraie (la fonction croissante est remplacee par un processus aleatoire croissant) :
2.3. MARTINGALES 21
Theor`eme 2.18 [Decomposition de Doob-Meyer] Soit X une sous-martingale relativement `a F
t
telle que la famille X
T
, T (F
t
)-temps darret borne est UI. Il existe une (F
t
)-martingale M et un
processus croissant (F
t
)-adapte A tel que
X
t
= M
t
+ A
t
pour tout t 0. De plus, M et A sont uniques `a constante additive pr`es.
Par linegalite de Jenssen, on voit immediatement que si X est une (F
t
)-martingale, alors le processus
t X
2
t
est une (F
t
)-sous-martingale. Sous reserve dUI, la decomposition de Doob-Meyer assure
lexistence dun unique processus croissant A tel que t X
2
t
A
t
soit une (F
t
)-martingale (on peut en
fait se passer de la condition dUI). On appelle A le crochet de la martingale X et on utilise la notation
A
t
= < X >
t
pour tout t 0. Nous reviendrons sur le crochet des martingales au chapitre 4, o` u il jouera un role tr`es
important en calcul stochastique.
Si T est un temps darret et M une (F
t
)-martingale, le processus Z deni par Z
t
= M
tT
est une
(F
t
) martingale et E[M
tT
] = E[M
0
].
On enonce maintenant, sans les demontrer, une serie de resultats fondamentaux de la theorie des
martingales, essentiellement d us `a J. L. Doob dans les annees cinquante.
Theor`eme 2.19 [Inegalite maximale] Soit X une surmartingale reelle continue. Alors pour tout
t, > 0,
P[sup
st
[X
s
[ ]
3

sup
st
E[[X
s
[].
Linteret de cette inegalite est de donner une vitesse de convergence (en 1/) de la quantite P[sup
st
[X
s
[
] vers 0 quand +. En fait, cette vitesse peut etre amelioree quand X est une martingale ayant
des moments dordre superieur grace au
Theor`eme 2.20 [Inegalites dans L
p
] Soit p 1 et X une martingale reelle continue telle que
X
t
L
p
pour tout t 0. Alors pour tout t 0
E[sup
st
[X
s
[
p
] q
p
E[[X
t
[
p
]
o` u q est le nombre conjugue de p : 1/p + 1/q = 1.
Par linegalite de Markov, on deduit de ce theor`eme que si X
t
L
p
pour tout t 0, alors
P[sup
st
[X
s
[ ] = P[sup
st
[X
s
[
p

p
]
q
p

p
E[[X
t
[
p
].
Do` u une meilleure vitesse de convergence, en 1/
p
.
Remarque 2.21 Pour appliquer ce theor`eme il ne sut pas que X
t
L
p
pour un seul t 0, et la
condition X
t
L
p
pour tout t 0 est necessaire. En eet, il existe des martingales telles que X
1
L
p
et X
2
L
p
pour un p > 1 : prenons par exemple X une v.a. qui soit dans L
1
mais pas dans L
2
, et
considerons une ltration F
t
, t 0 qui soit triviale pour 0 t 1 et egale `a (X) pour t 2. La
martingale t X
t
= E[X [ F
t
] est telle que X
1
= cste L
2
et X
2
L
2
.
Theor`eme 2.22 [Theor`eme de convergence des martingales] Soit X une martingale continue.
Les assertions suivantes sont equivalentes :
(a) X est une martingale fermee par X

.
(b) X converge p.s. et dans L
1
vers X

.
(c) X est uniformement integrable.
On prendra garde, dans ce theor`eme, que la limite de X
t
est une variable aleatoire X

. De plus, il
existe des martingales qui ne sont pas uniformement integrables, autrement dit qui ne convergent pas.
Un exemple typique de martingale non convergente est le mouvement brownien, que nous verrons au
chapitre suivant. Le theor`eme suivant est le plus important de cette serie pour la nance :
22 CHAPITRE 2. MARTINGALES ET TEMPS DARR

ET
Theor`eme 2.23 [Theor`eme darret] Soit M une (F
t
)-martingale continue et S, T deux temps darret
tels que S T p.s. Supposons que M soit uniformement integrable ou que les temps darret soient bornes
par une constante nie deterministe K. Alors M
T
est une v. a. integrable et
E[M
T
[F
S
] = M
S
.
Quand les deux temps darret ne sont pas bornes, luniforme integrabilite de la martingale est une
condition essentielle, comme nous le verrons au chapitre suivant avec le mouvement brownien. Quand
la martingale nest pas UI, une technique standard consiste `a utiliser les temps darret S n et T n
qui sont bornes par n, et faire tendre n vers +. Quand la martingale est UI, nous avons vu quelle
etait fermee par M

. Le theor`eme darret reste alors valable avec des valeurs innies pour T, au sens
o` u
E[M

[F
S
] = M
S
.
La caracterisation des martingales donnee par la proposition suivante est quelquefois utile :
Proposition 2.24 Soit X un processus (F
t
)-adapte et integrable tel que E[X

] = E[X
0
] pour tout
temps darret borne . Alors le processus X est une martingale.
On prendra garde que la condition E[X
t
] = E[X
0
] pour tout t 0 nest pas susante pour que X soit
une martingale. Un contre-exemple typique est le processus X
t
=

t
0
M
u
du, o` u M est une martingale
desperance nulle : X est un processus desperance constante (nulle), mais nest pas une martingale. La
proposition suivante montre enn que les trajectoires dune martingale continue non constante sont tr`es
irreguli`eres :
Proposition 2.25 Si une martingale M continue est un processus `a variations nies, alors elle est
constante : M
t
= M
0
p.s. pour tout t 0.
Chapitre 3
Le mouvement brownien
3.1 Un peu dhistoire
Avant detre un objet mathematique rigoureux, le mouvement brownien a ete etudie en Botanique,
en Finance, et en Physique. Le botaniste R. Brown observe dabord vers 1828 le mouvement irregulier de
particules de pollen en suspension dans leau. En 1877, Delsaux explique les changements incessants de
direction de trajectoire par les chocs entre les particules de pollen et les molecules deau. Un mouvement
de ce type est alors appele mouvement au hasard. En 1900, L. Bachelier, en vue detudier les cours de
la Bourse de Paris dans sa th`ese, met en evidence le caract`ere markovien du mouvement brownien : la
position dune particule `a linstant t+s depend de sa position en t, et ne depend pas de sa position avant
t. Peu apr`es, vers 1905, A. Einstein determine la densite de transition du Brownien par lintermediaire
de lequation de la chaleur. La meme annee, Smoluchowski decrit le mouvement brownien comme une
limite de promenades aleatoires. La premi`ere etude mathematique rigoureuse du Brownien est faite par
N. Wiener (1923), qui construit une mesure de probabilites sur lespace des fonctions continues sous
laquelle le processus canonique est un mouvement Brownien. Des recherches dune inuence considerable
ont ensuite ete menees par P. Levy (1948), lequel sest interesse aux proprietes nes des trajectoires
du Brownien. Ces objets ont ete developpes par les potentialistes americains `a la suite de J. L. Doob,
puis systematises par les specialistes de la Theorie Generale des Processus de lecole de Strasbourg,
autour de P.-A. Meyer.
3.2 Denitions, constructions, et premi`eres proprietes
Denition 3.1 Soit X = X
t
, t 0 un processus issu de 0 et `a valeurs dans R. On dit que X est un
mouvement brownien sil verie lune des deux conditions suivantes (equivalentes) :
(a) X est un processus gaussien centre et de fonction de covariance E[X
s
X
t
] = s t.
(b) X est un processus `a accroissements independants et stationnaires tel que X
t
N (0, t) pour tout
t 0.
On montre que le MB est `a trajectoires continues. Precisons que la propriete dindependance des
accroissements signie que pour tout s t, la variable X
t
X
s
est independante de X
u
, u s,
tribu du passe avant s. La propriete de stationnarite des accroissements signie simplement que la loi
de X
t
X
s
ne depend que de t s : pour t s, X
t
X
s
d
= X
ts
. Les processus `a accroissements
independants et stationnaires (P.A.I.S) portent aussi le nom de processus de Levy. Leur structure a ete
caracterisee dans les annees trente successivement par De Finetti, Khintchine et Levy. Nous reviendrons
plus loin sur ces processus tr`es importants quutilisent de plus en plus les nanciers mathematiciens.
Contentons-nous pour linstant de renvoyer aux deux monographes de reference [1], [21] ou encore [20]
pour de plus amples informations.
Comme nous le disions plus haut, la preuve rigoureuse de lexistence du mouvement brownien repose
sur la construction dune mesure de probabilites sur lespace des trajectoires, la mesure de Wiener. Plus
precisement, on prend comme espace de probabilites sous-jacent lespace = ((R
+
, R) des fonctions
continues de R
+
dans R, on note X
t
() = (t) pour tout t 0 le processus canonique (ici,
est une fonction), F
X
t
= X
s
, s t la ltration canonique et F = F

. La mesure de Wiener est


23
24 CHAPITRE 3. LE MOUVEMENT BROWNIEN
une probabilite sur (, F, F
X
t
) sous laquelle X est un mouvement brownien au sens de la denition
precedente. Nous renvoyons par exemple `a [11] pour la construction de cette mesure. Signalons au
passage que la construction de Wiener a donne naissance `a une axiomatique plus generale, laxiomatique
de Kolmogorov (1933), laquelle permet de construire une classe beaucoup plus large de processus. Dans
la suite, le mouvement brownien sera souvent note B (comme Brownien) ou W (comme Wiener). Quand
il sera necessaire de considerer la mesure de probabilites sur lespace des trajectoires, nous utiliserons
plutot la notation X du processus canonique. On peut aussi construire plus simplement le Brownien
comme limite de promenades aleatoires renormalisees :
-
6
0
1 2
1
2
n
S
n
Cette propriete est notamment exploitee pour les simulations. Soit X une v.a. de Bernoulli, i. e. P[X =
1] = P[X = 1] = 1/2 et soit X
n
, n 0 une suite de v.a. independantes et equidistribuees de meme
loi que X. On consid`ere S
n
= X
1
+. . . +X
n
la marche aleatoire symetrique simple. On voit facilement
que E[S
n
] = 0 et Var [S
n
] = n. On proc`ede ensuite `a une double renormalisation en temps et en espace
en xant N et en considerant U
k/N
= S
k
/

N pour k = 0, . . . , N. Remarquons que U


k/N
est indexe
par 0, 1/N, . . . , 1, que E[U
k/N
] = 0 et que Var[U
k/N
] = k/N. On denit ensuite un processus `a temps
continu

U
N
t
, t [0, 1]

`a partir de U
k/N
en imposant `a la fonction t U
N
t
detre ane entre k/N et
k + 1/N :
-
6
0
N
1

N
1/2
2N
1/2
g
g
g
g
g
g

g
g

g
g
g
g
g
g
g
g
g
g

g
g

g
g

g
g
g
g
g
g
g
g
g
g

g
g
g
g
g
g
g
g
g
g

g
g
g
g

g
g
g
g
g
g
g
g
g
g
g
g
g
g
g
g
t
U
N
t
Pour t = 1 on a
U
N
1
=
S
N
NE[X
1
]

NVar[X
1
]
,
de sorte que par le Theor`eme Central Limite, U
N
1
N (0, 1) en loi. De meme, on voit que U
N
t
N (0, t)
en loi pour tout t [0, 1]. On peut alors montrer alors que toute la trajectoire du processus U
N
converge
en loi vers celle du mouvement brownien B. Cette convergence en loi de processus porte aussi le nom
de principe dinvariance de Donsker, et utilise de facon cruciale la notion de tension dune famille de
lois de probabilites. Nous renvoyons par exemple `a [10] pour plus de details sur ces deux notions.
Etablissons maintenant lequivalence entre les points (a) et (b) dans la denition du Brownien :
supposons dabord que (a) soit vraie et xons r s < t. On a
E[X
r
(X
t
X
s
)] = E[X
r
X
t
] E[X
r
X
s
] = r t r s = r r = 0.
3.2. D

EFINITIONS, CONSTRUCTIONS, ET PREMI


`
ERES PROPRI

ET

ES 25
0 1 2 3 4 5
10
5
0
5
Fig. 3.1 Trajectoires Browniennes
Donc H = VectX
r
, r s est orthogonal `a X
t
X
s
dans L
2
. Mais comme X est un processus gaussien
par hypoth`ese, ceci entrane que (H) = X
r
, r s est independante de X
t
X
s
, et donc que X
est `a accroissements independants. Enn, on sait que X
t
X
s
est une gaussienne centree, et quil sut
donc de calculer sa variance pour determiner sa loi. Or
Var(X
t
X
s
) = E[(X
t
X
s
)
2
] = E[X
2
t
] 2E[X
s
X
t
] +E[X
2
t
] = t 2s +s = t s,
do` u X
t
X
s
N (0, t s), ce qui montre (b). Reciproquement, supposons que (b) ait lieu. Soient
a
1
, . . . , a
n
R et 0 = t
0
t
1
< . . . < t
n
. On peut redecomposer
n

i=1
a
i
X
t
i
=
n

i=1
(a
i
+. . . +a
n
)(X
t
i
X
t
i1
)
et on voit que le terme de droite est une somme de gaussiennes independantes (par independance
des accroissements), donc une gaussienne. Ceci entrane que X est un processus gaussien, et lon voit
immediatement quil est centre. Pour calculer sa covariance, on ecrit pour tout s t
E[X
s
X
t
] = E[X
s
(X
s
+X
t
X
s
)] = E[X
2
s
] +E[X
s
(X
t
X
s
)] = s + 0 = s = s t.

Exercice 3.2 * Soit W un mouvement brownien et 0 r < s < t. Calculer les quantites P[W
r
>
0], P[W
r
> 0, W
s
> 0] et P[W
r
> 0, W
s
> 0, W
t
> 0].
Exercice 3.3 (a) Soit X un processus `a accroissements independants. Montrer que si E[[X
t
[] < +
(resp. E[[X
t
[
2
] < +), alors le processus X
1
t
= X
t
E[X
t
] (resp. X
2
t
= X
2
t
E[X
2
t
]) est une F
X
t
-
martingale. Montrer aussi que si E[exp X
t
] < + pour un certain R, alors
X
3
t
=
exp X
t
E[exp X
t
]
26 CHAPITRE 3. LE MOUVEMENT BROWNIEN
est une F
X
t
-martingale.
(b) Apr`es avoir verie les hypoth`eses dintegrabilite, identier les processus X
1
, X
2
et X
3
dans le cas
du mouvement brownien B : montrer que X
1
t
= B
t
, X
2
t
= (B
t
)
2
t et que X
3
t
= exp

B
t

2
t/2

.
Le point (b) de lexercice precedent admet une cel`ebre (et tr`es utile) reciproque, due `a Paul Levy :
Theor`eme 3.4 [Theor`eme de caracterisation de P. Levy] Soit X
t
, t 0 un processus continu
issu de 0. Alors X est un mouvement brownien si lune des deux conditions suivantes est veriee :
(a) Les processus X et t (X
t
)
2
t sont des martingales.
(b) Le processus t exp

X
t

2
t/2

est une martingale pour tout R.


Remarque 3.5 Si B
1
et B
2
sont deux Browniens independants, alors le produit B
1
B
2
est une mar-
tingale. On peut le voir de deux facons :
(a) En utilisant le fait que si F, G sont deux tribus et X, Y sont deux v.a. telles que X F et G sont
independantes ainsi que Y G et F, alors E[XY [F G] = E[X[F]E[Y [G].
(b) En remarquant que (B
1
+B
2
)/

2 est un processus gaussien de covariance t s, donc un Brownien.


Donc (B
1
t
+ B
2
t
)
2
/2 t est une martingale, de sorte que B
1
t
B
2
t
= ((B
1
t
+ B
2
t
)
2
t) ((B
1
t
)
2
t)/2
((B
2
t
)
2
t)/2, dierence de trois martingales, est aussi une martingale.
Le theor`eme suivant, egalement cel`ebre, va maintenant permettre de preciser la regularite de la
trajectoire brownienne :
Theor`eme 3.6 [Lemme de Kolmogorov] Soit X
t
, t 0 un processus `a valeurs dans R
d
tel quil
existe c, , p avec
E[[X
t
X
s
[
p
] c[t s[
1+
pour tous t, s 0. Alors p.s. les trajectoires de X sont -Holder pour tout ]0, /p[.
Les demonstrations des theor`emes de Levy et de Kolmogorov sont par exemple donnees dans [11] ou
dans [17]. Rappelons quune fonction f : R
+
R
d
est -Holder si
sup
0s<tT
[f(t) f(s)[
[t s[

< +
pour tout T 0. En particulier, on voit que pour tout 0, f -Holder f -Holder
f continue, et que f derivable f 1-Holder. En gros, la -Holderianite de f signie que localement
au voisinage de x
0
, la courbe de f est comprise entre celle de x f(x
0
) + [x x
0
[

et celle de
x f(x
0
) [x x
0
[

. Pour le Brownien, on calcule


E[[X
t
X
s
[
p
] =
1

2(t s)

R
[x[
p
e
|x|
2
/2(ts)
dx
=

R
[x[
p
e
|x|
2
/2
dx

[t s[
p/2
= c
p
[t s[
1+(p2)/2
,
de sorte que par le lemme de Kolmogorov, le Brownien est -Holder pour tout ]0, 1/2 1/p[. En
faisant tendre p , on voit que le Brownien est -Holder pour tout ]0, 1/2[. On peut montrer
que la valeur 1/2 nest pas atteinte :
sup
0s<tT
[X
t
X
s
[
[t s[
1/2
= +
pour tout T 0. En particulier, la courbe brownienne a la propriete remarquable detre partout continue
et nulle part derivable. Signalons quil nest pas evident de construire de telles fonctions sans faire appel
aux probabilites, un exemple celebre etant cependant la fonction de Weierstrass (1889) :
f(t) =
+

k=1

k
cos
k
t,
qui est partout continue et nulle part derivable d`es que > 1 + 3/2.
3.2. D

EFINITIONS, CONSTRUCTIONS, ET PREMI


`
ERES PROPRI

ET

ES 27
La ltration naturelle de B est F
B
t
= B
s
, s t N o` u N represente la tribu des negligeables
pour P. Comme B est `a trajectoires continues, rappelons que

F
B
t
, t 0

est automatiquement c`ad :


F
B
t
=

s>t
F
B
s
.
Transformations du Brownien. Si B
t
, t 0 est un mouvement brownien, alors on peut montrer,
en veriant leur caract`ere gaussien et en calculant leur esperance et leur covariance, que les processus
suivants :
(a) t B
t
(processus symetrique),
(b) t c
1
B
c
2
t
(processus reechelonne),
(c) t tB
1/t
si t = 0, t 0 si t = 0 (processus inverse),
sont aussi des mouvements browniens. Remarquons que le fait que le processus (b) soit un Brownien est
implicite dans la construction par discretisation en (N
1/2
, N
1
) vue precedemment. Linvariance du
processus (b) porte aussi le nom dinvariance par Scaling et signie que le Brownien est un processus
autosimilaire. Une etude exhaustive des processus autosimilaires, assez couramment utilises en Finance,
est le livre [20]. Venons-en maintenant `a dautres proprietes trajectorielles du Brownien :
Proposition 3.7 Soit B
t
, t 0 un mouvement brownien. Alors p.s.
(a) limsup
t+
t
1/2
B
t
= limsup
t0
t
1/2
B
t
= +.
(b) liminf
t+
t
1/2
B
t
= liminf
t0
t
1/2
B
t
= .
(c) lim
t+
t
1
B
t
= 0.
Preuve : Pour (a), on consid`ere la v.a.
R = limsup
t+
t
1/2
B
t
= limsup
t+
t
1/2
(B
t
B
s
)
pour tout s 0. Par independance des accroissements de B, R est independante de B
u
, u s
pour tout s 0, et donc de B
u
, u 0 en faisant tendre s . Or R est clairement mesurable
par rapport `a B
u
, u 0 , de sorte que R est independante delle-meme, et ceci nest evidemment
possible que si R est une constante deterministe (loi du tout ou rien). Supposons que R soit nie. Alors
P[t
1/2
B
t
R + 1] 0 quand t +. Mais par scaling,
P[t
1/2
B
t
R + 1] = P[B
1
R + 1] = 0
pour tout t 0, de sorte que necessairement R = +. De meme, on montre que limsup
t0
t
1/2
B
t
=
+ p.s.
Le point (b) est une consequence immediate de la symetrie du Brownien, et le point (c) decoule
simplement de la loi des grands nombres.

Cette proposition permet de mesurer grossi`erement deux quantites reliees `a la courbe brownienne, dune
part sa vitesse locale en chaque point t
0
- qui est plus grande que [t t
0
[
1/2
, dautre part le volume
quelle occupe dans le demi-espace R
+
R - qui est plus grand `a linni que celui delimite par les courbes
t

t et t

t, mais plus petit que celui delimite par les courbes t t et t t. Une question
naturelle concerne alors la vitesse locale et le taux de croissance exacts du Brownien. La reponse est
donne par le cel`ebre theor`eme suivant, d u `a Khintchine :
Theor`eme 3.8 [Loi du logarithme itere] Soit B
t
, t 0 un mouvement brownien. Alors p.s.
(a) limsup
t+0
B
t
/(t) = 1 et liminf
t0
B
t
/(t) = 1,
(b) limsup
t+
B
t
/(t) = 1 et liminf
t+
B
t
/(t) = 1,
o` u lon a pose (t) =

2t log log(1/t) pour tout t < 1/e, et (t) =

2t log log t pour tout t > e.
Remarquons que les fonctions et ressemblent beaucoup `a t

t au sens o` u (t)/t
1/2
+, (t)/t

0 pour tout < 1/2 quand t 0, et (t)/t


1/2
+, (t)/t

0 pour tout > 1/2 quand t +.


Ainsi, une bonne image deterministe de la courbe brownienne, aussi bien localement que globalement,
sont les fonctions t

t et t

t. Ceci etait dailleurs dej`a suggere par la propriete de Scaling vue


precedemment. Le theor`eme suivant sera utilise dans la construction de lintegrale stochastique. Il met
une nouvelle fois en evidence le caract`ere quadratique de la courbe brownienne :
28 CHAPITRE 3. LE MOUVEMENT BROWNIEN
Theor`eme 3.9 Fixons t > 0 et posons t
j
= jt/2
n
pour tout n N et j = 0, . . . , 2
n
. Alors
Z
n
t
=
2
n

j=1
[B
t
j
B
t
j1
[
2
t
quand n , p.s. et dans L
2
.
Preuve : Remarquons dej`a que E[Z
n
t
] = t. Pour la convergence dans L
2
il faut montrer que E[[Z
n
t
t[
2
]
0, soit Var[Z
n
t
] 0 ce qui se deduit de
Var[Z
n
t
] =
2
n

j=1
Var[B
t
j
B
t
j1
]
2
=
2
n

j=1
2(t/2
n
)
2
= 2
1n
t
2
,
o` u la deuxi`eme egalite vient de ce que si X N (0,
2
), alors Var X
2
= 2
4
. On en deduit dautre part
que
E

n=1
[Z
n
t
t[
2

= t

n=1
2
n
< ,
do` u

n=1
[Z
n
t
t[
2
< p.s. (une v.a. positive desperance nie est nie), de sorte que le terme
general de la serie [Z
n
t
t[
2
converge necessairement p.s. vers 0.

Le theor`eme suivant, dune portee surtout theorique mais fondamentale pour la theorie actuelle des
equations dierentielles stochastiques, montre cependant que le choix dune subdivision non reguli`ere
peut rendre innie la variation quadratique du Brownien :
Theor`eme 3.10 [Theor`eme de la p-variation forte] Pour tout p 1, soit
V
p
t
= sup
0=t
0
t
1
...t
n
=t

i=1
[B
t
i+1
() B
t
i
()[
p

la p-variation forte du Brownien sur [0, t]. Alors pour tout t 0, V


p
t
= p.s. p 2.
Il est facile de voir par linegalite de Holder que si p q, V
p
t
< V
q
t
< pour tout t 0. En
particulier, le theor`eme precedent entrane que le Brownien nest pas `a un processus `a variations nies,
au sens du chapitre 1.
3.3 La propriete de Markov et ses consequences
La propriete de Markov du Brownien W est ici une consequence de lindependance de ses accrois-
sements : on sait que, pour tout s 0, le processus W
s
u
= W
u+s
W
s
, u 0 est un mouvement
brownien independant de F
W
s
et ceci entrane le
Theor`eme 3.11 [Propriete de Markov simple] Soit W un mouvement brownien. Pour toute fonc-
tion f borelienne bornee et pour tout s t,
E[f(W
t
) [ F
W
s
] = E[f(W
t
) [ W
s
] =
1

2(t s)

R
f(y) e
(yW
s
)
2
/2(ts)
dy.
Preuve : On utilise les proprietes elementaires de lesperance conditionnelle :
E[f(W
t
) [ F
W
s
] = E[f(W
s
+W
t
W
s
) [ F
W
s
] = E[f(x +W
t
W
s
)]
x=W
s
puisque W
s
est F
W
s
-mesurable et (W
t
W
s
) est independant de F
W
s
. Comme (W
t
W
s
) N (0, ts),
on peut calculer
E[f(x +W
t
W
s
)] =
1

2(t s)

R
f(y +y) e
(y)
2
/2(ts)
dy
=
1

2(t s)

R
f(y) e
(yx)
2
/2(ts)
dy.
3.3. LA PROPRI

ET

E DE MARKOV ET SES CONS

EQUENCES 29

Une autre facon de decrire cette propriete est de dire que pour t s, conditionnellement `a F
W
s
, la v.a.
W
t
est de loi gaussienne desperance W
s
et de variance t s. Le theor`eme suivant etend la propriete de
Markov `a des temps aleatoires :
Theor`eme 3.12 [Propriete de Markov forte] Soit W un mouvement brownien et T un (F
W
t
)-
temps darret `a valeurs nies. Pour toute fonction f borelienne bornee et pour tout t 0,
E[f(W
T+t
) [ F
T
] = E[f(W
T+t
) [ W
T
] =
1

2t

R
f(x) e
(xW
T
)
2
/2t
dx.
En particulier, pour tout temps darret ni T, le processus

W
T
t
= W
T+t
W
T
, t 0

est un Brownien
independant de F
W
T
.
La propriete de Markov forte est sans conteste lune des proprietes les plus utiles du Brownien. Une
combinaison de cette propriete avec linvariance par Scaling et le Theor`eme darret forme un cocktail
dune ecacite rarement dementie, et dont nous verrons quelques exemples par la suite.
Theorie des Fluctuations. Cette theorie concerne la loi jointe du processus bivarie (W
t
, S
t
), t 0
o` u S est le processus (croissant) du supremum unilat`ere : S
t
= sup
st
W
s
. On a vu precedemment
que limsup
t+
t
1/2
W
t
= +, ce qui entrane clairement que S
t
+ p.s. quand t +. En
particulier, si T
a
= inf t > 0, W
t
= a designe le temps datteinte du Brownien au seuil a > 0, alors
pour tout M > 0, T
a
< M = S
M
> a et comme P[S
M
> a] 1 quand M +, on voit que p.s.
T
a
< +, autrement dit T
a
est un temps darret ni (attention, T
a
nest pas un temps darret borne :
en eet E(T
a
) = ). Le theor`eme suivant, utilise en Finance pour evaluer les options barri`eres, precise
la loi jointe du couple de v.a. (W
t
, S
t
) :
Theor`eme 3.13 [Theor`eme de Desire Andre] Pour tout t, x 0 et pour tout y x
P[S
t
x, W
t
y] = P[W
t
2x y].
Preuve : On ecrit dabord
P[S
t
x, W
t
y] = P[T
x
t, W
t
y] = P[T
x
t, W
tT
x
+T
x
W
T
x
y W
T
x
].
Dune part W
T
x
= x - par continuite de W, dautre part W
x
s
= W
s+T
x
W
T
x
est un Brownien
independant de F
T
x
(donc de T
x
). On en deduit que
P[S
t
x, W
t
y] = P[T
x
t, W
x
tT
x
y x] = P[T
x
t, W
x
tT
x
x y]
o` u la deuxi`eme egalite vient de la symetrie du processus W
x
sachant T
x
. Mais
P[T
x
t, W
x
tT
x
x y] = P[T
x
t, W
t
x x y] = P[W
t
2x y]
o` u la deuxi`eme egalite vient de linclusion W
t
2x y T
x
t , laquelle decoule immediatement
de ce que 2x y x.

En derivant par rapport `a x puis y, on obtient la densite jointe du couple de v.a. (S


t
, W
t
) :
f
(S
t
,W
t
)
(x, y) =
2(2x y)

2t
3
e
(2xy)
2
/2t
11
{xy,x0}
pour tout t 0. On peut aussi calculer la loi de S
t
, soit en integrant lexpression precedente par rapport
`a y, soit en ecrivant pour tout x 0
P[S
t
x] = P[S
t
x, W
t
x] + P[S
t
x, W
t
x]
= P[W
t
x] + P[W
t
2x x]
= 2P[W
t
x] = P[[W
t
[ x]
30 CHAPITRE 3. LE MOUVEMENT BROWNIEN
o` u la deuxi`eme egalite est une consequence du theor`eme de Desire Andre et la derni`ere vient de la
symetrie du Brownien. Par egalite des fonctions de repartition on en deduit alors que
S
t
d
= [W
t
[
pour tout t 0. Ceci permet de calculer simplement la loi de T
a
pour a > 0 :
P[T
a
t] = P[S
t
a] = P[[W
t
[ a] = P[W
2
t
a
2
] = P[tW
2
1
a
2
] = P[a
2
W
2
1
t]
de sorte que par egalite des fonctions de repartition,
T
a
d
=
a
2
W
2
1
.
On calcule alors directement la densite
f
T
a
(t) =
a

2t
3
e
a
2
/2t
11
{t0}
.
On peut egalement montrer que
Theor`eme 3.14 Les processus S
t
W
t
, t 0 et [W
t
[, t 0 ont meme loi.
La force de ce theor`eme vient de ce quil sagit dune egalite en loi entre processus, qui est bien plus
forte que legalite en loi entre v.a. Par exemple on a vu que S
t
d
= [W
t
[ pour tout t 0 mais les processus
S et [W[ nont pas la meme loi, puisque [W[ nest pas croissant. En revanche, ce theor`eme entrane le
fait curieux que les v.a. S
t
et S
t
W
t
ont meme loi.
Nous souhaitons maintenant retrouver la densite de T
a
par une autre methode, tr`es instructive, reposant
sur le theor`eme darret. Soit a > 0. Comme T
a
n est un temps darret borne et que t e
W
t

2
t/2
est une martingale pour tout 0, ce theor`eme entrane que
E[e
W
T
a
n

2
(T
a
n)/2
] = E[e
W
0

2
.0/2
] = 1.
On fait tendre n + : T
a
n T
a
et comme p.s. T
a
< +, W
T
a
n
W
T
a
= a. De plus, comme
a, 0 et par denition de T
a
, pour tout n 0
e
W
T
a
n

2
(T
a
n)/2
e
W
T
a
n
e
a
et e
a
est constante nie, donc une v.a. integrable. On peut appliquer le theor`eme de convergence
dominee, qui donne
1 = E[e
W
T
a
n

2
(T
a
n)/2
] E[e
a
2
T
a
]
quand n +, de sorte que
E[exp T
a
] = e
a

2
pour tout 0. Par inversion de la transformee de Laplace, on obtient alors la densite de T
a
donnee
precedemment.
Remarque 3.15 Pour a < 0, on peut remarquer que T
a
= inft 0; B
t
= a = inft 0; W
t
= a,
avec W = B. Il serait faux de conclure que E(exp T
a
) = exp(a

2) pour tout a car, pour a < 0


et > 0, le membre de gauche est plus petit que 1 et celui de droite serait plus grand que 1. Il convient
donc detre vigilant en appliquant le theor`eme darret de Doob.
On peut egalement sinteresser au premier temps de passage bilat`ere :

T
a
= inft 0, [B
t
[ = a pour
a > 0, et au processus supremum bilat`ere associe S

t
= sup
st
[W
s
[. Avec des methodes analogues, on
montre que
E[e

T
a
] = 1/ cosh a

2
pour tout 0. Linversion de cette transformation de Laplace donne cependant une densite plus
compliquee obtenue sous forme de developpement en serie, voir [11].
3.4. EQUATION DE LA CHALEUR 31
0 1 2 3 4 5
0
5
10
15
Fig. 3.2 Mouvement Brownien avec drift
Exercice 3.16 (a) Calculer la transformee de Laplace et la densite de T
a
pour a < 0.
(b) Montrer que E[T
a
] = + pour tout a = 0.
(c)* Soit a < 0 < b. Montrer que P[T
a
< T
b
] = b/(b a) et, si on pose T = T
a
T
b
, que
E[e
T
11
{T=T
a
}
] =
sinh b

2
sinh(b a)

2
et E[e
T
] =
cosh(a +b)

/2
cosh(b a)

/2
Terminons cette section en evoquant le mouvement brownien drifte :
W

= W

t
= W
t
+t, t 0
pour tout R. Le processus W

est une sous-martingale si > 0 et une surmartingale si < 0. La


variable W

t
est une Gaussienne desperance t et de variance t. Un certain nombre de proprietes du
Brownien se transmettent au Brownien drifte : propriete de Markov, theor`emes darret... mais attention
pas toutes : par exemple, W

nest invariant par scaling que pour = 0. Nous reviendrons sur le


Brownien drifte vers la n de ce cours, dans le cadre du theor`eme de Girsanov.
Exercice 3.17 Soit W un mouvement brownien. On consid`ere les processus t [W
t
[, t e
W
t
et
t

t
0
W
s
ds.
(a) Calculer leur esperance et leur variance.
(b) Lesquels sont des processus gaussiens ? Des processus de Markov ?
3.4 Equation de la chaleur
Cette section peut etre omise en premi`ere lecture. Soit g(t, x) la densite gaussienne centree de
variance t. On note
q(t, x, y) =
1

2t
e
(yx)
2
/2t
= g(t, x y)
32 CHAPITRE 3. LE MOUVEMENT BROWNIEN
la densite de transition du mouvement brownien. Cest de facon heuristique, la probabilite pour que
le Brownien soit en y sachant que t instants auparavant, il se trouvait en x. Par stationnarite des
accroissements du Brownien, cest aussi la densite conditionnelle
P[B
t+s
dy [ B
s
= x] = q(t, x, y) dy.
La densite de transition q verie les equations forward et backward
q
t
(t, x, y) =
1
2

2
q
y
2
(t, x, y) =
1
2

2
q
x
2
(t, x, y).
Si, pour une fonction mesurable bornee f, on consid`ere la fonction
u
f
(t, x) = E[f(B
t
+x)] =

f(x +y)g(t, y)dy =

f(y)q(t, x, y)dy ,
on deduit de lequation forward et du theor`eme de derivation sous lintegrale que u
f
verie lequation
aux derivees partielles

u
f
(0, x) = f(x)
1
2

2
u
f
x
2
=
u
f
t
Cette equation porte le nom dequation de la chaleur (u
f
represente levolution de la temperature dans
un corps homog`ene, avec conditions initiales donnees par f). De plus, en derivant sous lintegrale, on a

2
u
f
x
2
(t, x) =

R
f

(x +y)g(t, y) dy = u
f
(t, x) = E[f

(B
t
+x)].
On peut ainsi ecrire
E[f(B
t
+x)] f(x) = u
f
(t, x) u
f
(0, x) =

t
0
u
f
t
(s, x) ds =
1
2

t
0

2
u
f
x
2
(s, x) ds,
do` u
E[f(B
t
+x)] = f(x) +
1
2

t
0
E[f

(B
s
+x)] ds.
Une formule liant les processus f(B
t
+ x) et f

(B
t
+ x) sera donne dans le prochain chapitre (lemme
dIto). On peut egalement considerer des fonctions temps-espace :
Proposition 3.18 Soit f : R
+
R R une fonction de classe C
1
b
en temps et C
2
b
en espace et B un
Brownien. Alors
E[f(t, x +B
t
)] = f(0, x) +

t
0
E

t
(s, x +B
s
) +
1
2
f

xx
(s, x +B
s
)

ds.
Preuve : On pose u
f
(t, x) = E[f(t, x + B
t
)]. En utilisant le theor`eme de derivation des fonctions com-
posees et lequation de la chaleur, on en deduit que
du
f
dt
(t, x) = E

t
(t, x +B
t
) +
1
2
f

xx
(t, x +B
t
)

.
En integrant par rapport `a t, on trouve
u
f
(t, x) u
f
(0, x) =

t
0
E

t
(s, x +B
s
) +
1
2
f

xx
(s, x +B
s
)

ds.

On denit maintenant le generateur L du processus espace-temps (t, B


t
) comme loperateur agissant
sur les fonctions de classe C
1
b
en temps et C
2
b
en espace :
L(f)(t, x) =
t
f(t, x) +
1
2

xx
f(t, x).
Le theor`eme suivant est tr`es utile en Finance :
3.5. MOUVEMENT BROWNIEN MULTIDIMENSIONNEL 33
Theor`eme 3.19 Soit u de classe C
1
b
en temps et C
2
b
en espace telle que Lu 0. Alors le processus
t u(t, B
t
) est une martingale.
Preuve : On utilise `a nouveau lindependance des accroissements du Brownien :
E[u(t, B
t
)[F
s
] = E[u(s +t s, x +B
ts
)]
x=B
s
= E[u
s,x
(t s, B
ts
)]
x=B
s
o` u lon a note u
s,x
(t, y) = u(s +t, x +y). Par la proposition precedente, on a donc
E[u
s,x
(t s, B
ts
)] = u
s,x
(0, 0) +

t
0
E[Lu
s,x
(w, B
w
)] dw
Comme Lu
s,x
0 par hypoth`ese, il en resulte que
E[u(t, B
t
)[F
s
] = u
s,x
(0, 0)
x=B
s
= u(s, B
s
).

3.5 Mouvement brownien multidimensionnel


Soit

B
t
= (B
1
t
, B
2
t
, . . . , B
n
t
), t 0

un processus n-dimensionnel. On dit que B est un Brownien


multidimensionnel si les processus B
i
, i n sont des Browniens reels independants. B est aussi un
processus `a accroissements independants et stationnaires et un processus gaussien de fonction de cova-
riance
E[(B
t
, B
s
)] = n(s t)
(o` u (, ) designe le produit scalaire dans R
n
). On a egalement une caracterisation de type Levy : un
processus n-dimensionnel B est un mouvement brownien si et seulement si tous les processus B
i
et
(B
i
t
B
j
t

i,j
t, t 0) sont des martingales (avec la notation de Kronecker
i,j
= 0 pour i = j et
i,i
= 1).
Pour tous a
1
, . . . , a
n
, il est facile de verier en calculant son esperance et sa covariance que le processus
W deni par
W
t
=
1

a
2
1
+. . . +a
2
n
(a
1
B
1
t
+. . . +a
n
B
n
t
)
est un Brownien reel. On dira que deux mouvements Browniens reels B
1
et B
2
sont correles avec
coecient de correlation si le processus t B
1
t
B
2
t
t est une martingale. On decorr`ele alors B
1
et B
2
en introduisant le processus
B
3
t
=
1

1
2
(B
2
t
B
1
t
).
Ce processus est une martingale et en ecrivant
(B
3
t
)
2
t =
1
1
2
((B
2
t
)
2
+
2
(B
1
t
)
2
2B
2
t
B
1
t
t(1
2
))
=
1
1
2
[(B
2
(t))
2
t +
2
[(B
1
(t))
2
t] 2[B
2
(t)B
1
(t) t],
on montre que (B
3
t
)
2
t est une martingale, de sorte que B
3
est un MB. On peut montrer que B
3
est
independant de B
2
, de sorte que le produit B
2
B
3
est une martingale.
34 CHAPITRE 3. LE MOUVEMENT BROWNIEN
Chapitre 4
Lintegrale stochastique - Formule
dIto
Dans ce chapitre on cherche `a denir des variables aleatoires du type
Y
1
() =

1
0
X
s
dB
s

() (4.1)
o` u X
t
, t 0 est un certain processus et B
t
, t 0 un mouvement brownien. Le probl`eme est bien
s ur de donner un sens `a lelement dierentiel dB
s
puisque la fonction s B
s
nest pas derivable.
Un objet mathematique adequat, introduit par K. Ito en 1942, est lintegrale stochastique, laquelle
permet de construire Y
1
() comme une limite de v.a, sous lhypoth`ese - cruciale - dadaptation du
processus X `a la ltration du Brownien porteur. La theorie plus recente du calcul anticipatif permet
de lever cette hypoth`ese dadaptation dans certains cas, ce qui est dun interet evident en Finance,
mais nous naborderons pas ce sujet ici. Dans la pratique on sinteresse souvent `a des quantites du type
F(Y
1
()) o` u F est une fonction reelle. Quand F est susamment reguli`ere, le Lemme dIto permet alors
dexprimer F(Y
1
()) au moyen dintegrales stochastiques, ce qui est par exemple une etape importante
dans le calcul des esperances. Cette methodologie sapplique aux integrales

t
0
X
s
dB
s
et lon peut ainsi
consid`erer le processus

t
0
X
s
dB
s
, t 0
qui est, sous conditions dintegrabilite de X une martingale. Le processus F(Y
t
) est alors decompose en
une martingale et un processus `a variation nies.
4.1 Lintegrale de Wiener
Dans cette section, les fonctions et processus seront `a valeurs reelles, les denitions et resultats
se generalisant sans diculte au cas R
d
. Lintegrale de Wiener est simplement une integrale du type
(4.1) avec X fonction deterministe, i.e. ne dependant pas de . On xe un horizon T > 0 deterministe
(eventuellement T = +) et on note
L
2
([0, T], R) =

f : [0, T] R /

T
0
[f(s)[
2
ds <

.
Remarquons que si T < +, les fonctions continues et les fonctions bornees sont contenues dans
L
2
([0, T], R). On peut montrer que muni du produit scalaire
< f, g > =

T
0
f(s)g(s) ds,
L
2
([0, T], R) est un espace de Hilbert, au sens o` u toute suite de L
2
([0, T], R) qui soit de Cauchy pour la
norme
[[f[[
2,T
=

< f, f > =

T
0
f
2
(s) ds

1/2
35
36 CHAPITRE 4. LINT

EGRALE STOCHASTIQUE - FORMULE DIT

O
converge vers un element unique de L
2
([0, T], R). La propriete fondamentale des espaces de Hilbert
est lexistence dune base orthonormee denombrable : il existe un syst`eme de fonctions f
n
, n 0 de
L
2
([0, T], R) tel que < f
n
, f
p
>= 0 si n = p et < f
n
, f
p
>= 1 si n = p, et tel que tout element f de
L
2
([0, T], R) secrive de mani`ere unique sous la forme
f =

n1
a
n
f
n
pour des coecients a
n
quon appelle les coordonnees de f dans la base f
n
, n 0. Dans le cas precis
de L
2
([0, T], R), la base f
n
, n 0 peut etre constituee de fonctions en escalier :
f
n
(t) =
p
n

i=1

i
11
]t
(n)
i
,t
(n)
i+1
]
(t) (4.2)
o` u p
n
N, les
i
sont reels et

t
(n)
i

une suite croissante de [0, T]. On en deduit alors le lemme suivant :


Lemme 4.1 [Lemme hilbertien] Soit f L
2
([0, T], R). Il existe une suite de fonctions en escalier
f
n
telle que
[[f f
n
[[
2,T
0
quand n +.
4.1.1 Le cas des fonctions en escalier
Si f
n
est la fonction donnee par (4.2), que lon note simplement f
n
(t) =

p
n
i=1

i
11
]t
i
,t
i+1
]
(t) il est
tr`es facile de denir son integrale de Wiener par :
I
T
(f
n
) =

T
0
f
n
(s)dB
s
=
p
n

i=1

B
t
i+1
B
t
i
)
Remarquons que par le caract`ere gaussien du Brownien et lindependance de ses accroissements, la
variable aleatoire I
T
(f
n
) est une variable gaussienne desperance nulle et de variance
Var [I
T
(f
n
)] =
p
n

i=1

2
i
Var

B
t
i+1
B
t
i

=
p
n

i=1

2
i
(t
i+1
t
i
) =

T
0
f
2
n
(s) ds.
De plus, on remarque que f I
T
(f) est une fonction lineaire au sens o` u I
T
(af +bg) = aI
T
(f)+bI
T
(g)
pour toutes fonctions f, g en escalier et tous a, b R. Enn, si f et g sont deux fonctions en escalier,
on a
E[I
T
(f)I
T
(g)] =
1
2
(Var [I
T
(f) +I(g)] Var [I
T
(f)] + Var [I
T
(g)])
=
1
2

T
0
(f +g)
2
(s)ds

T
0
f
2
(s)ds

T
0
g
2
(s)ds

T
0
f(s)g(s)ds.
Cette derni`ere egalitest tr`es importante et signie que lapplication
f I
T
(f)
est une isometrie de L
2
([0, T], R) dans L
2
(, P). On parle alors de la propriete disometrie de lintegrale
de Wiener, ce qui signie
'I
T
(f), I
T
(g)`
L
2
()
= 'f, g`
L
2
(R)
.
4.1. LINT

EGRALE DE WIENER 37
4.1.2 Le cas general
Pour construire I
T
(f) quand f est un element quelconque de L
2
([0, T], R), on utilise lisometrie mise
en place et le lemme suivant :
Lemme 4.2 [Lemme gaussien] Soit X
n
, n 0 une suite de variables gaussiennes N (
n
,
n
)
convergeant vers une v.a. X dans L
2
(soit telle que
E

[X X
n
[
2

0
quand n +. Alors,
n
et
n
quand n + et X N (, ).
Soit maintenant f L
2
([0, T], R) et soit, dapr`es le Lemme 4.1, f
n
, n 0 une suite de fonctions en
escalier telle que [[f f
n
[[
2,T
0 quand n +. Dapr`es le paragraphe precedent on peut construire
les integrales de Wiener I
T
(f
n
) qui sont des gaussiennes centrees qui, par isometrie forment une suite
de Cauchy. Lespace L
2
etant complet, cette suite converge vers une v.a. gausienne notee I
T
(f). Par le
Lemme 4.2, I
T
(f) N (0, [[f[[
2
2,T
). Il reste `a verier que la limite Y ne depend que de f et non pas de la
suite f
n
choisie. En particulier I
T
(f) nest jamais une variable p.s. positive, meme quand f elle-meme
est toujours positive. De plus, lapplication f I
T
(f) est lineaire et isometrique de L
2
([0, T], R) dans
L
2
(), au sens o` u I
T
(af +bg) = aI
T
(f) +bI
T
(g) et
E[I
T
(f)I
T
(g)] =

T
0
f(s)g(s)ds
pour tous a, b R et f, g L
2
([0, T], R). Enn, I
T
(f) est une variable gaussienne mesurable par rapport
`a B
t
, 0 t T qui verie pour tout t [0, T]
E[I
T
(f)B
t
] = E

T
0
f(s)dB
s

T
0
11
[0,t]
(s) dB
s

T
0
f(s)11
[0,t]
(s)ds =

t
0
f(s)ds,
o` u la deuxi`eme egalite provient de la formule disometrie. Par propriete despace gaussien, cette for-
mule caracterise lintegrale stochastique : I
T
(f) est lunique v.a. Z gaussienne mesurable par rapport `a
B
t
, 0 t T telle que
E[ZB
t
] =

t
0
f(s)ds
pour tout t [0, T].
4.1.3 Lintegrale de Wiener vue comme processus gaussien
On note L
2
loc
(R
+
, R) la reunion des L
2
([0, T], R) pour T > 0 et on consid`ere f L
2
loc
(R
+
, R). Par le
paragraphe precedent, le processus
M
t
=

t
0
f(s)dB
s
a donc bien un sens pour tout t 0. On montre alors le
Theor`eme 4.3 Le processus M
t
, t 0 est un processus gaussien (F
B
t
)-adapte, centre, de fonction
de covariance
(s, t) =

ts
0
f
2
(u) du.
De plus, M est un P.A.I. au sens o` u
M
t+s
M
s
, t 0 B
u
, u s
pour tout s 0.
38 CHAPITRE 4. LINT

EGRALE STOCHASTIQUE - FORMULE DIT

O
Preuve : Si lon note M
n
t
la suite dintegrales de Wiener associee `a la suite f
n
approchant f dans
L
2
, on voit que t M
n
t
est un processus gaussien comme le Brownien. Par stabilite dans L
2
des
espaces gaussiens, on en deduit que t M
t
est un processus gaussien. Lexpression de son esperance et
sa fonction de covariance decoule des calculs precedents, et il est evident par construction que M est
(F
B
t
)-adapte. Pour montrer lindependance des accroissements, on ecrit pour tout s, t 0
M
t+s
M
s
=

t+s
s
f(u) dB
u
=

t+s
s
f(u) d
u
(B
u
B
s
)
B
u
B
s
, u [s, t +s]
et lon utilise lindependance des accroissements du processus B, qui entrane que
B
u
B
s
, u [s, t +s] B
u
, u s

Comme consequence de lexercice 3.3, on obtient alors immediatement limportant


Corollaire 4.4 Les processus M
t
, t 0 et

M
t
, t 0, o` u

M
t
= M
2
t

t
0
f
2
(s) ds
sont des (F
B
t
)-martingales.
Remarquons que sauf lorsque f est constante, le processus M est un P.A.I. mais nest pas un P.A.I.S.
(processus `a accroissements independants et stationnaires, ou encore processus de Levy), au sens o` u
legalite
M
t+s
M
s
d
= M
t
nest pas veriee pour tout t. Ceci se comprend intuitivement vue lexpression de M sous forme integrale.
Cest aussi une consequence dun resultat beaucoup plus profond, la formule de Levy-Khintchine [1] [21],
qui est une sorte de formule de structure sur les P.A.I.S. Elle entrane que les seuls processus de Levy
qui soient des martingales continues sont du type cB
t
pour un certain c R. En particulier, M est un
P.A.I.S. si et seulement si f c pour un certain c R.
Rappelons aussi, consequence immediate de la formule disometrie, que si f, g L
2
loc
(R
+
, R), alors
E

t
0
f(u)dB
u

s
0
g(u)dB
u

ts
0
f(u)g(u)du.
La formule suivante, tr`es utile en pratique, montre enn quon aurait pu denir I
T
(f) `a laide dune
integrale deterministe (en travaillant par ), pourvu que f soit derivable :
Theor`eme 4.5 [Formule dintegration par parties] Soit f C
1
(R
+
, R) et soit B
t
, t 0 un
mouvement brownien reel. Alors
I
t
(f) = f(t)B
t

t
0
f

(s)B
s
ds
pour tout t 0.
Preuve : Fixons t 0. Par propriete des espaces gaussiens, il sut de verier que
E[B
u
I
t
(f)] = E

B
u

f(t)B
t

t
0
f

(s)B
s
ds

4.2. APPLICATION DE LINT

EGRALE DE WIENER 39
pour tout tout u t. En utilisant la formule dintegration par parties classique, on calcule
E

B
u

f(t)B
t

t
0
f

(s)B
s
ds

= uf(t)

t
0
f

(s)(s u) ds
= uf(t)

t
u
f

(s) ds +

u
0
f

(s)s ds

= uf(u)

u
0
f

(s)s ds
=

u
0
f(s) ds = E[B
u
I
t
(f)].

4.2 Application de lintegrale de Wiener


4.2.1 Le processus dOrnstein-Uhlenbeck
Cest le processus solution de lequation suivante, dite equation de Langevin :
X
t
= X
0
a

t
0
X
s
ds + B
t
, (4.3)
o` u a, R, X
0
est une certaine variable aleatoire (tr`es souvent une constante en nance) et B un
Brownien independant de X
0
. On ecrit lequation precedente sous la forme
dX
t
= aX
t
dt + dB
t
.
Le theor`eme suivant montre que la solution de cette equation est explicite en termes dune integrale de
Wiener :
Theor`eme 4.6 Lequation de Langevin a pour unique solution
X
t
= e
at

X
0
+

t
0
e
as
dB
s

. (4.4)
Preuve : Notons Y
t
le second membre de (4.4). En utilisant le theor`eme 4.5, on transforme lintegrale

t
0
e
as
dB
s
= e
at
B
t
a

t
0
e
as
B
s
ds
et lon en deduit que
Y
t
= e
at

X
0
a

t
0
e
as
B
s
ds

+ B
t
.
Dautre part, en appliquant le theor`eme de Fubini,
a

t
0
Y
s
ds = aX
0

t
0
e
as
ds + a

t
0
B
s
ds a
2

t
0
e
as

s
0
e
au
B
u
du

ds
= X
0
(1 e
at
) + a

t
0
B
s
ds a
2

t
0
e
au
B
u

t
u
e
as
ds

du
= X
0
(1 e
at
) + a

t
0
B
s
ds a
2

t
0
B
u

tu
0
e
as
ds

du
= X
0
(1 e
at
) + a

t
0
B
s
ds a

t
0
B
u
du + a

t
0
e
a(ut)
B
u
du
= X
0
(1 e
at
) + a

t
0
e
a(ut)
B
u
du
= X
0
e
at

X
0
a

t
0
e
au
B
u
du

= X
0
Y
t
+ B
t
,
40 CHAPITRE 4. LINT

EGRALE STOCHASTIQUE - FORMULE DIT

O
0 1 2 3 4 5
0.1
0.0
0.1
0.2
0.3
0.4
0.5
Fig. 4.1 Processus O.U.
de sorte que
Y
t
= X
0
a

t
0
Y
s
ds + B
t
ce qui est bien lequation (4.3). Remarquons maintenant que si X
1
et X
2
sont deux solutions de (4.3),
alors Z = X
1
X
2
verie lEDO
Z
t
= a

t
0
Z
s
ds
dont lunique solution est zero (cette equation secrit Z

(t) = aZ(t)dt, Z(0) = 0). Ainsi X


1
X
2
et
(4.3) a bien une unique solution qui, dapr`es ce qui prec`ede, est le processus Y .

Remarque 4.7 On aurait pu egalement poser Y


t
= e
at
X
t
et appliquer la formule dintegration par
parties (en admettant quelle est valable pour le processus X, ce que nous justierons plus tard) pour
trouver
dY
t
= e
at
dX
t
+ ae
at
X
t
dt = e
at
dB
t
,
equation dont la solution est
Y
t
= X
0
+

t
0
e
as
dB
s
,
de sorte que
X
t
= e
at

X
0
+

t
0
e
as
dB
s

.
La propriete de Markov du processus dOrnstein-Uhlenbeck est etablie dans la proposition suivante.
Elle est en fait valable dans un cadre beaucoup plus general que nous verrons au chapitre suivant.
4.2. APPLICATION DE LINT

EGRALE DE WIENER 41
Proposition 4.8 Lunique solution de (4.3) est un processus de Markov simple : pour tout s, t 0 et
toute fonction reelle mesurable f,
E

f(X
t+s
) [ F
B
s

= E[f(X
t+s
) [ X
s
] = (t, X
s
)
o` u lon a note (t, x) = E[f(X
t
) [ X
0
= x].
Preuve : On ecrit
X
t+s
= e
a(t+s)

X
0
+

t+s
0
e
au
dB
u

= e
at
X
s
+ e
a(t+s)

t+s
s
e
au
dB
u
= e
at

X
s
+

t
0
e
au
d

B
u

o` u le processus

B deni par

B
u
= B
s+u
B
s
est un Brownien independant de F
B
s
et donc aussi de
X
s
F
B
s
. En utilisant la propriete que si X et Y sont deux v.a. telles que X F
B
s
et Y F
B
s
alors
E

F(X, Y )[F
B
s

= E[F(x, Y )]
x=X
, on en deduit que
E

f(X
t+s
) [ F
B
s

= E[f(X
t+s
) [ X
s
] = (t, X
s
)
pour toute fonction reelle mesurable f.

La proposition suivante consid`ere la situation o` u X


0
est une gaussienne independante du Brownien
porteur.
Proposition 4.9 Supposons X
0
N (m,
2
0
) independante de B. Alors la solution de (4.3) est un
processus gaussien de fonction esperance
E[X
t
] = me
at
et de fonction de covariance
cov[X
s
, X
t
] = e
a(t+s)

2
0
+

2
2a

e
2a(st)
1

.
Preuve : On sait que les deux processus
t e
at
X
0
et t

t
0
e
a(ts)
dB
s
sont gaussiens et independants. Donc X, qui est leur somme, est un processus gaussien. Comme
lintegrale de Wiener est desperance nulle, on a
E[X
t
] = e
at
E[X
0
] = me
at
.
Enn, par independance de X
0
et de B, et par isometrie de lintegrale de Wiener,
cov[X
s
, X
t
] = cov[X
0
e
as
, X
0
e
at
] + cov

s
0
e
a(us)
dB
u
,

t
0
e
a(ut)
dB
u

= e
a(t+s)

Var[X
0
] +
2

st
0
e
2au
du

= e
a(t+s)

2
0
+

2
2a

e
2a(st)
1

Remarque 4.10 Si X
0
est une constante (i.e.
2
0
= 0), on a
cov[X
s
, X
t
] =

2
2a

e
a|ts|
e
a(t+s)

et Var[X
t
] =

2
2a

1 e
2at

.
42 CHAPITRE 4. LINT

EGRALE STOCHASTIQUE - FORMULE DIT

O
4.2.2 Le processus de Vasicek
Cest une generalisation du mod`ele precedent, avec lajout dune constante dans le drift :
dY
t
= a(b Y
t
)dt + dB
t
. (4.5)
Cette equation est utilisee pour etudier levolution des taux dinteret dans le mod`ele nancier dit de
Vasicek. Un tel mod`ele est qualife de mean-reverting (retour `a la moyenne) car, pour a et b positifs, le
processus Y
t
tend vers b (en un sens `a preciser), quand t tend vers linni. Ce comportement se justie
intuitivement : si b > Y
t
, le drift a(b Y
t
) est positif et le processus Y est, en moyenne croissant.
Quand Y
t
= b, le processus est en moyenne constant et si b < Y
t
, le drift a(b Y
t
) est negatif et le
processus Y est, en moyenne decroissant. Si lon pose X
t
= Y
t
b, on voit que le processus X est
solution de lequation de Langevin, et lon en deduit que (4.5) a une solution explicite donnee par
Y
t
= (Y
0
b)e
at
+ b +

t
0
e
a(tu)
dB
u
.
On a des proprietes analogues `a celles du processus de Ornstein-Uhlenbeck : si X
0
N (m,
2
0
) est
independante de B, Y est un processus gaussien de fonction esperance
E[Y
t
] = me
at
+ b(1 e
at
)
et de fonction de covariance
cov[Y
s
, Y
t
] = cov[X
s
, X
t
] = e
a(t+s)

2
0
+

2
2a

e
2a(st)
1

.
De plus, legalite
Y
t
= (Y
s
b)e
a(ts)
+ b +

t
s
e
a(tu)
dB
u
pour tout s t etablit le caract`ere gaussien de Y . Cette expression explicite montre aussi que condi-
tionnellement `a F
B
s
(Y
0
), Y
t+s
est une gaussienne desperance
E[Y
t+s
[ F
B
s
] = Y
s
e
at
+b(1 e
at
)
et de variance
Var[Y
t+s
[ F
B
s
] =

2
2a

1 e
2at

.
Lintegrale du processus de Vasicek intervient en Finance pour le calcul du prix P(t, T) dun zero-
coupon de maturite T, lorsque le taux court est suppose suivre un processus de Vasicek (hypoth`ese
assez irrealiste, principalement car ce processus prend des valeurs negatives mais qui a constitue un des
premiers mod`eles de taux). On montrera dans le cours de nance que ce prix P(t, T) est obtenu par
P(t, T) = E

exp

T
t
Y
u
du

F
B
t

.
Par lequation (4.5), on a
Z
t
def
=

t
0
Y
s
ds = a
1
(Y
0
Y
t
+abt +B
t
)
= a
1

Y
0
+abt +B
t
(Y
0
b)e
at
b

t
0
e
a(tu)
dB
u

= a
1

b(at 1 e
at
) +Y
0
(1 e
at
) +B
t
e
at

t
0
e
au
dB
u

.
Ainsi, quand Y
0
N (m,
2
0
) est independante de B, alors Z est un processus gaussien desperance
E[Z
t
] = bt +
(mb)(1 e
at
)
a
4.3. LINT

EGRALE STOCHASTIQUE G

EN

ERALE 43
et de fonction de covariance
cov[Z
s
, Z
t
] =

2
0
a
2
(1 e
as
)(1 e
at
)
+

2
a
2

t s +
e
a(t+s)
(e
2a(st)
1)
2a

(1 +e
a|ts|
)(1 e
a(st)
)
a

.
De meme, on montre que pour t > s, conditionnellement `a F
B
s
, la variable Z
t
Z
s
est une gaussienne
desperance
M(s, t) = b(t s) + a
1
(Y
s
b)(1 e
a(ts)
)
et de variance
V (s, t) =

2
0
a
2
(1 e
a(ts)
)
2
+

2
a
2

(t s) +
(1 e
2a(ts)
)
2a

2(1 e
a(ts)
)
a

.
On connait la transformee de Laplace dune v.a. gaussienne, on en deduit alors la valeur du zero-coupon :
P(t, T) = E

exp

T
t
Y
u
du

F
B
t

= = exp

M(t, T) +
1
2
V (t, T)

.
= = exp

b(t s) a
1
(Y
s
b)(1 e
a(ts)
) +
1
2
V (t, T)

.
On calculera plus tard dP(t, T) pour obtenir la dynamique du prix.
4.3 Lintegrale stochastique generale
On cherche maintenant `a denir la v.a.

t
0

s
dB
s
quand
s
, s 0 est un processus stochastique. Le caract`ere aleatoire de va exiger des conditions
supplementaires par rapport au cas de lintegrale de Wiener. On note

F
B
t
, t 0

la ltration naturelle
du mouvement brownien B.
Denition 4.11 On dit que
t
, t 0 est un bon processus
1
sil est (F
B
t
)-adapte, c`agl`ad, et si
E

t
0

2
s
ds

< +
pour tout t > 0.
Comme dans le cas de lintegrale de Wiener, la construction de I
t
() se fait par discretisation :
4.3.1 Cas des processus etages
Ce sont les processus du type

n
t
=
p
n

i=0

i
11
]t
i
,t
i+1
]
(t)
o` u p
n
N, 0 = t
0
t
1
. . . t
p
n
et
i
L
2
(, T
t
i
, P) pour tout i = 0 . . . p
n
. On voit immediatement
que
n
est un bon processus. On denit alors
I
t
(
n
) =

t
0

n
s
dB
s
=
p
n

i=0

i
(B
t
i+1
B
t
i
)
1
Cette denomination nest pas standard
44 CHAPITRE 4. LINT

EGRALE STOCHASTIQUE - FORMULE DIT

O
et on verie que pour i = j,
E

i
(B
t
i+1
B
t
i
)
i
(B
t
i+1
B
t
i
)

= 0
et que
E[I
t
(
n
)] = 0 et Var [I
t
(
n
)] = E

t
0
(
n
s
)
2
ds

.
Cependant, on prendra garde que par le caract`ere aleatoire de
n
, la variable I
t
(
n
) nest pas une
Gaussienne en general.
4.3.2 Cas general
Le principe est le meme que pour lintegrale de Wiener, mais les outils mathematiques sous-jacents
plus compliques que les lemmes hilbertien et gaussien du paragraphe precedent. Nous passerons les
details. Si est un bon processus, on montre dabord quil existe
n
, n 0 suite de processus etages
telle que
E

t
0
(
s

n
s
)
2
ds

0
quand n +, puis que pour tout t > 0 il existe une v.a. I
t
() de carre integrable telle que
E

[I
t
() I
t
(
n
)[
2

0
quand n +, avec I
t
(
n
) deni comme au paragraphe precedent. On pose alors naturellement
I
t
() =

t
0

s
dB
s
pour tout t 0. Par independance, on remarque dabord que
E[I
t
(
n
)] =
p
n

i=0
E[
i
] E

B
t
i+1
B
t
i

= 0,
de sorte, en passant `a la limite, que
E[I
t
()] = 0.
De meme, on obtient
Var [I
t
()] = lim
n+
Var [I
t
(
n
)] = lim
n+
E

I
t
(
n
)
2

= lim
n+
E

p
n

i=0

2
i
(t
i+1
t
i
)

= E

t
0

2
s
ds

.
Insistons `a nouveau sur le point que I
t
() nest pas gaussienne en general, sauf lorsque est deterministe.
En revanche, dautres proprietes de lintegrale de Wiener sont conservees :
Linearite : Pour tous t 0, a
1
, a
2
R et
1
,
2
bons processus, on a
I
t
(a
1

1
+a
2

2
) = a
1
I
t
(
1
) + a
2
I
t
(
2
).
Proprietes de martingale : Pour tout bon processus , les processus
t I
t
() et t I
t
()
2

t
0

2
s
ds
sont des (F
B
t
)-martingales continues. On a donc, pour tout s t
E

I
t
()

F
B
s

= I
s
()
4.3. LINT

EGRALE STOCHASTIQUE G

EN

ERALE 45
(soit E

I
t
() I
s
()

F
B
s

= 0), et on montre egalement que


E

(I
t
() I
s
())
2

F
B
s

= E

(I
t
())
2
(I
s
())
2

F
B
s

= E

t
s

2
u
du

F
B
s

.
En consequence du theor`eme de Doob, on voit aussi que pout tout (F
B
t
)-temps darret et tout bon
processus tel que
E

2
s
ds

< ,
on a
E[I

()] = 0 et E

I
2

()

= E

2
s
ds

.
Enn, on peut aussi appliquer les theor`emes 2.19 et 2.20. Par exemple, en prenant p = q = 2 dans le
theor`eme 2.20, on obtient
E

sup
st
I
s
()

4E

(I
t
())
2

= 4

t
0
E[
2
u
] du.
Propriete disometrie : Pour tous bons processus , et tout s, t 0, on a
E[I
s
()I
t
()] = E

st
0

u
du

.
De plus, le processus
I
t
()I
t
()

t
0

u
du
est une (F
B
t
)-martingale.
La proposition suivante est un premier calcul sur les integrales stochastiques, qui montre que la
formule dintegration par parties nadmet pas dextension triviale au cas dintegrale dIto. On y voit
apparatre un terme deterministe `a cause de la variation quadratique non nulle du Brownien. Ce terme
du deuxi`eme ordre se retrouvera dans la formule dIto.
Proposition 4.12 Pour tout t 0 on a

t
0
B
s
dB
s
=
1
2
(B
2
t
t).
Preuve : En prenant pour t
n
i
, i = 0 . . . 2
n
la subdivision reguli`ere de [0, t], on ecrit

t
0
B
s
dB
s
= lim
n+
2
n
1

i=0
B
t
n
i
(B
t
n
i+1
B
t
n
i
)
= lim
n+

1
2

2
n
1

i=0
(B
2
t
n
i+1
B
2
t
n
i
(B
t
n
i+1
B
t
n
i
)
2
)

=
1
2

B
2
t
lim
n+

2
n
1

i=0
(B
t
n
i+1
B
t
n
i
)
2

=
1
2

B
2
t
t

Dans la denition dun bon processus, la condition dintegrabilite


E

t
0

2
s
ds

< +
46 CHAPITRE 4. LINT

EGRALE STOCHASTIQUE - FORMULE DIT

O
est parfois trop exigeante dans la pratique. Il est possible de denir I
t
() sous la seule condition

t
0

2
s
ds < + p.s.
Cependant, t I
t
() nest plus necessairement une martingale, et en particulier E[I
t
()] peut etre non
nul. Pour denir I
t
(), il faut introduire la notion importante de martingale locale :
Denition 4.13 Soit F
t
, t 0 une ltration et X
t
, t 0 un processus (F
t
)-adapte. On dit que
X est une (F
t
)-martingale locale sil existe une suite
n
, n 0 de (F
t
)-temps darret telle que
P[
n
+] = 1
et le processus X
n
: t X
t
n
est une martingale pour tout n 0.
Par le lemme de Fatou, on voit quune martingale locale positive est une surmartingale. Par le theor`eme
de convergence dominee, une martingale locale uniformement integrable est une vraie martingale. Fixons
maintenant B un mouvement brownien.
Denition 4.14 On dit que
t
, t 0 est un bon processus local sil est c`agl`ad, (F
B
t
)-adapte, et si

t
0

2
s
ds < + p.s.
pour tout t > 0.
Soit un bon processus local. On pose

n
= inf

t > 0 /

t
0

2
s
ds = n

.
Comme

n
> t =

t
0

2
s
ds < n

pour tout n N, t 0, on voit que


n
est un (F
B
t
)-temps darret pour tout n N par adaptation de .
De plus, lhypoth`ese dintegrabilite sur entrane facilement que
n
+ p.s. Enn, par construction
on a
E

t
n
0

2
s
ds

n < +.
Ainsi, par le paragraphe precedent, on peut denir I
t
n
() qui est une martingale. Comme p.s.
n

+, on peut denir I
t
() pour tout t > 0, qui est une martingale locale. De meme, en prenant la meme
suite de temps darret, on montre que le processus
I
t
()
2

t
0

2
s
ds
est une martingale locale.
Exemple 4.15 Soit R. On veut savoir quand lintegrale stochastique
I
t
(B

) =

t
0
B

s
dB
s
a un sens, et quand le processus associe est une martingale. Remarquons dej`a que
E

t
0
(B

s
)
2
ds

t
0
E

B
2
s

ds
=

t
0
s

B
2
1

ds = E

B
2
1

t
0
s

ds.
4.3. LINT

EGRALE STOCHASTIQUE G

EN

ERALE 47
Dans le terme de droite, lintegrale est nie si et seulement si > 1. Donc, pour que t I
t
(B

) soit
bien deni et une martingale, il faut et il sut que > 1 et E

B
2
1

< +. Or
E

B
2
1

=
1

R
x
2
e
x
2
/2
dx
et cette integrale est nie si et seulement si > 1/2 (puisque le seul probl`eme dintegrabilite est en
0). On en deduit nalement que
t

t
0
B

s
dB
s
est une martingale > 1/2.
Quand 1 < s 1/2, on cherche alors `a savoir quand I
t
(B

) est malgre tout deni comme martin-


gale locale. On utilise alors les theor`emes 3.7 et 3.8, qui permettent de comparer le comportement du
Brownien au voisinage de 0 avec celui de t t
1/2
. On en deduit que

t
0
B
2
s
ds < + p.s. > 1.
Do` u, dapr`es ce qui prec`ede,
t

t
0
B

s
dB
s
est deni et une martingale locale > 1.
Nous terminons sur ce paragraphe en revenant sur le crochet de deux martingales locales, reprenant
les considerations du chapitre 2 apr`es la decomposition de Doob-Meyer. On a vu que si Z est une
(F
t
)-martingale continue de carre integrable, alors < Z > est lunique processus croissant continu
(F
t
)-adapte tel que t Z
2
t
< Z >
t
soit une (F
t
)-martingale. Quitte `a utiliser les temps darret

n
= inf

t 0 / Z
2
t
= n

,
on peut maintenant etendre cette denition aux martingales locales : si Z est une martingale locale,
< Z > est lunique processus croissant continu (F
t
)-adapte tel que t Z
2
t
< Z >
t
soit une (F
t
)-
martingale locale. Par polarite, on peut denir le crochet de deux (F
t
)-martingales locales M et N en
ecrivant
< M, N >
t
=
1
2
(< M +N >
t
< M >
t
< N >
t
) .
Le crochet < M, N > est aussi lunique processus `a variation nie tel que le processus MN < M, N >
soit une martingale locale. On a alors la
Proposition 4.16 Soit M une martingale locale continue. Alors M est une martingale L
2
si et seule-
ment si E['M`
t
] < + pour tout t 0.
Enn, la proposition suivante donne enn de < M, N > une importante construction trajectorielle :
Proposition 4.17 Soient M et N deux martingales locales continues. Alors p.s. pour tout t 0,
< M, N >
t
= lim
n+
2
n

i=1
(M
t
n
i
M
t
n
i1
)(N
t
n
i
N
t
n
i1
)
o` u t
n
i
, i = 0 . . . 2
n
designe la subdivision reguli`ere sur [0, t].
Remarque 4.18 Par linegalite de Cauchy-Schwarz, le terme de droite est bien deni pour deux proces-
sus `a variation quadratique nie. Cependant, on voit aussi que ce crochet sera nul d`es quune variation
quadratique est nulle, en particulier d`es quun des deux processus est `a variation nie.
Il resulte aussi de cette proposition le fait crucial que le crochet < M, N > reste inchange si lon eectue
un changement de probabilite equivalente. On dit enn que deux martingales continues sont orthogonales
si leur crochet est nul, cest-`a-dire si leur produit est une martingale. Par exemple, deux Browniens
independants sont des martingales orthogonales. La proposition 4.12 etablit que le crochet du Brownien
B est < B >
t
= t. On peut aussi calculer le crochet de deux Browniens correles avec coecient :par
denition, < B
1
, B
2
>
t
= t. On peut aussi bien entendu calculer le crochet dintegrales stochastiques
generales, et les proprietes de martingale entranent immediatement que
< I() >
t
=

t
0

2
s
ds et < I(), I() >
t
=

t
0

s
ds.
48 CHAPITRE 4. LINT

EGRALE STOCHASTIQUE - FORMULE DIT

O
4.4 Processus dIto
Ce sont des processus ecrits sous la forme
X
t
= x +

t
0
b
s
ds +

t
0

s
dB
s
(4.6)
o` u b est un processus F
B
t
-adapte tel que

t
0
[b
s
[ ds < + p.s.
pour tout t 0, et un bon processus local. On utilise la notation formelle
dX
t
= b
t
dt +
t
dB
t
X
0
= x.
Le coecient b sappelle la derive (ou le drift) du processus, et son coecient de diusion. On appelle
aussi le processus
t x +

t
0
b
s
ds
la partie `a variation nie de X, et le processus
t

t
0

s
dB
s
la partie martingale de X (cest a priori une martingale locale). Comme, dapr`es la proposition 2.25,
une martingale locale `a variation nie est un processus constant, on en deduit que la decomposition
(4.6) du processus X est unique, au sens o` u si X admet une autre decomposition
X
t
= x +

t
0

b
s
ds +

t
0

s
dB
s
,
alors b

b et . En particulier, X sous la forme (4.6) est une martingale locale si et seulement si b


0. En fait, cette representation des martingales locales dans une ltration Brownienne est caracteristique,
independamment de ce que le processus soit a priori un processus dIto :
Theor`eme 4.19 [Theor`eme de representation des martingales locales] Soit B un mouvement
brownien et M une (F
B
t
)-martingale locale continue. Alors il existe x R et bon processus local tel
que
M
t
= x +

t
0

s
dB
s
.
Ce theor`eme est extremement important en Finance et est lie `a la completion dun marche nancier.
Lhypoth`ese fondamentale est que M est une martingale par rapport `a la ltration naturelle du Brownien.
Signalons enn que dans certains cas, la formule de Clark-Ocone - voir [13] - donne une representation
explicite du processus . Si X
1
et X
2
sont deux processus dIto de decomposition
X
i
t
= x +

t
0
b
i
s
ds +

t
0

i
s
dB
s
pour i = 1, 2, leur crochet est par denition le crochet de leurs parties martingales. Autrement dit
< X
1
, X
2
> = < I(
1
), I(
2
) > .
Attention, `a cause de la partie `a variation nie, le processus t X
1
t
X
2
t
< X
1
, X
2
>
t
nest pas une
martingale locale en general. En revanche, comme X
i
I(
i
) est un processus `a variation nie, on a
toujours
< X
1
, X
2
>
t
= lim
n+
2
n

i=1
(X
1
t
n
i
X
1
t
n
i1
)(X
2
t
n
i
X
2
t
n
i1
)
du fait de la remarque 4.18.
4.5. FORMULE DIT

O 49
4.5 Formule dIto
Dans ce paragraphe, on se donne un processus dIto reel X de decomposition (4.6) et une fonction
f : R R susamment reguli`ere. La formule dIto vise `a donner une formule de changement de variable
pour le processus f(X
t
) qui sera un processus dIto. Imaginons un instant que 0 et que b soit C
0
.
Alors X est un processus C
1
et (f X)

= (f

X)X

. Do` u, par la formule de changement de variables


classique,
f(X
t
) = f(X
0
) +

t
0
(f X)

(s) ds
= f(x) +

t
0
f

(X
s
)X

s
ds = f(x) +

t
0
f

(X
s
) dX
s
.
Cette formule garderait encore un sens quand 0, en posant
dX
s
= b
s
ds +
s
dB
s
.
Mais en fait, cette formule du 1er ordre nest plus vraie quand 0, `a cause du caract`ere quadratique
de la partie martingale de X. On a une formule du 2`eme ordre :
Theor`eme 4.20 [Premi`ere formule dIto] Supposons f de classe C
2
. Alors
f(X
t
) = f(x) +

t
0
f

(X
s
)dX
s
+
1
2

t
0
f

(X
s
)
2
s
ds.
Si f est `a derivees bornees, le processus f(X
t
)

t
0
f

(X
s
)b
s
ds
1
2

t
0
f

(X
s
)
2
s
ds est une martingale.
Cette formule secrit sous forme condensee
df(X
t
) = f

(X
t
)dX
t
+
1
2
f

(X
t
)
2
t
dt
= f

(X
t
)b
t
dt +
1
2
f

(X
t
)
2
t
dt +f

(X
t
)
t
dB
t
= f

(X
t
)b
t
dt +
1
2
f

(X
t
) d'X`
t
+f

(X
t
)
t
dB
t
.
On utilise souvent (dans les articles de nance ecrits par des non-mathematiciens) la notation
df(X
t
) = f

(X
t
)dX
t
+
1
2
f

(X
t
)dX
t
dX
t
avec la table de multiplication
dt dB
t
dt 0 0
dB
t
0 dt
En particulier, t f(X
t
) est un processus dIto de derive

t
0

(X
s
)b
s
+
1
2
f

(X
s
)
2
s

ds
et de partie martingale

t
0
f

(X
s
)
s
dB
s
.
Quand les derivees sont bornees, lintegrale stochastique apparaissant dans la formule est une vraie
martingale, et on en deduit :
E[f(X
t
)] = E[f(X
0
)] + E

t
0

(X
s
)b
s
+
1
2
f

(X
s
)
2
s

ds

= E[f(X
0
)] +

t
0
E

(X
s
)b
s
+
1
2
f

(X
s
)
2
s

ds.
50 CHAPITRE 4. LINT

EGRALE STOCHASTIQUE - FORMULE DIT

O
En faisant X
t
= B
t
, on retrouve ainsi le premier resultat du paragraphe 3.4. On peut egalement calculer
de la meme facon des esperances conditionnelles :
E

f(X
t
) [ F
B
s

= f(X
s
) + E

t
s

(X
u
)b
u
+
1
2
f

(X
u
)
2
u

du

F
B
s

= f(X
s
) +

t
s
E

(X
u
)b
u
+
1
2
f

(X
u
)
2
u

F
B
s

du.
La deuxi`eme formule dIto fait intervenir le temps en premi`ere variable. Elle sera tr`es utile pour etudier
des EDS inhomog`enes.
Theor`eme 4.21 [Deuxi`eme formule dIto] Soit f une fonction denie sur R
+
R de classe C
1
par
rapport `a t, de classe C
2
par rapport `a x. On a
f(t, X
t
) = f(0, X
0
) +

t
0
f

t
(s, X
s
)ds +

t
0
f

x
(s, X
s
)dX
s
+
1
2

t
0
f

xx
(s, X
s
)
2
s
ds.
Comme precedemment, on peut ecrire cette formule sous forme dierentielle :
df(t, X
t
) =

t
(t, X
t
) +
1
2
f

xx
(t, X
t
)
2
t

dt + f

x
(t, X
t
)dX
t
= f

t
(t, X
t
)dt +f

x
(t, X
t
)dX
t
+
1
2
f

xx
(t, X
t
)d'X`
t
.
Exemple 4.22 Le mouvement brownien geometrique, ou processus log-normal est deni par lequation
X
t
= x +

t
0
X
s
ds +

t
0
X
s
dB
s
avec , R. Si on pose Y
t
= e
t
X
t
pour tout t 0, la deuxi`eme formule dIto donne
dY
t
= e
t
X
t
dB
t
= Y
t
dB
t
Nous verrons au chapitre suivant dans un cadre general (cest aussi une consequence de la premi`ere
formule dIto) que Y secrit
Y
t
= xexp

B
t

2
t/2

.
On en deduit que
X
t
= xexp

t +B
t

2
t/2

.
On peut aussi considerer le cas o` u et sont des fonctions deterministes :
X
t
= x +

t
0
(s)X
s
ds +

t
0
(s)X
s
dB
s
On dit alors que X est un Brownien geometrique `a coecients deterministes. Toujours par la deuxi`eme
formule dIto, on montre que le processus
t X
t
exp

t
0
(s)ds

est une martingale locale. Cest en fait une vraie martingale et


X
t
= X
0
exp

t
0
(s)ds +

t
0
(s)ds
1
2

t
0

2
(s)ds .

Enn, la troisi`eme formule dIto permet de traiter des processus bivaries :


4.6. FORMULE DE BLACK & SCHOLES 51
Theor`eme 4.23 [Troisi`eme formule dIto] Soient X
1
et X
2
deux processus dIto issus de x
1
(resp.
de x
2
) de coecient de derive b
1
(resp. b
2
), de coecient de diusion
1
(resp.
2
) et portes respective-
ment par deux Browniens B
1
et B
2
correles avec coecient . On suppose que b
i
,
i
sont (F
B
i
t
)-adaptes.
Soit f une fonction de R
2
dans R de classe (
2
`a derivees bornees. On a
f(X
1
t
, X
2
t
) = f(x
1
, x
2
) +

t
0
f

1
(X
1
s
, X
2
s
) dX
1
s
+

t
0
f

2
(X
1
s
, X
2
s
) dX
2
s
+
1
2

t
0

11
(X
1
s
, X
2
s
)

1
s

2
+ 2f

12
(X
1
s
, X
2
s
)
1
s

2
s
+f

22
(X
1
s
, X
2
s
)

2
s

ds
o` u f

i
designe la derivee par rapport `a x
i
et f

ij
la derivee seconde par rapport `a x
j
puis x
i
, i, j = 1, 2.
En dierentiel, la troisi`eme formule dIto peut prendre une forme sommatoire :
df(X
1
t
, X
2
t
) =

i=1,2
f

i
(X
1
t
, X
2
t
) dX
i
t
+
1
2


i,j=1,2
c
ij
f

ij
(X
1
t
, X
2
t
)
i
t

j
t

dt
avec c
ij
= 1 si i = j et c
ij
= sinon. Un exemple important dapplication de la troisi`eme formule dIto
est la formule dintegration par parties, o` u lon choisit la fonction f(x, y) = xy :
Proposition 4.24 [Formule dintegration par parties] Avec les memes notations que dans le
theor`eme 4.23, on a
X
1
t
X
2
t
= x
1
x
2
+

t
0
X
1
s
dX
2
s
+

t
0
X
2
s
dX
1
s
+

t
0

1
s

2
s
ds.
On retrouve lexpression du crochet de X
1
et X
2
:
< X
1
, X
2
>
t
=

t
0

1
s

2
s
ds,
et la formule dintegration par parties secrit
d(X
1
X
2
)
t
= X
1
t
dX
2
t
+X
2
t
dX
1
t
+d'X
1
, X
2
`
t
.
4.6 Formule de Black & Scholes
On consid`ere un marche nancier comportant un actif dit sans risque de taux constant r et de prix
S
0
t
= e
rt
(soit dS
0
t
= rS
0
t
dt) et un actif risque dont le prix S verie
dS
t
= b S
t
dt + S
t
dB
t
soit
S
t
= S
0
exp

B
t
+ (b
2
/2)t

avec B mouvement brownien et b, R. On xe un horizon T > 0 et on souhaite donner le prix dun


actif nancier qui versera h(S
T
) `a la date T. Le cas dun call Europeen de maturite T et de strike K
correspond au cas h(x) = (x K)
+
. On proc`ede par duplication (hedging) : on forme un portefeuille
et d
t
parts de lactif sans risque (le montant de la richesse investie dans cet actif est e
rt
) et de
t
parts de lactif risque. On va trouver un portefeuille auto-nancant (ne necessitant pas de mise de fonds
autre qu`a la date 0) de valeur terminale h(S
T
). La valeur de ce portefeuille `a la date t est
V
t
=
t
S
0
t
; +
t
S
t
.
La condition dauto-nancement se formalise par
dV
t
=
t
dS
0
t
+
t
dS
t
;
soit
dV
t
=
t
rS
0
t
dt +
t
dS
t
= rV
t
dt +
t
S
t
((b r)dt +dB
t
)
52 CHAPITRE 4. LINT

EGRALE STOCHASTIQUE - FORMULE DIT

O
(La valeur initiale du portefeuille sera la valeur de l actif nancier. On suppose que la valeur V
t
du
portefeuille `a la date t est une fonction deterministe du temps et de la valeur de lactif risque, soit
V
t
= V (t, S
t
). En utilisant la deuxi`eme formule dIto, on calcule
dV
t
=

V
t
(t, S
t
) + b S
t
V
x
(t, S
t
) +

2
S
2
t
2

2
V
x
2
(t, S
t
)

dt
+

S
t
V
x
(t, S
t
)

dB
t
.
En utilisant et en identiant avec la condition dauto-nancement les parties martingales on obtient

t
S
t
+S
t
V
x
(t, S
t
) = 0 soit
t
=
V
x
(t, S
t
),
ce qui entrane alors en identiant les parties `a variation nie
rS
t
V
x
(t, S
t
) +
V
t
(t, S
t
) +

2
S
2
t
2

2
V
x
2
(t, S
t
) rV (t, S
t
) = 0
avec pour condition terminale V (T, S
T
) = h(S
T
). Comme S
t
est une v.a. qui peut prendre toutes les
valeurs de R
+
, on en deduit que V satisfait lEDP
rx
V
x
(t, x) +
V
t
(t, x) +

2
x
2
2

2
V
x
2
(t, x) rV (t, x) = 0 (4.7)
avec pour condition terminale V (T, x) = h(x). On notera que le coecient b a disparu ! Dans le cas
dun call europeen h(x) = (x K)
+
, et pour > 0, cette equation se resoud alors en :
V (t, x) = xN (d
1
) Ke
r(Tt)
N (d
2
)
o` u N est la fonction de repartition dune v.a. gaussienne standard :
N (x) =
1

e
u
2
/2
du,
et avec les notations
d
1
=
1
2

T t

ln

xe
r(Tt)
/K

+
1
2

2
(T t)

et d
2
= d
1

T t.
La quantite
C
x
(t, S
t
) = N (d
1
)
qui represente le nombre de parts de lactif sous jacent utilisees pour repliquer loption sappelle le Delta
de l option et represente aussi la sensibilite du prix de l option par rapport au prix du sous jacent. Le
couple (V (t, S
t
)
t
S
t
,
t
) represente le portefeuille de couverture.
Remarque 4.25 Comme consequence de la formule dIto appliquee aux EDS, on verra plus tard une
formule probabiliste pour le prix du call :
C(t, S
t
) = e
r(tT)
E

(S
T
K)
+
[ F
t

o` u dans le calcul de lesperance on consid`ere que S a pour dynamique


dS
t
= rS
t
dt +S
t
dW
t
.
Cette formule est fondamentale en Finance, et fait intervenir un changement de probabilite.
Chapitre 5
Equations dierentielles
stochastiques
Les equations dierentielles stochastiques (EDS) sont les equations qui regissent levolution de la
plupart des prix des actifs nanciers, et ce chapitre en donne une courte introduction. Pour une etude
plus approfondie, nous suggerons la lecture de [15] [16] [17], dans un ordre croissant de diculte.
5.1 Denitions
Rappelons quune equation dierentielle ordinaire (EDO) sur R
+
R est un syst`eme du type

y
0
= y
y

t
= f(t, y
t
)
(5.1)
o` u y : R
+
R est la fonction inconnue et f : R
+
R R est une fonction donnee. Letude
mathematique des equations dierentielles ordinaires, dune importance considerable pour les applica-
tions notamment en physique, sest developpee au debut du 19-`eme si`ecle avec la theorie des fonctions
speciales. Ces derni`eres peuvent etre vues comme la generalisation de la fonction exponentielle, laquelle
est solution de

y
0
= 1
y

t
= y
t
.
La theorie a pris un nouvel essor `a la n du 19-`eme si`ecle avec les travaux de Lie et de Poincare, et
continue aujourdhui de mobiliser une communaute tr`es importante de mathematiciens. En general, il
est impossible de donner une solution explicite `a une EDO. On peut cependant chercher `a savoir sil
existe une solution, et si elle est unique. Un crit`ere est le :
Theor`eme 5.1 [Cauchy-Lipschitz] Supposons quil existe une constante K > 0 telle que pour tous
t R
+
, x, y R

[f(t, x) f(t, y)[ K[x y[ (condition de Lipschitz globale)


[f(t, x)[ K(1 +[x[) (condition de croissance lineaire)
Alors lEDO (5.1) a une solution unique denie sur R
+
.
Remarquons que la condition de Lipschitz globale est assez naturelle pour que la solution soit bien
denie sur tout R
+
. Si on consid`ere par exemple y
0
= 1 et f(t, y) = y
2
, alors on voit facilement que
lunique solution du syst`eme (5.1) correspondant est y
t
= 1/(1 t), et que cette solution explose en
t = 1 avec valeur +.
Une equation dierentielle stochastique (EDS) est une perturbation de (5.1) avec un terme aleatoire
modelisant un bruit autour du phenom`ene deterministe decrit par (5.1). La perturbation la plus
simple est lajout dun Brownien, o` u lon consid`ere

Y
0
= y
dY
t
= f(t, Y
t
)dt +dB
t
(5.2)
53
54 CHAPITRE 5. EQUATIONS DIFF

ERENTIELLES STOCHASTIQUES
soit, sous forme integrale (la seule qui ait un sens mathematique, puisque le Brownien nest pas
derivable) :
Y
t
= y +

t
0
f(s, X
s
)ds + B
t
pour tout t 0. On a coutume dutiliser des majuscules pour les solutions dEDS et des minuscules pour
les solutions dEDO. Le caract`ere martingalien du Brownien entrane que pour petit, la trajectoire
non derivable de la solution de (5.2) va suivre en gros celle reguli`ere et deterministe de (5.1), en oscillant
aleatoirement autour. Mais quand est grand, la trajectoire de (5.2) na plus rien `a voir avec celle de
(5.1).
Le cadre general des EDS concerne la situation o` u le coecient depend aussi du temps et de la
solution Y
t
(en nance, on parle alors de mod`ele `a volatilite locale). On peut encore gagner en generalite
en considerant un mod`ele multidimensionnel. Ceci donne la
Denition 5.2 Soient d, m N, b : R
+
R
d
R
d
et : R
+
R
d
M
d,m
(R) deux fonctions mesu-
rables bornees (b(x) = b
i
(x), 1 i d est un champ de vecteurs et (x) =
ij
(x), 1 i d, 1 j m
un champ de matrices). Soit x R
d
une condition initiale. Une solution de lEDS
E
x
(b, ) :

X
0
= x
dX
t
= b(t, X
t
) dt + (t, X
t
) dB
t
est constituee par :
(a) Un espace de probabilite ltre (, F, F
t
, t 0 , P)
(b) Un (F
t
)-mouvement brownien B = (B
1
, . . . , B
m
) `a valeurs dans R
m
.
(c) Un processus X = X
t
, t 0 continu F
t
-adapte tel que les integrales

t
0
b(s, X
s
) ds et

t
0
(s, X
s
) dB
s
aient un sens et tel que legalite
X
t
= x +

t
0
b(s, X
s
) ds +

t
0
(s, X
s
) dB
s
soit satisfaite pour tout t P p.s. Autrement dit, pour tout i = 1, . . . , d on a
X
i
t
= x +

t
0
b
i
(s, X
s
) ds +
m

j=1

t
0

ij
(s, X
s
) dB
j
s
.
Le caract`ere aleatoire des EDS impose plusieurs notions dexistence et dunicite. On dit quil y a
(1) Existence dune solution faible si E
x
(b, ) admet une solution X.
(2) Existence dune solution forte si E
x
(b, ) admet une solution X qui soit adaptee `a la ltration du
Brownien porteur.
(3) Unicite faible si tous les processus X solutions de E
x
(b, ) ont meme loi.
(4) Unicite trajectorielle si, lespace de probabilite et le Brownien porteur etant xes, deux solutions
quelconques X et X

de E
x
(b, ) sont indistinguables au sens o` u
P[ t R / X
t
= X

t
] = 0.
Lexemple suivant montre que lon peut avoir (1) et (3) (existence et unicite faible), mais ni (2) ni (4) :
Exemple 5.3 Soit W
t
, t 0 un Brownien standard. On consid`ere le processus
B
t
=

t
0
sgn(W
s
) dW
s
o` u sgn est la fonction denie par
sgn(x) =

1 si x 0
1 si x < 0.
5.1. D

EFINITIONS 55
Comme sgn
2
(x) = 1, on remarque facilement que le processus B est bien deni et que B est une
martingale continue de crochet t. Par le theor`eme de caracterisation de Paul Levy, B est donc un
mouvement brownien. On consid`ere maintenant lEDS

X
0
= 0
dX
t
= sgn(X
t
) dB
t
Par construction, on voit que W est solution de cette equation. De plus, par le meme argument que
precedemment, on voit que toutes les solutions de cette equation sont des mouvements browniens et
sont donc egaux en loi : on a existence et unicite faibles. En revanche le point (4) nest pas verie : le
processus W est aussi solution de lequation avec pour tout t > 0,
P[W
t
= W
t
] = P[2W
t
= 0] = 1,
de sorte que W et W sont deux processus solution qui ne sont pas indistinguables. De plus, par
construction on voit intuitivement (et on peut demontrer rigoureusement) que la ltration naturelle du
processus B est celle de [X[, laquelle est bien s ur plus petite que celle de X, puisquelle ne prend pas
en compte le signe de X. Donc toute solution X nest pas (F
B
t
)-adaptee et il ny a pas existence de
solution forte.
Le theor`eme suivant nous dit en revanche que (1) + (4) = (2) + (3) :
Theor`eme 5.4 [Yamada-Watanabe] Supposons que E
x
(b, ) admette une solution faible et que
toutes ses solutions soient indistinguables. Alors E
x
(b, ) admet une unique solution forte.
Le theor`eme suivant est lanalogue du theor`eme de Cauchy-Lipschitz pour les EDS. Il fournit les condi-
tions standard dexistence et dunicite de solution forte :
Theor`eme 5.5 [Theor`eme dexistence sous conditions lipschitziennes] Supposons que pour tout
compact K de R
d
, il existe une constante M
K
> 0 telle que
(a) [b
i
(t, x) b(t, y)[ + [
ij
(t, x)
ij
(t, y)[ M
K
[x y[ pour tout i = 1 . . . d, j = 1 . . . m, t 0,
x, y K (condition de Lipschitz locale)
et quil existe une constante M > 0 telle que
(b) [b
i
(t, x)[ +[
ij
(t, x)[ M(1 +[x[) pour tout i = 1 . . . d, j = 1 . . . m, t 0, x, y R
d
(condition de
croissance lineaire),
alors il existe une unique solution forte `a E
x
(b, ), de duree de vie innie.
La demonstration de lexistence faible repose sur une methode de point xe, un peu trop longue `a
detailler ici. Lidee est de construire une suite X
n
par
X
n
t
= x +

t
0
b
i
(s, X
n1
s
) ds +
m

j=1

t
0

ij
(s, X
n1
s
) dB
j
s
,
et de montrer la convergence de cete suite vers une solution.
Nous allons en revanche demontrer lunicite trajectorielle, qui sut pour avoir existence et unicite
dune solution forte, dapr`es le theor`eme de Yamada-Watanabe. On suppose pour simplier que b et
sont globalement lipschitziennes en espace, avec constante M. Largument repose sur le lemme suivant
qui est extremement utile :
Lemme 5.6 [Gronwall] Soit T > 0 et g une fonction positive mesurable bornee telle que
g(t) a + b

t
0
g(s) ds
pour tout t T, o` u a et b sont des constantes positives. Alors
g(t) ae
bt
pour tout t T.
56 CHAPITRE 5. EQUATIONS DIFF

ERENTIELLES STOCHASTIQUES
La preuve est facile par iteration de la condition sur g sous lintegrale : on ecrit
g(t) a + b

t
0

a + b

s
0
g(u) du

ds
a + abt + b
2

0ust
g(u) duds
a + abt + b
2

0ust

a + b

u
0
g(v) dv

duds
a + abt + ab
2

0ust
duds + b
3

t
0

s
0

u
0
g(v) dv duds
a + abt + a
b
2
t
2
2
+ b
3

t
0

s
0

u
0
g(v) dv duds
.
.
.
a + abt + a
b
2
t
2
2
+ a
b
3
t
3
3!
+ = ae
bt
.

On xe alors t > 0 et on consid`ere deux solutions distinctes X et Y de E


x
(b, ). On a
E

[X
t
Y
t
[
2

= E

t
0
b(s, X
s
) b(s, Y
s
) ds +

t
0
(s, X
s
) (s, Y
s
) dB
s

2
2

t
0
[b(s, X
s
) b(s, Y
s
)[ ds

2
+E

t
0
[(s, X
s
) (s, Y
s
)[ dB
s

2M
2

t
2

t
0
E[X
s
Y
s
[
2
ds +

t
0
E[X
s
Y
s
[
2
ds

t
0
E[X
s
Y
s
[
2
ds
pour une certaine constante K > 0, o` u dans la premi`ere inegalite on a utilise la formule (a + b)
2

2(a
2
+ b
2
) et dans la deuxi`eme inegalite on a utilise la lipschitziannite de b et , linegalite de Holder
pour la premi`ere integrale et lisometrie de lintegrale stochastique pour la deuxi`eme. On en deduit le
resultat en utilisant le lemme de Gronwall.

Dans la pratique, le theor`eme dexistence lipschitzien est parfois insusant pour ce qui concerne le
coecient de diusion. On peut cependant notablement ameliorer ce theor`eme dans le cas reel :
Theor`eme 5.7 [Yamade-Watanabe II] Soit d = m = 1. Supposons que b et soient `a croissance
lineaire, que b verie la condition de Lipschitz locale et que [(t, x) (t, y)[
2
([x y[) pour tout
t 0, o` u est une fonction borelienne de ]0, [ dans lui-meme telle que

|z|
dz

2
(z)
= +.
pour tout > 0. Alors E
x
(b, ) admet une unique solution forte.
Une classe tr`es importante dEDS sont les equations de Bessel :
X
t
= x + 2

t
0

X
s
dW
s
+ t (5.3)
sur R, o` u W est un Brownien reel et x, > 0. Par le deuxi`eme theor`eme de Yamada-Watanabe applique
avec la fonction (x) =

x, on voit que (5.3) admet une unique solution forte. De plus, on peut montrer
que cette solution est toujours positive et de duree de vie innie. Cependant, le theor`eme dexistence
lipschitzien naurait pas permis dobtenir ce resultat, car (x) =

x nest pas lipschitzienne en zero.
Le processus X est un processus de Bessel carre de dimension . Nous reviendrons plus tard sur les
processus de Bessel et sur leurs liens avec le mouvement brownien.
5.2. QUELQUES PROPRI

ET

ES 57
5.2 Quelques proprietes
5.2.1 Propriete de Markov
Supposons que E
x
(b, ) ait une unique solution forte X
t
(x), t 0. Par linearite de lintegrale, on
voit que pour tout s, t 0,
X
s+t
(x) = X
s
(x) +

s+t
s
b(u, X
u
(x)) du +

s+t
s
(u, X
u
(x)) dB
u
.
Comme la variable X
s
(x) est F
B
s
-mesurable, elle est independante du processus des accroissements
B
u
B
s
, u s , qui est lui meme un Brownien B

partant de 0. On peut donc ecrire


X
s+t
(x) = X
s
(x) +

t
0
b(s +u, X
s+u
(x)) du +

t
0
(s +u, X
s+u
(x)) dB

u
et par unicite, ceci entrane que X
s+t
(x) = X
s
t
(X
s
(x)) pour tout t 0, o` u X
s
t
(x) est lunique solution
de E
x
(b(s + ., .), (s + ., .)) portee par le Brownien B

. Pour tout s, t 0 et toute fonction borelienne


f, on deduit alors de lindependance de B

et F
B
s
que
E

f(X
t+s
) [ F
B
s

= E[f(X
t+s
) [ X
t
] =
t
(s, X
s
)
o` u
t
(s, x) = E[f(X
s
t
(x))] . Ceci signie que X verie la propriete de Markov inhomog`ene. Cest un
resultat important qui permet de calculer facilement certaines esperances conditionnelles. Dans le cas
o` u les coecients b et ne dependent pas du temps, X verie de plus la propriete de Markov homog`ene,
au sens o` u
E

f(X
t+s
) [ F
B
s

= E[f(X
t+s
) [ X
s
] =
t
(X
s
)
avec
t
(x) = E[f(X
t
(x))] . La dierence entre homog`ene et inhomog`ene provient de la dependance en
temps. Dans le cas homog`ene, on peut etendre la propriete aux temps darret nis :
Theor`eme 5.8 [Propriete de Markov forte] Soit X lunique solution forte de E
x
(b, ) avec b et
ne dependant pas du temps. Soit T un temps darret ni p.s. pour la ltration naturelle du Brownien
porteur. Alors pour tout t 0 et toute fonction f mesurable bornee,
E

f(X
T+t
) [ F
B
T

= E[f(X
T+t
) [ X
T
] =
t
(X
T
)
o` u lon a note
t
(x) = E[f(X
t
(x))] .
Dans le cas inhomog`ene, on montre que le processus espace-temps t (t, X
t
) verie la propriete de
Markov forte, au sens o` u pour tout temps darret ni T et toute fonction f de deux variables,
E

f(T +t, X
T+t
)

F
B
T

= E[f(T +t, X
T+t
) [ T, X
T
] =
t
(T, X
T
)
avec la notation
t
(s, x) = E[f(s +t, X
s
t
(x))] . On voit donc que en general, un couple de processus
(X, Y ) peut etre fortement markovien sans que ses composantes le soient.
5.2.2 Theor`eme de comparaison
Ce theor`eme permet de comparer presque s urement deux EDS uni-dimensionnelles, et sav`ere souvent
extremement utile en pratique. La preuve, qui utilise des arguments semblables `a ceux de lunicite
trajectorielle vus precedemment, peut etre trouvee dans [11].
Theor`eme 5.9 Soit W
t
, t 0 un mouvement brownien reel, b
1
, b
2
et trois fonctions globablement
lipschitziennes, x
1
x
2
deux reels. On consid`ere les deux EDS
X
i
t
= x
i
+

t
0
b
i
(X
i
s
) ds +

t
0
(X
i
s
) dW
s
pour i = 1, 2. Supposons que b
1
(x) b
2
(x) pour tout x R. Alors X
1
t
X
2
t
p.s. pour tout t 0.
58 CHAPITRE 5. EQUATIONS DIFF

ERENTIELLES STOCHASTIQUES
5.2.3 Fonction dechelle
On consid`ere lEDS homog`ene
X
t
= X
0
+

t
0
b(X
s
) ds +

t
0
(X
s
) dB
s
o` u b et sont des fonctions de R dans R globalement lipschitziennes. Dapr`es la formule dIto, on voit
que si f est une fonction de R dans R de classe C
2
`a derivees bornees et telle que
b(x)f

(x) +
1
2

2
(x)f

(x) = 0
pour tout x R, alors le processus t f(X
t
) est une martingale (martingale locale si f nest pas `a
derivees bornees). La fonction f est appelee fonction dechelle du processus X. Elle est determinee `a
deux constantes pr`es c
1
et c
2
par la formule
f(x) =

x
c
1
exp

u
c
2
b(v)/
2
(v) dv

du.
Loperateur L qui `a f C
2
(R, R) fait correspondre
Lf : x b(x)f

(x) +
1
2

2
(x)f

(x)
sappelle le generateur innitesimal du processus X ou encore son Dynkin. On peut montrer quil verie
Lf(x) = lim
t0
E
x
[f(X
t
)] f(x)
t
= lim
t0
E[f(X
t
) [ X
0
= x] f(x)
t
pour tout x R
d
. Le generateur innitesimal a aussi un sens dans le cas inhomog`ene : si lon consid`ere
lEDS
X
t
= X
0
+

t
0
b(s, X
s
) ds +

t
0
(s, X
s
) dB
s
,
alors on peut denir son generateur innitesimal comme loperateur L agissant sur les fonctions de
R
+
R une fois derivables en temps et deux fois en espace par
L(f)(t, x) = b(t, x)f

x
(t, x) +

2
(t, x)
2
f

xx
(t, x).
Dapr`es la formule dIto, on voit que si f est une fonction de R
+
R dans R telle que
L(f)(t, x) +f

t
(t, x) = 0,
alors le processus f(t, X
t
), t 0 est une martingale locale. Cest de plus une vraie martingale sous
des conditions supplementaires dintegrabilite, par exemple quand la fonction f

x
est bornee.
On peut enn introduire un coecient exponentiel (qui joue le role dun coecient dactualisation
en nance) pour retrouver le prix dun call europeen vu au chapitre precedent. En eet, supposons que
X est un brownien geometrique
dX
t
= rX
t
dt +X
t
dB
t
et soit f une fonction de R
+
R dans R telle que f

x
est bornee et
f

t
(t, x) + L(f)(t, x) = rf(t, x), (5.4)
alors le processus t e
rt
f(t, X
t
) est une martingale. En particulier, si f verie x, f(T, x) = h(x)
comme condition au bord, alors
f(t, X
t
) = e
r(tT)
E[h(X
T
) [ F
t
] .
On donnera des applications en nance dans la section 5.3.2.
5.3. LIEN AVEC LES

EQUATIONS AUX D

ERIV

EES PARTIELLES 59
5.2.4 Martingale exponentielle et condition de Novikov
Soit un bon processus local et Z
0
une constante. Par la formule dIto, on demontre que lunique
solution de lEDS
Z
t
= Z
0
+

t
0

s
Z
s
dB
s
(5.5)
est
Z
t
= Z
0
exp

t
0

s
dB
s

1
2

t
0

2
s
ds

.
Le processus Z, note E
t
( B) est appele lexponentielle de Doleans-Dade de B. Par (5.5), cest une
martingale locale positive d`es que Z
0
> 0. Le crit`ere suivant, de preuve dicile, permet de savoir quand
lexponentielle de Doleans-Dade est une martingale :
Theor`eme 5.10 [Condition de Novikov] Supposons que
E

exp

1
2

t
0

2
s
ds

<
pour tout t > 0. Alors t E
t
( B) est une vraie martingale.
Quand la condition de Novikov nest pas satisfaite, E ( B) est une martingale locale positive, donc
une surmartingale, et E[Z
t
] E[Z
s
] Z
0
pour tout t s 0. On ne connait pas de conditions plus
faciles `a verier que la condition de Novikov, sauf dans le cas particulier suivant :
Proposition 5.11 Supposons
t
= f(t, B
t
) o` u f est une fonction globalement lipschitzienne. Alors
t E
t
( B) est une vraie martingale.
5.3 Lien avec les equations aux derivees partielles
5.3.1 Probl`eme parabolique
On consid`ere loperateur Af(t, x) = f

t
(t, x) + Lf(t, x) o` u L est le generateur innitesimal du
processus X solution de lEDS
X
t
= X
0
+

t
0
b(s, X
s
) ds +

t
0
(s, X
s
) dB
s
. (5.6)
On cherche les solutions du probl`eme parabolique suivant

Af(t, x) = 0 pour tout x R et t [0, T]


f(T, x) = g(x) pour tout x R.
(5.7)
o` u g est une fonction de R dans R. Si f est une solution de (5.7) et si pour tout u t 0 on note X
x,t
u
une solution de
X
x,t
u
= X
x,t
t
+

u
t
b(s, X
x,t
s
) ds +

u
t
(s, X
x,t
s
) dB
s
avec pour condition initiale X
x,t
t
= x, la formule dIto conduit alors `a
f(u, X
x,t
u
) = f(t, x) +

u
t
f

x
(s, X
x,t
s
)(s, X
x,t
s
)dB
s
.
En faisant u = T en particulier, on en deduit que
g(X
x,t
T
) = f(t, x) +

T
t
f

x
(s, X
x,t
s
)(s, X
x,t
s
) dB
s
.
Si f

x
et verient des conditions dintegrabilite susante, alors lintegrale stochastique est une mar-
tingale. On en deduit une importante representation probabiliste de la solution de (5.7) :
f(t, x) = E

g(X
x,t
T
)

.
60 CHAPITRE 5. EQUATIONS DIFF

ERENTIELLES STOCHASTIQUES
On ecrit parfois ce resultat sous la forme f(t, x) = E
x,t
[g(X
T
)] , o` u X est la solution de (5.6) prise sous
la probabilite P
x,t
qui est telle que processus X prend la valeur x `a linstant t. On peut sinteresser `a
un probl`eme un peu plus general que (5.7) :

Af(t, x) = f(t, x) pour tout x R et t [0, T]


f(T, x) = g(x) pour tout x R.
(5.8)
avec > 0. Avec les notations precedentes, si f est solution de (5.8), la formule dIto entre t et T
conduit `a
e
T
f(T, X
x,t
T
) = e
t
f(t, x) +

T
t
e
s
f

x
(s, X
x,t
s
)(s, X
x,t
s
) dB
s
.
A nouveau sous des conditions dintegrabilite susantes sur f

x
et , lintegrale stochastique est une
martingale et on en deduit la representation probabiliste
f(t, x) = E
x,t

e
(tT)
g(X
T
)

.
5.3.2 Formule de Black & Scholes
On consid`ere `a nouveau un sous jacent de dynamique
dS
t
= S
t
(bdt +dB
t
) .
Les resultats precedents entranent que la solution de lequation de Black & Scholes
xr
C
x
(t, x) +
C
t
(t, x) +

2
x
2
2

2
C
x
2
(t, x) = rC(t, x)
avec C(T, x) = (x K)
+
, est donnee par
C(t, x) = E

e
r(tT)
(

S
x,t
T
K)
+

(5.9)
avec
d

S
t
=

S
t
(rdt +dW
t
)
o` u W est un mouvement Brownien. La solution de cette equation verie

S
T
=

S
t
exp

(W
T
W
t
)(r
2
/2)(T t)

soit

S
x,t
T
= xe

TtG+(r
2
/2)(Tt)
avec G N (0, 1). Pour t = 0, le calcul donne
E

e
rT
(

S
x
T
K)
+

= e
rT

S
x
T
11
{

S
x
T
K}

KP

S
x
T
K

= xe
rT
E

T G+(r
2
/2)(T)
11

T G+(r
2
/2)(T)ln(K/x)

Ke
rT
P

T G+ (r
2
/2)(T) ln(K/x)

Lesperance et la probabilite se calculent alors en explicitant les integrales qui font intervenir la densite
gaussienne. Nous verrons plus loin que le calcul du premier terme peut se deduire du second. Lexpression
(5.9) permet egalement de calculer le Delta de loption : dans le cas t = 0, on a
C(0, x) = E

e
rT
(xM
T
e
rT
K)
+
)

avec la notation

S
t
= xM
t
e
rt
et o` u M est une martingale. En derivant par rapport `a x sous lesperance,
on retrouve
C
x
(0, x) = E

M
T
11
{xM
T
e
rT
K}

= N (d
1
)
avec la formule pour d
1
donnee au chapitre precedent.
5.3. LIEN AVEC LES

EQUATIONS AUX D

ERIV

EES PARTIELLES 61
5.3.3 Formule de Feynman-Kac
Nous venons de voir comment les processus permettent de resoudre explicitement certaines EDP.
Les memes techniques peuvent etre aussi employees pour letude de certaines EDO du deuxi`eme ordre.
On sint`eresse par exemple au probl`eme suivant, dit de Sturm-Liouville :
( +k)f =
f

2
+ g (5.10)
o` u > 0, k : R R
+
est une fonction continue et g : R R une fonction continue telle que :

R
[g(x +y)[e
|y|

2
dy < +
pour tout x R. On a le
Theor`eme 5.12 [Formule de Feynman-Kac] La fonction f denie par :
f(x) = E


0
g(x +B
t
) exp

t
0
k(x +B
s
)ds

dt

,
o` u B
t
, t 0 est un mouvement brownien standard issu de 0, est lunique solution bornee et C
2
de
(5.10).
Donnons une idee de la demonstration. Tout dabord, les conditions de positivite sur et k et de
bornitude sur g garantissent lexistence dune solution continue et bornee `a lequation (5.10). Soit
Z
t
, t 0 le processus `a variation nie deni par :
Z
t
= t +

t
0
k(x +B
s
)ds.
On applique la premi`ere formule dIto au processus
U
t
(x) = f(x +B
t
)e
Z
t
+

t
0
g(x +B
s
)e
Z
s
ds
o` u f est une fonction C
2
, et on obtient
dU
t
(x) = f

(x +B
t
)e
Z
t
dB
t
+

(x +B
t
)
2
+g(x +B
t
) ( +k(x +B
s
))f(x +B
t
)

e
Z
t
dt.
Si f est solution de (5.10), alors
f

(x)
2
+g(x) ( +k(x))f(x) = 0,
de sorte que
U
t
(x) = f(x) +

t
0
f

(x +B
s
)e
Z
s
dB
s
est une martingale locale. Comme Z est positive et f

bornee, U est en fait une vraie martingale et on


a
f(x) = E[U
t
(x)]
pour tout t 0. Pour obtenir la formule du theor`eme, il sut alors de demontrer que
E

f(B
t
)e
Z
t

0
quand t +.

62 CHAPITRE 5. EQUATIONS DIFF

ERENTIELLES STOCHASTIQUES
Ce resultat nous donne en particulier la transformee de Laplace en temps de la variable
g(B
t
) exp

t
0
k(B
s
)ds
pour toute fonction g, et donc par inversion la loi du couple

B
t
,

t
0
k(B
s
)ds

.
Ce couple est tr`es important en Finance, puisquil permet de pricer certaines options exotiques avec
temps doccupation. La formule de Feynman-Kac permet aussi de calculer la densite de la variable
aleatoire
A
+
t
=

t
0
11
[0,[
(B
s
) ds
qui represente le temps doccupation de R
+
par le Brownien. En eet, si on pose k(x) = 11
x0
et
g(x) = 1, on en deduit que pour , > 0 la fonction
f(x) = E


0
exp

t
0
11
[0,)
(x +B
s
)ds

dt

est solution de lEDO


f(x) = 1 f(x) +
f

(x)
2
si x 0,
f(x) = 1 +
f

(x)
2
si x 0.
Lunique solution bornee et continue de cette EDO est donnee par :
f(x) =

Ae
x

2(+)
+
1
+
si x 0,
Be
x

2
+
1

si x 0.
En imposant la continuite de f et f

en zero, on trouve
A =
1

( +)

1
( +)
et B =
1

( +)

1

.
On en deduit que


0
e
t
E

e
A
+
t

dt = f(0) =
1

( +)
et, en utilisant legalite


0
e
t

t
0
du
e
u

u(tu)

dt =
1

( +)
,
que la densite de A
+
t
est donnee par :
P

A
+
t
du

=
11
{u<t}
du

u(t u)
.
La fonction de repartition de cette loi est
P

A
+
t


0
ds

s(t s)
=

/t
0
du

u(1 u)
=
2

arg sin

t
et lon donne alors `a la loi de A
+
t
le nom de loi de larcsinus. On remarque enn que
P

A
+
t

= P

tA
+
1

,
ce qui montre que les variables A
+
t
et tA
+
1
ont meme loi. On aurait pu aussi obtenir ce resultat direc-
tement par scaling du Brownien.
5.4. PROCESSUS DE BESSEL 63
5.4 Processus de Bessel
5.4.1 Norme dun mouvement Brownien n-dimensionel
Soit n > 1 et B = (B
1
, B
2
, . . . , B
n
) un mouvement Brownien n-dimensionel. Soit X deni par
X
t
= [[B
t
[[, soit X
2
t
=

n
i=1
(B
i
)
2
(t). En appliquant la formule dIto dX
2
t
=

n
i=1
2B
i
(t)dB
i
(t) +ndt.
Le processus deni par
d
t
=
1
X
t
B
t
dB
t
=
1
[[B
t
[[
n

i=1
B
i
(t)dB
i
(t),
0
= 0,
est une martingale continue et son crochet est t (en eet, (
2
t
t, t 0) est une martingale). Il en
resulte que est un mouvement Brownien. Legalite d(X
2
t
) = 2B
t
dB
t
+ndt secrit
d(X
2
t
) = 2X
t
d
t
+ndt .
Une nouvelle application de la formule dIto conduit `a
dX
t
= d
t
+
n 1
2
dt
X
t
o` u est un mouvement Brownien, ainsi, en posant V
t
= X
2
t
dV
t
= 2

V
t
d
t
+ndt .
On dit que X est un processus de Bessel (BES) de dimension n, et que V est un processus de Bessel
carre (BESQ) de dimension n.
5.4.2 Denition g nerale
Soit W un mouvement Brownien. En utilisant linegalite [

y[

[x y[, le second theor`eme


dexistence montre que pour 0 et 0 ,lequation
dZ
t
= dt + 2

[Z
t
[ dW
t
, Z
0
=
a une unique solution forte. Cette solution est un processus de Bessel carre de dimension , que lon
designe par BESQ

. En particulier, si = 0 et = 0, la solution Z 0 est lunique solution.En utilisant


le theor`eme de comparaison, si 0

et si et

sont des processus de Bessel carre de dimension


et

partant du meme point, alors 0


t

t
a.s.
Dans le cas > 2, le processus de Bessel carre BESQ

partant de natteint jamais 0. Si 0 < < 2, le


processus atteint 0 en un temps ni. Si = 0 le processus reste en 0d`es quil atteint ce point.
Denition 5.13 (BESQ

) Pour tout 0 et 0, lunique solution forte de

t
= +t + 2

t
0

s
dW
s
processus de Bessel carre de dimension , partant de et est note BESQ

.
Denition 5.14 (BES

) Soit un BESQ

partant de . Le processus R =

est un processus de
Bessel de dimension , partant de a =

et est note BES

.
Denition 5.15 Le nombre = (/2) 1 (soit = 2( +1)) est lindice du processus de Bessel ,et un
processus de Bessel dindice est note BES
()
.
Pour > 1, un BES

est solution de
R
t
= +W
t
+
1
2

t
0
1
R
s
ds . (5.11)
64 CHAPITRE 5. EQUATIONS DIFF

ERENTIELLES STOCHASTIQUES
5.4.3 Probabilites de transition
Les fonctions de Bessel modiees I

et K

solutions de
x
2
u

(x) +xu

(x) (x
2
+
2
)u(x) = 0
sont donnees par :
I

(z) =

z
2

n=0
z
2n
2
2n
n! ( +n + 1)
K

(z) =
(I

(z) I

(z))
2 sin z
Les probabilites de transition q
()
t
dun BESQ
()
sont
q
()
t
(x, y) =
1
2t

y
x

/2
exp

x +y
2t

xy
t
) (5.12)
et le processus de Bessel dindice a une probabilite de transition p
()
t
donnee par
p
()
t
(x, y) =
y
t

y
x

exp(
x
2
+y
2
2t
)I

(
xy
t
) , (5.13)
5.5 Mod`ele de Cox-Ingersoll-Ross
Pour modeliser des taux, Cox- Ingersoll-Ross etudient lequation suivante
dr
t
= k( r
t
)dt +

r
t
dB
t
(5.14)
Lunique solution est un processus positif pour k 0 (utiliser le second theor`eme dexistence). ll nest
pas possible dobtenir une formule explicite. Soit r
x
le processus solution de (5.14) avec r
x
0
= x.
Le changement de temps A(t) =
2
t/4 reduit letude de (5.14) au cas = 2 : En eet, si Z
t
= r

2
t/4
,
alors
dZ
t
= k

( Z
t
) dt + 2

Z
t
dB
t
avec k

= k
2
/4 eto` u B est un mouvement Brownien.
Le processus de CIR process (5.14) est un BESQ change de temps : en eet,
r
t
= e
kt
(

2
4k
(e
kt
1))
o` u ((s), s 0) est un BESQ

(), avec =
4k

2
.
On peut montrer que, si T
x
0
def
= inft 0 : r
x
t
= 0 et 2k
2
alors P(T
x
0
= ) = 1. Si 0 2k <
2
et k > 0 alors P(T
x
0
< ) = 1 et si k < 0 on a P(T
x
0
< ) ]0, 1[. (Cela se fait au moyen du theor`eme
de comparaison)
Cependant, on peut calculer lesperance de la v.a. r
t
au moyen de legalite E(r
t
) = r
0
+k(t

t
0
E(r
s
)ds),
en admettant que lintegrale stochastique est une martingale, ce qui est le cas. On calcule sans dicultes
supplementaires lesperance conditionnelle, en utilisant le caract`ere Markovien :
Theor`eme 5.16 Soit r le processus veriant
dr
t
= k( r
t
)dt +

r
t
dB
t
.
Lesperance conditionnelle et la variance conditionnelle sont donnees par
E(r
t
[F
s
) = r
s
e
k(ts)
+(1 e
k(ts)
),
Var(r
t
[F
s
) = r
s

2
(e
k(ts)
e
2k(ts)
)
k
+

2
(1 e
k(ts)
)
2
2k
.
5.5. MOD
`
ELE DE COX-INGERSOLL-ROSS 65
Preuve : Par denition, on a pour s t
r
t
= r
s
+k

t
s
( r
u
)du +

t
s

r
u
dB
u
,
et en appliquant la formule dIto
r
2
t
= r
2
s
+ 2k

t
s
( r
u
)r
u
du + 2

t
s
(r
u
)
3/2
dB
u
+
2

t
s
r
u
du
= r
2
s
+ (2k +
2
)

t
s
r
u
du 2k

t
s
r
2
u
du + 2

t
s
(r
u
)
3/2
dB
u
.
En admettant que les integrales stochastiques qui interviennent dans les egalites ci-dessus sont desperance
nulle, on obtient, pour s = 0
E(r
t
) = r
0
+k

t
0
E(r
u
)du

,
et
E(r
2
t
) = r
2
0
+ (2k +
2
)

t
0
E(r
u
)du 2k

t
0
E(r
2
u
)du.
Soit (t) = E(r
t
). En resolvant lequation (t) = r
0
+k(t

t
0
(u)du) qui se transforme en lequation
dierentielle

(t) = k( (t)) et (0) = r


0
, on obtient
E[r(t)] = + (r
0
)e
kt
.
De la meme facon, on introduit (t) = E(r
2
t
) et en resolvant

(t) = (2k +
2
)(t)2k(t), on calcule
Var [r
t
] =

2
k
(1 e
kt
)[r
0
e
kt
+

2
(1 e
kt
)] .
Lesperance et la variance conditionnelle de r sobtiennent en appliquant la propriete de Markov :
E(r
t
[F
s
) = + (r
s
)e
k(ts)
= r
s
e
k(ts)
+(1 e
k(ts)
),
Var(r
t
[F
s
) = r
s

2
(e
k(ts)
e
2k(ts)
)
k
+

2
(1 e
k(ts)
)
2
2k
.
.
On va utiliser les methodes du chapitre precedent pour calculer E

exp

T
t
r
u
du[F
t

.
Calcul du prix dun zero-coupon
Proposition 5.17 Soit
dr
t
= a(b r
t
)dt +

r
t
dB
t
.
Alors
E

exp

T
t
r
u
du[F
t

= G(t, r
t
)
avec
G(t, x) = (T t) exp[x(T t)]
(s) =
2(e
s
1)
( +a)(e
s
1) + 2
, (s) =

2e
(+a)
s
2
( +a)(e
s
1) + 2

2ab

2
,
2
= a
2
+ 2
2
.
Preuve : Soit r
x,t
la solution de
dr
x,t
s
= a(b r
x,t
s
)ds +

r
x,t
s
dB
s
, r
x,t
t
= x
et R
t
s
= exp

s
t
r
x,t
u
du

. La propriete de Markov implique quil existe G telle que


exp

s
t
r
x,t
u
du[F
t

= G(t, r
t
)
66 CHAPITRE 5. EQUATIONS DIFF

ERENTIELLES STOCHASTIQUES
On admet que G est de classe C
1,2
. On applique la formule dIto `a G(s, r
x,t
s
)R
t
s
qui est une martingale.
Il vient
G(T, r
x,t
T
)R
t
T
= G(t, x) +

T
t
R
t
s
(r
x,t
s
G+
G
t
+a(b r
x,t
s
)
G
x
+
1
2

2
r
x,t
s

2
G
x
2
)(s, r
s
)ds +M
T
M
t
o` u M
t
est une integrale stochastique. Si lon choisit G telle que
xG+
G
t
+a(b x)
G
x
+
1
2

2
x

2
G
x
2
= 0 (5.15)
et G(T, x) = 1, x, il vient
R
t
T
= R
t
G(t, r
t
) +M
T
M
t
,
o` u M est une martingale. En particulier, E

exp

T
0
r
s
ds

= E(R
T
) = R
0
G(0, x). En se placant
entre t et T, on obtient
E

exp

T
t
r
x,t
u
du

= G(t, x)
Il reste `a calculer la solution de lequation aux derivees partielles (5.15). Un calcul assez long montre
que
G(t, x) = (T t) exp[x(T t)]
avec
(s) =
2(e
s
1)
( +a)(e
s
1) + 2
(s) =

2e
(+a)
s
2
( +a)(e
s
1) + 2

2ab

2
= a
2
+ 2
2
.

Si lon note P(t, T) le prix du zero-coupon associe,


P(t, T) = (T t) exp[r
t
(T t)]
on montre que
dP(t, T) = B(t, T) (r
t
dt +(T t, r
t
)dB
t
)
avec (u, r) = (u)

r.
Chapitre 6
Changement de probabilite -
Theor`eme de Girsanov
Avec la formule dIto, le theor`eme de Girsanov est loutil fondamental du calcul stochastique. Il
decrit comment changer de facon absolument continue la loi de certains processus. Plus precisement,
on consid`ere un processus X
t
, t 0 deni sur un espace de probabilite (, F, F
t
, P) et on perturbe
la mesure P `a laide dune (F
t
)-martingale exponentielle. On obtient alors une nouvelle mesure de
probabilite Q, sous laquelle le processus X suit une autre loi, quil aurait pu etre delicat detudier
directement. On etudie alors cette loi en revenant sous la mesure P avec la martingale exponentielle.
Les applications de cette methode sont multiples, aussi bien en Finance que pour le mouvement brownien
proprement dit.
6.1 Generalites
Soit (, F, P) un espace probabilise et Z une v.a. F-mesurable positive desperance 1. On denit une
nouvelle probabilite Qsur F par Q(A) = E(Z11
A
) . On a, pour toute v.a. Qintegrable E
Q
(X) = E
P
(ZX).
Si lespace de probabilite est muni dune ltration, et si Z
T
est une v.a. F
T
-mesurable positive desperance
1, on denit Q sur F
T
par Q(A) = E(Z
T
11
A
) . La probabilite Q est equivalente `a P sur F
T
si Z
T
est
stricte positivite. Enn, pour tout t < T et tout A F
t
on a
Q
T
[A] = E
P
[E
P
[Z
T
[ F
t
] 11
A
] = E
P
[Z
t
11
A
] ,
en posant Z
t
= E
P
[Z
T
[ F
t
] et
dQ[
F
t
= Z
t
dP[
F
t
.
Lemme 6.1 Soit M
t
, t 0 un processus. Cest une (F
t
)-martingale sous Q si et seulement si le
processus t Z
t
M
t
est une (F
t
)-martingale sous P.
Preuve : Supposons que M soit une Q-martingale. Pour tout s t T et tout A F
s
on a
E
P
[Z
t
M
t
11
A
] = E
Q
[M
t
11
A
] = E
Q
[M
s
11
A
] = E
P
[Z
s
M
s
11
A
]
et lon en deduit que ZM est une P-martingale. La reciproque se demontre de la meme facon.

6.2 La formule de Cameron-Martin


Avant de passer `a cette formule qui est de type fonctionnel, donnons un exemple en dimension nie.
Soient (X
1
, . . . , X
n
) des variables gaussiennes centrees reduites independantes, construites sur un meme
espace de probabilite (, F, P). Pour tout (
1
, . . . ,
n
) R
n
on calcule
E

exp
n

i=1

i
X
i

=
n

i=1
E[exp [
i
X
i
]] =
n

i=1
exp

2
i
2

= exp
1
2

i=1

2
i

,
67
68 CHAPITRE 6. CHANGEMENT DE PROBABILIT

E - TH

EOR
`
EME DE GIRSANOV
ce qui entrane que
E

exp
n

i=1

i
X
i


2
i
2

= 1.
Ainsi, on peut denir une nouvelle probabilite Q sur (, F) en posant
Z() = exp
n

i=1

i
X
i
()

2
i
2

et Q(d) = Z()P(d), autrement dit


Q[A] = E
P
[Z11
A
] =

A
Z()P(d)
pour tout A F. La mesure Q est bien une probabilite sur (, F) puisque E
P
[Z] = 1 et que L est
strictement positive. De plus, comme p.s. Z > 0, les probabilites P et Q sont equivalentes, au sens o` u
P[A] = 0 Q[A] = 0
pour tout A F. La variable Z designe la densite de P par rapport `a Q, telle quelle est avait ete
donnee au chapitre 1 par le theor`eme de Radon-Nikodym. On cherche maintenant `a savoir quelle est la
loi du n-uple (X
1
, . . . , X
n
) sous cette nouvelle probabilite Q. Pour cela on ecrit
Q(X
1
dx
1
, . . . , X
n
dx
n
) = e

n
i=1
(
i
x
i

2
i
/2)
P(X
1
dx
1
, . . . , X
n
dx
n
)
= (2)
n/2
e

n
i=1
(
i
x
i

2
i
/2)
e

n
i=1
x
2
i
2
dx
1
dx
n
= (2)
n/2
e

1
2

n
i=1
(x
i

i
)
2
dx
1
dx
n
et lon en deduit que sous Q,
(X
1
, . . . , X
n
) N (, Id),
o` u = (
1
, . . . ,
n
).
La formule de Cameron-Martin obeit au meme principe de changement de probabilite, sauf que celui-
ci a lieu sur lespace des fonctions continues et donc en dimension innie. On se donne W
t
, t 0
un mouvement brownien sur (, F, P), et on note

F
W
t
, t 0

sa ltration naturelle completee. Pour


tout m R, on sait que le processus
t Z
m
t
= exp

mW
t

m
2
t
2

est une (F
W
t
)-martingale positive. Remarquons dej`a lanalogie entre cette martingale Z
m
et la variable
Z denie plus haut. On xe alors un horizon T > 0 et on construit une nouvelle mesure de probabilite
Q
m
T
sur (, F
T
) en posant
Q
m
T
[A] = E
P
[Z
m
T
11
A
] .
La formule de Cameron-Martin specie alors la loi de W sous Q
m
T
:
Theor`eme 6.2 [Formule de Cameron-Martin] Sous la mesure Q
m
T
, le processus

W : t W
t
mt, t T
est un mouvement brownien.
Preuve : Remarquons dabord que les tribus F
W
t
et F

W
t
sont egales pour tout t T. On xe R et
on consid`ere le processus
L

t
= exp


W
t

2
t/2

.
6.3. LES DEUX TH

EOR
`
EMES DE GIRSANOV 69
Pour tout s t T et tout A F
W
s
, on remarque que
E
Q

t
11
A

= E
P

t
Z
t
11
A

= E
P

exp


W
t

2
t/2 +mW
t
m
2
t/2

11
A

= E
P

exp

W
t
mt
2
t/2 +mW
t
m
2
t/2

11
A

= E
P

exp

( +m)W
t
( +m)
2
t/2

11
A

= E
P

exp

( +m)W
s
( +m)
2
s/2

11
A

= E
P

s
Z
s
11
A

= E
Q

s
11
A

o` u dans la quatri`eme ligne on a utilise la propriete de (F


W
t
)-martingale sous P du processus
t exp

( +m)W
t
( +m)
2
t/2

,
puisque W est un Brownien sous P. On en deduit que
E
Q

t
11
A

= E
Q

s
11
A

et ceci signie que


E
Q

t
[ F
W
s

= L

s
pour tout s t T, donc que L

est une (F
W
t
)-martingale pour tout R. Par le theor`eme de
caracterisation de Paul Levy (theor`eme 3.4), ceci signie que

W est un mouvement brownien.

6.3 Les deux theor`emes de Girsanov


On se donne `a nouveau W
t
, t 0 un mouvement brownien sur (, F, P), et on note

F
W
t
, t 0

sa ltration naturelle completee. Soit


t
, t 0 un bon processus local veriant la condition de Novi-
kov. Par les resultats du chapitre precedent, on sait que lunique solution de lEDS
Z

t
= 1 +

t
0

s
Z

s
dW
s
qui secrit
Z

t
= exp

t
0

s
dW
s

1
2

t
0

2
s
ds

,
est une (F
W
t
)-martingale. Comme precedemment, on xe un horizon T > 0 et on denit la mesure
Q

T
(d) = Z
T
()P(d)
sur (, F
W
T
), qui est une probabilite equivalente `a P sur F
W
T
. La loi de W sous Q

T
est alors donnee par
le theor`eme suivant, lequel peut etre vu comme une generalisation de la formule de Cameron-Martin au
cas m :
Theor`eme 6.3 [Theor`eme de Girsanov] Sous la mesure Q

T
, le processus

W : t W
t

t
0

s
ds, t T
est un mouvement brownien.
Ce theor`eme sav`ere extremement utile en pratique. La preuve setabli de deux facons. Lune repose sur
le lemme 6.1. On demontre dabord directement que Z

W est une martingale sous P, de sorte que par


le lemme 6.1,

W est une martingale sous Q

T
. De plus, le crochet sous P de

W vu comme processus
dIto est celui de sa partie martingale, donc '

W`
t
= t. Mais on a vu que ce crochet etait invariant par
changement de probabilite equivalent, et lon en deduit que sous Q

T
,

W est une martingale continue de
crochet '

W`
t
= t, autrement dit un mouvement brownien.

70 CHAPITRE 6. CHANGEMENT DE PROBABILIT

E - TH

EOR
`
EME DE GIRSANOV
La deuxi`eme methode repose sur le theor`eme de Girsanov abstrait, dinteret moins evident a priori,
mais qui reste valable dans un cadre tr`es general.
Theor`eme 6.4 [Theor`eme de Girsanov abstrait] Soit P et Q deux mesures de probabilite equivalentes
sur un espace ltre (, F
t
, t T). On suppose que toutes les (F
t
)-martingales sont continues. Alors
sous P il existe L une (F
t
)-martingale continue telle que pour tout t T et tout A F
t
,
Q[A] = E
P
[exp [L
t
'L`
t
/2] 11
A
] .
De plus, si M une martingale locale continue sous P, alors le processus

M : t M
t
'M, L`
t
est une martingale locale continue sous Q.
Expliquons dabord la premi`ere partie de ce theor`eme concernant lexistence de la martingale L. Elle
repose sur le theor`eme de Radon-Nikodym, qui assure lexistence dun processus densite D
t
, t 0 de
P par rapport `a Q, au sens o` u pour tout t T et tout A F
t
,
Q[A] = E
P
[D
t
11
A
] .
Comme A F
T
, on a aussi
Q[A] = E
P
[D
T
11
A
] = E
P
[E
P
[D
T
[F
t
] 11
A
]
de sorte, par identication, que
D
t
= E
P
[D
T
[F
t
]
pour tout t T. On en deduit que D est une martingale UI continue sous P. De plus elle est stricte-
ment positive, par equivalence entre P et Q. On peut alors (on peut eectivement denir une integrale
stochastique par rapport `a une martingale continue) denir le processus
L
t
= log D
0
+

t
0
dD
s
D
s
et on applique la formule dIto `a
R
t
= exp [L
t
'L`
t
/2] = D
0
+

t
0
R
s
dL
s

1
2

t
0
R
s
d'L`
s
+
1
2

t
0
R
s
d'L`
s
= D
0
+

t
0
R
s
dL
s
.
Mais par denition de L, on a aussi
D
t
= D
0
+

t
0
D
s
dL
s
,
de sorte que D et R sont solutions fortes de la meme EDS. Par unicite, on en deduit que R D, do` u
D
t
= exp [L
t
'L`
t
/2] .
Ceci entrane nalement que pour tout t T et tout A F
t
,
Q[A] = E
P
[exp [L
t
'L`
t
/2] 11
A
] .

On voit enn facilement comment le theor`eme 6.4 entrane le theor`eme 6.3. La martingale L du theor`eme
6.4 est ici
L
t
=

t
0

s
dB
s
et on a donc
'B, L`
t
=

t
0

s
ds.
Comme B est une martingale locale continue sous P,

B est une martingale locale continue sous Q

T
.
On demontre comme ci-dessus que son crochet est '

B`
t
= t, et lon en deduit que

B est un mouvement
brownien sous Q

T
.

6.4. TH

EOR
`
EME DE REPR

ESENTATION PR

EVISIBLE 71
6.4 Theor`eme de representation previsible
Soit B un mouvement brownien et F sa ltration naturelle, soit F
B
t
= (B
s
, s t). (il est important
que (F
B
t
) soit la ltration naturelle).
6.4.1 Representation previsible
Theor`eme 6.5 Soit B un mouvement Brownien et (F
B
t
) sa ltration naturelle. Soit M une (F
B
t
)-
martingale, telle que sup
tT
E[M
2
t
] < . Il existe un unique processus previsible H veriant E(

T
0
H
2
s
ds) <
, tel que
t [0, T], M
t
= M
0
+

t
0
H
s
dB
s
.
Si M est une (F
t
)-martingale locale, il existe un unique processus previsible H tel que

T
0
H
2
s
< et
t M
t
= M
0
+

t
0
H
s
dB
s
Preuve : On montre tout dabord que si F est une v.a. F

mesurable, de carre integrable, elle admet


la representation
F = E(F) +


0
H
s
dB
s
Pour cela, notant H lensemble de v.a. possedant la propriete de representation, on montre que H
est ferme dans L
2
et contient les v.a. de la forme F = E (f B)

avec f =

i
11
]t
i1
,t
i
]
, qui sont
totales dans L
2
. On en deduit le resultat pour des martingales bornees, puis le cas general par densite
et localisation.
Remarque 6.6 Ce resultat est important en nance pour exhiber un portefeuille de couverture. On
remarque que d'M, B`
t
= H
t
dt. Si M est une martingale de la forme f(t, B
t
), on trouve H
t
= f

x
(t, B
t
)
en appliquant la formule dIto. Ce theor`eme se generalise aux Browniens d-dimensionnels.
Les conditions dintegrabilite exigees sur H sont importantes. Dudley a montre que pour toute v.a.
F
T
on peut trouver un processus previsible H tel que =

T
0
H
s
dB
s
. (le cas o` u est positif non
nul est important en nance, puisquil genere un arbitrage).
Corollaire 6.7 Toutes les (F
B
t
)-martingales locales sont continues.
6.5 Applications au mouvement brownien et aux EDS
6.5.1 Calcul desperances Exemple 1
Le theor`eme de Girsanov permet de calculer diverses esperances de fonctionnelles du mouvement
brownien. Par exemple on peut sinteresser `a
E

B
t
exp

T
0

s
dB
s

1
2

T
0

2
s
ds

pour t < T et fonction deterministe. On eectue un changement de probabilite en posant


L
t
= exp

t
0

s
dB
s

1
2

t
0

2
s
ds

et on calcule
E
P
[B
t
L
T
] = E
P
[B
t
L
t
] = E
Q
[B
t
] = E
Q

B
t
+

t
0

s
ds

= E
Q

t
0

s
ds

t
0

s
ds.
72 CHAPITRE 6. CHANGEMENT DE PROBABILIT

E - TH

EOR
`
EME DE GIRSANOV
On en deduit que
E

B
t
exp

T
0

s
dB
s

1
2

T
0

2
s
ds

t
0

s
ds
et en faisant en particulier 1, que
E[B
t
exp B
t
] = te
t/2
,
ce quil aurait ete plus dicile de calculer directement.
6.5.2 Calcul desperances Exemple 2
Interessons-nous maintenant `a un autre exemple plus elabore, le calcul de
I = E

exp

B
2
t
+

2
2

t
0
B
2
s
ds

o` u B est un brownien issu de a. On pose x = a


2
et on eectue un changement de probabilite P P

avec densite sur F


W
t
dP

dP
= L

t
= exp

2
(B
2
t
x t) +

2
2

t
0
B
2
s
ds

.
En utilisant la formule dintegration par parties, on calcule
L

t
= exp

t
0
B
s
dB
s
+

2
2

t
0
B
2
s
ds

et on verie avec la proposition 5.11 que L

est une martingale sous P. Sous P

, le theor`eme 6.3 entrane


que
B
t
= a + W
t

t
0
B
s
ds
avec W Brownien. Donc B est un processus dOrnstein-Uhlenbeck sous P

, et lon sait alors par le


paragraphe 4.2.1 que B
t
une v.a. gaussienne desperance ae
t
et de variance
1
2
(1 e
2t
). On en
deduit que
I = E

L
1
t
exp

B
2
t
+

2
2

t
0
B
2
s
ds

= E

exp

B
2
t
+

2
(B
2
t
x t)

.
Apr`es quelques calculs simples et longs, on obtient
I = (cosh t + 2sinh t/)
1/2
exp

x(1 + 2coth t/)


2(coth t + 2/)

.
En faisant a = = 0 et =

2, cette formule donne la transformee de Laplace de la norme L
2
du
Brownien :
E

exp

t
0
B
2
s
ds

cosh

2t

1/2
.
Signalons pour terminer que la simplicite de cette formule provient en fait du caract`ere hilbertien de
L
2
. Les choses deviennent nettement plus compliquees quand on sinteresse aux quantites
E

exp

t
0
B
p
s
ds

avec p = 2.
6.5. APPLICATIONS AU MOUVEMENT BROWNIEN ET AUX EDS 73
6.5.3 Temps de passage du Brownien drifte
On consid`ere W un mouvement Brownien standard issu de 0 et T
b
son premier temps de passage au
seuil b :
T
b
= inf t > 0, W
t
= b .
Au chapitre 3, nous avons vu que la densite de T
b
est donnee par
P[T
b
dt] =
[b[

2t
3
exp

b
2
2t

dt.
En particulier P[T
b
< +] = 1, ce qui signie que p.s. le Brownien franchit tout seuil reel en temps
ni. On consid`ere maintenant
T

b
= inf t > 0, W
t
+t = b ,
premier temps de passage au seuil b du Brownien drifte W

: t W
t
+t, pour R. On denit
P

(d) = exp

W
t

2
t/2

P(d)
sur F
W
t
. La formule de Cameron-Martin entrane alors que le processus W
()
avec W
()
t
= W
t
t est
un Brownien sous P

, donc que la loi de W sous P

est celle de W

sous P : utiliser que W


t
= W
()
t
+t
est, sous P

un MB de drift . Ceci permet de calculer la densite de T

b
en ecrivant
P[T

b
t] = P

[T
b
t] = E

exp

W
t

2
t/2

11
{T
b
t}

= E

11
{T
b
t}
E(exp

W
t

2
t/2[F
T
b
)

= E

exp

W
T
b

2
T
b
/2

11
{T
b
t}

= e
b
E

exp

2
T
b
/2

11
{T
b
t}

= e
b

t
0
e

2
s/2

[b[ e
b
2
/2s

2s
3

ds
=

t
0
[b[

2s
3
exp

(b s)
2
2s

ds,
o` u dans la deuxi`eme formule on a utilise le theor`eme darret de Doob. Ceci entrane par derivation que
P[T

b
dt] =
[b[

2t
3
exp

(b t)
2
2t

dt.
On peut aussi calculer
P[T

b
< +] = e
b
E

exp

2
T
b
/2

= e
b|b|
,
de sorte que P[T

b
< +] = 1 si b 0 et P[T

b
< +] < 1 si b < 0. Autrement dit, pour tout b < 0,
il existe des trajectoires browniennes driftees vers le haut qui restent toujours au dessus du seuil b. Enn,
soit par calcul direct avec la densite, soit en utilisant une nouvelle fois la formule de Cameron-Martin,
on peut calculer la transformee de Laplace de T

b
:
E[exp T

b
] = exp

b [b[

2
+ 2

.
Le temps de passage au seuil b du Brownien drifte W

peut aussi etre interprete comme le premier


temps o` u la courbe brownienne touche la fronti`ere donnee par la courbe t b t.
6.5.4 Solutions faibles dEDS
Le theor`eme de Girsanov permet de demontrer lexistence dune solution faible `a des EDS nadmet-
tant pas forcement de solution forte. Considerons par exemple
X
t
=

t
0
a(X
s
) ds + B
t
(6.1)
74 CHAPITRE 6. CHANGEMENT DE PROBABILIT

E - TH

EOR
`
EME DE GIRSANOV
o` u B est un Brownien reel et a : R R une fonction bornee. La condition sur a est trop faible pour
pouvoir appliquer le theor`eme dexistence lipschitzien, et on peut construire une fonction a telle que (6.1)
nadmette pas de solution forte. En revanche, si on part de lespace de probabilite

,

F
B
t
, t 0

, P

et si on pose
Z
t
= exp

t
0
a(B
s
) dB
s

1
2

t
0
a
2
(B
s
) ds

,
alors Z est une F
B
t
-martingale sous P, puisque le caract`ere borne de a entrane
exp

1
2

t
0
a
2
(B
s
) ds

e
t||a||
2

/2
< +
pour tout t 0, de sorte que la condition de Novikov est bien remplie. Le theor`eme de Girsanov entrane
que sous Q
a
denie par
Q
a
(d) = Z
t
()P(d)
sur F
B
t
, le processus
W
t
= B
t

t
0
a(B
s
) ds
est un mouvement brownien. Ainsi, sous Q
a
, le processus B est solution de
X
t
= W
t
+

t
0
a(X
s
) ds
qui est precisement lequation (6.1). On a donc construit une probabilite Q
a
et un processus (B, W)
tels que W soit un mouvement brownien et B une solution de (6.1) sous Q
a
: on a donc construit une
solution faible de (6.1). Ce fait met en evidence leet regularisant du Brownien W dans (6.1), si lon
songe que lEDO
x
t
=

t
0
a(x
s
) ds
nadmet pas de solution en general quand a est seulement supposee bornee. Une extension de ce resultat
a ete donnee par Benes dans le cas dun coecient de diusion non constant :
Theor`eme 6.8 [Theor`eme de Benes] Soit a : R R une fonction bornee et : R R une fonction
globalement lipschitzienne et ne sannulant pas. Soit B un mouvement brownien reel. Lequation
X
t
=

t
0
a(X
s
) ds +

t
0
(X
s
) dB
s
admet une solution faible qui est unique en loi.
Dans ce theor`eme, lhypoth`ese cruciale est que le coecient de diusion ne sannule pas. Elle signie
que le processus diuse tout le temps, ce qui permet dappliquer le theor`eme de Girsanov. Dune
mani`ere generale, les conditions de non-annulation du coecient de diusion jouent un role fondamental
dans letude de la regularite des solutions dEDS, via la theorie du calcul de Malliavin [13].
6.6 Theor`eme fondamental de la nance : Probabilite risque
neutre
Une opportunite darbitrage est une strategie dinvestissement qui permet, `a partir dune mise de
fonds initiale nulle, dobtenir une richesse terminale positive, non nulle. Dans le cas dun marche o` u
sont negocies un actif sans risque, cest-`a-dire dun actif dont le prix suit la dynamique
dS
0
t
= S
0
ttr
t
dt
et un actif risque de dynamique
dS
t
= S
t
(
t
dt +
t
dB
t
)
6.6. TH

EOR
`
EME FONDAMENTAL DE LA FINANCE : PROBABILIT

E RISQUE NEUTRE 75
une strategie dinvestissement est un couple (
0
, ) de processus adaptes. La quantite
0
t
S
0
t
est le
montant monetaire (positif ou negatif) place sur lactif sans risque,
t
(positif ou negatif) est le nombre
de parts dactif nancier dont lagent dispose `a la date t. La richesse associee est X
t
=
0
t
S
0
t
+
t
S
t
. La
strategie est dite auto-nancante si dX
t
=
0
t
dS
0
t
+
t
dS
t
(ne pas confondre avec la formule dIto). Il
en resulte que
dX
t
= rX
t
dt +
t
(dS
t
rS
t
dt) .
On generalise immediatement au cas o` u il y a plusieurs actifs risques.
Denition 6.9 Une probabilite risque neutre est une probabilite Q equivalent `a la probabilite P, telle
que les prix des actifs nanciers actualises par lactif sans risque, soit S
(i)
t
/S
0
t
soient des Q-martingales.
Dans le cas o` u il y a un seul actif risque, ceci signie que
S
t
exp

t
0
r
s
ds

= S
t
R
t
est une martingale. On voit immediatement que si Q existe
dQ[
F
t
= exp

t
0

s
dB
s

1
2

t
0

2
s
ds

avec
s
=

s
r
s

s
est la prime de risque.
Si Q existe, la valeur de tout portefeuille auto-nancant (soit X), actualisee est une martingale.
Dans un mod`ele de prix dactifs nanciers, on doit veiller `a ce que le mod`ele ne presente pas
dopportunites darbitrage. Dans un marche comportant un actif sans risque, cest-`a-dire dun actif
dont le prix suit la dynamique
dS
0
t
= S
t
0
r
t
dt
le theor`eme fondamental senonce
Theor`eme 6.10 Le marche est sans arbitrage si et seulement si il existe une probabilite risque-neutre.
Si la probabilite risque neutre est unique, la valeur dun actif nancier H, paye `a la date T, est
calculee comme lesperance sous la probabilite risque neutre du payo actualise, soit V
t
= E
Q
(HR
T
), o` u
R
T
=

T
0
r
s
ds. On parle alors de marche complet (cette notion est liee au theor`eme de representation).
Si la probabilite risque neutre nest pas unique, on parle de marche incomplet. On peut se referer `a
louvrage de Bjork ou `a celui de Dana.
6.6.1 Changement de numeraire
Il est parfois tr`es utile dexprimer les prix en valeur relative par rapport `a un autre processus de
prix. numeraire.
Denition 6.11 Un numeraire est un actif nancier de prix strictement positif.
Si M est un numeraire (par exemple le prix dun zero-coupon) on peut evaluer la valeur V
t
dune strategie
en terme de ce numeraire, soit V
t
/M
t
. Il est important de verider que les proprietes fondamentales ne
sont pas modiees :
Proposition 6.12 Supposons quil y a d actifs risques dans le marche, dont les prix (S
(i)
t
; i = 1, , d, t
0) sont des processus dIto, et tels que S
(1)
est strictement positif. Soit V
t
=

d
i=1

i
t
S
(i)
t
le valeur du
portefeuille
t
= (
i
t
, i = 1, , d). Si (
t
, t 0) est auto-nancant, i.e. si dV
t
=

d
i=1

i
t
dS
(i)
t
, et si
lon choisit S
(1)
t
comme numeraire, alors
dV
1
t
=
d

i=2

i
t
dS
(i,1)
t
o` u V
1
t
= V
t
/S
(1)
t
, S
(i,1)
t
= S
(i)
t
/S
(1)
t
.
76 CHAPITRE 6. CHANGEMENT DE PROBABILIT

E - TH

EOR
`
EME DE GIRSANOV
Preuve : Nous donnons la preuve pour deux actifs. Soit V la valeur dun portefeuille auto-nancant
construit sur deux actifs de dynamique S
(i)
, i = 1, 2. Alors
dV
t
=
1
t
dS
(1)
t
+
2
t
dS
(2)
t
=
2
t
dS
(2)
t
+ (V
t

2
t
S
(2)
t
)dS
(1)
t
/S
(1)
t
=
2
t
dS
(2)
t
+ (V
1
t

2
t
S
(2,1)
t
)dS
(1)
t
.
On exprime les prix en terme du numeraire S
(1)
.A partir de V
1
t
S
(1)
t
= V
t
on obtient
dV
t
= V
1
t
dS
(1)
t
+S
(1)
t
dV
1
t
+d'S
(1)
, V
1
`
t
. (6.2)
Legalite S
(2,1)
t
S
(1)
t
= S
(2)
t
implique
dS
(2)
t
S
(2,1)
t
dS
(1)
t
= S
(1)
t
dS
(2,1)
t
+d'S
(1)
, S
(2,1)
`
t
do` u en utilisant (6.2)
dV
1
t
=
1
S
(1)
t

dV
t
V
1
t
dS
(1)
t
d'V
1
, S
(1)
`
t

=
1
S
(1)
t

2
t
dS
(2)
t

2
t
S
(2,1)
t
dS
(1)
t
d'V
1
, S
(1)
`
t

=
2
t
dS
(2,1)
t
+

2
t
S
(1)
t
d'S
(2,1)
, S
(1)
`
t

1
S
(1)
t
d'V
1
, S
(1)
`
t
Cette derni`ere egalite implique d'V
1
, S
(1)
`
t
=
2
t
d'S
(2,1)
, S
(1)
`
t
, do` u dV
1
t
=
2
t
dS
(2,1)
t
.

On associe `a un numeraire M le changement de probabilite suivant : Soit Q la probabilite risque


neutre, telle que le processus (M
t
R
t
, t 0) est une Q-martingale. Soit Q
M
deni par Q
M
[
F
t
=
(M
t
R
t
)Q[
F
t
.
Proposition 6.13 Soit (X
t
, t 0) le prix dun actif nancier et M un numeraire. Le prix de X, dans
le numeraire M, soit (X
t
/M
t
, 0 t T) est une Q
M
-martingale.
Preuve : Si X est un processus de prix, le processus actualise

X
t
def
= X
t
R
t
est une Q-martingale. Il
en resulte que X
t
/M
t
est une Q
M
-martingale si et seulement si (X
t
/M
t
)M
t
R
t
= R
t
X
t
est une Q-
martingale.

Le calcul du terme E
Q
(S
T
e
rT
11
S
T
a
) qui apparait dans la formule de Black et Scholes est immediat :
il sut dutiliser que, sous Q le processus M
t
= S
t
e
rt
/S
0
est une martingale strictement positive
desperance 1, et de poser d

Q = M
t
dQ
E
Q
(S
T
e
rT
11
S
T
a
) = E

Q
(S
0
11
S
T
a
)
= S
0

Q(S
T
a) .
Il reste `a exprimer la dynamique de S sous

Q.
Un changement de numeraire est egalement tr`es ecace pour calculer le prix dune option dechange,
qui est E((S
1
T
S
2
T
)
+
).
Un exemple important : Probabilite forward-neutre
La valeur `a la date t dun ux deterministe F recu `a la date T est
FP(t, T) = F E
Q
[exp

T
t
r(u) du[F
t
].
Si ce ux est aleatoire, la valeur `a la date t de ce ux est
E
Q
[F exp

T
t
r(u) du[F
t
].
6.6. TH

EOR
`
EME FONDAMENTAL DE LA FINANCE : PROBABILIT

E RISQUE NEUTRE 77
Par hypothese A.O.A, le processus R(t)P(t, T) est une Q-martingale, son esperance est constante, egale
`a P(0, T).
Pour tout T, le processus
T
t
:=
R(t)P(t, T)
P(0, T)
est une Q-martingale positive desperance 1. On peut
donc utiliser
T
t
comme densite de changement de probabilite. Soit Q
T
la mesure de probabilite denie
sur (, F
T
) par Q
T
(A) = E
Q
(
T
t
1
A
) pour tout A F
t
. Lorsque T est xe, on notera
t
=
T
t
.
Denition 6.14 La probabilite Q
T
denie sur F
T
, par
dQ
T
dQ
=
T
t
est appelee probabilite forward-
neutre de maturite T.
Avec cette notation
E
Q
T
(F [F
t
) = E
Q
(F

T

t
[F
t
) .
Lorsque r est deterministe, Q
T
= Q.
La mesure Q
T
est la martingale mesure associee au choix du zero-coupon de maturite T comme
numeraire.
78 CHAPITRE 6. CHANGEMENT DE PROBABILIT

E - TH

EOR
`
EME DE GIRSANOV
Chapitre 7
Introduction aux mod`eles
poissonniens
Avec le mouvement Brownien, le processus de Poisson est lautre processus fondamental du calcul
stochastique. Une des raisons principales de cette importance est la formule de Levy-Khintchine, que
nous naborderons pas ici, selon laquelle tout P.A.I.S secrit comme le melange dun Brownien et dune
certaine integrale de comptage le long dun processus de Poisson. Nous renvoyons par exemple au
chapitre introductif de [1] pour plus de details sur cette formule, dinteret constant en Finance. Nous
ne traiterons dans ce chapitre que le cas simple des processus de Poisson ponctuels dintensite nie. Les
distributions exponentielles de param`etre > 0, dont nous rappelons que la densite secrit
x e
x
11
{x0}
,
y joueront un role central, analogue `a celui des distributions gaussiennes pour le Brownien. A la n
du chapitre, nous donnerons un analogue de la formule dIto pour le processus de Poisson. En fait, il
sagit dune formule de changement de variable enti`erement deterministe, et qui ne necessite aucune
hypoth`ese particuli`ere sur la fonction f.
7.1 Processus ponctuels sur R
+
Un processus ponctuel est la donnee dune suite ordonnee de variables aleatoires positives
0 = T
0
< T
1
< T
2
< . . . < T
n
< . . .
qui modelisent les instants darrivee (ou les instants de saut) dun certain phenom`ene. On fait lhypoth`ese
que deux instants darrivee ne peuvent pas concider, soit T
n+1
= T
n
p.s. On suppose aussi que la suite
ne saccumule pas en un point, autrement dit T
n
+ p.s. Pour tout i 1 on note
i
= T
i
T
i1
le
i-`eme delai darrivee. On remarque la formule
T
n
=
n

i=1

i
. (7.1)
Pour tout t 0 on introduit
N
t
=

n1
11
{T
n
t}
et on dit que N
t
, t 0 est le processus de comptage associe `a la suite T
n
, n 0 . Cest un processus
`a valeurs dans N, qui compte le nombre de sauts ayant eu lieu avant t. En connaissant ce processus, on
peut retrouver la suite T
n
, n 0 grace `a lidentication entre evenements :
N
t
= n = T
n
t < T
n+1
.
Cette identication est immediate en faisant un dessin :
79
80 CHAPITRE 7. INTRODUCTION AUX MOD
`
ELES POISSONNIENS
-
6
0
T
1
T
2
T
3
t T
4
T
5
T
6
1
2
3
N
t
5
On a aussi trois autres identications entre evenements, toutes egalement utiles :
N
t
< n = T
n
> t , N
t
n = T
n
t et N
s
< n N
t
= s < T
n
t .
On fera attention que N
t
, t 0 est un processus continu `a droite seulement, et non pas continu.
Dans les evenements ci-dessus, le fait que les inegalites soient strictes ou larges nest donc pas anodin.
Remarquons enn que N
t
< + p.s. pour tout t > 0. En eet, on a
N
t
< + =

n1
N
t
< n =

n1
T
n
> t = lim
n+
T
n
> t
et le dernier evenement est de probabilite 1 puisque T
n
+ p.s. par hypoth`ese.
7.2 Lhypoth`ese de Poisson
Cette hypoth`ese formule une hypoth`ese dindependance et de stationnarite sur le processus N
t
, t 0
identique `a celle du Brownien :
Denition 7.1 Soit T
n
, n 0 un processus ponctuel sur R
+
. On dit que cest un processus ponctuel
de Poisson (P.P.P) si le processus de comptage associe N
t
, t 0 est un P.A.I.S. Autrement dit, si
F
N
t
= N
s
, s t N designe la ltration naturelle completee du processus N, alors pour tout
t, s 0 la v.a. N
t+s
N
t
est independante de F
N
t
et a meme loi que N
s
.
Le theor`eme suivant precise la structure des P.P.P. sur R
+
. Cest un cas particulier de la formule de
Levy-Khintchine evoquee dans lintroduction.
Theor`eme 7.2 [Theor`eme de structure poissonnien] Soit T
n
, n 0 un processus ponctuel de
Poisson sur R
+
. Alors il existe > 0 tel que pour tout t > 0, la v.a. N
t
suit la loi de Poisson dintensite
t. Autrement dit, pour tout t > 0, k N,
P[N
t
= k] = e
t
(t)
k
k!
.
On dit que est lintensite du processus T
n
, n 0.
Preuve : Rappelons que si X Poisson(), alors la fonction caracteristique de X est
E

u
X

=
+

k=0
u
k
P[X = k] = e

k=0
u
k

k
k!
= e
(u1)
7.2. LHYPOTH
`
ESE DE POISSON 81
pour tout u ]0, 1]. Par caracterisation, il sut donc de montrer quil existe > 0 tel que
E

u
N
t

= e
t(u1)
pour tout u ]0, 1] et t 0. On pose f
t
(u) = E

u
N
t

pour tout u ]0, 1]. Cest une fonction strictement


positive et, par le theor`eme de convergence dominee de Lebesgue, continue `a droite. Fixons u ]0, 1].
En utilisant lhypoth`ese dindependance et de stationnarite des accroissements de N
t
, on remarque que
pour tout t, s 0,
f
t
(u)f
s
(u) = E

u
N
t

u
N
s

= E

u
N
t

u
N
t+s
N
t

= E

u
N
t
u
N
t+s
N
t

= E

u
N
t+s

= f
t+s
(u).
Ceci entrane que `a u xe, la fonction t g
t
(u) = log(f
t
(u)) est additive au sens o` u
g
t+s
(u) = g
t
(u) + g
s
(u)
pour tout t, s 0. Comme elle est continue `a droite, un theor`eme danalyse nous dit quil existe un
param`etre (u) R tel que g
t
(u) = t(u), autrement dit
f
t
(u) = e
t(u)
et il sut de montrer que (u) = (u 1) pour un certain > 0 independant de u. Pour cela, on
remarque que
(u) = lim
t0
e
t(u)
1
t
= lim
t0
E[u
N
t
] 1
t
= lim
t0
1
t

k=1
(u
k
1)P[N
t
= k]

= (u 1)

lim
t0
P[N
t
= 1]
t

+ lim
t0

k=2
(u
k
1)
P[N
t
= k]
t

.
Comme u ]0, 1], on a

k=2
(u
k
1)
P[N
t
= k]
t

k=2

P[N
t
= k]
t


P[N
t
2]
t
et nous allons montrer que le terme de droite tend vers 0 quand t 0. En eet, pour tout t > 0, on a
linclusion entre evenements :

n0

N
nt
= 0, N
(n+1)t
2

T
2
< T
1
+t
la reunion `a gauche etant constituee devenements disjoints par croissance de N
t
. Do` u
P

n0

N
nt
= 0, N
(n+1)t
2

n0
P

N
nt
= 0, N
(n+1)t
2

n0
P

N
nt
= 0, N
(n+1)t
N
nt
2

n0
P[N
nt
= 0] P[N
t
2]
= P[N
t
2]

n0
f
nt
(0)
= P[N
t
2]

n0
e
nt(0)
.
82 CHAPITRE 7. INTRODUCTION AUX MOD
`
ELES POISSONNIENS
Comme la serie est necessairement convergente, ceci entrane que (0) < 0. On pose alors = (0) > 0
et on trouve
P

n0

N
nt
= 0, N
(n+1)t
2

= P[N
t
2]

1 e
t

,
do` u
lim
t0
P[N
t
2]
t
= lim
t0

1 e
t
t

n0

N
nt
= 0, N
(n+1)t
2

lim
t0
P[T
2
< T
1
+t]

= 0
par croissance de la suite T
n
. Ceci entrane nalement que
(u) = (u 1)

lim
t0
P[N
t
= 1]
t

= (u 1)

lim
t0
P[N
t
1]
t

= (u 1)

lim
t0
(1 P[N
t
= 0])
t

= (u 1)

lim
t0
(1 e
t
)
t

= (u 1)
pour un certain > 0, ce qui termine la preuve du theor`eme.

Comme consequence de lindependance et de la stationnarite des accroissements de N, on obtient


immediatement que la loi conditionnelle de la v.a. (N
t+s
N
t
) sachant F
N
t
est la loi de Poisson de
param`etre s, autrement dit que
P

N
t+s
N
t
= k [ F
N
t

= P[N
s
= k] = e
s
(s)
k
k!
pour tout k 0. On peut aussi calculer la loi de T
1
en ecrivant
P[T
1
> t] = P[N
t
< 1] = P[N
t
= 0] = e
t
,
ce qui entrane par comparaison des fonctions de repartition que
T
1
Exp().
Enn, on peut aussi determiner la loi du delai avant le premier instant de saut de la suite T
n
ayant
lieu apr`es un instant xe t. En observant la gure precedente, on constate que ce delai est donne par la
variable
T
N
t
+1
t.
Or, pour tout s 0,
P[T
N
t
+1
t > s] = P[T
N
t
+1
> t +s] = P[N
t+s
= N
t
] = P[N
s
= 0] = e
s
ce qui entrane, de meme, que
T
N
t
+1
t
d
= T
1
Exp().
Au paragraphe suivant, nous generaliserons ces resultats en calculant la loi de toute la suite T
n
, n 0 .
Exercice 7.3 Soit T
n
, n 1 un processus ponctuel de Poisson et soit N le processus de comptage
associe. Montrer que pour tout t > 0 la loi conditionnelle de T
1
sachant N
t
= 1 est la loi uniforme
sur [0, t].
7.3. LA PROPRI

ET

E DE MARKOV FORTE ET SES CONS

EQUENCES 83
Exercice 7.4 (a) Soient R
1
, . . . , R
n
des variables uniformes sur [0, t] et independantes. Soit S
1
, . . . , S
n
leur rearrangement croissant, au sens o` u S
i
= R
(i)
pour tout i = 1 . . . n, etant une certaine permu-
tation aleatoire de [1, . . . , n] choisie de telle sorte que
S
1
. . . S
n
.
Montrer que la densite du n-uple (S
1
, . . . , S
n
) secrit
f(s
1
, . . . , s
n
) =
n!
t
n
11
{s
1
<...<s
n
}
.
(b) Soit T
n
, n 1 un processus ponctuel de Poisson et soit N le processus de comptage associe.
Montrer que pour tout t > 0 la loi conditionnelle du n-uple (T
1
, . . . , T
n
) sachant N
t
= n est la meme
que celle du n-uple (S
1
, . . . , S
n
) deni precedemment.
7.3 La propriete de Markov forte et ses consequences
Soit N
t
, t 0 un processus de comptage de Poisson dintensite > 0. Par hypoth`ese, cest un
P.A.I.S. au sens o` u pour tous s, t 0, la v.a. N
t+s
N
t
est independante de F
N
t
et a meme loi que
N
s
,

F
N
t
, t 0

designant la ltration naturelle completee du processus N. Rappelons quun temps


darret T pour cette ltration est une v.a. positive telle que
T t F
N
t
pour tout t 0. Si T est un temps darret, on peut alors denir la -alg`ebre
F
N
T
=

A F
N

/ A T t F
N
t
pour tout t 0

.
La propriete de Markov forte etend la propriete de P.A.I.S. aux (F
N
t
)-temps darret. Remarquons que
dans ce cas precis, cette propriete est plus forte que la denition habituelle, puisquon a homogeneite
aussi bien dans le temps que dans lespace.
Theor`eme 7.5 Pour tout temps darret T et tout temps deterministe t 0, la v.a. N
T+t
N
T
est
independante de F
N
T
et a meme loi que N
t
.
Preuve : Nous montrons dabord la propriete quand T prend une quantite denombrable de valeurs
t
1
. . . t
n
. . .. Soit A F
N
T
, p 1, s
1
, . . . , s
p
0 et n
1
, . . . , n
p
N. On introduit la notation N
t
s
=
N
t+s
N
t
pour tous t, s 0 et on ecrit
P

A, N
T
s
i
= n
i
, 1 i p

j1
P

A, T = t
j
, N
t
j
s
i
= n
i
, 1 i p

j1
P

A, T = t
j
, N
t
j
s
i
= n
i
, 1 i p

j1
P[A, T = t
j
] P

N
t
j
s
i
= n
i
, 1 i p

j1
P[A, T = t
j
] P[N
s
i
= n
i
, 1 i p]
= P[A] P[N
s
i
= n
i
, 1 i p]
o` u dans la troisi`eme ligne on a utilise que A T = t
j
F
N
t
j
et lindependance des accroissements de
N, et dans la quatri`eme la stationnarite de ces accroissements. Ceci montre que le processus N
T
est
independant de A et a meme loi que N pour tout A F
N
T
, et termine la preuve quand T prend des
valeurs denombrables. Dans le cas general, on approche T par des nombres dyadiques et on passe `a la
limite (nous laissons les details ou renvoyons au chapitre 1 de [1] pour le lecteur interesse).

Rappelons que la suite


n
, n 1 des delais entre deux instants de saut dun P.P.P. est donnee
par la formule
n
= T
n
T
n1
. La propriete de Markov forte va nous permettre de calculer la loi de la
suite de ces delais :
84 CHAPITRE 7. INTRODUCTION AUX MOD
`
ELES POISSONNIENS
Corollaire 7.6 La suite
n
, n 1 est une suite i.i.d. avec
1
exp().
Preuve : Nous avons dej`a vu que
n

1
exp(). Pour montrer que la suite est i.i.d. on ecrit, pour
tout n N et tout t
1
. . . t
n
0,
P[
i
> t
i
, 1 i n] = P

N
T
i
t
i
= 0, 1 i n

=
n

i=1
P[N
t
i
= 0]
=
n

i=1
P[
i
> t
i
] ,
ce qui termine la preuve.

Comme consequence de la formule (7.1), on en deduit que si T


n
, n 1 est un processus ponctuel
de Poisson dintensite > 0, alors pour tout n 1 T
n
est la somme de n variables exponentielles
independantes de param`etre > 0.
7.4 Une formule dIto avec sauts
Nous terminons ce chapitre par une courte evocation du calcul stochastique discontinu, via la formule
dIt o avec sauts. Soit N un processus de comptage de Poisson. Rappelons que la fonction t N
t
est une
fonction c`adl`ag, constante par morceaux avec des sauts de taille 1. Soit t
t
un processus quelconque.
On peut denir lintegrale stochastique
I

t
=

t
0

s
dN
s
=

n1

T
n
11
{T
n
t}
,
ce que lon va egalement ecrire
I

t
=

0<st

s
N
s
.
Plus precisement, I

t
= 0 sur t < T
1
(car N na pas varie), I

t
=
T
1
sur T
1
t < T
2
(car N a saute
une fois en T
1
et na pas varie ensuite), I

t
=
T
1
+
T
2
sur T
2
t < T
3
(car N a saute une fois en T
1
et na pas varie, puis une fois en T
2
et na pas varie ensuite)... etc. Remarquons de plus que si 1,
on a
I

t
=

n1
11
T
n
t
= N
t
de sorte que
N
t
=

t
0
dN
s
comme il est souhaitable. Soit maintenant f : R R une fonction mesurable quelconque. On a f(N
t
) =
f(0) si t < T
1
, f(N
t
) = f(N
T
1
) si T
1
t < T
2
... ce quon peut recrire
f(N
t
) = f(0) +
n

i=1

f(N
T
i
) f(N
T
i1
)

= f(0) +
n

i=1
(f(N
T
i
) f(N
T
i

))
= f(0) +

st
(f(N
s
) f(N
s
))
sur levenement T
n
t < T
n+1
. Comme le dernier terme ne depend pas de n on en peut en deduire
le
7.5. DES MARTINGALES 85
Theor`eme 7.7 [Formule dintegration pour le processus de Poisson] Pour toute fonction f :
R R mesurable on a
f(N
t
) = f(0) +

st
(f(N
s
) f(N
s
))
On remarque que la preuve de cette formule est beaucoup plus elementaire que pour le Brownien. De
plus aucune hypoth`ese particuli`ere nest faite sur f. Supposons maintenant que f soit de classe C
1
.
Avec la denition precedente pour lintegrale, on a

t
0
f

(N
s
)dN
s
=
n

i=1
f

(N
T
i

)
=

st
f

(N
s
)N
s
sur levenement T
n1
t < T
n
. Remarquons que le dernier terme ne depend pas de n. En retranchant
et en ajoutant on en deduit alors le
Theor`eme 7.8 [Deuxi`eme formule dintegration pour le processus de Poisson] Pour toute
fonction f : R R de classe C
1
on a
f(N
t
) = f(0) +

t
0
f

(Ns)dN
s
+

st
(f(N
s
) f(N
s
) f

(N
s
)N
s
) .
Cette formule est plus compliquee mais son interet est quelle peut se generaliser `a une classe plus grande
de processus `a sauts, les processus de Levy, lesquels comportent en general un nombre inni de sauts.
Nous renvoyons `a [5] et `a [16] pour plus de details sur ce sujet. Dans le cas plus dicile o` u le processus
de Levy est `a variation forte innie, une vraie theorie de lintegrale stochastique est necessaire, et la cle
en est la procedure de retranchement et dajout du terme comportant la derivee vue ci-dessus, laquelle
porte le nom de compensation. Ce mecanisme de compensation joue dailleurs un role fondamental dans
toute la theorie generale des processus `a sauts, voir [4].
7.5 Des martingales
Proposition 7.9 Pour tout R, > 1, pour toute fonction bornee h, les processus suivans sont
des (F
t
)-martingales :
(i) M
t
= N
t
t,
(ii) M
2
t
t = (N
t
t)
2
t,
(iii) (a) exp(N
t
+t(1 e

)),
(b) exp[ln(1 +)N
t
t] = (1 +)
N
t
e
t
,
(c) exp

t
0
h(s)dN
s

t
0
(1 e
h(s)
)ds

Preuve : Soit s < t. En utilisant lindependance des accroissements du PP, on obtient


(i) E(M
t
M
s
[F
s
) = E(N
t
N
s
) (t s) = 0
(ii) E(M
2
t
M
2
s
[F
s
) = E[(M
t
M
s
)
2
[F
s
] = E[(N
t
N
s
+(t s))
2
[F
s
]
E[(N
t
N
s
)
2
]
2
(t s)
2
= (t s)
(iii) E[exp((N
t
N
s
) +(t s)(1 e

))[F
s
] = 1. Les autres formules sont faciles.
On peut generaliser : si Hest un processus borne (F
t
)-previsible, les processus suivants sont des
martingales
M
H
t
def
=

t
0
H
s
dN
s

t
0
H
s
ds =

t
0
H
s
dM
s
(7.2)
86 CHAPITRE 7. INTRODUCTION AUX MOD
`
ELES POISSONNIENS
Y
H
t
def
= (M
H
t
)
2

t
0
H
2
s
ds (7.3)
Z
H
t
def
= exp

t
0
H
s
dN
s
+

t
0
(1 e
H
s
)ds

(7.4)
7.5.1 Exemple de changement de probabilite
Si N est un PP dintensite , alors, dapr`es la proposition 7.9 (iii,b) avec = 1, le processsus
L
t
= 2
N
t
e
t
= e
N
t
t

0<st
(1 + N
s
)e
N
s
est une martingale et est solution de dL
t
= L
t
dM
t
. Soit Q la probabilitedenie par
dQ
dP
[
F
t
= L
t
. Il est
facile de verier que
E
Q
(x
N
t
) = exp(2t(x 1))
et que le processus N a des A.I. sous Q. En eet,
E
Q

i=1
x
N
t
i+1
N
t
i
i

= E
P

i=1
(2x
i
)
N
t
i+1
N
t
i
e
t

i=1
e
(t
i+1
t
i
)
e
(t
i+1
t
i
)2x
i
e
t

Il en resulte que N est un Q-processus de Poisson process dintensite 2.


Bibliographie
[1] J. Bertoin. Levy processes. Cambridge University Press, Cambridge, 1996.
[2] T. Bj ork. Arbitrage theory in continuous time. Oxford University Press, Oxford, 1998.
[3] R.A. Dana et M. Jeanblanc. Marches nanciers en temps continu Economica, Paris, 1998. Traduction Springer
2002.
[4] C. Dellacherie et P.-A. Meyer. Probabilites et Potentiel. Volumes 1 `a 5. Hermann, Paris, 1975-1992.
[5] R. J. Elliott. Stochastic Calculus and Applications. Springer, Berlin, 1982.
[6] H. F ollmer et A. Schied Stochastic Finance : an introduction in discrete time. Walter de Gruyter, Berlin, 2003.
[7] G. Grimmett et D. Stirzaker. Probability and Random Processes. Oxford University Press, New-York, 1982.
[8] G. Grimmett et D. Stirzaker. One Thousand Exercises in Probability. Oxford University Press, New-York, 2001.
[9] J. Jacod et P. Protter. Probability Essentials. Springer, Berlin, 1997.
[10] J. Jacod et A. N. Shiryaev. Limit Theorems for Stochastic Processes. Springer, Berlin, 1987.
[11] I. Karatzas et S. E. Shreve. Brownian Motion and Stochastic Calculus. Springer, Berlin, 1991.
[12] D. Lamberton et B. Lapeyre. Introduction au calcul stochastique applique `a la nance. Ellipses, Paris, 1991.
[13] P. Malliavin. Stochastic Analysis. Springer, Berlin, 1997.
[14] J. Neveu. Bases mathematiques du calcul des probabilites. Masson, Paris, 1964.
[15] B. Oksendal. Stochastic Dierential Equations. Springer, Berlin, 6th edition, 2002.
[16] P. Protter. Stochastic Integration and Dierential Equations. Springer, Berlin, 2nd edition, version 2.1. 2005.
[17] D. Revuz et M. Yor. Continuous Martingales and Brownian Motion. Springer, Berlin, 3th edition 1999.
[18] L. C. G. Rogers et D. Williams. Diusions, Markov Processes, and Martingales. Volume 1 : Foundations. Wiley,
Chichester, 1994.
[19] L. C. G. Rogers et D. Williams. Diusions, Markov Processes, and Martingales. Volume 2 : Ito Calculus. Wiley,
Chichester, 1987.
[20] G. Samorodnitsky et M. S. Taqqu. Stable Non-Gaussian Random Processes. Chapman & Hall, New York, 1994.
[21] K.-I. Sato. Levy Processes and Their Innitely Divisible Distributions. Cambridge University Press, Cambridge,
1999.
[22] D. Stirzaker. Elementary Probability. Cambridge University Press, Cambridge, 1994.
[23] A.N. Shiryaev . Essentials of stochastic Finance. World Scientic, Singapore, 1999.
[24] D. Williams. Probability with Martingales. Cambridge University Press, Cambridge, 1991.
87
Index
Application mesurable, 6
Bon processus, 43
Bon processus local, 46
Brownien geometrique, 58
Changement de numeraire, 75
Changement de temps, 64
Condition
de Lipschitz, 53
de Novikov, 59
Crochet, 47
de processus dIto, 48
Decomposition de Doob-Meyer, 20
Drift, 48
Ensemble negligeable, 7
au sens large, 7
Esperance
conditionnelle, 11
Espace de probabilite complet, 7
Espace Gaussien, 18
Espace mesurable, 5
Exponentielle de Doleans-Dade, 59
Filtration, 17
Fonction
caracteristique, 9
dechelle, 58
de Bessel, 64
de repartition, 8
en escalier, 36
Formule
dintegration par parties, 38, 51
Generateur innitesimal, 58, 59
Indice, 63
Integrable
v.a. -, 8
Integrale
de Wiener, 35
Lemme
de Gronwall, 56
Martingale, 20
locale, 46
Martingales
orthogonales, 47
Modication, 17
Mouvement Brownien, 23
geometrique, 50
Mouvements Browniens correles, 33
Premier temps de passage, 19
bilat`ere dun MB, 30
dun MB drifte, 73
dun MB, 30
Presque s urement, 7
Probabilite, 6
Probabilites
equivalentes, 12
absolument continues, 12
Processus
`a accroissements independants et stationnaires, 23,
38
`a variation nie, 18
adapte, 17
c`adl`ag, 17
croissant, 18
dOrnstein-Uhlenbeck, 39, 72
de Vasicek, 42
de Bessel, 56, 63
de Bessel carre, 63
de CIR, 65
de Cox-Ingersoll-Ross, 64
de Levy, 38
de Markov, 40
gaussien, 18, 23, 37
stationnaire, 18
stochastique, 17
Propriete de Markov, 28, 57
Radon-Nikodym, 12
Representation previsible, 71
Scaling, 27
Solution
faible, 54
forte, 54
Sousmartingale, 20
Surmartingale, 20
Temps darret, 19
Theor`eme
de Bochner, 18
de classe monotone, 7
de convergence dominee, 14
de convergence monotone, 14
de representation des martingales locales, 48
de Yamada-Watanabe, 55
de Yamada-Watanabe II, 56
Transformee
de Fourier, 9
de Laplace, 9
Tribu, 5
des Boreliens, 6
engendree, 6
Unicite
faible, 54
trajectorielle, 54
Uniforme integrabilite, 10
Variable gaussienne centree reduite, 8
Version, 18
88