Académique Documents
Professionnel Documents
Culture Documents
Mathématiques
Mouveinent brownien
et calcul d'Itô
avec exercices corrigés
Léonard Gallardo
J
Mouvement brownien
et calcul d'itô
cours et exercices corrigés
Mouvement brownien
et calcul d'Itô
cours et exercices corrigés
Léonard Gallardo
Hermann ~ éditeurs
www.edition-hermann.fr
Mes amis Emmanuel Lesigne et Marc Yor m'ont été d'un grand sou-
tien dans l'élaboration finale de ce texte. Le premier qui a eu la patience
d'éplucher et de corriger le premier polycopié de ce cours à peine sorti de
l'état d'ébauche et le second qui par ses nombreuses remarques et sugges-
tions m'a permis d'améliorer, d'éclairer et de simplifier certains énoncés
et démonstrations du manuscrit initial. Je les remercie de tout coeur pour
l'intérêt qu'ils ont porté à ce travail.
Table des matières
Remerciements iii
V
vi Mouvement Brownien et calcul d'Itô
2 Le mouvement brownien 49
2.1 Généralités . . . . . 50
2.1.1 Les accroissements du mouvement brownien 50
2.1.2 Caractère gaussien du mouvement brownien . 53
2.1.3 Construction du mouvement brownien . 55
2.1.4 Continuité des trajectoires browniennes 58
2.1.5 La mesure de Wiener sur C([O, oo[, IR) . 59
2.1.6 Invariances du mouvement brownien 60
2.1. 7 Mouvement brownien multidimensionnel 61
2.2 Régularité des trajectoires browniennes . . . . . 62
2.2.1 Variation quadratique des trajectoires . . 62
2.2.2 Non différentiabilité des trajectoires browniennes 64
2.3 Renaissance du mouvement brownien après un temps d'arrêt 66
2.3.1 L'accroissement du mouvement brownien à partir
d'un temps d'arrêt . . . . . . . . 66
2.3.2 Loi du temps d'atteinte d'un point . . . . . . . . . 68
2.4 Annexe . . . . . . . . . . . . . . . . . . . . . . . . . . . 71
2.4.1 La caractérisation de P. Lévy du mouvement brow-
nien . . . . . . . . . . . . . . . . . . . . ·. . . . . 71
2.4.2 La construction de Wiener du mouvement brownien 75
2.4.3 Le principe de symétrie d'André 77
2.4.4 Notes et exercices . . . . . . . . . . . . . . . 79
Index 231
Bibliographie 235
Introduction
Ce texte reprend avec quelques compléments les notes d'un cours se-
mestriel sur le mouvement brownien et le calcul d'Itô que j'ai donné en
Master 2 entre 2004 et 2007 à l'Université de Tours. Il s'adresse à un large
public souhaitant une initiation à l'outil moderne du calcul stochastique.
Les méthodes du calcul stochastique, maintenant utilisées avec succès
dans des domaines aussi variés que la physique, l'économie, les assurances,
la finance, etc ... , prennent une place de plus en plus importante dans les
cursus de mathématiques appliquées. On peut aborder leur étude, après
une bonne initiation au calcul des probabilités, avec certains objectifs qui
peuvent induire différentes stratégies pédagogiques :
Par exemple, dans la perspective de fournir des outils mathématiques
à l'ingénieur, on peut présenter les résultats essentiels de manière relative-
ment heuristique, en privilégiant l'acquisition de certaines techniques et en
admettant les démonstrations les plus délicates. Une difficulté apparaît si on
veut aller plus loin et étudier plus en détail les fondements mathématiques
de ces méthodes. En effet le domaine du calcul stochastique a connu un tel
développement dans les trente-cinq dernières années, que l'ensemble des
résultats considérés maintenant comme classiques est considérable. J'ai pu
constater combien ceci impressionne, déroute et fascine à la fois les débu-
tants. Ainsi, pour aller assez vite vers les idées essentielles tout en essayant
de ne pas trop sacrifier le contenu mathématique, j'ai choisi de ne présenter
que ce qui m'est apparu comme vraiment incontournable pour une première
approche du sujet.
D'abord, j'ai supposé connus les résultats essentiels d'un cours de pro-
babilités basé sur la théorie de la mesure et incluant la notion d'espérance
conditionnelle et celle de martingale à temps discret. Toutes ces matières
ix
X Mouvement Brownien et calcul d'Itô
Enfin, l'annexe qu'on peut ignorer en première lecture, contient des dé-
tails sur les tribus généralement associées aux processus stochastiques ainsi
que des compléments sur les lois et l'indépendance des processus, auxquels
il sera parfois utile de se reporter pour maîtriser les détails techniques de
certaines démonstrations.
Chapitre 1. Introduction aux processus stochastiques 3
1.1 Généralités
1.1.1 Définitions
Définition 1.1.1 : On appelle processus stochastique (resp. processus sto-
chastique adapté), la donnée
Remarques:
1) Un processus stochastique modélise l'état d'un système aléatoire au
cours du temps. L'espace E dans lequel les variables aléatoires Xt prennent
leurs valeurs, est appelé l'espace des états du processus. La variable aléatoi-
re Xt représente l'état du processus à l'instant t.
2) Dans la plupart des cas, l'espace des états (E, B(E)) est l'espace
numérique (JRd, B(JRd)) de dimension d et l'ensemble des temps Test un
intervalle [O, a] ou [O, +oo[. Dans ce cas le processus X est dit à temps
continu. Lorsque Test l'ensemble N des entiers, le processus est à temps
discret.
3) La filtration d'un processus est un objet important qui contient l'es-
sentiel des propriétés probabilistes du processus comme nous le verrons
3 ou sigma-algèbre.
4 Mouvement Brownien et calcul d'Itô
~oùBE1 est la tribu de Borel de l'espace produit E 1 i.e. BE1 = Bs@· ··@BE (n fois).
Chapitre 1. Introduction aux processus stochastiques 5
Définition 1.1.3 :
i) On dit que les processus X et X' sont équivalents s'ils ont les mêmes
lois de dimension finie.
ii) On dit que les processus X et X' sont une modification (ou une
version) l'un de l'autre si les espaces sur lesquels ils sont définis sont les
mêmes i.e. (0, F, IP) = (n', F', IP') et si pour tout t E T, Xt = x; IP-
presque sûrement. En particulier, ils sont alors équivalents.
6 Mouvement Brownien et calcul d'Itô
iii) Les processus X et X' sont dits indiscernables si (n, :F, JP) =
(n', :F', JP') et si JP(Vt E T, Xt = Xf) = 1. Dans ce cas ils sont aussi
une modification l'un de l'autre.
Remarque : 1) On notera que la différence entre ii) et iii) tient à la
place du JP-presque sûrement. Pour deux processus version l'un de l'autre,
pour tout t E T, il existe un sous-ensemble nt E :F dépendant de t, de
probabilité 1, tel que pour tout w E nt, on ait Xt(w) = Xf(w), a!9rs que
pour deux processus indiscernables, il existe un sous-ensemble n E !"
indépendant de t et de probabilité 1 tel que pour tout t E T et tout w E n,
Xt(w) = X~(w).
2) Deux processus qui sont une version l'un de l'autre ne sont pas for-
cément indiscernables. En effet soit n = [O, 1], :F = B[o,i] (la tribu de
Borel de [O, 1]), lP = ,\ (la mesure de Lebesgue) et T = [ü, 1]. Considérons
les processus définis par
et
X~(w) =O.
Les processus X et X' sont une modification l'un de l'autre mais ils ne sont
pas indiscernables car {w En, Vt ET, Xt(w) = Xf(w)} = r/J.
Définition 1.1.5 :
i) Le processus X est dit mesurable si l'application (t, w) ---+ Xt(w) est
mesurable de (T X n, Br 0 F) dans (E, BE)·
ii) On dit que X est progressivement mesurable par rapport à une filtration
(Ft)tET si pour touts ET, l'application (t, w)---+ Xt(w) est mesurable de
([O, s] X n, B[o,s] 0 Fs) dans (E, BE)·
Remarque : Un processus progressivement mesurable est évidemment me-
surable. D'autre part la condition de mesurabilité progressive implique l' ad-
aptation du processus à la fitration (Ft)tET mais un processus adapté n'est
pas forcément progressivement mesurable comme le montre l'exemple sui-
vant :
Soit (D,F,JP) un espace probabilisé (quelconque), T = [O, 1] et f :
T ---+ lR une fonction (déterministe) qu'on suppose non-borélienne5 . Pour
tout t ET, posons
\:/w ED, Xt(w) = f(t).
i.e. la variable aléatoire Xt est constante en w et vaut f(t). Prenons pour
filtration, la filtration naturelle (Ft)tET de la famille (Xt)tET· Clairement,
pour tout t E T, Ft = {n, 0} est la tribu triviale et on vérifie aussitôt que
le processus (Xt)tET n'est pas progressivement mesurable.
Nous verrons dans les prochains chapitres l'importance de la condition
de mesurabilité progressive dès qu'on étudie les temps d'arrêt d'un proces-
sus. Mais en réalité, cette propriété est très généralement satisfaite par les
processus que nous étudierons dans ce cours comme le montre le résultat
suivant:
5 De telles fonctions existent. Par exemple f = lA, où A est un ensemble non borélien
(pour en exhiber, on a besoin de l'axiome du choix voir par exemple le livre de B. Gelbaum
et J. Olmsted [23].)
8 Mouvement Brownien et calcul d'Itô
. X(n)
1lffi 'U
-- X U1
n->OO
sur n. D'autre part, l'application X(n) : ('U, w) f-----7 X~n) (w) est B[o,s] 0 Fs
mesurable car pour tout A E BE, on a
= u
k<2n
ks (k+l)s[
[ 2n' 2n X [X(k+l)2-ns E AJ U
L'application ('U, w) f-----7 Xu (w) est donc B[o,s] @Fs mesurable comme limite
simple des applications mesurables ('u, w) f-----7 X~n) (w ). D
On notera que dans le cas où T est discret, tout processus est progres-
sivement mesurable.
D
ka
= { 2n; n EN, k -- 0', ')n} '
1 .... , ....
qui est clairement dense dans [O, a]. L'idée de la démonstration consiste à
montrer qu'en dehors d'un ensemble négligeable de trajectoires w, l'appli-
cation t r--+ Xt(w) est uniformément continue sur D. Elle se prolonge donc
à [O, a] en une application uniformément continue t r--+ Xt. On montrera
enfin d~ns la dernière partie de la preuve que pour tout t E [O, a], on a
Xt = Xt JP>-p.s.
étape 1 : Fixons/ E]O, ~[.Pour n E N, posons tk = ~~ (k = 0, 1, ... , 2n)
et considérons les événements
2n-1
et d1 = 0 ou 1. On a alors
r-1
IXt(w) -Xka2-m(w)j = L IXui(w) - Xui+ 1 (w)I
j=m
= a( 2~, + I:l=m+l d12- 1). Or ou bien 'Uj = Uj+1 et alors IX.ai (w) -
où 'Uj
Xui+ (w)1 = 0 ou bien Uj+l - 'Uj = a2-(J+l) et dans ce cas IX.ai (w) -
1
Dans tous les cas il existe une constante c = 1 + î=;~~ telle que pour
tous t, t' E D avec lt - t'I :S a2-m, on ait
(l.6)
(l.7)
ce qui montre que la trajectoire est hèildérienne d'ordre 'Y avec une constante
de Holder Kw = c21+n(w).
étape 3 : Pour tout w E Ne on note t ~ Xt (w) le prolongement (hOldérien)
àJO, a] de Xt(w) (t E D). Il reste à montrer que pour tout t E [ü, a], on a
Xt = Xt lJl>-p.s.
Notons que par définition, on a Xt = Xt lJl>-p.s. si t E D. Soit alors t E
[O, a] et (tn) E D une suite convergente vers t. Par l'hypothèse de Kol-
mogorov (l.4), on a lim Xtn = Xt en probabilité donc on a aussi lim ~tn =
~t lJl>-p.s. éventuellement pour un~ suite extraite. Mais on a aussi lim Xtn =
Xt lJl>-p.s. c~r les trajectoires de X sont continues. Par unicité de la limite,
on a donc Xt = Xt lJl>-p.s. D
(l.8)
12 Mouvement Brownien et calcul d'Itô
(par exemple si I = {1, 2, 3} et J = {2, 3}, <I> I,1(x1, x2, x3) = (x2, x3)).
D'autre part, supposons donnée une famille de probabilités (µ1 )JEPi(T) où
I varie dans l'ensemble P1 (T) des parties finies de Tet où µJ est une pro-
babilité sur l'espace mesuré (E 1, BE1 ). Pour tout J c I, on note <I>1,1(M)
la mesure image de µ1 sur E 1 par la projection canonique. En termes pro-
babilistes, on dit que <I> I,J (µ1) est la loi marginale de µJ sur E 1 .
(1.9)
(1.10)
(l.11)
( 1.12)
étant souvent portée par une partie "infime" de cet espace. C'est le cas par
exemple pour le mouvement brownien qu'il suffit de considérer sur l'es-
pace C([O, +oo[, IR) des trajectoires continues comme nous le verrons au
chapitre suivant.
Exemples d'applications du grand théorème de Kolmogorov
Dans les énoncés d'exercices l'une des phrases que l'on rencontre le
plus couramment est la suivante : "Considérons une suite (Xn)n2:1 de va-
riables aléatoires indépendantes et de même loiµ sur E ... ".Une telle suite
a bien une réalité mathématique grâce au théorème de Kolmogorov :
Proposition 1.1.3 : Soitµ une probabilité sur (E, BE). Il existe une me-
sure de probabilité lP sur l'espace canonique E 00 =EN* muni de la tribu
produit F 00 := B~* telle que le processus canonique associé : X =
(E 00 , F 00 , (Fn)n2:1, (Xn)nEN*, JP) soit une suite de variables aléatoires
indépendantes à valeurs dans E et de même loi µ.
Démonstration : Sur (En, B~n) considérons µn la n-ième puissance
tensorielle de la probabilité µ i.e. la mesure µn = µ 0 · · · 0 µ (n fois).
Alors il est clair que (µn)n2:l est une suite cohérente (au sens de 1.10)
de mesures de probabilité sur les puissances cartésiennes de E. D'après le
théorème 1.1.4, le processus canonique est tel que la loi de (X1, ... , Xn)
est la n-ième puissance tensorielle de µ, ce qui signifie que les Xi sont i.i.d.
et de même loi µ. 0
Avant de donner une autre application, on a besoin de la définition sui-
vante
On procède alors par récurrence descendante sur tous les entiers k tels que
uk = 0 pour constater que l'expression restante est égale à P,1. La famille
des lois µ1 est donc cohérente. Il suffit alors d'appliquer le théorème 1.1.3
pour voir que le processus canonique vérifie bien les conditions de la pro-
position. D
Remarque : Bien entendu le processus de Poisson peut-être construit
de façon bien plus naturelle (voir par exemple [50] p.267 ou [51] p.471).
Mis à part son aspect processus ponctuel (qui ne rentre pas dans le cadre de
ce cours), signalons que la construction classique du processus de Poisson
N = (Nt)t?.O est la suivante :
Soit (Ti)i?.l une suite de variables aléatoires indépendantes et de même
loi exponentielle de paramètre>.. et pour tout n 2: 1 soit Tn = T1 + · · ·+ Tn.
Pour tout t 2: 0, on pose No = 0 et si t > 0, Nt = max{n; Tn ,::; t}.
16 Mouvement Brownien et calcul d'Itô
(l.15)
f(x) =
(27r )n
/Jdetî' exp(-~ <
2 detr 2
x - m1r- 1(x - m) >) .
Lorsque r n'est pas inversible, la loi gaussienne Nn (m, r) est dite dégéné-
rée, elle n'a pas de densité 13 mais sa fonction caractéristique est toujours de
la forme ( 1.15). Ainsi dans des problèmes où interviennent des lois gaus-
siennes il est toujours préférable de faire intervenir les fonctions caractéris-
tiques dans les calculs plutôt que les densités même lorsqu'elles existent.
4) Les composantes Zi d'un vecteur gaussien Z = (Z1, ... , Zn) sont
indépendantes si et seulement si elles sont non-corrélées, c'est à dire si sa
matrice des covariances est diagonale.
13 En fait une loi de Gauss dégénérée est toujours concentrée sur un sous-espace affine
(strict) de ~n, et sur ce sous-espace elle admet une densité de "type gaussien" par rapport à
la mesure de Lebesgue de ce sous-espace.
18 Mouvement Brownien et calcul d'Itô
est de type positif puisque c'est la matrice des covariances du vecteur gaus-
sien X1 = (Xtp ... , Xtn).
Les deux fonctions met r caractérisent entièrement la loi d'un proces-
sus gaussien comme le montre le résultat suivant :
Xn = Xn-1 + Çn (n 2: 1).
Le processus X est gaussien réel. En effet pour tout entier n 2: 1, le vecteur
aléatoire X[i,n] = (X1, ... , Xn) est gaussien puisque toute combinaison li-
néaire u1X1 + · · · + unXn est égale à (u1 + · · · + un)6 + (u2 + · · · +
un)6 + · · · + unÇn qui est une variable aléatoire normale comme combi-
naison linéaire de variables normales indépendantes. D'ailleurs la fonction
caractéristique cp du vecteur X[i,n] est donnée par :
1 0 0 0
1 1 0 0
B= 1 1 1 0
0
1 1 1 1
En écrivant lIBul 12 =< BulBu >=< ult BBu >.on voit donc que cp est
la fonction caractéristique de la loi Nn(O, r) avec
1 1 1 1 1
1 2 2 2 2
1 2 3 3 3
r =t BB =
1 2 3 n-l n-l
1 2 3 n-l n
Chapitre 1. Introduction aux processus stochastiques 21
N
( l.19) Xt(w) = L fi(t)Vi(w).
i=l
est gaussien. En effet ses lois de dimension finie sont clairement gaus-
siennes, sa fonction moyenne m(t) = 2::~ 1 mdi(t) et sa fonction co-
variance est égale à
N
r (s, t) = L a-l fi (s) fi (t) (s, t E T) .
i=l
On vérifie immédiatement que F 7 est une tribu. C'est la tribu des événe-
ments antérieurs au temps T .
Démonstration : exercice.
= [inf
s<;St
d(Xs, A) = o] = [ inf
s';5,t;sE'(l>
d(X8 , A)= o]
n ( LJ
n>O sEQn[ü,t]
[d(Xs,A) :S lJ) E Ft. D
Remarque : Parfois des variables aléatoires qui sont des temps d'arrêt en
temps discret ne le sont en temps continu qu'avec des conditions restrictives
et pour des filtrations plus grosses que la filtration naturelle du processus.
Par exemple :
24 Mouvement Brownien et calcul d'Itô
1.4 Martingales
La théorie des martingales occupe une place centrale dans létude des
processus stochastiques. Mais pour que cette introduction au mouvement
brownien reste de taille raisonnable, nous insisterons uniquement sur les
aspects essentiels de la théorie dans le cas du temps continu. Les prérequis
sur la notion d'espérance conditionnelle et les martingales à temps discret
sont présentés sans démonstration mais de manière assez détaillée afin de
faciliter la référence à certains résultats dont nous aurons besoin par la suite.
(l .25)
18 i.e. pour Y, Z E L 2 (D, .F, lP'), < YIZ >= IE(Y Z) et llYll2 = (IE(Y 2)) 112 . En toute
rigueur, L 2 (D, D,lP') espace de classes d'équivalence de variables aléatoires pour l'éga-
lité lP'-p.s. relativement aux ensembles de mesure nulle de D n'est un vrai sous-espace de
L 2 (D, .F, lP') que lorsque la tribu D est complète. Néanmoins, dans tous les cas L 2 (D, D, lP')
s'injecte isométriquement dans L 2 (D, .r, lP') et on convient d'identifier L 2 (D, D, lP') à son
image isométrique dans L 2 (D, .r, lP').
26 Mouvement Brownien et calcul d'Itô
jB
{ <P(x)µx(dx) = 1
[XEB]
Yd!P',
<P(x)
r f(x, y)
=}IR Y fx(x) dy,
1
(1.29) :S )." (IE(\Mk\),
où M; = - min(Mk, 0).
2) Si M = (Nin)nEN est une sous-martingale (en particulier une martin-
gale), en appliquant l'inégalité ( 1.29) à (-M), on obtient pour tout À > 0
et tout k EN:
( 1.30)
(1.31)
est valable à condition si w est tel que T(w) = +oo, de poser M 7 (w)
M 00 (w) où M 00 désigne la limite de M à l'infini.
Théorème 1.4.7 :
1) Si M = ( Mt)tET est une sur-martingale càd, alors pour tout Ç > 0 dans
T, on a les deux inégalités
(1.34) !? ( sup Mt 2
tE[O,Ç]
>-) :S ~"' (IE(Mo) + IE(Mi))
( 1.35) !? ( inf Mt :S
tE[O,Ç]
-À) :S ~(IE(ll\!Içl),
A
(1.36)
3) Si M est une martingale càd de carré intégrable, alors pour tout À >0
et tout Ç > 0 dans T, on a :
(1.37)
En faisant croître la subdivision {to, t1, ... , tn} vers Q n [O, Ç], on obtient
20 en fait on peut la prolonger en une vraie sur-martingale en posant l\!Im = Mt,. pour
(1.38)
Désignons par~ la famille de tous les temps d'arrêt prenant un nombre fini
de valeurs et qui sont bornés par b, alors la famille des variables aléatoires
{MT; TE~} est équi-intégrable. En effet ceci résulte du lemme suivant:
Chapitre 1. Introduction aux processus stochastiques 33
(1.39)
( 1.41)
Or, on a
( 1.42) lim M
n--too Ti
(n) = MT! et lim M
n--too
(n)
T2
= lv1T2'
car les trajectoires de A1 sont càd. Mais les deux suites (!vlTl(nJ )n>o
-
et
(MT2(n) )n>o
-
sont équi-intégrables donc la convergence ( 1.42) a lieu aussi
dans LI. La continuité pour la norme LI de l'espérance conditionnelle,
permet de déduire de ( 1.41) que
1.5 Annexe
1.5.1 Tribus sur un espace de trajectoires
A) Tribu produit sur ET
Soit T un sous-ensemble de lR+ et E un espace topologique muni de sa
tribu de Borel BE (i.e. la tribu des parties de E engendrée par les ensembles
ouverts). On considère n = ET l'ensemble de toutes les applications w :
t f-t w(t) de T dans E. Pour w E n, on écrira aussi w = (w(t))tET· Pour
tout t E T, on note Xt l'application t-ième projection de ET dans E i.e.
Chapitre 1. Introduction aux processus stochastiques 35
l'application
(1.43)
(1.44)
Le cylindre ( l.44 ), ensemble des trajectoires qui, aux instants fixés ti pas-
sent dans les ensembles Ai ('i = 1, ... , n), est représenté de manière plus
probabiliste sous la forme :
i=l
[Xti E Ai],
Définition 1.5.2 : La tribu produit B~T est la tribu des parties de f2 en-
gendrée par les cylindres
Clairement B~T est aussi la tribu Œ(Xt, t E T) engendrée22 par toutes les
applications coordonnées Xt (t E T) définies en (1.43).
Remarque : Si on munit f2 = ET de la topologie produit (encore ap-
pelée topologie de la convergence simple23 ), B~T est la tribu de Borel de
ET dans beaucoup de cas raisonnables :
22 i.e. la plus petite tribu sur n qui rend les applications Xt (t E 1') mesurables.
23 i.e. la suite w<n) converge vers w dans n si Vt E 1', w<n) (t) --+ w(t) dans E.
36 Mouvement Brownien et calcul d'Itô
OÙ
et 11·11 est la norme euclidienne sur JRd. L'espace métrique (C, d) est alors
un espace polonais et on notera B 1 sa tribu de Borel. Mais il y a une autre
topologie, moins fine, mais très utile pour les besoins de la théorie des pro-
cessus, c'est la topologie engendrée par les ensembles de la forme
(l .47)
Chapitre 1. Introduction aux processus stochastiques 37
(appelés cylindres ouverts) où {t 1 , ... , tn} est une partie finie de Tet les
Oi sont des ouverts de E. Cette topologie est la trace sur è de la topologie
produit de Er. Notons 82 la tribu borélienne de C pour cette deuxième
topologie.
Le résultat suivant est bien connu mais sa démonstration n'est pas souvent
donnée dans les manuels :
i.e. Vx,n,€ est une intersection dénombrable d'ouverts de T2. Donc Vx,n,€ E
82, d'où T1 c 82 et 81 c 82. D
24 i.e. la collection de tous les ouverts.
25 cf. le livre de J. Dieudonné [l 7].
38 Mouvement Brownien et calcul d'Itô
Cette définition présente une petite difficulté car A appartient aussi à toutes
les tribus FI' avec I C I' E P1(T). Il suffit de considérer le cas où I' =
I U {tn+i} contient un point de plus que I. Alors avec H' = H x E,
A = [(X1, Xtn+i) E H x E] = [XI' E H'] est la représentation sous
la forme (1.48) en tant qu'élément de :Ff'. Mais d'après la condition de
cohérence µ1 est la marginale deµ!' sur E 1 et donc µ 1,(H') = µ 1(H), ce
qui justifie totalement la définition ( 1.49).
étape 2 (JPl additive sur A) : Soient A, B E A tels que An B = 0. On a
vu dans la preuve du lemme qu'il existe I E :F1 tel que A, B E :F1 . D'après
(1.48), il existe H, H' E BEI tels que A= [X1 EH] et B = [X1 EH'] et
on peut choisir H et H' tels que H n H' = 0. Alors
(1.50)
On va montrer que nnAn =/= 0, ce qui sera contraire à l'hypothèse. Par dé-
finition de JPl et par ( 1.50) et ( 1.51 ), on a donc
40 Mouvement Brownien et calcul d'Itô
Comme l'espace E 1n est polonais, Mn est une mesure régulière. Pour tout
E > 0, il existe donc un compact Kn c Hn tel que
(1.52)
\ln 2 1,
En particulier ceci montre que les Cn sont non vides. D'autre part ils for-
ment une suite décroissante (C1 :::) C 2 :::::i • ··)et sont tels que
On va montrer que nnCn 1- r/J, ce qui prouvera que nnAn 1- r/J. Soit wn un
point arbitraire dans Cn. Notons que ce point appartient aussi à tous les Cm
pour m:::; net qu'on a donc
Comme K 1 est compact, il existe une suite </>1 (n) strictement croissante
d'entiers telle que X1i (w<Pi(n)) converge (quand n ---> oo) vers un élém-
ent x1 E K l · De la suite </> 1(n), on peut extraire une suite </>2 (n) telle que
X h (w<P 2 ( n)) converge vers un élément x2 E K 2. En utilisant la notation
(1.8), il est clair que <I> hli ( x2) = x1 i.e la projection canonique de x2 E
E 12 sur Eli est exactement x 1 . En itérant, pour chaque entier p, on construit
une suite d'entiers </>p(n) extraite de la suite </>p- 1 (n) et telle que
Chapitre 1. Introduction aux processus stochastiques 41
Soit alors x E EUplp tel que sa projection (canonique) sur E 1P soit égale
à Xp. On peut trouver un élément w E 0 = ET tel que (w(t))tEUp/p = X
(il suffit de prendre w( t) arbitraire pour les t tt. Uplp). Par construction on
a donc Xp(w) = xp E Kp pour tout entier p i.e. w E npBp et chaque
Bp c Ap donc npAp # 0, ce qui est absurde.
Il reste à appliquer le théorème d'extension de Carathéodory et le Théorème
1.1.3 en résulte. D
(l.55)
Il est évident que le transformé d'un n-uplet de processus par une fonction-
nelle déterministe est encore un processus.
Exemple: Si l'espace des trajectoires est (C, B 1 ) les applications
de (C, B1) 2 dans (C, B1) définies pour x = (xt)tET et y= (Yt)tET par
(l.56) <f>(x, y) = (xt + Yt)tET et cp(x, y)= (XtYt)tET,
de Y).
44 Mouvement Brownien et calcul d'Itô
Exercice 4: Démontrer que si Tet rJ sont des temps d'arrêt d'une fil-
tration (Ft)tET· alors T + rJ est aussi un temps d'arrêt . On commencera
par le cas plus facile où T = N puis on étudiera le cas du temps continu
T = [O, a] ou [O, oo[ (indication : dans le cas continu, on pourra utiliser
l'exercice 3).
Exercice 5 : Tous les processus de cet exercice sont à temps discret T =
N. Soient Y = (Yn)nEN un processus prévisible (i.e. tel que \ln 2: 1, Yn
est Fn-1-mesurable) et soit X = (Xn)nEN une martingale.
1) Si le processus Y est borné (i.e. toutes les variables Yn sont bornées par
une même constante K > 0), montrer que le processus Z = (Zn)nEN avec
Zo = 0 et
n
Zn= LYk(Xk - xk-1) (n 2: 1),
k=l
est une martingale.
2) Montrer que le résultat de la question 1) subsiste si l'on suppose que les
processus X et Y sont dans L 2 (i.e. \ln 2: 0, Xn E L 2 et Yn E L 2 ).
Exercice 6 : Soit X = (Xn)nEN une martingale à temps discret et T
un temps d'arrêt pour la filtration de X. On construit une suite (Yri)n>l de
variables aléatoires en posant
lsiT(w)2:n
Yn(w) = {
0 si T (w ) < n.
IE(X7 ) = IE(X1).
(indication: On pourra utiliser l'identité X 7 = Xr/\n + (X7 - Xn)l[r>nj).
Exercice 8 : Soit (Zi)i>l une suite de variables aléatoires i.i.d. de loi
lP'(Zi = 1) = lP'(Zi = -1):, ~et a> 0 est un entier fixé. On pose So = 0
et Sn = Z1 +···+Zn (n 2: 1) et on définit le temps d'arrêt
T = min {n : [Sn [ = a} ,
1) Démontrer que
Le mouvement brownien
En 1827, grâce aux progrès qui viennent d'être réalisés dans la fabri-
cation des microscopes, le botaniste écossais R. Brown observe des minus-
cules particules de pollen qui placées dans l'eau, au lieu de tomber régu-
lièrement, se trouvent animées d'un mouvement vif et parfaitement désor-
donné qui se prolonge indéfiniment dans les mêmes conditions quelle que
soit la durée de l'observation. Il vient de faire l'une des découvertes les plus
fructueuses de ces deux derniers siècles : elle va permettre de confirmer les
intuitions des physiciens et des chimistes sur la structure atomique de la
matière.
L'hypothèse que le déplacement de ces particules 1 est dû à d'incessants
chocs aléatoires infinitésimaux avec les molécules du liquide va s'imposer
petit à petit (voir l'article de M. Gouy [22] de 1886). La modélisation ma-
thématique de ce phénomène difficile à comprendre va intervenir plus tard
avec les remarquables travaux d' A. Einstein (1905) [l 9] et de M. Smolu-
chowski [53] qui le mettent en équation et lui donnent le nom de mouve-
ment brownien. La vérification expérimentale de ce modèle par le physicien
J. Perrin (prix Nobel 1926) va en particulier le conduire à une détermination
précise du nombre d' Avogadro. Jusqu'à nos jours le mouvement brownien
n'a pas cessé d'être une source d'inspiration pour de nombreux travaux
théoriques ou appliqués (voir par exemple [26] et [27]).
1qui peuvent être du pollen ou des grains sphéroïdes de masse infinitésimale (i.e. très
faible) de nature quelconque comme de la gomme-gutte ou du mastic, etc ... : voir l'ex-
cellent livre de J. Perrin [46].
49
50 Mouvement Brownien et calcul d'Itô
2.1 Généralités
2.1.1 Les accroissements du mouvement brownien
Il y a plusieurs présentations possibles du mouvement brownien. Nous
avons choisi de privilégier l'aspect processus à accroissements indépen-
dants. On obtient aussitôt que le mouvement brownien est une martingale.
Le caractère gaussien du mouvement brownien sera vu ensuite.
(2.1)
Bo = 0 lP - p.s.
(2.2)
V0 ~ s ~ t, la variable aléatoire Bt - B 8 est indépendante de F 8 •
(2.3)
VO ~ s ~ t, Bt - B 8 est de loi N(O, t- s).
ce qui prouve en même temps que les variables aléatoires Btk - Btk-l
sont indépendantes (prendre A = Q) et le résultat. 0
Le résultat précédent a pour conséquence l'intéressante propriété sui-
vante du mouvement brownien
Lemme 2.1.2 : Soient s :S: t1 :S: · · · :S: tn. La tribu o-(Btn - B 8 , Btn-i -
Bs, ... , Bt 1 - Bs) coïncide avec la tribu
(2.4)
Bo = 0 IP' - p.s.
(2.5)
V 0 :S: t1 < · · · < tn, (Bt 1 , ••• , BtJ est un vecteur gaussien centré,
(2.6)
Vs, t 2: 0, IE(BsBt) = min(s, t).
Démonstration :
partie 1 : supposons que B soit un mouvement brownien. Il n'y a que (2.5)
et (2.6) à prouver. Soient a1, ... , an E lR et 0 :S t1 < · · · < tn. Montrons
par récurrence sur n que a 1 Bt 1 + · · · + anBtn est une variable aléatoire
normale. Sin = 1 cela résulte de (2.3) car a1Bt 1 = a1(Bt 1 - Bo). Si on
suppose l'assertion démontrée pour n - 1, la variable aléatoire a 1 Bt 1 +
· · · + anBtn est alors normale comme somme des deux variables aléatoires
a1Bt 1 +···+(an+ an-1)Btn-i et an(Btn - Btn_ 1 ) qui sont normales et
indépendantes, d'où (2.5). Prenons maintenant 0 ::::; s ::::; t. Grâce à (2.2) et
à (2.3), on a IE(Bs(Bt - Bs)) = IE(Bs)IE(Bt - Bs)) =O. On obtient alors
aussitôt (2.6) puisque
partie 2: Supposons que le processus B vérifie (2.4), (2.5), (2.6). Les condi-
tions (2.1) et (2.4) sont identiques. Soit 0 ::::; s ::::; t. D'après (2.5), Bt - B 8
est une variable normale et centrée car chaque Bt est centrée. De plus (2.6)
implique que :
Théorème 2.1.3 : Il existe une probabilité JPl sur l'espace JR[O,+oo[ muni
de la tribu produit B:[o,+oo[ tel que le processus (Xt)t::=:o des applications
coordonnées, soit un mouvement brownien naturel.
Lemme 2.1.3 : Pour tout entier n et tous 0 ::S t 1 ::S t2 < < tn, la
matricer = ( min(ti, tj)) l::;i,j::;n est de type positif
Théorème 2.1.4 : soit (Nj )JEN une suite de variables aléatoires i.i.d. de
loi N(O, 1) définies sur un espace probabilisé4 (0, F, IP). Pour tout t E J,
on pose
(2.8)
est un mouvement brownien sur I = [O, 7r]. Ceci résulte du théorème avec
la base hilbertienne eo(t) = Jrr et en(t) = j!i cos(nt) (n ?: 1) de
58 Mouvement Brownien et calcul d'Itô
L 2([0, 7T]). Mais la sommation par paquets de la série (2.8) a permis à Wie-
ner de démontrer que pour JPl-presque tout w E Q, la série converge uni-
formément pour t E [O, 7T] et donc que t r--+ Wt(w) est continue. Ce point
délicat est démontré dans l'annexe. Cet exemple de Wiener a été aussi le
point de départ de la théorie des séries de Fourier aléatoires (voir le livre de
J .P. Kahane [31 ]). D'autres constructions analogues sont abordées dans les
exercices.
B = (0, F, (Ft)t>o,
-
(Bt)t>o,
-
P).
est tel que P(A~ ,m) = O. Ainsi il suffit de restreindre B à l'espace n' =
nn,mAn,m pour obtenir une version à trajectoires (localement) hëildériennes
pour tout ry < ~- D
Chapitre 2. Le mouvement brownien 59
Xt(w) = w(t).
On munit l'espace C de la filtration naturelle Wtk".o des Xt et de la tribu
terminale Ç = Œ(Ut;:::o9t) qui compte tenu du Théorème 1.5.4, coïncide
avec la tribu borélienne de l'espace polonais (C, d) où d est la métrique
de la convergence uniforme sur les compacts. Considérons maintenant un
mouvement brownien continu6 B = (D, F, (Ft)t>O, (Bt)t;:::o, JP). On a
Bt (w ), est mesurable.
Démonstration : Il suffit de montrer que l'image inverse par <I> de tout
cylindre ouvert de Ç
(2.11)
C = {f E C; j(t1) E 01, ... , j(tn) E On} (ti E IR, Oi ouvert de IR),
ne dépend que de la loi de (Et 1 , ••• , EtJ qui est intrinsèque. D'où le 1).
2) Le processus W est à trajectoires continues par définition et ses lois
de dimension finie sont les mêmes que celles de E donc c'est aussi un
mouvement brownien . 0
(2.13) E t(1) -
-
-Et,
(2)
(2.14) Et = Et+s - Es,
(2.15) Ei3) = cE t
~'
sa filtration naturelle. c
où le sup est pris sur toutes les subdivisions de [a, b]. La fonction f est alors
f
dite à variation bornée8 sur [a, b] si V b < +oo. Toute fonction à variation
bornée est la différence de deux fonctions croissantes9 et réciproquement.
Il en résulte que la somme, la différence et le produit de deux fonctions à
variation bornée est aussi à variation bornée. De plus, comme toute fonction
croissante, toute fonction à variation bornée est dérivable presque partout.
Pour les besoins de la théorie des processus, on définit la variation qua-
dratique (totale) de f sur [a, b] non pas comme sup'.7!" vP) mais comme la
limite
lirn v( 2 l'
[fla ,b = 17!"1-+0 7r
où l?TI = maxk( tk+l -tk) est le pas de la subdivision ?T. On voit immédiate-
ment que si f est continue et à variation bornée, sa variation quadratique
est nulle (voir la démonstration du corollaire ci-dessous).
Soit maintenant B un mouvement brownien. On va étudier la variation qua-
dratique de ses trajectoires un intervalle de temps quelconque [s, t]. Comme
ci-dessus pour une subdivision 1T : s = t 0 < t 1 < · · · < tn = t, on pose :
n-1
v; 2
> = l)B(tk+1) - B(tk)) 2 .
k=O
v; 2
> est maintenant une variable aléatoire dont on va considérer la conver-
gence au sens de L 2 . On a:
8 ou à variation finie.
9 au sens large
Chapitre 2. Le mouvement brownien 63
n-1
vpl - h = L ((Btk+l - Btk) 2 - (tH1 - tk)).
k=O
Comme les variables aléatoires (Btk+i - Btk) 2 - (tk+l - tk) sont indépen-
dantes et centrées, on en déduit que
Mais la quantité
n-1
JE ((v;2l - h) 2) = c L(tk+1 - tk) 2 ~ c17rl(t - s).
k=O
(2.21) lim
17rl-+O
(sup IBtk+ (w) - Btk(w)I)
k
1 =O.
Si Vs,t (w) < +oo, (2.20) et (2.21) montrent que nécessairement on doit
avoir
lim
k-+oo
v;;l(w) = t - si= o.
D'après (2.22), une trajectoire w qui vérifie Vs,t (w) < +oo appartient donc
à l'ensemble (As,t)c qui est de probabilité nulle. Ainsi une trajectoire qui
serait à variation bornée sur un certain intervalle de temps, doit appartenir
à Us,tEIQl(As,t)c qui est de probabilité nulle, d'où le corollaire. D
ait une dérivée bornée. Ceci laisse suspecter que la trajectoire brownienne
n'est dérivable en aucun point. Ce fait a été conjecturé par le physicien
J. Perrin puis démontré rigoureusement par Paley, Wiener et Zygmund en
1933. La démonstration très simple que nous donnons ci-dessous est due à
Dvoretski, Erdos et Kakutani (1961).
2 1 - -2] : ls - tl ::; -2
An = { w E r2; 3s E [ -,
n n n
Les An forment une suite croissante et A (M) = UnAn contient tous les
w En tels que la trajectoire t---.. Bt(w) a une dérivée en un point de JO, 1[
dont la valeur absolue est inférieure à M. D'autre part sis E rn,1 - ~J
est tel quels - ti ::; ~implique IBs(w) - B,(w)I ::; 2Mls - tl et si k est
le plus grand entier tel que ~ ::; s, alors, on a :
(2.24)
Mais la valeur de lP' ( ,6.k ::; 6 ,~1 ) ne dépend pas de k car le vecteur aléatoire
( Bk+2
n
- Bk+1, Bk+1 - B!i, Eli - Bk-1)
n n n n n
)3
Vrn;·-n (-~nx 2 ) dx
6M
= (n - 2) ( exp
2; _6M 2
n
= 1-;·
(n - 2) ( -
~ -6A1
6
M exp (-~Y
2 n
2 ) dy) 3 ----+ O (n----+ oo).
Ce qui prouve que lP'( A (M)) = O. Pour finir, il suffit de remarquer que l'en-
semble des w E 0 tels que la trajectoire t ----+ Bt (w) est dérivable quelque
part, est inclus dans UMENA(M) qui est de probabilité nulle. D
littérature anglophone.
Chapitre 2. Le mouvement brownien 67
car [T = sk, E] E Fsk et les variables aléatoires Btn+sk - Bsk sont indé-
pendantes de Fsk et leur loi ne dépend pas de Sk. En prenant E = n, on
voit que le processus X a les mêmes lois de dimension finie que B. Comme
Xo = 0, X est donc un mouvement brownien. En prenant ensuite E quel-
conque dans Fn le calcul précédent montre aussi que X est indépendant
de .F7 . Pour terminer la démonstration dans le cas général, on a besoin du
lemme suivant :
Alors il est clair que Tn "'>. T. De plus, pour tout t > 0, [Tn :S t]
k+l] -_ LJ k t,1 ::;t [2kn < T <
Uk2t,1 9 ['Tn = 2" k+1] E -'t·
_ 2" r D one Tn es t un
2
temps d'arrêt. D
68 Mouvement Brownien et calcul d'Itô
Démonstration : On a
Maintenant
Démonstration : (F7 Ja2:0 est une filtration car si 0 :::; a :::; b, Ta :::; Tb
(car le mouvement brownien est à trajectoires continues partant de 0) donc
F 7 a C F 7 b. De plus pour tout a 2: 0, Ta est F 7 a-mesurable. Soient a 2: 0
eth > 0 et Ê = (B 7 a+u - B 7 Ju2'.0 le mouvement brownien renaissant à
l'instant Ta. La continuité des trajectoires de B montre que
Corollaire 2.3.3 : Pour t > 0, la loi de (Bl, !Mt) a une densité par rapport
à la mesure de Lebesgue de IR 2 de la forme
(2.32)
Ü S't X > y O'U y < Ü
{
ft(x, y)= (2y - x) exp (-(2y - x) 2 )
/!2 ------.,-- S'l y >_ 0 et x <_ y
7r t3/2 2t
Démonstration : D'après le corollaire 2.3.1 on sait que 1'v1t > 0 p.s.; pre-
nons donc y > 0 et considérons le mouvement brownien Ê = (Bry+u -
Bry)u~o renaissant après le temps Ty d'atteinte du point y. On a
2.4 Annexe
2.4.1 La caractérisation de P. Lévy du mouvement brownien
Nous donnons ici une démonstration du théorème 2.1.1. Pour alléger les
notations nous noterons JE(t)(X) = lE(XIFt), l'espérance conditionnelle
de la variable aléatoire X relativement à la sous-tribu Ft. Les hypothèses
du théorème se traduisent alors pour tous t, h 2:: 0 par
(2.33)
En effet si (2.33) est vraie, pour toute suite finie 0 :S to < ti < · · · < tn et
tous x1, ... , Xn E JR,
et par récurrence
n
lE(eil:'k=1xdM1k-Mtk-1l) =II e-~xf(tk-tk_i)'
k=l
ce qui montre que les variables aléatoires Mtk - Mtk-l sont indépendantes
gaussiennes centrées et JE ((Mtk - Mtk_ 1 ) 2) = tk - tk-1· D'où le résultat
du théorème.
Passons à la preuve de (2.33) et pour cela fixons t, h 2:: 0, x E lR et posons :
72 Mouvement Brownien et calcul d'Itô
On peut écrire
(2.34)
n-1
=L JE(t) ( e-ix(L:%!i Nh,n) - eix(L;k=l Nh,n)- 2\ x 2 h) e-21n (n-r-l)x 2 h.
r=O
Evaluons la quantité :
(2.35)
(2.37)
JE(t) (IMt+h - Mti3) :S [IE(t) ((l\llt+h - Mt) 4 ) JE(t) ((Mt+h - Mt) 2 )] 112
Chapitre 2. Le mouvement brownien 73
(2.38)
n n
:~:::)Mk,n) 2 +ô :=; sup(Mk,n) 8 L(Mk,n) 2
k=l k k=l
et donc
n
(2.39) L(Mk,n) 2+ô--+ 0 en probabilité (n--+ oo)
k=l
(car ]p> (I:~=l (Mk,n) 2 2: N) :=; ~ --+ 0 (N --+ oo) et supk(Mk,n) 8 --+ 0
p.s. sin--+ oo puisque les trajectoires sont continues). Ainsi, comme pour
tout entier n, on a (Mt+h - Mt) 4 = (I:~=l Mk,n) 4 , on peut écrire:
Mais d'après (2.39), quitte à prendre une sous-suite (pour conserver la con-
74 Mouvement Brownien et calcul d'Itô
(2.41)
(Mt+h - Mt) 4 =
Lemme 2.4.1 : Pour toute suite finie de réels x1, ... , Xn, on a
n
:s; 6 L XI(L Xj) 2 + 12 X2x2
i J"
i=l #i
n n n n
Sn = (L 1Vh,n) 4 + 3L Mf,n - 4 L MZ,n L Mt,n
k=l k=l k=l l=l
+ 18 L Mi~n!VIJ,n 2'. O.
i<j
(2.42)
et Mi~nMJ,n (avec i < j) et on voit facilement que tous ces termes sont
dans L 1 et qu'on a
et si j < k < l,
JE (t) (11'
lVj j,n
M k,n (Ml,n )2) -- JE (t) ( Mj,nMk,nlE (t+<1-1)h)(
n Jl/f1,n )2)
= ( ~) JE(t) ( Mj,nll/h,n) = O.
Il ne reste dans JE(t)Sn que les termes JE(t) ((Jl/Ii,n) 2(Jl/Ij,n)2) pour i < j.
Mais comme
JE(t) ( (M,i,n) 2(Mj,n) 2) = JE(t) ( (Mi,n) 2JE(t+ (j-nl)h) (Mj,n) 2)
. n(n - 1) h 2 2
<
-
hm 24
TL->00 2 n2
<
-
12h
'
)3
(2.43) lE(Tm,2m) :::; ml/4.
ce qui implique
Ainsi la série
Mais
2
n-1 ei(jt) n-1 i(l-j)t
'°'-N·
L; j J 2: e lj NLNJ
1=·m l,j=m
= rLi-1 N} + 2 L
·2
cos(Z - j)t NiN·
z· 1 1
.
J=m
J .
y<l
J
(2.45)
1 1 ) 1/2 v13
D'oùilrésultequeE(Tm,2m):::;; ( m +2m(m3 ) 1/ 2 ::S: ml/ 4 . D
Bt(w)
H,.(w) ------
Bt(w)
T(w) t
et
(2.48)
(i.e. hk,n = 2n/ 2 1[k 2 -n,(k+i) 2 -n[ - 2n/ 2 1[(k+i) 2 -n,(k+l)2-n[). L'ensemble
constitué des fonctions 1, h et des hk,n est appelé le système de Haar etc' est
une base hilbertienne de l'espace L 2 ([0, 1], dx) (voir par exemple [35]). On
considère aussi les primitives nulles en 0 des fonctions de Haar :
s(t)
tt
= Jo h(x)dx,
80 Mouvement Brownien et calcul d'Itô
La fonction sk.n est une fonction continue "en triangle" basée sur l'inter-
valle [k2-n, (k + 1)2-n] et qui vaut 2-(n/ 2)-l au point (k + ~)2-n. L'en-
semble constitué des fonctions t, s et des s1;;,n est connu sous le nom de
système de Schauder.
On se donne maintenant une suite de variables aléatoires indépendantes
de même loi N(O, 1) et qu'on note No, N 1 etN1;;,n (n 2: 1, 0 ::; k::; 2n-1)
et pour tout n 2: 1, on définit un processus (Sin))tE[ü,l] en posant
2n-1
s?i\w) = L N1;;,n(w)s1;;,n(t).
k=O
sin est assez grand et que la série L~~ sin)(w) est uniformément con-
vergente sur [ü, l].
4) Conclusion: Presque toutes les trajectoires du mouvement brownien de
Ciesielski B sont continues.
Exercice 2 (Une construction hilbertienne du mouvement brownien) :
On considère l'opérateur de Fredholm K de L 2 ([0, l], dx) dans lui même
de noyau k(s, t) = min(s, t) i.e. pour toute f E L 2 ([0, l], dx),
Kf(s) =
/1
Jo min(s, t)f(t)dt (s E [O, l]).
Chapitre 2. Le mouvement brownien 81
Bt(w) =L J):;.Nk(w)</>k(t).
k=O
(
JE exp(-- ç21·1 Bfdt) ) =
1 .
2 o Jcosh(Ç)
IBtl
An= [ -t- >n pour un t E]O, n14 ] ] .
l) En utilisant l'événement [n B
4 i
;;:4
> n] et l'invariance du mouvement
brownien par changement d'échelle, montrer que limn--.oo IP'(An) = 1.
2) En déduire que IP'-presque sûrement, t t--t Bt n'est pas dérivable en t = O.
3) Montrer que pour touts 2::: 0 (fixé), IP'-presque sûrement, t t--t Bt n'est
pas dérivable en s.
4) Expliquer pourquoi le résultat de la question 3) est beaucoup plus faible
que celui du théorème 2.2.1.
Exercice 5 : Soit B un mouvement brownien. Pour tout À > 0, on
considère le processus
1 2
JE (exp(,\(Xt+h - Xt))l:Ft) = exp(2,\ h).
b) Les processus (2Mt - Bt)t?.O et (llB( 3 lllt)t?.O ont même loi (théorème
de Pitman) (voir [51] p. 253).
Exercice 9 : (marche aléatoire et mouvement brownien)
Soit (Çk)k?.l une suite de variables aléatoires indépendantes et de même loi
prenant les deux valeurs ±1 avec probabilité 1/2. Le processus (Sk)kEN tel
que Sa = 0 et Sk = 6 + · · · + Çk (k 2: 1) est la marche aléatoire simple sur
Z. Les changements d'états s'effectuent à chaque unité de temps (mettons
chaque seconde) en effectuant un pas de ±1 unité avec équiprobabilité.
Effectuons un changement d'échelle à la fois de temps et d'espace en consi-
dérant (pour n entier fixé) la marche aléatoire (Xt(n))tE~N sur Jnz partant
de 0 telle que
(n) 1 k
Xt = ;;;;Bk si t = -. n
vn
Ici les changements d'états ont lieu toutes les ~ secondes en faisant un
pas de ± Jn
avec équiprobabilité. Considérons alors le processus à temps
continu qu'on notera encore xin), dont les trajectoires sont obtenues par
interpolation linéaire entre chaque couple de points ( ~, Xk/~) et ( k~l,
X (n) )
(k+l)/n ·
1) Montrer qu'on peut l'exprimer explicitement sous la forme
Le mouvement brownien
comme processus de Markov
87
88 Mouvement Brownien et calcul d'Itô
Dans le cas où le temps est continu et (ou) l'espace des états est quel-
conque, la modélisation rigoureuse d'un processus de Markov est beaucoup
plus délicate pour deux raisons :
D'abord on ne peut pas éviter l'utilisation del' espérance conditionnelle
pour exprimer la propriété de Markov. Ainsi, on dit que X est un processus
de Markov si pour tous s < t( ET) et tout A E BE, on a
(3.1)
D'après (1.24), on sait que JP(Xt E AIXs) = <P(Xs) où <Pest une fonction
déterministe 1 • On note alors JP(Xt E AIXs = x) := <f>(x). Pour abréger,
on pose <P(x) := Ps,t(x, A) et on dit que c'est la probabilité de transition
partant de x à l'instant s d'atteindre l'ensemble d'états A à l'instant t. En
fait, on peut, pour chaque triplet ( s, t, A) choisir la fonction <P de telle sorte
que l'application A f-+ Ps,t(x, A) soit une mesure de probabilité sur la tribu
BE (voir [5] p.319). On la note Ps,t(x, dy).
Ensuite, il convient d'adopter un nouveau point de vue sur les probabi-
lités de transition. On doit considérer Ps,t(x, dy) comme un opérateur Ps,t
qui transforme une fonction f : E----> lR borélienne bornée (ou positive) en
une fonction Ps,d donnée par :
On vérifie immédiatement que la fonction JP>s,d ainsi définie sur E est aussi
une fonction borélienne et bornée. L'équation de Chapman-Kolmogorov
(3.2) se traduit alors en termes d'opérateurs sous la forme
(3.4)
où Ps,tPt,u est le composé (dans cet ordre) des opérateurs Ps,t et Pt,u (i.e.
pour toute fonction f borélienne bornée, Ps,tPt;uf = Ps,t(Pt,uf)).
Remarque 2: Lorsque E =]Rd et que pour tout x E E, et tous s < t,
la mesure Ps,t(x, dy) a une densité y f-+ Ps,t(x, y) par rapport à la mesure
de Lebesgue (i.e. Ps,t(x, dy) = Ps,t(x, y)dy), les fonctions Ps,t s'appellent
les densités de transition de la famille (Ps,t). L'équation de Chapman-Kol-
mogorov prend alors la forme suivante (exercice) :
(3.5)
(3.6)
= L L
v(dxo)f(xo) Po,t 1 (xo, dx1)fi (x1) ...
g
JE([! f;(X,,)) ~JE (JE( h(X,,)IF,,_,))
~JE(!! f;(X,,)JE(fk(X,,)IFi'-'))
lPv = L lPxdv(x).
(3.11) r 1
Ptf(x) =}IR y'27rt exp
(
-21 (x t
y) 2 )
f(y)dy,
94 Mouvement Brownien et calcul d'Itô
pour tout t > 0 et toute fonction f : lR ---+ JR, borélienne bornée. Autrement
dit pour tout borélien A C JR,
Pt(x, A)= }A
r J21rt
1
exp
(
-21 (x -t y)
2)
dy,
-
J(x) = IE(J(x+Bt-Bs) = l. 1
IRV27r(t-s)
l(x-y) 2 ) J(y)dy
exp ( - -
2 t-s
(3.12) Ptf(x) =
r
Jw.d
1
(27rt)d/2 exp
( 111x-yll 2 )
-2 t
.
j(y)dy,
pour tout t > 0 et toute fonction f : JRd __, R borélienne bornée, où 11-11
est la norme euclidienne de ]Rd. Autrement dit le mouvement brownien de
]Rd a des densités de transition
B = (0, F, (Ft)t>o,
-
(Bt)t>o,
-
IP')
(3.14)
où o( h) ne dépend que de f.
2) L'importance du générateur infinitésimal dans la théorie moderne des
processus de Markov est due au fait que pour toute fonction f E DA, le
processus
(3.18)
de plus on a
. Pu(Ptf) - Pd - i·
1lffi (Puf - f)
T)
- lffi -'t
'U-->Ü 'U u-->0 'U
ce qui prouve l'assertion i). Le même calcul montre que t r-r Pd est déri-
vable en tout t > 0 et dérivable à droite en t = 0 et qu'on a (3.18). De plus
la fonction t r-r J~ AP8 f ds est dérivable et sa dérivée t r--+ APd coïncide
avec la dérivée de la fonction t r-r Pd - f. Ces deux fonctions égales à 0
en t = 0 sont donc égales partout et on a (3.19). D
Remarque : L'équation (3.18) montre que la fonction
a
(- -A)u = 0
Dt
avec la condition initiale 'u(O, x) = f(x). Cette dénomination trouve son
origine dans le cas du semi-groupe du mouvement brownien dont le gén-
érateur infinitésimal est l'opérateur~ d~2 comme on va le voir ci-dessous.
1 d2 f
Af(x) = --(x).
2 dx 2
Démonstration: l) Montrons d'abord que Best un processus de Feller.
Pour f E Co(IR), la fonction Pd définie par la formule (3.11), est conti-
nue d'après le théorème de continuité d'une intégrale dépendant d'un pa-
ramètre. En effet pour tout y fixé, la fonction sous le signe intégrale est
clairement continue en x et on peut la dominer, si :x: est dans un intervalle
Chapitre 3. Le mouvement brownien comme processus de Markov 99
(3.20) IPtf(x)I :S 1
-M
M 1
~exp
y27rt
(
--
2
l(x-y) 2 )
t
E
lf(y)idy + -.
2
Mais en passant à la limite sous le signe somme, l'intégrale du second
membre de (3.20) tend vers zéro quand lxl --+ oo puisque la convergence
est dominée par la fonction continue If 1 qui est intégrable sur [-lvf, M]. On
a ainsi Ptf(x)I ::::; E pour x assez grand, ce qui prouve que Pd E Co(IR). Il
reste à prouver le point 3) de la définition 3.3. l :
Ona
r 1
Ptf(x) - f(x) =}li?. y12;t ( l(x-y) 2 )
exp -2 t (f(y) - f(x))dy
(3.21) = l
li?.
1
~exp
y 27rt
1 z-2 ) (f(x
( --
2 t
+ z) - f(x))dz.
Soit E > O. Comme f E Co(IR), f est uniformément continue sur IR et il
existe ex > 0 tel que pour tout x ER lzl ::::; ex implique qu'on ait la relation
lf(x + z) - f(x)I::::; ~-En décomposant l'intégrale du second membre de
(3.21) en une intégrale sur [-ex, ex] et sur [-ex, ex]c, on déduit aussitôt que
(3.22)
sup JPtf(x) - f(x)J :S
xEIT?.
~2 + 2ilflloo J[-a,a]c
{ ~exp
V 27rt
1 z2 )
(--2
t
dz.
Mais l'intégrale dans le second membre de (3.22) tend vers 0 quand t --+ oo.
Le premier membre de (3.22) peut donc être rendu inférieur à E pour t assez
grand, d'où l'assertion 3).
2) Considérons maintenant f E Co(IR) n C 2 (IR) avec f" E Co(IR). Si on
fait le changement de variable y = x + zv't dans la formule (3.11 ), on a
e
où = B(x, zVt) E [O, l]. Ainsi lorsqu'on intégre la relation 3.23 par
rapport à la mesure ~exp (-~z 2 ) dz, en tenant compte du fait que
r- -z
lw. V2K
1 exp (-~z 2 ) dz = 0
2
et r- -z
lw. V2K
1 2 exp (-~z 2 ) dz = 1,
2
on voit que
Comme f" est uniformément continue sur JR, à tout E > 0, on peut associer
a > 0 tel que lhl ::::; a implique lf"(x + h) - f"(x)I : : ; E. Si on décom-
pose l'intégrale précédente, en une intégrale sur [-a, a] et sur [-a, a]c, on
obtient
E + llf"lloo {
lr(t, x)I : : ; -2
J[-a,a]c V
~ \u
27r ty t
2 exp (- 'U2
2
t
) du,
(3.26) (x E E).
On notera que la fonction t t----t Ptf (x) est borélienne (puisque continue à
droite d'après (3.15)) et qu'elle est bornée (par 11!11 00 ) donc elle est intég-
rable pour la mesure e->.tdt. L'expression R>.f(x) est donc bien définie.
De plus, par continuité sous le signe somme et par convergence dominée,
on voit clairement que R>.f E Co(E).
7 ou transformée de Laplace.
8 0n notera que l'équation résolvante implique la propriété de commutation 2).
102 Mouvement Brownien et calcul d'Itô
D'où le résultat. D
Une conséquence cruciale de l'équation résolvante, concerne la constance
de l'image de Co(E) par les opérateurs R;..:
1
h(Ph - I)g(x) =
eÀh - 1
h Jor'° e-Às Psf(x)ds - heÀh Jor e-Às
' P f(x)ds
8
(3.30)
=
eÀh - 1
h
1
(g(x) - ~ f(x)) -
eÀh
h
r e->.s (Psf(x) - J(x)) ds.
Jo
Comme Ptf(x) - f(x) ---+ 0 uniformément en x, quand t---+ 0, l'intégrale
du second membre de (3.30) tend vers 0 quand h ---+ 0 (uniformément en
x ), ce qui implique
lim
h->O h
~(Ph - I)g =À (g - ~ 1)
À
dans Co(E).
(3.3 l)
(3.33) <P(z) := 1
0
00 1 z2
e->.t _ _ exp(--)dt = -e-../2>:izl.
V2ii 2t
1
vv:
Pour z > 0, on peut dériver <P( z) sous le signe intégrale, ce qui donne
(3.34)
1
cp (z) = - j0
·oo
e
-ÀtZ
1 z-')
- - - exp(--)dt.
t V2ii 2t
R>.f(x) = e-..n>:x j ·x 1
-e../2>:y f(y)dy
-OO vv:
10 dans l'intégrale donnant f (0) faire le changement de variable >..t =f pour se ramener
à une intégrale de Gauss.
Chapitre 3. Le mouvement brownien comme processus de Markov l 05
et
La relation (3.36) montre que g" E Co(IR). L'image de Co(IR) par R>..
égale à DA (d'après le Théorème 3.3.2) est donc contenue dans l'ensemble
CJ(IR) des fonctions g E Co(IR) de classe C 2 telles que g" E Co(IR) qui est
lui même inclus dans DA d'après le Théorème 3.3.1. Donc DA = CJ(IR)
et le théorème en découle. D
Remarque: La formule (3.35) montre que l'on a
3.4 Annexe
3.4.1 Famille des lois de probabilité d'un processus de Markov
Soit X = (f!, F, (Ft)tET, (Xt)tET, JP) (où T = N ou IR+) un proces-
sus à valeurs dans un espace polonais (E, BE)· On suppose que X est un
processus de Markov homogène de semi-groupe (Pt)tET· Pour simplifier
on supposera que (Ft)tET est la filtration naturelle de X et on notera F 00
sa tribu terminale. On sait d'après le corollaire 3.1. l que la restriction lP v
de lP à F 00 est déterminée par la formule (3.9).
106 Mouvement Brownien et calcul d'Itô
(3.38)
(3.39)
Ces deux remarques nous conduisent à admettre que la probabilité ]p> x peut
aussi être considérée comme la probabilité conditionnelle sachant "[Xo =
x]" 12 • C'est la raison pour laquelle on dit que IPx est la probabilité pour le
processus "partant de x" ou "sachant qu'il part de x".
Pour une variable aléatoire Z: 0-----+ IR (ou <C), F 00 -mesurable et telle que
lEx(IZI) < +oo, son espérance sous IPx est donnée par
conditionnelle; nous invitons le lecteur intéressé à consulter les ouvrages spécialisés indi-
qués dans la bibliographie.
108 Mouvement Brownien et calcul d'Itô
IPx(Bt 1 E A1, ... , Btk E Ak) = IP(x + Bt 1 E A1, ... , x + Btk E Ak)
M(AoxA1 ... xAk) = l v(dxo) ;· Pt 1 (xo, dx1) ;· Ptrt 1 (x1, dx2) ...
}Ao Ai A2
. ·1 Ak
Ptk-i,tk(Xk-1, dxk).
On dit que ()t est l'opérateur de translation ou de décalage 1-I- par t. Son
action sur les variables aléatoires coordonnées Xu se traduit par
Plus généralement si Z est une variable aléatoire définie sur ET, la variable
aléatoire Z o ()t est par définition telle que :
(Z o ()t)(w) = Z(()t(w)).
14 ou "shift" en anglais
Chapitre 3. Le mouvement brownien comme processus de Markov 111
Cette propriété est très parlante car elle exprime que l'espérance condition-
nelle (sachant :F8 ) de Z mesuré sur les trajectoires à partir du temps s est
égale à l'espérance de Z partant de X 8 • Heuristiquement cela signifie que
pour x E E:
Vs ET, JE (Z o eslXs = x) = lEx(Z).
3.4.2.3 Décalage par un temps d'arrêt et propriété de Markov forte
On considère toujours un processus de Markov canonique X et soit T un
temps d'arrêt presque sûrement fini du processus X. On définit l'opérateur
de décalage (}7 par le temps d'arrêt T comme l'application (}7 : ET __.., ET
donnée par
autrement dit
Vs ET, eT(w)(s) = w(s + T(w)),
eT(w) est donc la trajectoire W"regardée" à partir de l'instant T(w).
où f E Cb(JR).
1) Montrer directement (i.e. sans utiliser l'exercice 2) que (Pt)t>O est un
semi-groupe markovien.
2) Vérifier que (Pth>o est un semi-groupe de Feller.
3) Trouver le générateur infinitésimal du semi-groupe.
Exercice 4 (mouvement brownien avec dérive): Soit Bun mouvement
brownien sur R Montrer que le processus (Bt + µt)t;::.o (mouvement brow-
nien avec dérive µ E JR) est un processus de Lévy (voir exercice 2) et
déterminer ses noyaux de transition.
Remarque : On peut montrer que les seuls processus de Lévy à trajectoires
continues sont de la forme ( aBt + µt )r;::.o où cr et µ sont des constantes
réelles (voir [51 ]).
Exercice 5 (processus de Bessel) : Soit B un mouvement brownien sur
ffi.d ( d :?: 2) et 11-l l la norme euclidienne de JRd. Montrer que R = (11Bt11 k'.::o
est un processus de Markov homogène sur [O, oo[, dont Je semi-groupe a des
densités de transition de la forme
0 - 1 ex ( - -
Pt( 'y) - 2ar(o + l)ta+l p 2t
y2) y2a+l '
1
r+oo r+oo
Qtf(x) =la (Pt(X, y) - Pt(X, -y)) f(y)dy+2f(O) la Pt(X, -y)dy,
J
est la somme d'une mesure ponctuelle en 0 de masse 2 0+00 Pt(x, -y)dy
et d'une mesure absolument continue sur lR+ de densité y 1-t Pt(x, y) -
Pt(X, -y).
Montrer ensuite que X a pour générateur infinitésimal Af(x) = ~f"(x)
avec le domaine
Construction de l'intégrale
stochastique
4.1 Introduction
117
118 Mouvement Brownien et calcul d'Itô
(4.1)
n-l
(4.2) Vt E [a, b], Vw E 0, Xt(w) = 2: Xi(w)l[t;,ti+d(t),
i=O
et telles que pour tout i E { 0, 1, ... , n - 1}, Xi soit Fti mesurable. Autre-
ment dit dans chaque intervalle de temps [ti, ti+l [, Xt(w) ne dépend pas de
t et vaut Xi(w ).
On notera alors E (resp. En, n > 0) l'ensemble de tous les processus élém-
entaires sur [a, b] (resp. le sous-ensemble des X E E tels que les variables
aléatoires Xi ont un moment d'ordre n, i.e. lE(IXiln) < +oo).
·b n-1
(4.3) j a
XtdBt := L Xi(Bti+l -
i=O
BtJ·
(4.5)
(4.6)
et 2) en résulte aussitôt.
3) Soit i < j. La variable aléatoire Xi(Bti+i - BtJ est dans L 2 comme
2 où B[a,sJ désigne la tribu de Borel de l'intervalle [a, s].
3 car Bi,+i - Bt, est indépendante de :Ft, donc indépendante de Xi
120 Mouvement Brownien et calcul d'Itô
=
n-1
L JE(X[)(ti+l -
i=O
ti) = 1
a
·b
JE(X[)dt
où J: X[dt est la variable aléatoire qui pour tout w E n est égale à l 'inté-
grale de Lebesgue J: X[(w)dt.
Remarque : On a clairement E2 c Jvl 2 c A2 et A2 (resp. M 2 , resp.E) est
un espace vectoriel pour les opérations usuelles d'addition des processus
(VX, Y E A2 ,X+Y = (Xt+Yl)tE[a,bJ)etlamultiplicationd'unprocessus
par un scalaire (V>.. E IR, VX E A2 , >..X= (>..Xt)tE[a,bJ)· En fait c'est M 2
qui a la structure la plus intéressante car c'est un espace de Hilbert. En
effet comme dans une remarque précédente, on constate que tout X E M 2
s'identifie à un élément de L 2 ([a, b] X n, B[a,b] ® F, dt® d!P') puisque la
condition (4.8) s'écrit
~[X::; x] := {(t,w);Xt(w)::; x}
Chapitre 4. Construction de l'intégrale stochastique 123
{b
(4.10) I(X) = Ja XtdBt
. 1·b
hm
n-+oo a
Xt(n) dBt = lb a
XtdBt dans L 2 .
(4.11)
(4.12)
(4.13)
E (10r ) 10r
Bzdt = EBzdt = 10la tdt =
2
~ < +oo,
ka
t•.=- k=0,1, ... ,2n.
" 2n'
2n-1
x?i) = L B1.;a;2nl[ka/2n,(k+I)a/2 11 [(t).
k=O
(n---> oo).
2n-l
= ~ L (Bfk+l)a/2n - B~a/2n)
k=O
(4.14)
ne sont pas des processus élémentaires au sens de la définition 4.2.1 car ils
ne sont pas Ft-adaptés : la variable aléatoire B(k+I')a/2" n'est pas Fka/2"
mesurable; elle est en fait F(k+l)a/ 2" mesurable i.e. la valeur de ~(n) à un
instant t dépend du futur.
126 Mouvement Brownien et calcul d'Itô
Proposition 4.3.4 : pour tout X E A2, il existe une suite (X(n)) E E telle
que:
(4.15) lim
n-roo
ja
·b
(Xt - xin)) 2 dt = 0, lP' - p.s.
I(X) =
j XtdBt
a
·b
(4.16)
(4.17)
par construction. Donc xCa) E Jvl 2 . Mais on a aussi l'inclusion des événe-
ments
(4.20)
Etant donné E, on peut choisir a assez petit pour qu'on ait à la fois a < ~
et ~ < ~. Le second membre de (4.20) est alors inférieur à E dès que
n, m > Na. Ceci montre que la suite des variables aléatoires
(l xin) dBt)
a
b
n>O
,
lb
.J~~Ja Y,,(n)dBt =V,
lim
n----;.oo
i
·b
a
zin) dBt = W,
(4.21)
t = ~
X(n) L._,
X tn,i.l [tn,i ,tn;i+ i[
(t) ·
i=O
(4.22)
1ba
ZXtdBt = lim 1b
n->oo a
ZX}n)dBt
=
n-+oo
1b
lim Z
a
X(n) dBt
t
= Z 1b XtdBt. D
t'
Il est clair que pour tous 0 :S t < t' :S T, on a It' - It = ft XsdBs.
pour tout k assez grand. Grâce aux inégalités (4.28) on voit8 qu'on peut ap-
pliquer le critère de Cauchy uniforme et on en déduit que Iink) (w) conver-
ge uniformément sur [O, T] lorsque nk -+ oo. La limite qu'on note Jt(w),
est donc une fonction continue de t E [O, T]. Mais on a aussi Iink) -+ It
dans L 2 , ce qui exige lt = lt IP'-presque sûrement. On a donc montré que
8 par sommation sur l'indice k.
Chapitre 4. Construction de l'intégrale stochastique 133
Il est facile de voir que T>. est un temps d'arrêt. Considérons le processus
"tué" après l'instant T>. :
(4.30)
Il est clair que X(>.) E A2 et que J?' (XY) ) dt :::; >..Donc X(>.) E M
2 2. Soit
alors Ji>.) une version continue de l'intégrale stochastique J~ xi>-) dBs qui
existe d'après l'étape 1 et considérons l'événement
n =
11 [1T Xfdt < v] (v > 0).
(4.31)
Donc d'après le Théorème 4.3.6, pour tout t E [O, T], Ji 11 ) ---t It (v ---t oo)
en probabilité donc IP'-p.s. pour une sous-suite. Compte tenu de (4.31 ), on a
donc It = Jt IP'-p.s. D
Convention : A partir de maintenant, nous considérerons toujours que
It = J~ X 8 dB 8 est la version continue de l'intégrale stochastique.
134 Mouvement Brownien et calcul d'Itô
(t E [O, T])
9 voir le théorème 1.4.9. Il suffit par exemple qu'elle soit bornée dans L 2 .
111 c'est un temps d'arrêt d'après la proposition 1.3.3.
Chapitre 4. Construction de l'intégrale stochastique 135
(4.32) Jo
r XsdBs = Jo{T Xsl[s<T]dBs.
Démonstration : Ce résultat est intuitivement évident et peut être admis en
première lecture. Nous donnons une preuve complète dans l'annexe.
Démonstration du théorème : Posons
(avec la convention que inf {0} = +oo) et Tn = Tr\1) /\ TA2 ). Alors Tn est
un temps d'arrêt et lim Tn = +oo IID-p.s. car pour tout w fixé les fonctions
t r--+ J~ X'}(w)ds et t r--+ J~ X 8 dB 8 (w) sont continues donc bornées sur
[O, T] et donc TAI)(w) = TA2 )(w) = +oo pour n assez grand. Or d'après le
lemme on a
ft/\Tn = lot l[s<-r.n]XsdBs,
qui est une martingale puisque le processus intégrand est dans Jvl 2 par dé-
finition de TAI) et cette martingale est bornée par définition de TA2 ). D
Remarque : Une martingale locale M telle que Nlt soit intégrable pour
tout t n'est pas forcément une martingale. On trouvera un contre-exemple
dans le livre de D. Revuz et M. Yor [51] (chapitre 5, p.194). Inversement
voici un résultat très simple qui donne une condition suffisante :
Proposition 4.4.2 : Une martingale locale l'vl dominée par une variable
aléatoireintégrable(i.e. tellequepourtoutt, IMtl :s; Y avec Y E LI(n,IID))
est une martingale.
136 Mouvement Brownien et calcul d'Itô
(4.37)
(4.38)
Pour E > 0 fixé, on choisit À :::; E; . Alors puisque que pour n assez grand,
on a
IP' ( Jci1' (Xin) - X 8 ) 2 ds > À) : :; ~. le premier membre de (4.39) est infé-
rieur à E, ce qui prouve le résultat. D
138 Mouvement Brownien et calcul d'Itô
4.5 Annexe
4.5.1 Approximation d'un processus de A 2 par des processus
élémentaires
Définition 4.5.1 (Rappel) A2 ([a, b]) (resp . .l\J 2 ([a, b])) désigne la classe
des processus réels
X = (0, F, (Ft)a-S.t'S.b, (Xt)a'S.t'S_b, JP') qui sont
i) progressivement mesurables (ou non anticipatifs)
ii) tels que lP'(j: IXtl 2 dt < +oo) = 1 (resp. IE (J: IXtl dt) < +oo).
2
(4.40)
(4.41) lim
n-;.oo
l
a
·b
IX~n) - Xtl 2 dt = 0 p.s.
auteurs,
Chapitre 4. Construction de l'intégrale stochastique 139
i) pour tout c > 0, la fonction PE: * J(t) = J~00 Pe(t - s)f(s)ds est
uniformément continue sur IR.
ü) Si J E L 2 ([a, b]) alors lim Pe * J = J dans L 2 ([a, b])
g___,.Q
l
= ab llt+e
t-e Pe(t - s)(J(s) - f(t))ds dt 12
:S l )2
dt (it+E:Pe(t - s)ds sup IJ(s) - J(t)1 2
b
a t-E: ls-tl<E
:S (b- a) sup lf(s) - J(t)1 2 --+ 0,
ls-tl<E
140 Mouvement Brownien et calcul d'Itô
quand E ___, 0 car la fonction f est uniformément continue sur [a, b].
Démonstration de la partie i) du théorème :
Soit Oo = {w E 0; J:
X{(w)dt < +oo }. On a IP'(Oo) = 1 par hypothèse.
Pour w E Oo, la fonction X.(w) : t t-t Xt(w) est dans L 2 ([a, b]) (et donc
dans L 1 ([a, b])). D'après le lemme 1.3, la fonction
Lemme 4.5.2 : Pour tout E > 0, le processus z(s), défini par (4.44), est
dans la classe A2.
dès que E: est assez petit; d'où le lemme. Le point i) du théorème en résulte
en posant
k=O
Comme la fonction t f---7 yt(n) (w) est continue sur [a, b], on a
.
1llll "'{,r(n,m) (
Lt
) _ v(n) (
W-Lt W
)
m-++oo
142 Mouvement Brownien et calcul d'Itô
Mais
Il en résulte que
En prenant o = 1 / k et en posant
X (k) _ "\.Ano(l/k),mo(l/k))
t - .L t '
Chapitre 4. Construction de l'intégrale stochastique 143
on obtient donc
x si lxl :S N
(4.46)
4>N(x) = { Îxl S'i lxl > N.
Il est clair que 4> N est lipschitzienne de constante de Lipschitz égale à l.
D'après le théorème 4.5.l, il existe une suite (Y(n)) de processus élém-
entaires telle que
lim
n->+oo
lb
a
IXt - l
-v,_(n) 2 dt = 0 p.s.
144 Mouvement Brownien et calcul d'Itô
On a alors
Un =1 6
l<f>N(Xt)-<f>N(Y/n))l 2 dt ':5:1b IXt-~(n)l 2 dt __, 0 (n--+ +oo),
presque sûrement. Mais la suite Un est bornée car 0 ':5: Un ':5: 4N 2 (b - a).
Le théorème de convergence dominée de Lebesgue donne alors
(4.47)
IXtl > Net l'égalité (ii) par le théorème de convergence dominée de Le-
besgue, puisque lim
N-++oo
l a
·b
l[[Xt[>NJ(w)IXt(w)l 2 dt = 0). Mais pour tout
w E f2 fixé, on a
+ (1 l<f>N(~(n)(w))
b 1/2
- <f>N(Xt(w))l 2 dt)
lbl<f>N(~(n)) - Xtl 2 dt
Pour ces entiers Net n, on pose xik) = <I> N(~(n)). La suite de processus
élémentaires (X(kl) ainsi définie, satisfait le théorème. D
(4.50) lim
n--+oo Jofr IXin) - Xt[ 2 dt = 0 en probabilité,
(4.51)
(4.52) en probabilité
(4.53) en probabilité.
146 Mouvement Brownien et calcul d'Itô
(n---+ oo),
ce qui implique
(4.54)
Mais
(4.55) (n---+oo)
i ·b
a
XsdBs =
1bc
ac
1
r:.XidBt ,
yC c
(c)
Chapitre 4. Construction de l'intégrale stochastique 147
lb
Ja,b = Ja J(s)dBs.
1) i) Dans le cas où la fonction f est en escalier sur l'intervalle [ü, T], mon-
trer que :la,b est une variable aléatoire n01male centrée dont on précisera la
variance.
ii) En déduire en toute généralité que Ja,b est une variable aléatoire nor-
male centrée de variance égale à J:
2) Soient 0 : : : ; a < b : : : ; c < d : : : ; T.
f 2 (s)ds.
(B J~ f2(s)ds) tE[ü,T] .
Exercice 4: Soit f E L 2 ([0, T]). Montrer que le processus défini pour
t E [ü, T] par
/cp-1 (t)
B{ = Jo ~dBs
est un mouvement brownien par rapport à sa filtration naturelle mais aussi
par rapport à la filtration (Fcp-l(t))t?.O· (Remarque (de M. Yor): En fait on
peut montrer que ces deux filtrations coïncident aux ensembles négligeables
près si (Fth>o est la filtration naturelle de B).
Exercice 6 (identification de L 2 (IR+) à l'espace gaussien engendré par
B): Soit g E L 2 (IR+)·
1) Montrer que la limite limt__, 00 J~ g(s)dBs existe dans L 2 (0, F, IP'). On
notera J0+00 g(s)dBs cette limite et on donnera son espérance et sa va-
riance.
2) Soit H c L 2 (0, F, IP') le sous-ensemble des variables aléatoires de
la forme Y9 = J0+00 g ( s) dB s où g E L 2 (IR+). Montrer que H est le
sous-espace fermé de L 2 (0, F, IP') engendré par les variables aléatoires Bt
(t E IR+) et que l'application g ~ Y9 est une isométrie de L 2 (IR+) sur H.
Cet espace s'appelle l'espace gaussien engendré par B.
Exercice 7 (variation quadratique d'une intégrale de Wiener) : Soit
f E L 2 ([0, T]) une fonction qui ne s'annule sur aucun sous intervalle de
[O, T] et soit J = (..lt)tE[ü,T] où .Jt = J~ f(s)dB 8 , le processus intégrale
stochastique considéré dans l'exercice 3.
Lorsque 7r : 0 = 'Uo < u 1 < · · · < 'UN = t, est une subdivision de [O, t], on
note 17rl =max{ Uk+l - uk; 0 :S k :S N - 1} le pas de cette subdivision et
on considère la variation quadratique de J sur 7r :
N-1
s'Tr = L:.: (:luk+l - :1uk) 2 .
k=O
2) Montrer que
lim s7r
111"1-->0
= j
0
·t
j 2 (s)ds (dans L 2 )
5.1 Introduction
La classe des processus d'Itô relative à un mouvement brownien donné,
est particulièrement intéressante pour une introduction aux idées du calcul
stochastique. C'est d'abord une classe stable pour les opérations de combi-
naison linéaire et de multiplication des processus ; autrement dit elle a une
structure d'algèbre. Cette classe est également stable par toute transforma-
tion déterministe de classe C 2 . Elle se prête donc parfaitement au calcul
et même à une sorte de calcul différentiel. De plus elle contient la classe
des martingales browniennes. Enfin elle est largement utilisée dans les ap-
plications en particulier dans les modèles probabilistes des mathématiques
financières.
Dès le début de ce chapitre nous introduisons la notion de différentielle
stochastique pour les processus d'Itô. En fait la définition de cet objet n'est
qu'un artifice de notation qui représente les processus intégrale usuelle et
intégrale stochastique. Néanmoins son utilisation a le grand avantage de
faciliter les calculs car il obéit à des règles simples analogues à celles du
calcul différentiel usuel modulo un terme correctif : le terme complémen-
taire d'Itô. Les règles de ce pseudo calcul différentiel stochastique sont
présentées de manière à la fois intuitive et suffisamment rigoureuse pour
permettre une première approche du sujet.
151
152 Mouvement Brownien et calcul d'Itô
forme
(5.2)
(5.3)
Il suffit en effet de faire la différence des valeurs prises par (5.1) pour les
valeurs t = t2 et t = t1.
Remarque 3 : On a privilégié l'intervalle de temps [ü, T] pour faci-
liter la présentation mais on peut définir la notion de processus d'Itô sur
n'importe quel intervalle de temps [c, d] (0 :S c < d). Ainsi un proces-
sus X= (Xt)tE[c,d] adapté à la filtration (Ft)tE[c,d]• est d'Itô, s'il est de la
j ·t a lt
forme
Xt =Xe+ c 8 ds + c b8 dBs (Vt E [c, d]),
(5.5)
où 7rn : 0 = tn,O < tn,l < · · · < tn;i < · · · < tn,n = test une subdi-
vision à points équidistants de pas ~. Mais on peut remplacer la somme
I:~:a1 tn,i(Btn,i+l - Btn,J par la somme 2:::~01 tn,i+l (Btn,i+l - Btn,J
puisque la valeur absolue de la différence de ses deux sommes est majo-
rée, d'après l'inégalité de Cauchy-Schwarz, par:
·t n-1
(5.6) jO
sdB8 = n__,.oo
lim ""tni+1(Bt
~ ,
i=O
,+
n,i 1
- Bt n,i ) (en probabilité).
Mais on a aussi
·t n-1
(5.7) / B 8 ds = lim ""Bt (tn i+l - tn i) (en probabilité).
lrO n~OO~
'i=O
n,L ' l
(5.9)
Démonstration:
étape 1 : Si les processus a(i) et b(i) (i = 1, 2) ne dépendent pas du temps,
on vérifie immédiatement (exercice) que le résultat est une conséquence des
deux formules (5.4) et (5.5) obtenues dans les exemples 1 et 2 ci-dessus.
étape 2 : Si les a(i) et b(i) (i = 1, 2) sont des processus élémentaires, consi-
dérons une subdivision (tj) de [O, T] commune à ces quatre processus.
Sur tout sous-intervalle [tj, tj+ 1], ces processus sont des constantes en t
et d'après l'étape 1, on a
Xti+ 1 yti+ 1 -
-1tj+1
XtJ ytJ - XtdYt +
1·tj+l
ytdXt +
1·tj+1 (1) (2)
bt bt dt.
0 0 0
En sommant sur j toutes ces relations, on obtient immédiatement le résultat
dans ce cas.
étape 3 : Soient (a(i,n))n::::o et (b(i,n))n::::o (i = 1, 2) des suites de processus
élémentaires telles que
(de telles suites existent d'après le théorème 4.5.l). Définissons alors pour
tout entier n, des processus X(n) et y(n) sur [O, T] par:
X(n)
t
=X0 + j ·t a(i,n)ds + 1t b(l,n)dB
0
s
0
s s,
et
Y/n) = Yo + l t aF,n)ds + l t b~2 ,n)dB5 •
Alors en utilisant le théorème 4.4.7 1 on obtient
et
lim sup l~(n) - Ytl = 0,
n-+oo 0'.5,t'.5,T
en probabilité. D'où en passant éventuellement à une sous-suite, on a
+ l t ys(n)(ap'n)ds + bp,n)dBs)
+ l t bp,n)b~2,n)ds.
En faisant tendre n vers l'infini, on peut montrer grâce à (5. l 0) que les cinq
intégrales ci-dessus convergent vers les intégrales des processus correspon-
dant sans l'indice n. Le résultat du théorème en découle aussitôt. D
Remarque : Le résultat (5.8) est la formule d'intégration par parties
stochastique. Elle signifie que pour tous 0 :::::; t 1 :::::; t2 :::::; T, on a
(5.13)
158 Mouvement Brownien et calcul d'Itô
= J'(Bt)L:::.Bt + ~2 J"(Bt)(L:::.Bt) 2 + · · ·
2 i.e. de classe C 2 en la variable x et de classe C 1 en la variable t.
Chapitre 5. Notions sur Je calcul stochastique d'Itô 159
Les termes qui contiennent dXtdt et (dt) 2 doivent être négligés et d'après
ce qu'on a vu en (5.13), (dXt) 2 = (bt) 2 dt. Des termes d'ordre deux dans le
développement de Taylor, on ne retient donc que le terme complémentaire
d'Itô:
(5.15)
Lemme 5.3.1 : Si f E C 211 (IR X IR+), il existe une suite Un) de polynômes
en les variables ( x, t) telle que
Ôfn Ôf
fn(x, t) ---t f(x, t), Dx (x, t) ---7 ax (x, t)
Ofn ôf D2 fn 82 f
~(x, t) ---t ~(x, t), ~(x, t) ---t ô (x, t),
ut ut ux- x-9
quand n ---t oo, uniformément en (x, t) sur tout compact de IR x IR+.
D
Remarque importante : Le théorème 5.3.1 montre que les deux pro-
cessus f(Xt, t) - f(Xo, 0) et
Yt ·-
.- Jort (a.r
iJt (Xs, S) + !li éi2.f (X , s) (bs) 2) ds
iJx (Xs, s )as + 2i iJx 2 8
Chapitre 5. Notions sur Je calcul stochastique d'Itô 161
+ J~ ~(X8 , s)b8 dB 8 , sont une version l'un de l'autre. Comme de plus ils
sont continus, ils sont indiscernables d'après la proposition 1.1.2.
On peut généraliser le théorème 5.3. l à un nombre fini quelconque de
processus d'Itô. Précisément, on a le résultat suivant que nous donnons sans
démonstration :
Théorème 5.3.2 : Soient X(il, i = 1, ... , rn, des processus d'Itô de dif-
férentielles respectives
DJ ~ 8f
d(j(Xt, t)) = -a
t
(Xt, t)dt+ L,, -a•. (Xt, t)dXt(i)
Xi
i=l
(5.16)
(5.18)
(5.19)
(5.21) Xt = 1t
-Ea + a O"(X 8,
tt
s)dBs +la µ(X 8 , s)ds, ('it E [a, b]).
Remarque : Comme pour les équations différentielles, une EDS n'a pas
forcément une solution. Même si une solution existe, on ne pourra pas,
en général, l'exprimer simplement à l'aide du mouvement brownien (Bt).
On va néanmoins donner un résultat d'existence et d'unicité dans un cas
intéressant qui ressemble en tout point au théorème de Cauchy-Lipschitz
pour les équations différentielles ordinaires.
(5.22) IO"(x, t) - O"(y, t)i ~ Clx - yi, iµ(x, t) - µ(y, t)i ~ Clx - YI
i.e. les fonctions O" et µ sont lipschitziennes en la variable x, uniformément
en t E [a, b]. On suppose aussi que la donnée initiale Ça a un moment
d'ordre deux.
Alors il existe une solution X = (Xt)tE[a,b] E lv1 2 de (5.20) et une seule à
indiscernabilité près (i.e. si X(l) et X( 2 ) sont deux solutions de (5.20) dans
M 2, alors IP(XJ1) = x?), 'it E [a, b]) = l).
Pour la démonstration, on aura besoin d'un résultat classique sur la crois-
sance des fonctions lipschitziennes :
(5.24)
où À > 0 est un nombre qui sera précisé par la suite. Il est clair qu'avec cette
norme 11-1 i>,, .NI 2 est toujours un espace de Hilbert3 et que les deux normes
11-1 i>. et l l-l IM2 sont équivalentes. Si on peut démontrer que l'application
w : X f-+ w(X) définie sur .NI2 par:
/'t lt
(5.25) w(X)t = Xo + Jo µ(Xs, s)ds + Jo o-(Xs, s)dBs (t E [O, T]),
et
n suffit donc de choisir la constante >. telle que c 2 ( vr + 1) 2 < >. pour que
l'application w soit strictement contractante. D'où l'existence et l'unicité
de la solution de (5.20) dans l'espace 1\11 2 ([0, T]).
Enfin, pour montrer l'unicité à indiscemabilité près, considérons deux pro-
cessus X(l) et X( 2 ) satisfaisant (5.20). On vient de voir que lIX(l) -
166 Mouvement Brownien et calcul d'Itô
X( 2 ) lIM2 = O. Or on a
(5.28)
2
sup IX;1)-xi2)1 2 :S2 sup 11·t(µ(Xi 1 ),s)-µ(Xi 2 ),s))dsl
O~t~T 09~T 0
2
+2 sup 11·t(o-(Xi 1 ),s)-o-(Xi 2 ),s))dB8 1
O~t~T 0
·T
:S2(C 2 T + 4C 2 ) fo JE [(xi 1) - xi 2 )) 2 ] ds
et cette dernière expression tend vers 0 quand n ____. oo. Grâce à l'inégalité
de Bienaymé-Tchebychev, on en déduit le résultat suivant
Théorème 5.4.2 : Avec les notations de 5.4.1, on suppose que les fonctions
(x, t) ~ Œ(x, t) et (x, t) ~ µ(x, t) sont mesurables et telles que
1) il existe une constante K > 0 telle que pour tout t E [a, b] et tout x E R
IŒ(x, t) - Œ(y, t)I :S Cnlx - YI, lµ(x, t) - µ(y, t)I :S Cnlx - YI·
x?l
tt tt
=X+ la µ(x, s)ds +la CJ(x, s)dBs,
(5.32)
(5.34)
Lemme 5.4.2 : Soit (0, F, JP) un e!.pace probabilisé, (Y(x))xEIR une fa-
mille6 uniformément bornée de variables aléatoires mesurables et Ç une
sous-tribu de F. On suppose que l'application (x, w) f-+ y(x) ( w) est BIR ®
Ç-mesurable. Soit T une sous tribu de F indépendante de Ç et X une va-
riable aléatoire Y-mesurable. Alors
i) Vx E IR, y(x) est Ç-mesurable.
ii) La variable aléatoire y(X) : w f-+ y(X(w))(w) a un sens et
(5.36)
rl
Xt =Ça+ Jo µ(Xu, 'U)d'U + Jo a(Xu, 'U)dBu.
rt
Pour tous x E IR et s E [O, T], soit xx,s = (X~' 8 )r;:~_s la solution de l'EDS
(5.20) partant de x à l'instant s (i.e. [a, b] = [s, T] et Ç8 = x). Autrement
dit pour tout t 2: s :
(5.37) X~,s = x+ 1 t
µ(X~' 8 ,'u)d'U+
;·t a(X~·8,'U)dBu.
s s
ft rt
(5.38) Xt = Xs + Js µ(Xu, 'U)d'U + Js a(Xu, 'U)dBu.
(5.39) xX,,s
t =XS + 1 t
µ(XXs,S
'U
'u)d'U +
l
;·t a(Xx.,s
'U
'U)dB
l U1
s s
(5.40) X t -- xx.,s
t lJ.l> - p.s.
Notation : Pour tout borélien A de IR, tout 0 '.S s '.S t et tout x E IR, on
pose
(5.42)
Ps,uf(x) = j~ h(z)IP'(Xf' 8
E dz) = l h(z)Ps,t(x,dz)
= l Ps,t(X, dz)Pt,uf(z),
(5.44)
Chapitre 5. Notions sur Je calcul stochastique d'Itô 173
(5.46) Af(x) = ~Œ
2
2 (x)J"(x) + µ(x)J'(x)
8 qui est simplement 9r si on considère X sur un intervalle de temps fini [O, T].
9 par exemple de classe C 2 sur lR et à support compact.
174 Mouvement Brownien et calcul d'Itô
et en particulier on a
. 1
(5.47) hm -(Ptf(x) - J(x)) = Af(x).
t--+Ü t
(5.49) { dXt
Xo
où x E R <Y E IR et À > 0 sont des constantes. Dans le problème physique
modélisé par cette équation, Xt représente la vitesse 11 d'une particule en
suspension dans un liquide, soumise au bombardement moléculaire ainsi
qu'à une force de frottement 12 de coefficient À.
Si on fait le changement de processus yt e>.t Xt, la première formule
d'Itô donne dyt = Àe>.t Xtdt + e>.tdXt = CYe>.tdBt. Donc yt = x +
<Y J~ e>. 8 dB 8 • D'où la solution
(5.52)
En particulier, on a
On peut aussi donner une version du corollaire 5.4.2 et même une ver-
sion plus générale en utilisant la formule d'Itô pour les fonctions dépendant
aussi du temps. Plus précisément, pour toute fonction f E C 2 ,l (JR X lR+)
bornée et à dérivées partielles bornées, le processus
Z = c+ lr XtdBt,
Théorème 5.5.1 : H = L 2 (0, Fr, IF') (Autrement dit toute variable aléa-
toire centrée de L 2 (0, Fr, IF') peut être représentée comme une intégrale
stochastique).
= JE((1T(xin) -xim))dBt) 2 )
Ceci implique que la suite X(n) : (w, t) f--7 xin)(w) est de Cauchy dans
L 2 ([0, T] x n, dt 0 dlP'). En passant éventuellement à une sous suite, on
peut supposer que
Lemme 5.5.2 : Pour toute fonction <P : [O, T] ----+ IR en escalier, la variable
aléatoire
(5.57)
Montrons qu'en fait la fonction t 1----+ IE((eh<jJ(t)) 2) est bornée sur [O, T].
On a IE((e 11 <P(t)) 2) :::; KIE(e 21t), oil K = maxtE[ü,TJ(<P(t)) 2 et si
n-l
<P = I: >.k1[t1,;,t1,;+d
k=O
où les (tk) forment une subdivision de [O, t], on a compte tenu de (5.56),
de l'indépendance des accroissements du mouvement brownien et de l'ex-
Chapitre 5. Notions sur Je calcul stochastique d'Itô 179
n-1
= IIIE( exp(2.Xk(Bt1.:+i - Btk))
k=O
n-1
= II exp(2.X~(tk+l - tk))
k=O
Ainsi, la fonction t t-t IE(e 2 1t) = exp(f~(<f>(s)) 2 ds) est continue donc bor-
née sur [O, T] et par conséquent la condition (5.57) est bien vérifiée. D'où
le lemme. D
Démonstration du théorème 5.5.1 : On va montrer que le sous-espace H
est dense dans L 2 (rt, Fr, IP), ce qui compte tenu du Lemme 5.5.1, donnera
le résultat. Soit U une variable aléatoire de L 2 (rt, Fr, IP) orthogonale à H.
Il faut montrer que U = 0 :
Soit 0 = to < t 1 < · · · < tN = Tune subdivision de [O, T] et soit la
fonction p(t) = I:[:(;1 Àil[t,;,ti+i[(t). Grâce au lemme 5.5.2, U est ortho-
gonale à exp(f~ p(s)dB8 ) i.e. U est orthogonale aux variables aléatoires
de la forme
(5.59) 0= f'
JTR_N
exp(< À, w > )g(w)J(w)dw,
Mr = c + 1T X 8 dB 8 •
(5.62)
transition Pt(x, y) i.e. Pt(x, dy) = Pt(x, y)dy (x, y E IR). A condition
de pouvoir dériver en t et en x sous le signe intégrale dans Ptf (x) =
fIRPt(x, y)f(y)dy, on déduit de (5.62) que
Comme cette équation est satisfaite par toute f E C_k(JR), on en déduit que
pour presque tout y E R on a
(5.63)
Cette équation aux dérivées partielles vérifiée par la fonction (x, t) f--+
Pt(x, y) s'appelle l'équation de Kolmogorov du passé 16 car elle porte sur
la variable x qui est le point de départ. Il y a une autre équation de Kol-
mogorov qui porte sur la variable d'arrivée y. On lobtient en dérivant di-
rectement par rapport à t la relation (5.45), ce qui donne
[)
-;:;-Ptf(x) = Pt(AJ)(x).
ut
Toujours dans l'hypothèse où le semi-groupe a des densités et si on dérive
formellement en t sous le signe intégrale, on déduit qu'on a
/8
jIR fJtPt(X, y)f(y)dy =}IR
l(lfJ2
2 f)y 2 (Pt(X, y)o- 2 (y))
- ~(µ(y)pt(X,
[)
uy
y)) ) f(y)dy
(5.64)
On notera que cette équation est plus naturelle quel' équation "du passé"
car on n'a pas eu besoin ici de supposer que le semi-groupe est de Feller.
On remarquera que dans le second membre de (5.64) il apparaît l'opérateur
différentiel A* de la forme
(5.66)
Théorème 5.5.2 : Supposons que les fonctions x f-+ Œ(x) et x f-+ µ(x)
sont lipschitziennes, bornées et que 0" 2 ( x) est bornée inférieurement par
une constante À > 0 (condition d'ellipticité). Alors pour toute f E Cl (JR)
le problème de Cauchy (5.62) a une unique solution bornée de la forme
limt_,opt(x, y)= ôx(Y) au sens des distributions (i.e. pour toute fonction
f E Cf{(R),
limt_,o ]~Pt(x, y)f(y)dy = f(x)).
Remarque : L'extrême difficulté à obtenir explicitement une expression de
Pt(x, y), a eu pour conséquence l'abandon progressif des méthodes analy-
tiques au profit de méthodes probabilistes permettant d'obtenir d'intéres-
sants résultats de nature qualitative sur les solutions des EDS. Nous nous
contentons de quelques exemples typiques dans les paragraphes suivants.
(5.69) {
dXt = XtdZt = atXtdt + btXtdBt (t E [ü, T])
Xo = 1,
a une solution unique de la forme
(5.72)
(5.73)
(5.74)
On peut utiliser une idée analogue pour modifier la dérive d'un processus
d'Itô. On suppose toujours qu'on travaille avec un mouvement brownien de
référence continu B = (0, F, (Ft)t2':0, (Bt)t2':0, IfD). Soit T > O.
Lemme 5.5.3 : Pour qu'un processus (.lVlt)tE[O,T] soit une (Ft, P)-martin-
gale (resp. martingale locale), il suffit que le processus (E(Z)t Mt)tE[O,T]
soit une (Ft, IfD)-martingale (resp. martingale locale).
(5.75)
Ft vaut
(5.76)
JP(lvlt E A) = / 1[MtEA]dlP
=y{2;c.1-exp
3
9 (
-
1
2µ 2 t
) ;·y -oo exp(µx)exp
(-
(2y -
2t
x)2) dx
= yf2
;t _.3/-') exp ( 2µy - 21 µ-t ? ) 1·+00 e - . exp (- '2Ut2) du.
Y µu
5.6 Annexe
5.6.1 La formule de Black, Scholes et Merton
Comme exemple d'application du calcul stochastique aux mathémati-
ques financières nous allons présenter la méthode de Black, Scholes et Mer-
ton de calcul du prix d'une option européenne. Nous n'allons évidemment
pas entrer dans les justifications techniques des diverses hypothèses dont
nous admettrons la pertinence et nous nous contenterons d'un examen suc-
cinct du schéma mathématique sous jacent.
A) Le modèle probabiliste de Black et Scholes
Supposons que le cours St (en euros) de l'action d'une certaine valeur
boursière A à l'instant t, évolue suivant l'EDS
(5.80)
(5.81)
(5.82)
{T {T
Jo <P;ds + Jo ['l/Js[ds < +oo.
Alors on aurait
23 attention <Pt et 'l/Jt peuvent être des nombres ::'.': 0 quelconques pas forcément entiers.
2 ~i.e. il simule le prix de l'option à l'instant t.
192 Mouvement Brownien et calcul d'Itô
est une martingale bornée dans L 2 . Elle converge donc vers sa valeur ter-
minale e-rTvT = e-rTcT et pour tout t E [ü, T], on a
e-rtvt = EiP( e-rT Crl:Ft), d'où la valeur du portefeuille simulant :
vt = EiP(e-r(T-t)CrlFt)
ce qui est possible dans la pratique où le temps est discrétisé (voir le modèle
de Black et Scholes discret dans [38]).
B) Solution analytique du problème de Black, Scholes et Merton
Reconsidérons l'équation (5.82) du portefeuille autofinancé sous la for-
me
(5.83)
au a'U 1 a 2 'U 2 2
(5.84) dCt = -:;:;-dSt + ~dt + - 2 CY St dt !)
uX ut 2 ux
au
= ( ~+µSt-:;:;-+
ut
au 1 2 2a 2
-(Y St
ux 2 ux
2
a'u
dt+ CYSt-:;:;-dBt.
uX
!)
u)
où les dérivées partielles sont prises au point (St, t). Mais l'égalité des deux
expressions (5.83) et (5.84) impose que les coefficients de dBt soient les
mêmes, ce qui compte tenu de (5.79) est réalisé si :
au
(5.85) <Pt = -:;:;-( Sti t).
uX
De même l'égalité des coefficients de dt donne
au 2 au
(5.86) ~(St,
ut
t) + -21 Œ 2 St28uxu2 (St, t) + rSc-:;;-(St,
!)
ux
t) - ru(Sti t) =O.
Une manière d'assurer que cette relation est bien vérifiée et que 'U satisfasse
l'équation aux dérivées partielles avec conditions aux limites:
{ -a'U + -CY
1 2 a u Du
? 2
(5.87) x - - +rx- -ru= 0
Dt 2 ax2 Dx
u(O, t) = 0, u(x, T) = f(x), (0 :St :ST, x ;::=: 0),
194 Mouvement Brownien et calcul d'Itô
où 'U est continue dans le domaine fermé [O, +oo[ X [O, TJ et de classe C 2 >1
dans l'ouvert JO, +oo[x JO, T[ et j(x) = (x - p)+ avec les conditions im-
posées par le problème. C'est l'équation de Black, Scholes et Merton. On
remarquera que la dériveµ du cours de l'action n'intervient pas ce qui ex-
plique pourquoi les financiers ne s'intéressent vraiment qu'à la volatilité 25 .
Pour alléger l'énoncé qui suit, nous dirons qu'une solution u de (5.87) est à
croissance au plus polynomiale s'il existe un polynôme P(x) de la variable
x tel que pour tout t E [O, TJ et tout x E lR+ on ait u(x, t) ::; P(x).
a1 = ~ T-t
O"
(in(:!'.p_) + (r + 2/2)(T - 0" t))
a2 = a1 - ŒVT - t
Démonstration : Faisons le changement de variable x = eY et t = T - s
dans l'équation (5.88), la fonction v(y, s) := u( eY, T- s) vérifie l'équation
aux dérivées partielles
av fP,v
0" 2
- = - - -2 + (r - O"
2 av
/2)-. - rv,
as 2 ay ày
25 Uneexplication plus mathématique est qu'on peut toujours éliminer la dérive par chan-
gement de probabilité comme on l'a vu dans le paragraphe 5.5.4 et en A)
26 Noter que ceci implique que la donnée f(x) = u(x, ï') est aussi à croissance au plus
polynomiale.
Chapitre 5. Notions sur Je calcul stochastique d'Itô 195
âw
(5.91) (0 :S s :ST, y E IR),
âs
avec la condition de Cauchy w(y, 0) = e-acry f(ecr'Y). La convolée de cette
fonction et du noyau de la chaleur :
{
dXt = f(t)Xtdt + g(t)XtdBt (t E [O, T])
Xo = Ço.
{
dXt = -f!-t_dt + dBt (t E [O, T])
Xo = O.
4) En déduire que
où dans les intégrales itérées précédentes, il est convenu que les intégrations
se font de la droite vers la gauche.
Exercice 4 : Soit (Ftk:::o la filtration du mouvement brownien B et
T > 0 (éventuellement T = +oo). On va donner une description hilber-
tienne de L 2 (Fr) := L 2 (0., Fr, lfD).
Pour tout entier n 2': 1, on considère l'ensemble
'6.n = {S = (S1, ... , Sn) E lR~ [T 2': s1 > s2 > · · · > Sn}
et L 2('6.n) l'espace des fonctions déterministes de carré intégrable pour la
mesure de Lebesgue définies sur '6.n. On sait que le sous-ensemble En
des fonctions f := @i~ 1 fi où fi E L 2 ([0, T]) (i.e. f(s1, ... , sn) =
fi(s1) · · · fn(sn)) est total dans L 2('6.n)· Pour f E En, on considère la
variable aléatoire
In(f) =
{T
Jo
(81
fi(s1)dBs 1 Jo h(s2)dBs2 ... Jo
rn-1 fn(sn)dBsn
1) Montrer que [[In(f)\\L2(Fr) = \\f\\L2(lln) et que In se prolonge en
une isométrie de L 2('6.n) sur le sous-espace Kn de L 2(Fr) engendré par
In(En). Ce sous-espace Kn est appelé le n-ième chaos de Wiener.
(Remarque: On peut montrer que Kn est l'ensemble des variables aléatoi-
res de la forme
198 Mouvement Brownien et calcul d'Itô
Y= lE(Y) +L In(J(n))
n=l
où la convergence de la série précédente est au sens L 2 . (indication : Mon-
trer que le résultat est vrai pour les Y de la forme t:f où f E L 2 ([0, T])
(voir l'exercice 3) et utiliser (après l'avoir montré) le fait que la famille des
variables aléatoires t:f est totale dans dans L 2 (Fr )).
Exercice 5 : Soit X un processus tel que pour tout T > 0, X E
A ([0, T]) et vérifiant la propriété suivante: Pour P-presque tout w E il,
2
la fonction T f---7 J[ x; (
w )ds est strictement croissante et tend vers +oo
lorsque T --+ +oo. Pour tout a :2: 0, on pose alors
On fixe alors une suite finie d'instants 0 :S: t 1 < · · · < tm et pour tout
k = 1, ... , m, on considère le processus X(k) = (Xik))s::::o tel que
Xik) = Xsl[s:STt1.J
On pose alors
6.1 chapitre 1
203
204 Mouvement Brownien et calcul d'Itô
car comme (Xr/\n)n est une martingale, son espérance est constante et donc
IE(X1) = IE(Xr/\n)· Mais quand n ___. +oo, IE ((X7 - Xn)l[r>nJ) ___. 0
par l'hypothèse et le résultat de 1). D'où IE(X7 ) = IE(X1).
Exercice 8 : 1) Test le temps d'entrée du processus (à temps discret)
(Sn)nEN dans l'ensemble {-a, a}. D'après le cours c'est donc un temps
d'arrêt pour la filtration naturelle de (Sn)nEN mais aussi pour la filtration de
(Zn)nEN*· Si maintenant on voit la suite (Zi)i>l comme modélisant un jeu
de pile ou face symétrique (avec 1 :=pile et -1 :=face), T > 2an signifie
qu'au cours des 2an premiers lancers, on n'a jamais atteint un total égal à
a ou -a. Si l'on considère ces 2an lancers comme n séries de 2a lancers,
ceci implique que parmi ces n séries, aucune n'est composée que de piles.
Si on désigne cet événement par A et comme la probabilité qu'une série de
2a lancers ne contienne que des piles est égale à ~' par l'indépendance
des lancers, on a donc
OO 2a
JE(T) = L L(2an + k)IP'(T = 2an + k)
n=Ok=l
OO 2a
:S LL2a(n+ l)IP'(T > 2an)
n=Ok=l
OO
:S 4a 2 f
n=O
(n + 1) (i - ;a)n < +oo.
2
6.2 chapitre 2
Exercice 1 : 1) Les variables aléatoires et sin) s?n)
(n #- m) sont
2
orthogonales dans L (0., F, IP') car les variables Nk,n et Nk',m le sont.
D'autre part on a JE ( (Sin)) 2 ) = I::%:
01 JE(JV7,n)si,n (t) = 2:::%:
01 si,n(t)
:S 2-n car les supports des sk,n sont disjoints. Ainsi pour p < q, le théo-
Chapitre 6. Solutions des exercices 207
Mais les sk,n(t) =< l[o,t]' hk,n > (resp. s(t), resp. t) sont les coefficients
de Fourier de la fonction l[o,t] relativement à la base hilbertienne des fonc-
tions de Haar de L 2([0, 1]). La formule de Bessel-Parseval, montre alors
qu'on a IE(BtBt+o) =< l[o,t], l[o,t+o] >= t = min(t, t + ô). Donc le
processus gaussien B est un mouvement brownien.
2) Comme les supports des sk,n (k = 0, ... , 2n - 1) sont disjoints, on
a llS(nl(w)lloo = maxo::;k9n-1 suptE[k2-n,(k+l)2-n[ INk,n(w)sk,n(t)I
= 2-(n/ 2)-l maxo::;k9n-1 IN1.:,n(w)l-
M:: 2n-l M::
3) P(maxk [Nk,nl > V L.n) = 1 - nk=O P(IN1.:,nl ::::; V 2n) =
1- (1 - 2
2 J+oo e-t /2 dt)
v'2n ../2ii
2n
-
2 .
montre que la série L::~~ sin)(w) converge unifonnément donc est une
fonction continue de t. Ainsi pour presque tout w, t t-+ Bt (w) est continue.
Exercice 2 : 1) K f (s) = J; t f (t )dt+ s f 81 f (t )dt est dérivable presque
partout et (K J)'(s) = f 81 f(t)dt p.p. Si K f = 0, f 81 J(t)dt = 0 p.p. donc
f = 0 p.p.
2) K </> est une fonction continue, or K </> = À</> (À #- 0) implique </>
continue donc K </> est dérivable en tout point, on peut encore dériver et
(K</>)"(s) = -</>(s) = >.<t>"(s). D'où</>"+ ±<t> = 0 (*)et il est clair que
</>(O) = 0 et ef/(O) = 1 (C.I). Inversement si</> vérifie cette équation différ-
entielle avec conditions aux limites (C.I), il est facile de voir (en remontant
les calculs) que K </> = >.</>.
3) L'équation caractéristique de(*) est r 2 + ± = O. Si ).. < 0, on voit
facilement que la seule solution de (*) vérifiant (C.I) est </> = O. Si ).. > 0,
on a r1 = i~, r2 = -i~, </>(t) = C1eitJ1/>. + C2 e-itJ1/>.. La
condition </>(O) = 0 implique C2 = -Ci et
</>'(1) = 0 exige 2'iC1 ~cos(~) =O. Les seules fonctions</>#- 0,
sont obtenues pour~= (2k + lH avec k EN. D'où le résultat.
4) Comme dans l'exercice 1, on applique le critère de Cauchy aux som-
mes partielles de la série définissant Bt ce qui implique
Donc la série donnant Bt converge dans L 2 (0, F, P). Comme dans l'exer-
cice 1, on montre facilement que B est un processus gaussien.
5) Pour t, s E [O, 1], JE(BsBt) = L::t~ Àk</>k(s)</>k(t) = k(s, t), la
dernière égalité d'après le théorème de Mercer (voir [17] tome 1). Donc la
covariance de Best celle d'un mouvement brownien. D'où le résultat.
Exercice 3 : 1) Pour presque tout w, t t-+ Bt(w) est continue donc
f0 Brdt est une variable aléatoire définie P-p.s. En utilisant la représen-
1
+oo
= L ÀnÀm + L À~IE(N~)
n;6m n=O
+oo +oo l
= (2= Àn) 2 + 2 I:: )..;! = 3
n=O n=O
Var(Z) = 112 •
Exercice 4: 1) Il est clair que [n 4 IB1;n41 > n] C An donc, puisque
n 4 B 1;n4 est de loi N(O, n 4 ), J·[-n,n, Je ,; 27rn
1
4 e-t 1 n dt :=:; P(An)· Le chan-
2 2 4
même loi que ./tN(O, 1) donc E(exp(ÀBt) exp((À./t) 2/2) (voir par
exemple [12] t.I, p. 76). Donc E(l\!It(À)) = 1.
2) Si t 2: s,
(la première égalité car eÀBs est une variable de L 2 qui est Fs-mesurable et
la deuxième égalité car Bt - Bs est indépendante de F 8 ). Ce qui démontre
le résultat.
3) Le processus (1\!Ig;Jt"20 est une martingale bornée par eÀa donc elle
est uniformément intégrable. Le théorème d'arrêt de Doob appliqué à cette
martingale et au temps d'arrêt Ta : E( 1\!IJ:l) = 1 donne le résultat annoncé
puisque B 7 a =a.
Exercice 6: 1) Soient 0:::; t 1 < · · · < tn des instants et À1, ... , Àn-l
des réels. Posons Z1, ... ,n = exp( i(À1 (Xt 2 - Xt 1 ) + · · · + Àn-1 (Xtn -
Xtn_ 1 )). On a alors
IE(g(2Mt - Bt)) =
j .1·O~y~~y-x g(2y - x) V~
~(2y - x)e-( 2y-:r:) 2 /( 2tldxdy(*).
6.3 chapitre 3
Exercice 1 : l) Pour alléger les notations, on écrira IEt pour désigner
l'espérance conditionnelle IE(.[Ft)· Pour s < t < u, on a Ps;u(X8 , A) =
lJl>(Xu E A[Fs) = IE 8 (1A(Xu)) = JES(JEt(lA(Xu)) = IE 8 (Pt,u1A(Xt))
(la dernière égalité d'après la condition de Markov (3.1)). Mais en notant
f = Pt;ulA, on a IE 8 (f(Xt)) = Ps,d(Xs) en appliquant une deuxième
fois la condition de Markov 3.1. On a finalement montré Ps,,u(Xs, A) =
JE Ps,t(Xs, dy)f(y) =JE Ps,t(Xs, dy)Pt,u(Y, A).
2) On a vu que Ps,u(X (w), A) = JE Ps,t(X (w), dy)Pt,u(Y, A) pour
8 8
R~ J(x) = e-V2Xx j ·x 1
--eV2XY J(y)dy
0 Jv:
+ eV2Xx j·+oo --e-V2XY
X
1
Jv:
J(y)dy
+ e-V2Xx j
·+oo 1
--e-V2XY J(y)dy.
0 Jv:
Il est facile alors de vérifier que R~ f ED i.e. DAC D. D'où DA= D.
Exercice 7: 1) a) IP'x(Bt E A, T ::::; t) = IP'x(-Bt E A, T ::::; t) d'après
le principe de symétrie d'André car pour B ou -B partant de x > 0, le
temps d'atteinte de 0 est le même. Mais [Bt E (-A)] c [T::::; t] car -AC
]R_ et les trajectoires de B sont continues donc si Bt E (-A) le point 0 a
été atteint avant le temps t. D'où IP'x(Bt E A, T::::; t) = IP'x(Bt E -A).
b) Si on applique le résultat de 1) avec A = [O, +oo [, on voit que
IP'x(T :S t) = IP'x(T :S t, Bt 2:: 0) + IP'x(T :S t, Bt :S 0) = 21P'x(Bt :S 0)
Q.E.D.
2) Nous noterons JE (au lieu de lEx 0 ) l'espérance correspondant à la proba-
bilité IF'xo sur l'espace n des trajectoires et JE.Fs pour l'espérance condition-
nelle sachant F 8 •
a) Détermination du semi-groupe: Comme dans l'exercice 6, commen-
çons par travailler avec la filtration de B. Pour 0 ::::; s < t et A c lR+ un
borélien, on a JE.Fs (lA (Xt)) = JE.Fs (lA (Xt)l[t<TI )+JEFs (lA (Xt)1 1T::;tJ) =
Chapitre 6. Solutions des exercices 217
= 1 00
Pu(x, -y)lA(y)dy
d'où
Maintenant calculons
(**) = 1A(û)JEFs(1 1T$t]) = 1A(û)JEB (1[T$t-s]) =
8
On constate alors que !;zR>..f (0) = 0 et que R>..f, (R>..f)' et (R>..f)" sont
des fonctions de C 0 (lR+). Si A désigne le générateur infinitésimal de X et
DA son domaine, on a donc
DA c D = {f E Co([O, +oo[); J', J" E Co([O, +oo[), J"(O) = O}.
Réciproquement, soit f E D et prolongeons f en une fonction fi im-
paire sur lR i.e. pour tout x E JR, on pose fi(x) = f(x)l[o,+oo[(x) -
f(-x)l]-oo,o[(x). On a alors
fo+oo (Pt(:c, y) - Pt(x, -y)) f(y)dy = J~: Pt(X, y)fi(y)dy.
De plus on remarque qu'on a
2f(O) f 0+00 Pt(x, -y)dy = J~: Pt(x, y)2f(O)l]-oo,o[(y)dy. Donc
Qtf(x) = J~: Pt(x, y)(f1(y) + 2f(O)l]-oo,o[(Y))dy = Ptg(x),
où (Pt) est le semi-groupe du mouvement brownien et g est la fonction dé-
finie pour tout y E lR par
g(y) = fi(y) + 2f(O)l]-oo,o[(y).
Etant donné que J" (0) = 0, on constate immédiatement que la fonction g
est de classe C 2 sur lR, qu'elle coïncide avec f sur [O, +oo[ et que
limy--oo g(y) = 2f(O) donc g est uniformément continue sur lR. Pour
x 2:: 0, on a -f (Ptg(:i:) - g(x)) - ~g"(x) = f(Qtf(:i:) - f(x)) - ~f"(x).
Chapitre 6. Solutions des exercices 219
6.4 chapitre 4
Exercice 1 : l) Si X est élémentaire,
I = J:
XtdBt = L~,:01 Xti (Bti+i - BtJ avec a = to < t1 < · · · <
tn = b. Si on pose ti = c + t~, on a a - c :::::; t~ :::::; b - c et I =
Li Xe+t'. [ (Be+t'.+i - Be) - (Be+t; - Be)] = Li Xe+t; (Bg~ 1 -Bg)) =
J:~; Xe+tdB?), où B(l) = (Be+t - Bt)t?.O est un mouvement brownien
d'après le théorème 2.1.6. Si X E A2 ( [O, T]), soit x(n) une suite de proces-
sus élémentaires tels que x(n) --+ X dans A2 ; alors en passant à la limite en
probabilité quand n --+ +oo dans l'égalité
on obtient le résultat demandé.
1: 1:
xti) dBt = X~~~dBi 1 ),
2) Si X est élémentaire, I = J: XtdBt = LZ:o1 XdBti+i - BtJ
avec a = to < t 1 < · · · < tn = b. En posant t,i = tU c avec ac :::::;
t~ :::::; be, on a I = Li Xt;;ec 1 1 2 (Bi~~ - Bi~)) =
1 1:;Xt;edBie), où
B(e) = (JCBt;ek~_o est un mouvement brownien. Pour le cas général on
procède comme à la question l ).
Exercice 2 : Pour alléger l'écriture de l'espérance conditionnelle, on
écrira lEt = lE(.IFt). Si t E T et h > 0, on peut écrire JEl(Mt+h) =
lvlt + A1 + A2 où A1 =
lEt(2J~ XsdBs ftt+h X 8 dBs) et A2 = JEl((j~t+h XsdB 8 ) 2 - l~t+h X'}ds).
On va montrer que A 1 = A2 = 0 :
a) Comme la variable aléatoire J~ X 8 dBs est Ft mesurable et dans L 2 ,
on a A1 = 2 J~ X 8 dBs JEl(j~t+h X 8 dB 8 ) et le terme en espérance condi-
tionnelle est nul car J~ X 8 dBs est une martingale. Donc A1 = O.
b) Il est plus délicat de montrer que A 2 = O. Commençons par le cas
où X est un processus élémentaire. Alors
JEl((ftt+h XsdBs) 2 ) = JEl((Li Xt;(Bti+l - BtJ) 2 ) =
220 Mouvement Brownien et calcul d'Itô
Li,j IEt(XtiXtj (Bt,+ 1 - Bti) (BtJ+l - BtJ) ). Mais si ti # t1, par exemple
si ti< t1, IEt(Xt.,Xti (Bt.,+ 1 -BtJ(Bti+ 1 -BtJ) = IEtlEti (Xt.,XtJ (Bti+l -
Bti)(Bti+ 1 - Bti)) = JEl[XtiXti(Bt.,+ 1 -BtJIEti(Bt1+1 -Btj)] = Ocar
BtJ+i - BtJ est indépendant de Fti et centrée. Si t.i = t1, IEt(Xl(Bt.;+i -
BtJ2) = IEt[IEt'(Xl(Bt,+ 1 - BtJ 2 )] = IEt[X{;lEt'((Bti+ 1 - Bti) 2 )] =
IEt[Xl(tH1 - ti)].11 en résulte que
IEt((j~t+h X 8 dB 8 )2) = IEt[L·i Xl (tH1 - t.i)] = IEt(f/+h X'tds). Donc
A 1 = O. Dans le cas général X E lv/ 2 , soit X(n) une suite de proces-
sus élémentaires tels que X(n) converge vers X dans M 2 ([0, T]). Alors
la suite Yn = (j~t+h xin) dB,,) 2 - 1~t+h(xin)) 2 ds converge vers Y =
(ftt+h X 8 dB 8 ) 2 - ltt+h X'ffds dans L 1 et la continuité de l'espérance condi-
tionnelle implique que JEl(Y) = limn IEt(Yn) = 0 i.e. A2 =O.
Exercice 3: 1) i) Si f = L:'.:01 cil[ti,ti+l[ est en escalier sur [a, b] (avec
Ci des constantes et (ti) une partition de [a, b]), 1: f(t)dt = Li ci(Bt.;+i -
Bt.,) est une variable aléatoire normale et centrée comme somme de va-
riables normales indépendantes et centrées.
On a aussi Var(Ja,b) = Li crVar(Bti+l - BtJ = Li cr(tHl - ti) =
l: J2(t)dt.
ii) Soit f E L 2 ([0, T]). Il existe une suite Un) de fonctions en escalier
telles que fn --+ f dans L 2 ([0, T]) sin--+ +oo. Mais alors on a aussi fn --+
f dans M 2 en tant que processus donc l: fn(t)dBt --+ Ja,b = l: f(t)dBt
dans L 2 (0., F, IP') puisque l'intégrale stochastique est une isométrie. Donc
Ja,b est une variable aléatoire normale centrée comme limite dans L 2 de
variables normales centrées.
De plus Var(Ja,b) = limn-.+oo Var(J: fn(t)dBt) = 1: J2(t)dt.
2) Soit (ti)iEI une subdivision finie de [O, T] contenant les points a, b, c,
d et f =Li cil[t.,,t.;+d une fonction en escalier.
Alors Ja,b = L·iE!i Ci (Bti+l - Et;) et Jc,d = LjE/2 Cj (Bti+ 1 - Bti) (où
lin I2 est vide ou réduit à un point) sont des variables normales centrées et
indépendantes. Il en résulte que toute combinaison linéaire cxJa,b + f3Jc,d
est une variable normale donc le couple (Ja,b, Jc,d) est gaussien. Si f est
quelconque dans L 2 ([0, T]), soit Un) une suite de fonctions en escalier
sur [a, b] telle que fn --+ f dans L 2 si n --+ +oo. Comme à la ques-
tion 1), on montre que pour tout choix des constantes réelles ex, {3, on a
cxJd:~) + f3Jc:~) --+ cxJa,b + f3Jc,d dans L 2 (0., F, IP') (l'indice (n) corres-
Chapitre 6. Solutions des exercices 221
pondant à la fonction f n). La variable exJa,b + f3Jc,d est donc normale donc
le couple (Ja,b, Jc,d) est gaussien. D'autre part, on a cov(Ja,b, Jc,d) =
limn cov(Jd~), Je~~)) = O. Les variables Ja,b, Jc,d étant non-corrélées,
elles sont indépendantes puisque le couple (Ja,b, Jc,d) est gaussien.
3) Par la même méthode qu'à la question 2), on montre que pour 0 s
t1 < t2 < · · · < tk S T, le k-uplet (Jo,t 1 , Jt 1 h, ... , Jtk-i,tk) est gaus-
sien et ses composantes sont indépendantes. Pour tout choix de scalaires
er1, ... , ak. on a er1.7t 1 + · · · + exk3tk = (er1 + · · · + exk)Jo,t 1 + (er2 +
· · · +exk)Jt 1 ,t2 + · · ·+ exk3t1.;-i,tk qui est donc une variable normale centrée
donc J = (Jt)tE[O,T] est un processus gaussien centré.
Calculons sa fonction covariance r : si s < t, r(s, t) = IE(JsJt) =
IE(Jo,s(Jo,s + Js,t)) = IE(J6,s) = J; j2(u)du (en effet IE(Jo,sJs,t) = 0
car les variables Jo,s et Js,t sont indépendantes et centrées). Pour tous set
ton a donc r( s, t) = J;/\t j2( u)du, où s /\ t = min( s, t).
4) Si g(t) = J~ j2(s)ds, il est clair que le processus B = (Bg(t))tE[ü,TJ
est gaussien centré. Pour s < t, on a IE(Bg(s)Bg(t)) = min(g(s), g(t)) =
g(s). Donc Jet B ont même fonction de covariance donc mêmes lois de
dimension finie. Ce sont donc des processus équivalents.
Exercice 4: L'exponentielle d'une variable aléatoire normale étant inté-
grable, on a clairement l\llt E L 1(0, :F, JP). On note encore IEt pour l'espér-
ance conditionnelle sachant Ft. Pour t E [O, T] eth> 0, on a IEt(Mt+h) =
l\llt exp(-~ ftt+h J2(s)ds)IEt(exp(f/+h f(s)dBs)).
Mais comme J~t+h f(s)dB 8 est une variable aléatoire indépendante de :Ft
par construction puisque f est une fonction déterministe (voir l'exercice
précédent), on a IEt(exp(j~t+h f(s)dBs)) = IE(exp(j~t+h f(s)dBs)). Or
comme N = J/+h f(s)dBs est une variable normale centrée (exercice 3),
onsaitquelE(N) = exp(~Var(N)) =exp(~ ftt+h j2(s)ds(d'aprèsl'exer-
cice 3). Donc IEt(Mt+h) = Mt et M est une martingale.
Exercice 5: 1) On a J~ j 2 (s)ds = J~ <P'(s)ds = <P(s) < +oo donc
f E L 2 et on peut appliquer les résultats de l'exercice 3, le processus
(f~ ~dBs)t est donc gaussien de fonction de covariance (s, t) 1-+
<P(s /\ t).
2) B<P est clairement gaussien centré et d'après la question 1)
IE(Bi B{) = <P(<P- 1(s) /\ <P- 1(t)) = s /\ t. B<P est donc un mouvement
brownien pour sa filtration mais de plus pour tout t, B{ est F<P(t)-mesurable
222 Mouvement Brownien et calcul d'Itô
et (.F<P(t)) est une filtration car <I>- 1 est une fonction strictement croissante.
Le procesus B<P est donc également un mouvement brownien pour cette
filtration.
Exercice 6: 1) On a:
1;
lE((j~ g(u)dBu- g(u)dBu)2) = lE((f: g(u)dBu)2) = 1: g2(u)du - t 0
sin ---+ +oo car g E L (IR+)· Le critère de Cauchy dans L 2 (f!,.F,lP')
2
6.5 chapitre 5
Exercice 1 : Cherchons X sous la forme Xt = YtZt où Y et Z sont des
processus d'Itô respectivement tels que
dyt = g(t)ytdBt et Yo = Ço
dZt = µ(t)dt + <T(t)dBt et Z 0 = 1,
où g, µ et <T sont des fonctions déterministes. En utlisant la formule d'in-
tégration par parties pour différentier X, on obtient
dXt = ytdZt + Ztdyt + <T(t)g(t)ytdt = J(t)YtZtdt + g(t)YtZtdBt (ex-
pression initiale de dXt). Mais en observant que g(t)YtZtdBt = ZtdYt,
l'égalité précédente implique qu'on doit avoir:
lt 1 lt lt )
Xt = Çoexp ( Jo g(s)dBs - 2 Jo g2 (s)ds + Jo J(s)ds .
Xt = (1 - t) j0
·t 1
--dB8 •
1- s
Plique ..sf:._
dan
(e-(x-o:t)2 /2t) 1 -
Œ-Ü
= tn f?n f 1, - = (-t)n ..sf:._
axn U-Ü dxn
(e-x2 /2t). Donc
Mais la fonction a t---> eo:x-(0: 2t)/ 2 est analytique donc égale à son dévelop-
pement de Taylor en a= 0 qui d'après ce qui précéde est égal à:
L~=O an H n (x, t). D'où le résultat demandé.
2) D'après le cours on sait que E(aB)t = exp(aBt - (a 2 t)/2). Donc
OO
avec a :S T i.e. pour toute fonction f(s2, ... , sn) = h(s2) ... fn(sn)
de carré intégrable dans ~~_ 1 , supposons [[12(f)ll12(.rr) = llflll2(Â~_ 1 )·
Vérifions l'hypothèse de récurrence : Soit a :::::; Tet f(s) = fi(s 1) ...
f~(sn), on a
Ina ( f ) = 1·T0 fi (s1 )Xs dB
1 avec Xs 1 = Jo
81
fSl
h ( s2 ) dBs 2 Jo
fS2
où on a noté
fk.gk(sk) := fk(sk)9k(sk)
et g(n) (sn+li ···,Sm) = 9n+l ( Sn+l) · · · 9m( Sm)·
Mais l'expression précédente est nulle car E((J~_n(g(nl)) = 0 comme
espérance d'une intégrale stochastique. D'où le résultat.
3) On a vu à l'exercice 3 que la variable aléatoire E,f se décompose sur
la somme directe EB~~Kn. Pour montrer que L 2 (Fr) = EB~~Kn, il suffit
de prouver que la famille des E,f (f E L 2 ([ü, T]) est totale dans L 2 (Fr) :
Soit U une variable aléatoire orthogonale à toutes les E,f i.e. pour toute f E
L 2 ([0, T], U l_ exp(f~ J(s)dB 5 ). En particulier si f = .L7= 1 Àil[ti,t·;+i[
est une fonction en escalier, U l_ exp(_L:~ 1 Ài ( Bt.;+i - BtJ) et en faisant
varier les coefficients Ài et les subdivisions (ti), on obtient
i.e. E(U exp(a.Z)) = 0 où a= (a1, ... , an), Z = (Bt 1 , ••• , Bt,,) et a.Z
est le produit scalaire de a et Z. On a donc E(E(U exp(a.Z)IZ)) = 0
228 Mouvement Brownien et calcul d'Itô
Va E JRn, ln exp(a.z)g(z)f(z)dz = 0,
d'après l'inégalité obtenue en(*) dans la question 2). D'où a) avec C = tz.
De plus
donc
lim yt = exp
t-++oo ( L..,
·m
""''ÏÀk Wt1.: + ~2 ""'
L..,
ÀkÀL (tk /\ t1)
)
IP'-p.s.
k=l l'.S;k,l'.S;m
JE (f
k=l
iÀk Wtk) =exp (~ L
l'.S;k,l'.S;m
ÀkÀz(tk /\ tz)) =JE (f
k=l
i>.kBt1.:) .
A des trajectoires, 8
accroissements indépendants cylindre de trajectoires, 35, 60
processus à, 14, 113
André D
principe de symétrie, 78, 108 décalage
annulation de la dérive opérateur de, 110
d'une diffusion, 189 par un temps d'arrêt, 111
Dambis, Dubins-Schwarz
B théorème de, 200
Black, Scholes, Merton différentielle stochastique, 153, 157
formule de, 190 diffusion
homogène, 174
c non-homogène, 175
caractérisation de Lévy
discrétisation
du mouvement brownien, 52
d'un temps d'arrêt, 45
caractérisation de Lévy
Doob
du mouvement brownien, 71
théorème d'arrêt, 28, 32
Chapman-Kolmogorov
équation de, 89, 113, 171 E
Ciesielski EDS (équation différentielle stochas-
mouvement brownien de, 79 tique), 162
convergence uniforme espérance conditionnelle, 24, 94
des intégrales stochastiques, 137 espace gaussien
couple du mouvement brownien, 148
de processus, 42 exponentielle stochastique, 185
covariance
fonction de, 18 F
critère de continuité famille cohérente (de probabilités),
231
232 Mouvement Brownien et calcul d'Itô
K
G
Kolmogorov
générateur infinitésimal
grand théorème de, 12, 38
d'un processus de Feller, 97, 98,
Kolmogorov
112
équation du futur, 182
d'une diffusion, 174
équation du passé, 182
Girsanov
théorème de, 187 L
Lévy
H caractérisation de, 52, 71
Haar formule de l'aire de, 82
fonctions de , 79 Langevin
Hermite équation de, 175
polynômes de, 196 loi d'un processus, 42
loi des temps d'atteinte, 68
1 lois de dimension finie, 5, 91
inégalité lois de Gauss dans JRd, 17
maximale, 28, 136
maximale LP, 29, 136 M
maximale de Tchebychev , 136 martingale, 27, 51, 112, 131, 180
intégration par parties brownienne, 180
formule stochastique d', 156 exponentielle, 82, 186
indiscernables (processus), 6 locale, 134
intégrale stochastique, 119, 123, 126, régulière, 27, 30, 32
131 marche aléatoire
d'un processus de A2 , 126 approximation brownienne, 84
d'un processus de Jv1 2 , 123 mouvement brownien, 50, 53, 55, 57,
qui n'est pas une martingale, 134 61, 67, 75
Itô absorbé, 115
Index 233
w
Wiener
construction du mouvement brow-
nien, 57, 75
décomposition en chaos, 197
mesure de, 59
Bibliographie
235
236 Mouvement Brownien et calcul d'Itô
www.editions-hermannJr
Hermann 34 euros