Vous êtes sur la page 1sur 256

!

Mathématiques

Mouveinent brownien
et calcul d'Itô
avec exercices corrigés

Léonard Gallardo
J

Mouvement brownien
et calcul d'itô
cours et exercices corrigés
Mouvement brownien
et calcul d'Itô
cours et exercices corrigés

Léonard Gallardo

Hermann ~ éditeurs
www.edition-hermann.fr

Isbn 978 27056 6797 9


© 2008, Hermann éditeurs, 6 rue de la Sorbonne 75005 Paris

Toute reproduction ou représentation de cet ouvrage, intégrale ou partielle, serait illicite


sans l'autorisation de l'éditeur et constituerait une contrefaçon. Les cas strictement
limité à usage privé ou de citation sont régis par la loi du 11 mars 1957.
Remerciements

Mes amis Emmanuel Lesigne et Marc Yor m'ont été d'un grand sou-
tien dans l'élaboration finale de ce texte. Le premier qui a eu la patience
d'éplucher et de corriger le premier polycopié de ce cours à peine sorti de
l'état d'ébauche et le second qui par ses nombreuses remarques et sugges-
tions m'a permis d'améliorer, d'éclairer et de simplifier certains énoncés
et démonstrations du manuscrit initial. Je les remercie de tout coeur pour
l'intérêt qu'ils ont porté à ce travail.
Table des matières

Remerciements iii

1 Introduction aux processus stochastiques 1


1.1 Généralités . . . . . . . . . . . . . . 3
1.1.1 Définitions . . . . . . . . . . 3
1.1.2 Lois de dimension finie d'un processus 4
1.1.3 Équivalence de deux processus stochastiques 5
1.1.4 Continuité et mesurabilité des processus . . . 6
1.1.5 Continuité des trajectoires, critère de Kolmogorov 8
1.1.6 Construction d'un processus stochastique 11
1.2 Les processus gaussiens . . . . . . 16
1.2.1 Lois gaussiennes, rappels . . . . 16
1.2.2 Processus gaussiens . . . . . . 18
1.3 Notion de temps d'arrêt d'un processus 22
1.4 Martingales . . . . . . . . . . . . . . . . . . . . . 24
1.4.1 Rappels sur l'espérance conditionnelle . . . 24
1.4.2 Rappels sur les martingales à temps discret 27
1.4.3 Martingales à temps continu . . . . 30
1.5 Annexe . . . . . . . . . . . . . . . . . . . . . . . 34
1.5.1 Tribus sur un espace de trajectoires . . . . 34
1.5.2 Démonstration du grand théorème de Kolmogorov 38
1.5.3 Considérations sur les lois, l'indépendance des pro-
cessus, etc... . . . . 41
1.5.4 Notes et exercices . . 44

V
vi Mouvement Brownien et calcul d'Itô

2 Le mouvement brownien 49
2.1 Généralités . . . . . 50
2.1.1 Les accroissements du mouvement brownien 50
2.1.2 Caractère gaussien du mouvement brownien . 53
2.1.3 Construction du mouvement brownien . 55
2.1.4 Continuité des trajectoires browniennes 58
2.1.5 La mesure de Wiener sur C([O, oo[, IR) . 59
2.1.6 Invariances du mouvement brownien 60
2.1. 7 Mouvement brownien multidimensionnel 61
2.2 Régularité des trajectoires browniennes . . . . . 62
2.2.1 Variation quadratique des trajectoires . . 62
2.2.2 Non différentiabilité des trajectoires browniennes 64
2.3 Renaissance du mouvement brownien après un temps d'arrêt 66
2.3.1 L'accroissement du mouvement brownien à partir
d'un temps d'arrêt . . . . . . . . 66
2.3.2 Loi du temps d'atteinte d'un point . . . . . . . . . 68
2.4 Annexe . . . . . . . . . . . . . . . . . . . . . . . . . . . 71
2.4.1 La caractérisation de P. Lévy du mouvement brow-
nien . . . . . . . . . . . . . . . . . . . . ·. . . . . 71
2.4.2 La construction de Wiener du mouvement brownien 75
2.4.3 Le principe de symétrie d'André 77
2.4.4 Notes et exercices . . . . . . . . . . . . . . . 79

3 Le mouvement brownien comme processus de Markov 87


3.1 Notions sur les processus de Markov . . . . . . . . . 89
3.1.1 Noyaux de transition et propriété de Markov 89
3.1.2 Lois de dimension finie d'un processus de Markov 91
3.2 Probabilités de transition du mouvement
brownien . . . . . . . . . . . . . . . . . . . . . 93
3.2.1 Le semi-groupe du mouvement brownien 93
3.2.2 La propriété de Markov forte . . . . . . . 95
3.3 Propriétés analytiques du semi-groupe brownien . 96
3.3. l Générateur infinitésimal d'un semi-groupe de Feller 96
3.3.2 La résolvante du mouvement brownien 101
3.4 Annexe . . . . . . . . . . . . . . . . . . . . . . . . . . . 105
Table des matières vii

3.4.1 Famille des lois de probabilité d'un processus de


Markov . . . . . . . . . . . . . . . . . . . . . 105
3.4.2 Processus de Markov canonique . . . . . . . . . . 109
3.4.2.1 Construction du processus canonique . . l 09
3.4.2.2 Les opérateurs de décalage sur ET et la
propriété de Markov . . . . . . . . . . . 110
3.4.2.3 Décalage par un temps d'arrêt et propriété
de Markov forte . . . . . . . . . . . . . 111
3.4.3 Processus de Markov-Feller et propriété de martin-
gale . . . . . . . . 112
3.4.4 Notes et exercices . . . . . . 113

4 Construction de l'intégrale stochastique 117


4.1 Introduction . . . . . . . . . . . 117
4.2 Intégrale stochastique des processus élémentaires 118
4.3 Les processus intégrands . . . . 121
4.3.l Aspects hilbertiens de l'intégrale stochastique. 122
4.3.2 Extension de l'intégrale stochastique à la classe A2 126
4.3.3 Résultats complémentaires sur l'intégrale stochas-
tique . . . . . . . 129
4.4 L'intégrale stochastique comme processus . . . . . . 131
4.4.1 La martingale intégrale stochastique . . . . . 131
4.4.2 Applications : Inégalités maximales pour le proces-
sus intégrale stochastique . . . . . . . . . 136
4.5 Annexe . . . . . . . . . . . 138
4.5. l Approximation d'un processus de A2 par des pro-
cessus élémentaires . . . . . 138
4.5.2 Approximation d'un processus de M 2 par des pro-
cessus élémentaires de carré intégrable . . . 143
4.5.3 Intégrale jusqu'à un temps d'arrêt : démonstration
du lemme 4.4. l 145
4.5.4 Notes et exercices. . . 146

5 Notions sur le calcul stochastique d'Itô 151


5. l Introduction . . . . . . 151
5.2 Processus d'Itô et notion de différentielle stochastique 152
5.2. l Notion de processus d'Itô . . . . . 152
viii Mouvement Brownien et calcul d'Itô

5.2.2 Différentielle stochastique d'un produit ou


formule d'intégration par parties . . . . . 155
5.3 La formule d'Itô. . . . . . . . . . . . . . . . . . 158
5.3.1 Motivation heuristique à la formule d'Itô 158
5.3.2 Démonstration de la formule d'Itô. . . . 159
5.4 Equations différentielles stochastiques . . . . . . 162
5.4.l Un théorème d'existence et d'unicité pour les EDS 163
5.4.2 Signification heuristique d'une EDS . . . . . . 168
5.4.3 Caractère markovien de la solution d'une EDS 169
5.4.4 Notion de processus de diffusion . . . . . . . 172
5.5 Exemples et applications . . . . . . . . . . . . . . . 176
5.5.1 Représentation des martingales browniennes 176
5.5.2 Les équations de Kolmogorov . . . . 181
5.5.3 Exponentielle stochastique . . . . . . 184
5.5.4 Changement de mesure de probabilité 187
5.6 Annexe . . . . . . . . . . . . . . . . . . . . 190
5.6. l La formule de Black, Scholes et Merton 190
5.6.2 Notes et exercices . 195

6 Solutions des exercices 203


6.1 chapitre l 203
6.2 chapitre 2 206
6.3 chapitre 3 213
6.4 chapitre 4 219
6.5 chapitre 5 223

Index 231

Bibliographie 235
Introduction

Ce texte reprend avec quelques compléments les notes d'un cours se-
mestriel sur le mouvement brownien et le calcul d'Itô que j'ai donné en
Master 2 entre 2004 et 2007 à l'Université de Tours. Il s'adresse à un large
public souhaitant une initiation à l'outil moderne du calcul stochastique.
Les méthodes du calcul stochastique, maintenant utilisées avec succès
dans des domaines aussi variés que la physique, l'économie, les assurances,
la finance, etc ... , prennent une place de plus en plus importante dans les
cursus de mathématiques appliquées. On peut aborder leur étude, après
une bonne initiation au calcul des probabilités, avec certains objectifs qui
peuvent induire différentes stratégies pédagogiques :
Par exemple, dans la perspective de fournir des outils mathématiques
à l'ingénieur, on peut présenter les résultats essentiels de manière relative-
ment heuristique, en privilégiant l'acquisition de certaines techniques et en
admettant les démonstrations les plus délicates. Une difficulté apparaît si on
veut aller plus loin et étudier plus en détail les fondements mathématiques
de ces méthodes. En effet le domaine du calcul stochastique a connu un tel
développement dans les trente-cinq dernières années, que l'ensemble des
résultats considérés maintenant comme classiques est considérable. J'ai pu
constater combien ceci impressionne, déroute et fascine à la fois les débu-
tants. Ainsi, pour aller assez vite vers les idées essentielles tout en essayant
de ne pas trop sacrifier le contenu mathématique, j'ai choisi de ne présenter
que ce qui m'est apparu comme vraiment incontournable pour une première
approche du sujet.
D'abord, j'ai supposé connus les résultats essentiels d'un cours de pro-
babilités basé sur la théorie de la mesure et incluant la notion d'espérance
conditionnelle et celle de martingale à temps discret. Toutes ces matières

ix
X Mouvement Brownien et calcul d'Itô

sont maintenant enseignées dans les Master de mathématiques appliquées


et dans certaines écoles d'ingénieur (voir par exemple les livres de M. Maz-
liak & al [39], de J.Y. Ouvrard [45] et de D. Revuz [50]). Néanmoins le lec-
teur qui n'aurait pas eu un accès à toutes ces notions, trouvera dans le pre-
mier chapitre une présentation rapide mais suffisante de ce qu'il convient
de connaître sur !'espérance conditionnelle et les martingales.
A partir de là, j'ai privilégié l'étude des aspects les plus classiques du
mouvement brownien et de l'intégrale d'Itô en détaillant leur construction.
Mais je n'ai pas parlé d'intégrale par rapport à une martingale (continue)
ce qui pourtant n'aurait pas été beaucoup plus difficile mais aurait nécessité
d'introduire la notion délicate de crochet de deux martingales. De même
je n'ai considéré que des processus d'Itô unidimensionnels et je n'ai pré-
senté que les premiers aspects de la théorie des équations différentielles
stochastiques et de leurs applications parmi lesquelles par exemple la fa-
meuse méthode de Black-Scholes et Merton de calcul du prix d'une option
européenne.
II me semble donc important de préciser que ce cours n'est qu'une intro-
duction aux idées de l'analyse stochastique. II ne s'adresse pas aux lecteurs
déjà familiarisés avec le sujet et qui ont plutôt intérêt à l'approfondir dans
les grands traités de calcul stochastique mentionnés dans la bibliographie
([48], [51], [52]).
Afin de permettre un accès rapide aux sujets traités, chaque chapitre
débute par un paragraphe introductif qui en présente les objectifs et le plan.
Le lecteur peut ainsi décider de l'étudier en détail ou d'aller voir plus loin.
Par exemple, voici comment aller rapidement aux équations différentielles
stochastiques :
Après la définition de la notion de processus stochastique, on passe au
chapitre 2 à l'étude du mouvement brownien comme processus à accrois-
sements indépendants puis au moment où on développe l'aspect gaussien,
on revient au chapitre 1 pour des précisions. On va alors directement au
chapitre 4 où on peut, dans un premier temps, se contenter de !'aspect hil-
bertien de l'intégrale stochastique. En admettant les propriétés de martin-
gale de l'intégrale stochastique, on peut alors aussitôt étudier la notion de
différentielle stochastique, la formule d'Itô et le théorème d'existence et
d'unicité des solutions d'équations différentielles stochastiques (EDS).
Pour approfondir et comprendre la nature de la solution d'une EDS, il
Préface xi

faudra alors revenir au chapitre 3 pour étudier les processus de Markov et


au chapitre l pour les martingales.
Par contre, si on veut privilégier l'aspect markovien du mouvement
brownien, on peut commencer par les chapitres 2 et 3 et le cours peut être
alors considéré comme une introduction aux processus de Markov à temps
continu. De même le chapitre l peut-être vu comme un mini-cours sur les
processus stochastiques incluant l'exemple des processus gaussiens et être
intégré dans un cours de Master 1. Dans ce cas, certaines notions délicates
comme la mesurabilité progressive des processus et qui ne servent qu'à
partir du chapitre 4, peuvent être ignorées. Dans les mêmes conditions, le
chapitre 2 peut aussi être recommandé aux candidats à 1' Agrégation.
De manière générale, l'importance du chapitre 1 que nous avons sou-
haité court pour aller rapidement au coeur du sujet, ne doit pas être sur-
estimée par le lecteur. On peut plutôt le considérer comme une référence
car il n'est pas indispensable d'en maîtriser tous les aspects pour aborder
valablement le sujet central du mouvement brownien et des équations dif-
férentielles stochastiques.
Dans tous les cas, je pense que des allers et retours sont indispensables
pour assimiler complètement le cours. Ainsi les points techniquement les
plus difficiles sont développés dans les annexes et on peut les éviter en pre-
mière approche. Je suis personnellement partisan d'une telle méthode de
travail «par approximations successives» car elle est voisine de la démarche
du chercheur à laquelle la formation de Master 2 est justement censée ini-
tier.
Enfin, pour permettre au lecteur de tester sa compréhension du cours
mais surtout pour affermir ses connaissances, tous les chapitres se terminent
par des exercices de difficulté variée dont les plus difficiles sont marqués
d'une étoile. Toutes les solutions sont détaillées à la fin du volume.
xii Mouvement Brownien et calcul d'Itô
Chapitre 1

Introduction aux processus


stochastiques

Un processus physique ou économique est traditionnellement décrit par


une fonction X : t 1---* X (t) où la variable t qui représente le temps peut
être discrète ou continue et X(t) est la valeur numérique 1 mesurant l'état
du processus à l'instant t. Si la valeur de X dépend aussi du "hasard", on
dit que le processus est stochastique.
Depuis Kolmogorov, on modélise le hasard par un espace (D, F, IP').
Il est donc naturel d'essayer de décrire le processus stochastique X par
une fonction de deux variables (t,w) 1---* X(t,w), où la nouvelle variable
w représente le "hasard" et appartient à n. Mais la fonction X définie sur
l'espace produit T x n où Test l'ensemble des temps, doit vérifier certaines
conditions. Par exemple il est raisonnable de supposer que pour tout instant
t, l'application partielle Xt : w 1---* X(t,w) (état aléatoire du processus à
l'instant fixé t) est une variable aléatoire 2 définie sur (D, F, IP').
On peut donc voir le processus X comme la famille de variables aléatoi-
res (Xt)tET· Mais cette condition de mesurabilité individuelle de chaque
Xt est insuffisante. En effet quand on observe un processus dans la pra-
tique, on constate que pour chaque instant t fixé, seuls certains événements
A E F peuvent survenir dans l'intervalle de temps [O, t]. Ces événements
1 ou plus généralement à valeurs dans Rd.
2 i.e.une application mesurable relativement aux tribus :F sur n et à la tribu de Borel
définie sur Rd.
2 Mouvement Brownien et calcul d'Itô

constituent une sous-tribu Ft de F appelée parfois l'information dfaponible


à l'instant t. La famille (Ft)tET est croissante et s'appelle une filtration.
Comme Xt décrit l'état du processus à l'instant t, il convient donc de sup-
poser que cette variable aléatoire est Ft-mesurable. On est donc conduit à
modéliser un processus stochastique comme on va le voir ci-dessous dans
la définition 1.1.1. On notera à ce propos une dissymétrie entre le temps
et le hasard : la variable w est "globale" alors que t est une variable "lo-
cale". Tout se passe comme si le hasard w se révélait petit à petit à travers
les valeurs de Xt(w) lorsque le temps t s'écoule, si bien qu'il faudrait at-
tendre d'avoir la totalité des valeurs (Xt(w))tET pour connaître la valeur
du processus.

On peut aussi voir le processus X "globalement" comme un élément


aléatoire de l'ensemble JRT des applications de T dans lR (resp. d'un sous-
ensemble J c JRT) "à la manière d'une variable aléatoire" w 1-+ X(w) mais
où X(w) E JRT (resp. X(w) E J) est la fonction (Xt(w))tET; on parle alors
de fonction aléatoire. Il convient alors de munir JRT (resp. J) d'une tribu
convenable B pour préciser la condition de mesurabilité vérifiée par X. La
loi de X est alors la mesure de probabilité µx sur B telle que µx(B) =
IP'(X E B) si B E B. Ces deux façons de considérer un processus sont
complémentaires comme nous le verrons dans la suite.

Le début du chapitre est consacré aux définitions générales, à un impor-


tant critère de continuité des trajectoires d'un processus stochastique et au
"grand théorème" de Kolmogorov. Ce résultat qui assure l'existence d'un
processus associé à une famille cohérente de mesures de probabilité, est
appliqué directement à l'exemple des processus gaussiens. On introduit en-
suite la notion de temps d'arrêt, fondamentale dans l'étude des martingales
dont nous présentons, sans démonstration, les principaux résultats.

Enfin, l'annexe qu'on peut ignorer en première lecture, contient des dé-
tails sur les tribus généralement associées aux processus stochastiques ainsi
que des compléments sur les lois et l'indépendance des processus, auxquels
il sera parfois utile de se reporter pour maîtriser les détails techniques de
certaines démonstrations.
Chapitre 1. Introduction aux processus stochastiques 3

1.1 Généralités
1.1.1 Définitions
Définition 1.1.1 : On appelle processus stochastique (resp. processus sto-
chastique adapté), la donnée

(1.1) x = (n, F, (Xt)tEr, IP'),

(1.2) (resp. X = (n, F, (Ft)tET, (Xt)tET, IP') ),



i) n est un ensemble (univers des possibles).
ii) Fest une tribu 3 de parties den.
iii) lP' est une mesure de probabilité sur (0, F).
iv) T est un sous-ensemble de lR+ (qui représente le temps).
v) (Ft)tET une filtration indexée par Ti.e. une famille croissante de sous
tribus de F
vi) (Xt)tET une famille de variables aléatoires définies sur (n, F), à va-
leurs dans un espace topologique E muni de sa tribu des boréliens B(E)
(resp. qu'on suppose de plus adaptée à la.filtration (Ft)tET i.e. telle que
pour tout t ET, Xt est Ft- mesurable).

Remarques:
1) Un processus stochastique modélise l'état d'un système aléatoire au
cours du temps. L'espace E dans lequel les variables aléatoires Xt prennent
leurs valeurs, est appelé l'espace des états du processus. La variable aléatoi-
re Xt représente l'état du processus à l'instant t.
2) Dans la plupart des cas, l'espace des états (E, B(E)) est l'espace
numérique (JRd, B(JRd)) de dimension d et l'ensemble des temps Test un
intervalle [O, a] ou [O, +oo[. Dans ce cas le processus X est dit à temps
continu. Lorsque Test l'ensemble N des entiers, le processus est à temps
discret.
3) La filtration d'un processus est un objet important qui contient l'es-
sentiel des propriétés probabilistes du processus comme nous le verrons
3 ou sigma-algèbre.
4 Mouvement Brownien et calcul d'Itô

bientôt. L'exemple le plus simple est la filtration naturelle de la famille


(Xt)tET, où, pour tout t E T, Ft = o-(X8 , s ::; t) est la tribu engendrée par
les variables aléatoires Xs pour s ::; t. On notera que la filtration naturelle
d'une famille (Xt)tET de variables aléatoires, est la plus petite de toutes les
filtrations par rapport auxquelles la famille (Xt)tET est adaptée. En effet
une telle filtration contient toujours la filtration naturelle de (Xt)tET com-
me sous-filtration. Un processus X sans précision de filtration, est donc
toujours adapté à sa filtration naturelle.
4) L'application t f-+ Xt (w) de T dans E est la trajectoire du processus
correspondant à l'éventualité w E n. C'est un élément de ET (ensemble
des applications de T dans E). Soit <I> : n ---+ E 1 ', la correspondance w f-+
{t f-+ Xt(w)}. L'ensemble <I>(r2) CET est appelé espace des trajectoires
du processus X. Souvent l'espace de base n est un sous-ensemble de ET
et on n'a pas besoin de cette application <I>. Dans ce cas, pour t E T, la
variable aléatoire Xt est l'application "t-ième" coordonnée i.e. Xt(w) =
w(t) (évaluation à l'instant t de la trajectoire w).
5) On désignera souvent le processus X par X = (Xt)tET quand le
reste de la donnée est fixé ou n'a pas besoin d'être précisé.

1.1.2 Lois de dimension finie d'un processus


Soit X un processus stochastique et I = {t 1 , ... , tn}, une partie finie
de T. Par commodité, on supposera que t 1 < · · · < tn et on notera X1 le
vecteur aléatoire de E 1 donné par

On rappelle que la loi du vecteur aléatoire X1 est la mesure de probabilité


µ1 sur l'espace de Borel-1- (E 1 , BE1 ), image de IP par l'application X1 :
n ---+ E 1 i.e.
(1.3) M(A) = IP(X1 E A) (VA E BE1 ).

En particulier si A = A1 x · · · x An est un "rectangle" avec Ai E BE


(i = 1, ... , n), on a

~oùBE1 est la tribu de Borel de l'espace produit E 1 i.e. BE1 = Bs@· ··@BE (n fois).
Chapitre 1. Introduction aux processus stochastiques 5

Définition 1.1.2 : On appelle lois de dimension finie du processus X, la


famille (µ1 )IE'Pi(T) de toutes les lois de probabilité des vecteurs aléatoires
X1 lorsque I décrit l'ensemble Pt(T) des parties.finies de T.

Remarque : Dans la pratique, on ne peut observer un processus que sur


un nombre fini d'instants. On comprend donc facilement que les lois de
dimension finie sont accessibles par exemple par des méthodes statistiques.
Du point de vue mathématique, l'importance de ces lois sera précisée par
la suite mais on peut déjà donner le résultat suivant :

Proposition 1.1.1 : Soient X1 = (0, F, (Xt)tET, IP'i) et


X2 = (0, F, (Xt)tET, IP2) deux processus ne différant que par les proba-
bilités. Si X 1 et X2 ont les mêmes lois de dimension finie, alors IP'i = Ifll2
sur la tribu o-(Xt, t ET) engendrée par toutes les Xt, t ET.

Démonstration : Par définition IP 1 et IP 2 coïncident sur les événements de


la forme [Xt 1 E A1, ... ,Xtn E An] où ti ET, n EN et Ai E BE.
Ces événements forment un 7r-système C (i.e. une classe C d'ensembles,
stable par intersections finies). D'après le théorème de prolongement de
Carathéodory, IP 1 et IP 2 coïncident sur la o--algèbre o-(C) engendrée par C,
d'où le résultat. D

1.1.3 Équivalence de deux processus stochastiques


On définit ici trois relations d'équivalence sur l'ensemble des processus
stochastiques.
Soient X = (O,F, (Xt)tEr,W) et X' = (n',F', (XDtEr,IP') deux pro-
cessus stochastiques associés au même espace des temps T et ayant même
espace des états (E, BE).

Définition 1.1.3 :
i) On dit que les processus X et X' sont équivalents s'ils ont les mêmes
lois de dimension finie.
ii) On dit que les processus X et X' sont une modification (ou une
version) l'un de l'autre si les espaces sur lesquels ils sont définis sont les
mêmes i.e. (0, F, IP) = (n', F', IP') et si pour tout t E T, Xt = x; IP-
presque sûrement. En particulier, ils sont alors équivalents.
6 Mouvement Brownien et calcul d'Itô

iii) Les processus X et X' sont dits indiscernables si (n, :F, JP) =
(n', :F', JP') et si JP(Vt E T, Xt = Xf) = 1. Dans ce cas ils sont aussi
une modification l'un de l'autre.
Remarque : 1) On notera que la différence entre ii) et iii) tient à la
place du JP-presque sûrement. Pour deux processus version l'un de l'autre,
pour tout t E T, il existe un sous-ensemble nt E :F dépendant de t, de
probabilité 1, tel que pour tout w E nt, on ait Xt(w) = Xf(w), a!9rs que
pour deux processus indiscernables, il existe un sous-ensemble n E !"
indépendant de t et de probabilité 1 tel que pour tout t E T et tout w E n,
Xt(w) = X~(w).
2) Deux processus qui sont une version l'un de l'autre ne sont pas for-
cément indiscernables. En effet soit n = [O, 1], :F = B[o,i] (la tribu de
Borel de [O, 1]), lP = ,\ (la mesure de Lebesgue) et T = [ü, 1]. Considérons
les processus définis par

et
X~(w) =O.
Les processus X et X' sont une modification l'un de l'autre mais ils ne sont
pas indiscernables car {w En, Vt ET, Xt(w) = Xf(w)} = r/J.

1.1.4 Continuité et mesurabilité des processus


On suppose dans cette partie que le temps est continu i.e. T = [O, a] ou
T = [O,oo[.

Définition 1.1.4 : Un processus X est dit continu (resp. JP-p.s. continu) si


pour tout w E n (resp. pour lP-presque tout w E n), la fonction t __, Xt(w)
de T dans E est continue.
De manière analogue, on définit la notion de processus continu à droite (c.à
d. en abrégé), resp. continu à gauche (c.à g.), resp. borné, resp. limité à
droite (i.e. qui a une limite à droite en chaque point t E T), resp. limité à
gauche, etc ... Une propriété très utile liée à la continuité est la suivante.

Proposition 1.1.2 : Si deux processus continus X et Y sont une version


l'un de l'autre, alors ils sont indiscernables.
Chapitre 1. Introduction aux processus stochastiques 7

Démonstration: Pour tout t E [ü, a], on a JP(Xt = yt) = 1 donc


lP(ntE[ü,a]nQ[Xt = Yt]) = 1.

Mais comme les trajectoires de X et Y sont continues, ntE[O,a]nQ[Xt


Yl] = ntE[O,a] [Xt = yt], d'où le résultat. D

Définition 1.1.5 :
i) Le processus X est dit mesurable si l'application (t, w) ---+ Xt(w) est
mesurable de (T X n, Br 0 F) dans (E, BE)·
ii) On dit que X est progressivement mesurable par rapport à une filtration
(Ft)tET si pour touts ET, l'application (t, w)---+ Xt(w) est mesurable de
([O, s] X n, B[o,s] 0 Fs) dans (E, BE)·
Remarque : Un processus progressivement mesurable est évidemment me-
surable. D'autre part la condition de mesurabilité progressive implique l' ad-
aptation du processus à la fitration (Ft)tET mais un processus adapté n'est
pas forcément progressivement mesurable comme le montre l'exemple sui-
vant :
Soit (D,F,JP) un espace probabilisé (quelconque), T = [O, 1] et f :
T ---+ lR une fonction (déterministe) qu'on suppose non-borélienne5 . Pour
tout t ET, posons
\:/w ED, Xt(w) = f(t).
i.e. la variable aléatoire Xt est constante en w et vaut f(t). Prenons pour
filtration, la filtration naturelle (Ft)tET de la famille (Xt)tET· Clairement,
pour tout t E T, Ft = {n, 0} est la tribu triviale et on vérifie aussitôt que
le processus (Xt)tET n'est pas progressivement mesurable.
Nous verrons dans les prochains chapitres l'importance de la condition
de mesurabilité progressive dès qu'on étudie les temps d'arrêt d'un proces-
sus. Mais en réalité, cette propriété est très généralement satisfaite par les
processus que nous étudierons dans ce cours comme le montre le résultat
suivant:

5 De telles fonctions existent. Par exemple f = lA, où A est un ensemble non borélien

(pour en exhiber, on a besoin de l'axiome du choix voir par exemple le livre de B. Gelbaum
et J. Olmsted [23].)
8 Mouvement Brownien et calcul d'Itô

Théorème 1.1.1 : Si un processus adapté X est continu à droite6, il est


progressivement mesurable.

Démonstration : Fixons s E T et pour chaque entier n > 0, posons

x~n) = { x(k+l)2-ns si 'U E [k2-ns, (k + 1)2-ns[


Xs si 'U = S

avec k entier entre 0 et 2n- 1 .


Pour chaque 'U ::; s, la continuité à droite du processus X implique

. X(n)
1lffi 'U
-- X U1
n->OO

sur n. D'autre part, l'application X(n) : ('U, w) f-----7 X~n) (w) est B[o,s] 0 Fs
mesurable car pour tout A E BE, on a

{('U,w) E [0,s] x f!; X~nl(w) E A}

= u
k<2n
ks (k+l)s[
[ 2n' 2n X [X(k+l)2-ns E AJ U

({s} x [Xs E A}]) E B[o,s] @Fs.

L'application ('U, w) f-----7 Xu (w) est donc B[o,s] @Fs mesurable comme limite
simple des applications mesurables ('u, w) f-----7 X~n) (w ). D

On notera que dans le cas où T est discret, tout processus est progres-
sivement mesurable.

1.1.5 Continuité des trajectoires, critère de Kolmogorov


Dans le cas où le processus X est à valeurs dans JRd et que ses accrois-
sements sur tout intervalle de temps [s, t] avec 0 ::; s < t, ont des moments
contrôlés par une puissance de t - s, Kolmogorov a obtenu en 1937 un
résultat remarquable sur la continuité des trajectoires de X :

6 en abrégé processus càd


Chapitre 1. Introduction aux processus stochastiques 9

Théorème 1.1.2 : Soient T = [O, a] ou [O, +oo[ et X = (Xt)tET un pro-


cessus à valeurs dans JRd. On suppose qu'il existe des constantes a > 0,
f3 > 0 et C > 0 telles que
(1.4) Vs, t ET, lE(IXt - Xsl/3) :S Git - sli+a.

Alors il existe une version X de X, à trajectoires continues. De plus, sur


tout compact [O, a] c T, les trajectoires de X sont holdériennes d'exposant
/pour tout/ < ~ (i.e. pour tout w E D, il existe une constante Kw > 0
telle que pour tous s, t E [O, a], IXt(w) - X (w) 1:S Kwlt -
8 sl'Y ).
Démonstration : Il suffit de prouver le résultat pour T = [O, a] (a > 0).
Considérons alors l'ensemble

D
ka
= { 2n; n EN, k -- 0', ')n} '
1 .... , ....

qui est clairement dense dans [O, a]. L'idée de la démonstration consiste à
montrer qu'en dehors d'un ensemble négligeable de trajectoires w, l'appli-
cation t r--+ Xt(w) est uniformément continue sur D. Elle se prolonge donc
à [O, a] en une application uniformément continue t r--+ Xt. On montrera
enfin d~ns la dernière partie de la preuve que pour tout t E [O, a], on a
Xt = Xt JP>-p.s.
étape 1 : Fixons/ E]O, ~[.Pour n E N, posons tk = ~~ (k = 0, 1, ... , 2n)
et considérons les événements
2n-1

An = LJ [IXtk+1 - Xtk 1> rn')'] .


k=O

D'après l'inégalité de Markov, on a


2n-1

JP>(An) :S L 2n!3'YJE(IXtk+1 - Xtk 1/3)


k=O

et l'hypothèse (1.4) implique aussitôt que JP>(An) :S Cal+a2-n(a-/J'Y) donc


la série Ln JP>(An) converge et d'après le lemme de Borel-Cantelli, l'évé-
nement N = [An, infiniment souvent]7 est de probabilité nulle; autrement
1 [An, infiniment souvent] := lim sup An = nn;:::o Uk;:::n Ak.
IO Mouvement Brownien et calcul d'Itô

dit IP(Nc) = 1. Considérons alors w E Ne (fixé). Il existe un entier n(w)


tel que pour tout n 2:: n(w), on ait w rf_ An.
Soit alors m > n(w) un entier qu'on considère comme fixé pour le moment
et soit t E D. Il existe un unique entier k tel que t E [;~, (k~~)a [.Claire-
ment, s1. t > 2ka 1 ( k ~.,. d ')-l) ou' r > 'm est un entier
m, a ors t =a 2m + L..,,/=m+l 1~
·

et d1 = 0 ou 1. On a alors
r-1
IXt(w) -Xka2-m(w)j = L IXui(w) - Xui+ 1 (w)I
j=m

= a( 2~, + I:l=m+l d12- 1). Or ou bien 'Uj = Uj+1 et alors IX.ai (w) -
où 'Uj
Xui+ (w)1 = 0 ou bien Uj+l - 'Uj = a2-(J+l) et dans ce cas IX.ai (w) -
1

Xui+ 1 (w)I::; 2-(J+lh puisque w rf_ AJ+l· Ainsi:

(1.5) IXt(w) - Xka2-m(w)I::; r(m+lh + r(m+ 2 h + ... + 2-r-y


2-'Y
< 2-m-y_
- 1 - 2-'Y
Considérons maintenant t, t' E D tels que jt - t' 1 ::; a2-m. En po-
sitionnant t et t' par rapport aux nombres g! on voit qu'il y a deux cas
possibles :
1") ou b.1en 1"l existe
· k' 2:: 1 te. 1 que t E [(k-l)a
~, 2ka m
[ et t 1 E [ka (k+l)a [
2m , ~ et
alors:

IXt(w) - Xt'(w)I::; IXt(w)-X(k-l)a2-m(w)I + IXt'(w) - Xka2-m(w)j


+ IX(k-l)a2-m(w) - Xka2-m(w)I.

Donc IXt(w) - Xt'(w)I ::; ( 1 + 12~'Y;~'Y) rm-y d'après (1.5).


·· · 1·1 existe
ou bien
11) · k·· 2:: 1 te 1 que t, t 1 E [(k-l)a
~' 2ka m
[ et d·ans ce cas,
,
toujours d'après (1.5),

IXt(w) - Xt (w)I::; IXt(w) - Xka2-m(w)I


1 + IXt'(w) - Xka2-m(w)j
2--y+l
< 2-m-y
- 1 - 2--y
Chapitre 1. Introduction aux processus stochastiques 11

Dans tous les cas il existe une constante c = 1 + î=;~~ telle que pour
tous t, t' E D avec lt - t'I :S a2-m, on ait

(l.6)

ce qui prouve l'uniforme continuité de t ~ Xt (w). En fait on a plus comme


on va le voir ci-dessous :

étape 2 (caractère hOldérien de la trajectoire) : Si t, t' E D sont tels que


lt-t'I < a2-n(w), il existe m > n(w) tel que a2-(m+l) :S lt-t'I :S a2-m
et d'après (l.6), on a

Si maintenant t et t' sont quelconques dans D, il suffit de les positionner


par rapport aux nombres de la forme ka2-n(w) et d'additionner les accrois-
sements de Xt (w) sur les intervalles obtenus (qui sont en nombre inférieur
à 2n(wl), pour obtenir

(l.7)

ce qui montre que la trajectoire est hèildérienne d'ordre 'Y avec une constante
de Holder Kw = c21+n(w).
étape 3 : Pour tout w E Ne on note t ~ Xt (w) le prolongement (hOldérien)
àJO, a] de Xt(w) (t E D). Il reste à montrer que pour tout t E [ü, a], on a
Xt = Xt lJl>-p.s.
Notons que par définition, on a Xt = Xt lJl>-p.s. si t E D. Soit alors t E
[O, a] et (tn) E D une suite convergente vers t. Par l'hypothèse de Kol-
mogorov (l.4), on a lim Xtn = Xt en probabilité donc on a aussi lim ~tn =
~t lJl>-p.s. éventuellement pour un~ suite extraite. Mais on a aussi lim Xtn =
Xt lJl>-p.s. c~r les trajectoires de X sont continues. Par unicité de la limite,
on a donc Xt = Xt lJl>-p.s. D

1.1.6 Construction d'un processus stochastique


Si I et J sont des parties finies de l'espace des temps T telles que
J c I, on note <I> J,J : E 1 --+ E 1
la projection canonique définie par

(l.8)
12 Mouvement Brownien et calcul d'Itô

(par exemple si I = {1, 2, 3} et J = {2, 3}, <I> I,1(x1, x2, x3) = (x2, x3)).
D'autre part, supposons donnée une famille de probabilités (µ1 )JEPi(T) où
I varie dans l'ensemble P1 (T) des parties finies de Tet où µJ est une pro-
babilité sur l'espace mesuré (E 1, BE1 ). Pour tout J c I, on note <I>1,1(M)
la mesure image de µ1 sur E 1 par la projection canonique. En termes pro-
babilistes, on dit que <I> I,J (µ1) est la loi marginale de µJ sur E 1 .

Définition 1.1.6 : On dit que la famille de probabilités (M)IEPi(T) est


cohérente si pour tous J C Ide P1(T), on a

(1.9)

L'exemple typique de famille cohérente est l'ensemble des lois de dimen-


sion finie d'un processus X= (Xt)tET· En effet si I = {t1, t2, ... , tn} et
µ1 est la loi du vecteur aléatoire X1 = (Xt 11 Xt 2 , .•• ,Xtn), la condition
(1.9) est trivialement vérifiée puisqu'elle exprime que µJ est la loi margi-
nale du vecteur XI sur E 1 . Réciproquement Kolmogorov a montré en 1933
que toute famille cohérente est de ce type. Ce résultat remarquable a fondé
les bases de la théorie mathématique du calcul des probabilités.

Théorème 1.1.3 (Grand théorème de Kolmogorov): Soit E un espace to-


pologique polonais8 et (µ1 )JEPi(T) une famille cohérente de probabilités
sur les puissances cartésiennes de E.
Alors il existe un processus X= (!1, F, (Ft)tET, (Xt)tET, IP') avec E pour
espace des états et dont les µ1 sont les lois de dimension finie. Plus précis-
ément, il est construit de la façon suivante:
iJ n =ET,
ii) Xt: w 1-+ Xt(w) = w(t) (l'application t-ième coordonnée),
iii) Ft la filtration naturelle de la famille (Xt)tET,
iv) F = B~T la tribu engendrée par toutes les Xt, t E T.
De plus sur cet espace, la probabilité IP' est unique (voir la proposition
1.1.1 ). Le processus X ainsi construits' appelle le processus canonique as-
socié à la famille cohérente (M )JEPi(T)·

Remarque : Lorsque T = N*, lespace des trajectoires !1 = ET est


souvent noté E 00 , c'est l'espace des suites infinies x = (x 1, x2, ... ) =
8 i.e. métrique, séparable et complet.
Chapitre 1. Introduction aux processus stochastiques 13

(xn)n~l et on note aussi F 00 := B~r. On peut dans ce cas affaiblir les


conditions de cohérence générales de ( 1.9). Pour cela désignons par Ek :=
E[l,k] (k E T) et par <I> k : Ek+ 1 -----+ Ek, la projection canonique

Considérons alors pour tout n ~ 1, une mesure de probabilité µn sur


(En, B~n). On dit alors dans ce cas que la suite (µn) est cohérente (ou
consistante) si pour tout n ~ 1, on a

(1.10)

Ceci équivaut à dire que pour tous A1, ... , An E BE,


\
µn+l(A1x, ... X An XE)= µn(A1x, ... X An)·

Le théorème de Kolmogorov prend alors la forme suivante :

Théorème 1.1.4 : Soit (µn) une suite cohérente de probabilités au sens


de ( 1.10). Alors il existe une unique probabilité IfD sur (E 00 , F 00 ) telle que
pour tout n ~ 1, on ait :

(l.11)

où 7rn: E 00 -----+ En est la projection canonique 7Tn((xk)k>1) =


(x1, ... , Xn). Ceci équivaut à dire que pour tout A E B~n, o~ a

( 1.12)

Pour le processus canonique X = (E 00 , F 00 , (Fn)n~l, (Xn)nEN*, IfD) où


les Xn sont les applications coordonnées9 , µn est précisément la loi du
vecteur aléatoire (X1, ... , Xn)·

Remarque générale sur le théorème de Kolmogorov : La démonstration


que nous donnons en annexe utilise le théorème d'extension des mesures de
Carathéodory. Dans un premier temps on peut admettre ce résultat. D'autre
part l'espace (ET, B~T) est en général beaucoup trop gros, la mesure IfD
9définies ici pourtoutw = (xk)k2:1 E E':x' par Xn(w) = Xn-
14 Mouvement Brownien et calcul d'Itô

étant souvent portée par une partie "infime" de cet espace. C'est le cas par
exemple pour le mouvement brownien qu'il suffit de considérer sur l'es-
pace C([O, +oo[, IR) des trajectoires continues comme nous le verrons au
chapitre suivant.
Exemples d'applications du grand théorème de Kolmogorov
Dans les énoncés d'exercices l'une des phrases que l'on rencontre le
plus couramment est la suivante : "Considérons une suite (Xn)n2:1 de va-
riables aléatoires indépendantes et de même loiµ sur E ... ".Une telle suite
a bien une réalité mathématique grâce au théorème de Kolmogorov :

Proposition 1.1.3 : Soitµ une probabilité sur (E, BE). Il existe une me-
sure de probabilité lP sur l'espace canonique E 00 =EN* muni de la tribu
produit F 00 := B~* telle que le processus canonique associé : X =
(E 00 , F 00 , (Fn)n2:1, (Xn)nEN*, JP) soit une suite de variables aléatoires
indépendantes à valeurs dans E et de même loi µ.
Démonstration : Sur (En, B~n) considérons µn la n-ième puissance
tensorielle de la probabilité µ i.e. la mesure µn = µ 0 · · · 0 µ (n fois).
Alors il est clair que (µn)n2:l est une suite cohérente (au sens de 1.10)
de mesures de probabilité sur les puissances cartésiennes de E. D'après le
théorème 1.1.4, le processus canonique est tel que la loi de (X1, ... , Xn)
est la n-ième puissance tensorielle de µ, ce qui signifie que les Xi sont i.i.d.
et de même loi µ. 0
Avant de donner une autre application, on a besoin de la définition sui-
vante

Définition 1.1.7 : Soit X = (Xt)tET un processus à valeurs dans E = IRd.


On dit que
1) X est à accroissements indépendants si pour toute suite finie d'instants
to < t1 < · · · < tn. les variables aléatoires Xt 1 - Xt 0 , ••• , Xtn - Xtn-l
sont indépendantes.
2) X est à accroissements stationnaires si pour tous s < t E T, la loi de la
variable aléatoire Xt - X 8 ne dépend que de t - s.

Proposition 1.1.4 : Soit >. > O. Il existe un processus N = (Nt)t>o à


valeurs dans IR, à accroissements indépendants et stationnaires tel que
No = 0 et pour tous s < t, Nt - N 8 est de loi de Poisson de paramètre
>.(t - s). Ce processus est appelé processus de Poisson de paramètre>..
Chapitre 1. Introduction aux processus stochastiques 15

Démonstration: Notons P(o:) la mesure de Poisson sur lR de paramètre a.


Pour toute partie finie I = {t1, ... , tn} de T = [O, +oo[, écrivons Nti =
Ni pour simplifier les notations. La loi du vecteur aléatoire (N 1, N2 -
N1, ... , Nn - Nn-1) devrait être égale à P(>..t1) 0 P(>..(t2 - t1)) 0 · · · 0
P(>..(tn - tn-1)). La loi µ1 du vecteur (N1, ... , Nn) aurait alors une fonc-
tion caractéristique

p,1 (u 1 , ... ,un)= E(eiu1N1ei·u2N2 .. ·ei·u2Nn)


= J8:( eiu1N1eiu2(N2-N1 +N1) ... ei·un(Nn-Nn-l +··+N2-N1 +N1))
= E(ei(u1+u2+ .. +·un)N1ei('u2+ .. +un)(N2-N1) ... ei'Un(Nn-Nn-l))
n
(1.13) = IJ exp (>..(ti - ti-1)(ei(ui+ .. +un) -1))'
i=l
(où t 0 = 0). Si J c I et en utilisant les notations de ( 1.9), la fonction carac-
téristique de la loi marginale <I> l,l(M) de µ1 sur JR. 1 est la fonction obtenue
à partir del' expression de W( U1, ... , 'Un) en remplaçant par Ü les variables
Ui telles que ti tj. J. L'expression obtenue coïncide avec P,1 comme on
peut le vérifier facilement de la manière suivante :
Si k est le plus grand entier tel que Uk = 0 dans ( 1.13 ), les termes corres-
pondants à i = k et i = k + 1 dans le produit se simplifient et donnent

On procède alors par récurrence descendante sur tous les entiers k tels que
uk = 0 pour constater que l'expression restante est égale à P,1. La famille
des lois µ1 est donc cohérente. Il suffit alors d'appliquer le théorème 1.1.3
pour voir que le processus canonique vérifie bien les conditions de la pro-
position. D
Remarque : Bien entendu le processus de Poisson peut-être construit
de façon bien plus naturelle (voir par exemple [50] p.267 ou [51] p.471).
Mis à part son aspect processus ponctuel (qui ne rentre pas dans le cadre de
ce cours), signalons que la construction classique du processus de Poisson
N = (Nt)t?.O est la suivante :
Soit (Ti)i?.l une suite de variables aléatoires indépendantes et de même
loi exponentielle de paramètre>.. et pour tout n 2: 1 soit Tn = T1 + · · ·+ Tn.
Pour tout t 2: 0, on pose No = 0 et si t > 0, Nt = max{n; Tn ,::; t}.
16 Mouvement Brownien et calcul d'Itô

Autrement dit N part de zéro, reste égal à zéro jusqu'à l'instant T 1 où il


passe à la valeur 1 et garde cette valeur jusqu'à l'instant T2 où il passe à
la valeur 2 et ainsi de suite. Les Tn sont les instants de saut de N. Les
trajectoires de N sont donc croissantes, constantes par morceaux avec des
sauts d'amplitude 1. Il est assez facile de montrer dans ces conditions que
Nt est de loi P(>..t) mais la preuve du fait que N est à accroissements
indépendants est assez délicate (voir [50] p.268).

1.2 Les processus gaussiens


1.2.1 Lois gaussiennes, rappels
Tous les résultats de ce paragraphe sont des rappels (voir [45] p. 241
ou [50] p. 85). Les vecteurs aléatoires que nous considérons sont supposés
définis sur un espace probabilisé (0, F, JPl) que nous ne mentionnerons plus
dans la suite.
Soit Ç = (X 1 , ... , Xn) un vecteur aléatoire centré 10 de JR.n, appartenant
à L 2 (0,F,JPl) 11 et soit r = (rij) (1 ::; i,j ::; n) sa matrice des cova-
riances12.

Définition 1.2.1 : Le vecteur Ç est gaussien si pour tous a1, ... , an E R


la variable aléatoire réelle L~=l aiXi est de loi normale.
La loi d'un vecteur gaussien centré ne dépend que de sa matrice des cova-
riances:

Proposition 1.2.1 : Le vecteur aléatoire centré Ç de matrice des cova-


riances r est gaussien si et seulement si sa fonction caractéristique </Jç(t) =
JE.( ei<Çlt>) est de la forme :

(1.14) </>ç(t) = e-~<tlft>. (t E lRn),

où < . j. > désigne le produit scalaire de ]Rn et rt est le vecteur transformé


de t par la matricer. On dit alors que Ç suit la loi Nn(O, r) (l'indice n
indiquant que c'est une loi de Gauss dans JR.n ).
111 i.e. les X; sont intégrables et E(X1) = · · · = E(Xn) =O.
11 i.e. pour tout i = 1, ... , n, E(Xf) < +oo.
12 i.e. rij = E(XiXj).
Chapitre 1. Introduction aux processus stochastiques 17

Plus généralement, un vecteur aléatoire Z de JRn suit la loi de Gauss Mi (m, r)


de moyenne m = (m1, ... , mn) et de matrice des covariances r, si le vec-
teur Z - m suit la loi Nn(O, r). Sa fonction caractéristique est alors égale
à:

(l.15)

Une conséquence immédiate est que la somme Z + Z' de deux vecteurs


gaussiens indépendants de lois respectives Nn(m, r) et Nn(m', r') est un
vecteur gaussien de loi Nn(m + m', r + r').
Propriétés : Voici un résumé des résultats les plus utiles sur les lois de
Gauss dans JRn :
1) La matricer des covariances d'un vecteur aléatoire (quelconque) est
une matrice symétrique de type positif i.e. :

i) rij = rji (1:::; i,j:::; n).


{
ü) < tlrt >= Li:::;i,j'.S:n t.itjrij ::'.'.: 0 (Vt = (t1, ... , tn) E JRn).
2) Etant donné une matrice r n x n symétrique et de type positif et un
vecteur m E JRn, il existe une loi de Gauss (resp. un vecteur gaussien de
loi) Nn(m, r).
3) Lorsque la matrice r est définie positive (i.e. Vt E JRn \ {O}, <
tlrt ># 0), elle est alors inversible et la loi gaussienne Mi(m, r) admet
une densité de probabilité sur JRn de la forme

f(x) =
(27r )n
/Jdetî' exp(-~ <
2 detr 2
x - m1r- 1(x - m) >) .
Lorsque r n'est pas inversible, la loi gaussienne Nn (m, r) est dite dégéné-
rée, elle n'a pas de densité 13 mais sa fonction caractéristique est toujours de
la forme ( 1.15). Ainsi dans des problèmes où interviennent des lois gaus-
siennes il est toujours préférable de faire intervenir les fonctions caractéris-
tiques dans les calculs plutôt que les densités même lorsqu'elles existent.
4) Les composantes Zi d'un vecteur gaussien Z = (Z1, ... , Zn) sont
indépendantes si et seulement si elles sont non-corrélées, c'est à dire si sa
matrice des covariances est diagonale.
13 En fait une loi de Gauss dégénérée est toujours concentrée sur un sous-espace affine

(strict) de ~n, et sur ce sous-espace elle admet une densité de "type gaussien" par rapport à
la mesure de Lebesgue de ce sous-espace.
18 Mouvement Brownien et calcul d'Itô

5) Soit L : JRn _____, JRP une application linéaire (identifiée à sa matrice


dans les bases canoniques de ]Rn et JRP). Le transformé L(Z) d'un vecteur
gaussien Z de loi Nn(m, f), est gaussien de loi Np(L(m), L.r.t L) (voir
[ 12] p. 130). En particulier si r = Π2 In (i.e. si les composantes de Z
sont indépendantes et de loi normale de même variance Œ 2 ) et si L est une
transformation orthogonale de ]Rn, alors L( Z) a aussi la même matrice des
covariances r = Π2 In.
6) Toute limite en loi d'une suite de vecteurs gaussiens de ]Rn est une
loi gaussienne. Plus précisément, pour que Zk de loi Nn(mki rk) converge
en loi si k _____, +oo, il faut et il suffit qu'il existe un vecteur m E JRn et une
matricer de type positif, tels que mk _____, met rk _____, r. La loi limite est
Nn(m, r) (on convient que sir= 0, Nn(m, 0) est la mesure de Dirac Sm).
En particulier ce résultat s'applique à une suite de vecteurs gaussiens qui
converge dans L 2 (fl, F, lP') puisque la convergence L 2 implique la conver-
gence en loi.

1.2.2 Processus gaussiens


Définition 1.2.2 : Un processus aléatoire à valeurs dans E = ]Rd est dit
gaussien si toutes ses lois de dimension finie sont gaussiennes.
Soit X = (Xt)tET un processus gaussien réel (i.e. E = JR) 14 . Pour tous
s, t E T, on pose

( 1.16) m(t) = lE(Xt)

( 1.17) r(s, t) =JE ((Xt - m(t))(Xs - m(s)))

Définition 1.2.3 : 1) La fonction m: T _____, lR définie en (1.16) s'appelle la


moyenne du processus X.
2) La fonction r : T x T _____, lR définie en (1.17) est appelée la covariance
du processus gaussien X.
Remarque fondamentale : Pour toute partie finie I
l'espace des temps T, la matrice

1 ~l'espace des temps '1' est quelconque: discret ou continu.


Chapitre 1. Introduction aux processus stochastiques 19

est de type positif puisque c'est la matrice des covariances du vecteur gaus-
sien X1 = (Xtp ... , Xtn).
Les deux fonctions met r caractérisent entièrement la loi d'un proces-
sus gaussien comme le montre le résultat suivant :

Théorème 1.2.1 : Soient m : T ---+ IR et r : T x T ---+ IR deux fonc-


tions réelles telles que pour toute partie finie I = { t1, ... , tn} de T, la
matricer1 = (r(ti,tj)) 1 < .. < soitdetypepositif.Alorsilexisteunpro-
_i,J_n
cessus gaussien réel X = (Xt)tET, unique à équivalence près, tel que
pour toute partie finie I = {t1, ... , tn} C T, le vecteur aléatoire X1 =
(Xt 1 , . . . , XtrJ soit de loi Nn(m1, r1) avec m1 = (m(t1), ... , m(tn)).
Démonstration : Il suffit d'après le théorème de Kolmogorov de montrer
que la famille des lois µ1 = Nn(m1,r1) est cohérente. On va procéder
comme dans la proposition 1.1.4. Soit I = { t 1, ... , tn} une partie finie de
T, soit J c I et soient µJ et µ; les lois sur IR 1 et IR 1 correspondantes.
Pour simplifier l'écriture, on considérera que I = { 1, ... , n}. La fonction
caractéristique /7i de la mesure µJ est alors de la forme
fü(u) = ei<m1[u>e-~<ujrru>

oùu= (ui)iEI = (u1, ... ,un),m1 = (m(i)iE1etr1 = (r(l,k)) 1<lk<n·


Mais la fonction caractéristique de la loi marginale 'P 1,1(µ1) de µ1 ~~r 1i.
est la fonction cp donnée sur IR 1 par

où ui = ui si i E Jet ui = 0 si i t{. J. Ceci donne aussitôt :


fü(u) = ei<m1[ü>e-~<ü[I'1ü>

= ei<m1[v> e-~<v[r JV>


'
où v = (uJ)jEJ, m; = (m(j)jEJ et r 1 = (r(l, k))l,/..:ElxJ' ce qui prouve
aussitôt que cp = 0. 0
Exemples : 1) Soit T = N et X = (Xn)nEN une suite de variables
réelles i.i.d. de loi N(m, () 2 ). Il est immédiat de constater que X est un
processus gaussien de moyenne m(t) =met de fonction covariance:
0 si s =/:- t
r(s, t) = { 2 .
(} si s = t.
20 Mouvement Brownien et calcul d'Itô

2) (processus totalisateur de variables normales i.i.d.) : On suppose T = N


et soit (Ç)n>l une suite de variables aléatoires i.i.d. de loi N(O, 1). On
considère le processus X= (Xn)nEN défini par Xo = 0, X1 = 6 et

Xn = Xn-1 + Çn (n 2: 1).
Le processus X est gaussien réel. En effet pour tout entier n 2: 1, le vecteur
aléatoire X[i,n] = (X1, ... , Xn) est gaussien puisque toute combinaison li-
néaire u1X1 + · · · + unXn est égale à (u1 + · · · + un)6 + (u2 + · · · +
un)6 + · · · + unÇn qui est une variable aléatoire normale comme combi-
naison linéaire de variables normales indépendantes. D'ailleurs la fonction
caractéristique cp du vecteur X[i,n] est donnée par :

cp( u) = JE ( ei<ulX11,n] >)


=JE (ei('u1+···+·un)ôei(u2+·+un)Ç2éunÇn)

= e-1Cu1+·-+·un) 2 e-1(u2+· .. +un) 2 ... e-Hun) 2

= e-21 "'n ("°'n


L..j=1 L..i=j u.,
)2 .

On constate donc que cp(u) = exp(-~llBull 2 ) où 11-11 est la norme eucli-


dienne et Bu le transformé du vecteur u par la matrice

1 0 0 0
1 1 0 0
B= 1 1 1 0
0
1 1 1 1

En écrivant lIBul 12 =< BulBu >=< ult BBu >.on voit donc que cp est
la fonction caractéristique de la loi Nn(O, r) avec

1 1 1 1 1
1 2 2 2 2
1 2 3 3 3
r =t BB =
1 2 3 n-l n-l
1 2 3 n-l n
Chapitre 1. Introduction aux processus stochastiques 21

Cela montre que le processus X est gaussien centré (i.e. m(t) 0) de


fonction de covariance donnée par

r(i,j) = min(i,j) ('i,j EN).

Le mouvement brownien est une généralisation en temps continu de ce pro-


cessus gaussien. Son étude fait l'objet du prochain chapitre.
3) (processus gaussiens élémentaires) : Soit f : T ___.. IR une fonction
déterministe 15 et V une variable aléatoire réelle de loi N( m, a- 2 ). Pour tout
t ET, posons

( l.18) Xt(w) = J(t)V(w).

Alors X (Xt)tET est un processus gaussien. Plus généralement toute


superposition de processus du type ( 1.18), est aussi gaussien. Plus précisé-
ment, si pour 1 :S i :S N, fi : T ___.. IR sont des fonctions déterministes et
Vi sont des variables aléatoires indépendantes de loi respectives N (mi, a-{),
alors le processus

N
( l.19) Xt(w) = L fi(t)Vi(w).
i=l

est gaussien. En effet ses lois de dimension finie sont clairement gaus-
siennes, sa fonction moyenne m(t) = 2::~ 1 mdi(t) et sa fonction co-
variance est égale à

N
r (s, t) = L a-l fi (s) fi (t) (s, t E T) .
i=l

Dans la littérature les processus de la forme ( 1.19) sont appelés processus


gaussiens élémentaires. Le problème de la décomposition d'un processus
gaussien en somme d'un nombre fini ou plus généralement infini de proces-
sus gaussiens élémentaires est une question qui relève de la théorie spec-
trale.
15 1' espace des temps '1' étant discret ou continu.
22 Mouvement Brownien et calcul d'Itô

1.3 Notion de temps d'arrêt d'un processus


Définition 1.3.1 : Soit (Ft)tET une.filtration et F 00 = a(UtETFt) sa tribu
terminale . Une variable aléatoire T : D __, T U { +oo} est appelée (Ft)-
temps d'arrêt si pour tout t ET, on a [T::::; t] E Ft. On pose alors

FT ={A E Foo; 'ïlt ET, An [T::::; t] E Ft}·

On vérifie immédiatement que F 7 est une tribu. C'est la tribu des événe-
ments antérieurs au temps T .

Remarque: Si (Ft)tET est la filtration naturelle d'un processus canonique


défini sur D = ET, si Test un (Ft)-temps d'arrêt, le fait que w E [T ::::; t]
ne dépend que des coordonnées w(s) pour s::::; t.

Proposition 1.3.1 : Soient a et T deux (Ft)-temps d'arrêt. Alors


i) Test une variable aléatoire F 7 mesurable.
ii) min( cr, T), max( cr, T) et cr+ T sont des (Ft)-temps d'arrêt.
iii) si cr ::::; T, on a Fa C FT.

Démonstration : exercice.

Proposition 1.3.2 : 1) Si X est un processus mesurable et cr une variable


aléatoire 16 à valeurs dans T, alors Xa : w __, Xa(w)(w) est une variable
aléatoire.
2) Si Test un temps d'arrêt pour la.filtration d'un processus X progressi-
vement mesurable, alors X 7 est une variable aléatoire F 7 -mesurable.

Démonstration : l) Xa est mesurable comme composée des applications


mesurables w __, (w, cr(w)) et (w, t) __, Xt(w). .
2) Posons Dt = [T ::::; t]. Dans ce cas, X 7 est mesurable de (Dt, Ft) dans
(E, BE) comme composée des applications mesurables w __, (w, T(w)) de
(Dt, Ft) dans (Dt x [ü, t], Ft @ B[o,tj) et de (w, t) __, Xt(w) de (Dt x
[ü, t], Ft 0 B[o,tj) dans (E, BE)· Ainsi pour A E BE, on a

[XT E A] n [T::::; t] = {w E Dt; XT(w) E A} E Ft,

et donc [X7 E A] E FT. D


16 définie sur (r2,F=)·
Chapitre 1. Introduction aux processus stochastiques 23

Remarque : La notion de temps d'arrêt ne pose guère de problèmes


pour les processus à temps discret. Par contre la notion est plus délicate
pour le temps continu comme on va le voir ci-dessous.

Définition 1.3.2 : Soit X un processus et A un sous-ensemble mesurable


de l'espace des états E. Les variables aléatoires définies sur D par

(l.20) DA(w) = inf{t ~ 0; Xt(w) E A},


( 1.21) TA(w) = inf{t > 0; Xt(w) E A},

(avec la convention inf 0 = +oo) sont respectivement le temps d'entrée


dans A et le temps de retour dans A.

Remarque : En temps discret (i.e. T = N), DA et TA sont des temps


d'arrêt pour la filtration naturelle du processus X et ceci pour tout A E BE.
En effet pour tout n E N, [DA = n] = n~=~ [Xk E Ac] n [Xn E A] E Fn.
Un argument analogue marche aussi pour TA.

Proposition 1.3.3 : On suppose T = [O, a] ou [O, +oo[ et que X est un


processus continu à valeurs dans un espace métrique E. Si A est fermé
alors DA est un temps d'arrêt pour la filtration naturelle de X.
Démonstration: Notons d la métrique de E. Pour tout w E D, la fonction
s --+ d(X 8 (w), A) est continue comme composée des applications conti-
nues s--+ X 8 (w) et x--+ d(x, A). Ainsi pour tout t ET, on a

= [inf
s<;St
d(Xs, A) = o] = [ inf
s';5,t;sE'(l>
d(X8 , A)= o]
n ( LJ
n>O sEQn[ü,t]
[d(Xs,A) :S lJ) E Ft. D

Remarque : Parfois des variables aléatoires qui sont des temps d'arrêt en
temps discret ne le sont en temps continu qu'avec des conditions restrictives
et pour des filtrations plus grosses que la filtration naturelle du processus.
Par exemple :
24 Mouvement Brownien et calcul d'Itô

Proposition 1.3.4 : On suppose T = [O, a] ou [ü, +oo[ et que X est un


processus adapté continu à droite et à valeurs dans un espace topologique
E. Alors si A est ouvert, TA est un temps d'arrêt pour la.filtration Ft+ =
nE>üFt+E· Ainsi TA n'est un temps d'arrêt usuel pour tout ouvert A que si
la filtration du processus X est continue à droite i.e. Ft+ = Ft pour tout
t ET.

Démonstration : Montrons que pour tout t E T, on a seulement [TA <


t] E Ft. Ceci montrera que [TA :::; t] = nE>o[TA :::; t + E] E Ft+· On a en
effet
[TA < t] = UsElQ!n[ü,t[[Xs E A],
car si X 8 (w) E A, la continuité à droite des trajectoires et le fait que A
est ouvert impliquent qu'il existe E > 0, tel que Xu (w) E A pour tout
'u E [s, s + E[. D'où le résultat. D

1.4 Martingales
La théorie des martingales occupe une place centrale dans létude des
processus stochastiques. Mais pour que cette introduction au mouvement
brownien reste de taille raisonnable, nous insisterons uniquement sur les
aspects essentiels de la théorie dans le cas du temps continu. Les prérequis
sur la notion d'espérance conditionnelle et les martingales à temps discret
sont présentés sans démonstration mais de manière assez détaillée afin de
faciliter la référence à certains résultats dont nous aurons besoin par la suite.

1.4.1 Rappels sur l'espérance conditionnelle


Soit (S1, F, IF') un espace probabilisé et 1J une sous-tribu de F. L'esp-
érance conditionnelle est définie pour deux types de variables aléatoires :
d'une part les variables aléatoires non-négatives (sans condition d'intég-
rabilité) et d'autre part les variables aléatoires intégrables.
A. Généralités : L'espérance conditionnelle d'une variable aléatoire
Y positive (resp. dans L 1 (Sl, F, IF')) relativement à 1J est l'unique variable
aléatoire 17 1J mesurable positive (resp. dans L 1 ), notée IE(YITJ), telle que
17 "Unique variable aléatoire" est à prendre ici au sens de l'unicité modulo l'égalité IP'-p.s.
Chapitre 1. Introduction aux processus stochastiques 25

pour tout DE 'D, on a

(1.22) l IE(YID)dlP' = l Y dlP'.

Cette relation (1.22)s'appelle la propriété caractéristique de l'espérance


conditionnelle. On notera que si Y :?: 0, IE(YID) E L 1 si et seulement
si Y E L 1 .
Si Y E L 2(n, .F, JP'), alors IE(YID) E L 2(n, .F, lP') est la projection
orthogonale de Y sur le sous-espace fermé L 2 (n, V, JP') de l'espace de Hil-
bert L 2 ((r2, .F, JP') muni de son produit scalaire usuel 18 . En particulier, on a
llIE(YID) 112 :::; llYll2·
Remarque : Le cadre géométrique de l'espace L 2 (r2, .F, JP') nous per-
met de bien comprendre la nature de l'espérance conditionnelle : IE(YID)
est la variable aléatoire V-mesurable la plus proche de Y étant donné l'in-
formation disponible V. Même si Y n'est pas dans L 2 , il peut être utile
pour l'intuition de voir ainsi l'espérance conditionnelle.
B. Espérance conditionnelle par rapport à un vecteur aléatoire :
Dans le cas où V= a(X) est la tribu engendrée par un vecteur aléatoire X
de !Rd, on note

(1.23) IE(Yla(X)) = IE(YIX)

et on l'appelle l'espérance conditionnelle de Y sachant X. Dans ce cas il


existe toujours une fonction borélienne <P : JRd ----+ lR telle que :

(1.24) IE(YIX) =</>(X) p.s.

Cette fonction</> est souvent notée <P(x) = IE(YIX = x) (x E JRd).


C. Probabilité conditionnelle : Pour un événement A E .F, la proba-
bilité conditionnelle de A sachant V est la variable aléatoire

(l .25)
18 i.e. pour Y, Z E L 2 (D, .F, lP'), < YIZ >= IE(Y Z) et llYll2 = (IE(Y 2)) 112 . En toute

rigueur, L 2 (D, D,lP') espace de classes d'équivalence de variables aléatoires pour l'éga-
lité lP'-p.s. relativement aux ensembles de mesure nulle de D n'est un vrai sous-espace de
L 2 (D, .F, lP') que lorsque la tribu D est complète. Néanmoins, dans tous les cas L 2 (D, D, lP')
s'injecte isométriquement dans L 2 (D, .r, lP') et on convient d'identifier L 2 (D, D, lP') à son
image isométrique dans L 2 (D, .r, lP').
26 Mouvement Brownien et calcul d'Itô

D. Propriétés de l'espérance conditionnelle: Si Y, Y1, Y2 sont des va-


riables aléatoires avec un moment d'ordre un et si a et b sont des constantes
réelles, on a
1) JE( aY1 + bY2 IV) = alE(Y1 IV) + blE(Y2 IV) (linéarité).
2) lllE(YIV)ll1 :S llYll1 (contraction).
3) Y1 :::; Y2 p.s.=? JE(Y1 IV) :::; lE(Y2 IV) (croissance).
En particulier Y 2: 0 =? JE(YIV) 2: 0 (positivité).
4) o-(Y) et V indépendantes =? JE(YIV) = JE(Y) p.s.
5) Pour toute sous tribu E CV, JE (JE(YIV)IE) = JE(YIE) p.s.(théorème
des trois perpendiculaires).
6) Si (Yri)n2".0 est une suite de variables aléatoires positives, on a
lE(lim infn_, 00 Yn IV) :S lim inf n->oo lE(Yn IV) (lemme de Fatou).
E. Calcul de l'espérance conditionnelle : Dans le cas général on uti-
lise la propriété caractéristique ( l.22) pour calculer la valeur de JE(YIV)
mais il faut souvent avoir une idée a priori de cette valeur et on utilise ( l .22)
comme une vérification. Pour calculer des espérances conditionnelles de la
forme (l.23), il convient de déterminer la fonction <P de (l.24). Pour cela,
on cherche <P telle que pour tout borélien B de !Rd,

jB
{ <P(x)µx(dx) = 1
[XEB]
Yd!P',

où µx désigne la loi de X. Par exemple si X est une variable (ou vecteur)


aléatoire discrète et x une valeur prise par X (avec probabilité non nulle),
alors
<fJ(x) = j~ Yd!P'[X=x]'
où IP'[x =x] est la probabilité conditionnelle usuelle relativement à l' événe-
ment [X= x].
Dans le cas où le couple (X, Y) a une densité de probabilité f (x, y), on a

<P(x)
r f(x, y)
=}IR Y fx(x) dy,

où fx(x) = JIR f(x, y)dy est la densité de probabilité 19 de X.


19 0n notera que fx(x) #- 0 pour µx-presque tout x.
Chapitre 1. Introduction aux processus stochastiques 27

1.4.2 Rappels sur les martingales à temps discret


Pour les démonstrations de tous les résultats de ce paragraphe, on peut
consulter le livre de J. Neveu [44].
A. Définitions :

Définition 1.4.1 : Un processus adapté M = (0, F, (Ft)tET, (Mt)tET, lP)


à valeurs réelles est une martingale (resp. sur-martingale, resp. sous-mar-
tingale) si pour tout t E T, Mt E L 1 (lP) et si pour touts < t :

lE(MtlFs) =Ms p.s.

(re~p. lE(MtlFs) :S: Ms p.s, resp. Ms :S: lE(MtlFs) p.s. ).


Remarque : Si M est une martingale (resp. une sur-martingale, resp. une
sous-martingale), la fonction t f-+ JE( Mt) est constante (resp. décroissante,
resp. croissante).
Remarque: Un processus adapté X peut être une martingale relative-
ment à une autre filtration (Çt)tET par rapport à laquelle il est aussi adapté.
On dira alors pour préciser que X est une martingale par rapport à la fil-
tration (Çt)tET ou plus brièvement une (Çt)tEr-martingale. Notons qu'une
martingale donnée M est toujours une martingale par rapport à sa filtration
naturelle (Œ(Ms; s :S: t))tEr(exercice facile).
Exemples : 1) Soit (0, F, (Ft)tET, lP) un espace probabilisé filtré et
F 00 = dUtETFt) la tribu terminale. Si X est une variable aléatoire définie
sur (0, F) et ayant un moment d'ordre un, alors le processus M (Ft)tET-
adapté défini par

(1.26) Mt= lE(XIFt) (t ET),

est une martingale qu'on appelle martingale régulière.


2) Soit T = Net Ç = (Çi)iEN est une suite de variables aléatoires indé-
pendantes et ayant un moment d'ordre 1. Si les variables Çi sont centrées,
la suite des sommes Mn = L~~ 1 Çi est une martingale pour la filtration
naturelle de la suite Ç (qui est aussi sa filtration propre).
B. Propriétés générales :
1) M est une sur-martingale si et seulement si -M est une sous-mar-
tingale.
2) Toute combinaison linéaire de martingales est une martingale.
28 Mouvement Brownien et calcul d'Itô

3) Toute combinaison linéaire à coefficients positifs de sur-martingales


(resp. de sous-martingales) est une sur-martingale (resp. une sous-martin-
gale).
4) Si M est une martingale (resp. une sous-martingale) et <p : lR --t lR
une fonction convexe (resp. convexe croissante), alors le processus
(<p(Mt) )tET est une sous-martingale. Par exemple si M est une martingale
de carré intégrable, \M\ et M 2 sont des sous-martingales.
C. Théorème d'arrêt de Doob et inégalités maximales: Dans le reste
de ce paragraphe, on suppose que le temps est discret i.e. T = N même si
ce n'est pas explicitement rappelé dans chaque énoncé.

Théorème 1.4.1 (Doob): Soient M = (D, F, (Fn)nEN, (Mn)nEN, JP) une


martingale (resp. une sur-matingale) et Ti, T2 deux temps d'arrêt (de la
filtration de M) presque sûrement bornés et tels que T1 :S T2 JP-p.s. Alors
les variables aléatoires M 71 et M 72 appartiennent à L 1 et on a :

Théorème 1.4.2 (inégalités maximales):


1) Si NI = (Nin)nEN est une sur-martingale, alors pour tout À > 0, on a
les deux inégalités

( 1.28) lP ( sup Mi 2::


l:S:i:S:k
À) :S ~ (IE(M1) + IE(M;))
/\

1
(1.29) :S )." (IE(\Mk\),

où M; = - min(Mk, 0).
2) Si M = (Nin)nEN est une sous-martingale (en particulier une martin-
gale), en appliquant l'inégalité ( 1.29) à (-M), on obtient pour tout À > 0
et tout k EN:

( 1.30)

En particulier cette inégalité (1.30) s'applique aussi à \NI\ si NI est une


martingale.
Chapitre 1. Introduction aux processus stochastiques 29

3) Si M est une martingale de carré intégrable, alors pour tout À > 0 et


tout k EN:

(1.31)

Théorème 1.4.3 (inégalité maximale LP) : Soit p > 1 et M une martingale


bornée dans LP i.e. supnEN llMnllp < +oo (où llMn[[p = (1E(ll\!In[P)) 11P).
Alors la variable aléatoire M* = supnEN Mn est dans LP et on a

(l .32) llM*llP :S qsup [IMnl[p


nEN

où q = p~l est l'exposant conjugué de p.

D. Convergence presque sûre des martingales : Pour simplifier la présen-


tation nous regroupons plusieurs résultats en un seul théorème. On suppose
toujours que T = N.

Théorème 1.4.4 (convergence p.s.):


1) Si M est une sur-martingale positive, pour ?-presque tout w E 0,
la limite limn--.oo Mn(w) = 1\!l00 (w) existe et M 00 E L 1 (en particulier
1\1100 < +oo p.s.).
2) Si (Fn)nEN est une.filtration de (0, F, P) et X est une variable aléa-
toire de L 1, la martingale régulière Mn = lE(XIFn) converge presque sû-
rement et dans L 1 vers M 00 = lE(X[F00 ), où F 00 est la tribu terminale de
la filtration.
3) Toute sous-martingale M bornée dans L 1 (i.e. telle qu'on ait :
supnEN lE([fefnl) < +oo) converge presque sûrement vers une variable
aléatoire de L 1 .

E. Convergence des martingales dans L 1 et équi-intégrabilité:


La convergence dans L 1 est assez décevante car il se trouve qu'il n'y a
qu'une classe de martingales que nous connaissons déjà très bien, qui peuvent
converger dans L 1 : les martingales régulières.

Théorème 1.4.5 : Pour une martingale M (Mn)nEN, les trois asser-


tians suivantes sont équivalentes :
30 Mouvement Brownien et calcul d'Itô

1) Jvl converge dans L 1 .


2) M est équi-intégrable i.e.

( 1.33) lim (suplE([Mn[ · l[IMnl>aJ)) = 0


a-++oo nEN

3) M est une martingale régulière au sens de (l.26).

Pour les martingales régulières, on peut renforcer le théorème d'arrêt


de Doob en supprimant la condition de bornitude des temps d'arrêt:

Théorème 1.4.6 (théorème d'arrêt pour les martingales régulières): Soit


M = (Mn)nEN une martingale régulière. Pour tout temps d'arrêt T, la
variable aléatoire M 7 appartient à L 1 et pour tout couple de temps d'arrêt
T1 et T2 tels que T1 :S: T2, l'égalité

est valable à condition si w est tel que T(w) = +oo, de poser M 7 (w)
M 00 (w) où M 00 désigne la limite de M à l'infini.

Corollaire 1.4.1 : Si M = (M,JnEN est une martingale régulière et T1 ::;


T2 ::; · · · :S: Tn ::; · · · une suite croissante de temps d'arrêt de la.filtration
(Fn) de M, alors le processus X = (Xn)nEN défini par

est une martingale pour la.filtration (F7 J.

1.4.3 Martingales à temps continu


Lorsque le temps est continu i.e. T = [O, a] ou lR+, la théorie des mar-
tingales est plus délicate. Pour obtenir des résultats, il convient de supposer
que les trajectoires des processus sont continues à droite (càd en abrégé).
On peut alors généraliser les principaux théorèmes du paragraphe précé-
dent. Nous nous contenterons ici de quelques indications. Pour des résultats
plus complets, voir le livre de D. Revuz et M. Yor [51 ].
A. Inégalités maximales
Chapitre 1. Introduction aux processus stochastiques 31

Théorème 1.4.7 :
1) Si M = ( Mt)tET est une sur-martingale càd, alors pour tout Ç > 0 dans
T, on a les deux inégalités

(1.34) !? ( sup Mt 2
tE[O,Ç]
>-) :S ~"' (IE(Mo) + IE(Mi))
( 1.35) !? ( inf Mt :S
tE[O,Ç]
-À) :S ~(IE(ll\!Içl),
A

2) Si M = (Mt)tET est une sous-martingale càd, alors pour tout À > 0 et


tout Ç > 0 dans T, on a :

(1.36)

3) Si M est une martingale càd de carré intégrable, alors pour tout À >0
et tout Ç > 0 dans T, on a :

(1.37)

Démonstration: Comme dans le cas discret, (1.36) et (l.37) découlent de


(1.35). Montrons (1.34). Soit 0 = t 0 < t 1 < · · · < tn = Ç une subdivision
de [ü, Ç] par des rationnels dyadiques. Alors (Mtk)ogs_n est une sur-mar-
tingale relativement à la filtration (:Ftk )os_ks_n 20 . Par l'inégalité maximale
(1.28), on a

En faisant croître la subdivision {to, t1, ... , tn} vers Q n [O, Ç], on obtient

20 en fait on peut la prolonger en une vraie sur-martingale en posant l\!Im = Mt,. pour

tout m 2: net :Fm = :Ft,,.


32 Mouvement Brownien et calcul d'Itô

comme les trajectoires de M sont càd, on a suptEIQn[o,ç] l\!ft = suptE[ü,ÇJ l\!ft,


d'où le résultat. L'inégalité (1.35) se démontre de la même façon. D
B. Convergence des martingales : Les résultats de convergence peuvent
se généraliser aussi aux martingales càd :

Théorème 1.4.8 : Soit M = (lvft)tET une sur-martingale càd et soit aussi


[c, d[c T (avec éventuellement d = +oo). On suppose que M 2:: 0 sur
[c,d[ (i.e. Vt E [c,4 Vw E 0, Mt(w) 2:: 0). Alors la limite limt-+d- Mt
existe P-p.s.

Théorème 1.4.9 : Pour une martingale càd M = (Mt)tET, on a les équi-


valences:
1) M est équi-intégrable.
2) l\!f est une martingale régulière.
3) M converge P-p.s. et dans LI.

C. Théorème d'arrêt de Doob: Le théorème d'arrêt de Doob se géné-


ralise aussi sous la forme suivante :

Théorème 1.4.10 : Soit l\!f = (MthET une martingale càd.


1) Si TI et T2 sont deux temps d'arrêt tels que TI :S T2 :S b où b est une
constante, alors les variables aléatoires l\!fT 1 et MT2 appartiennent à LI et
on a:
lE(MT2 IFT1 ) = MT1 p.s.
2) Si T est un temps d'arrêt, le processus (Mt/\T )tET est une martingale
pour la filtration ( Ft/\T )tET·
3) Si M est uniformément intégrable, alors pour tout couple de temps d 'ar-
rêt tels que TI :S T2, on a

Démonstration: 1) Si Test un temps d'arrêt qui prend un nombre fini


de valeurs et qui est tel que T :S b, le théorème d'arrêt 1.4.1 donne

(1.38)

Désignons par~ la famille de tous les temps d'arrêt prenant un nombre fini
de valeurs et qui sont bornés par b, alors la famille des variables aléatoires
{MT; TE~} est équi-intégrable. En effet ceci résulte du lemme suivant:
Chapitre 1. Introduction aux processus stochastiques 33

Lemme 1.4.1 : Pour tout T E Tb et tout c > 0, on a

(1.39)

Démonstration du lemme: Ecrivons JE.Fr pour simplifier l'écriture de l'es-


pérance conditionnelle sachant FT et posons A= [IMTI > c]. La relation
1.38 implique IMTI :S JE.Fr (IMbl) et puisque A E Fn on en déduit

JE(IMTllA) :S JE(lAJE.Fr(IMbl)) = JE(JE.Fr(IMbllA)) = JE(l.l\!hllA)


:S JE(IMbllAn[llVhl>VcJ) + JE(IMbllAn[liVhl::o;Vc])
:S JE(IMbll[IMbl>VcJ) + }ël?(A)
:S JE(IMbll[IMbl>VcJ) + JëJE(l~TI) (inégalité de Markov)

D'où le résultat du lemme puisque JE(IMTI) :S JE(IMbl). D


suite de la démonstration : Soient maintenant T 1 :S T2 :S b, des temps
d'arrêt bornés par b > O. Il existe21 deux suites décroissantes Tin) et TJn)
de temps d'arrêt appartenant à Tb avec Tin) :S TJn) :S b pour tout n E Net
tels que
Tin) ""' T1 et TJn) ""' T2 si n --+ +oo.
D'après le théorème d'arrêt pour les martingales à temps discret, pour tout
n EN, on a

( 1.40) JE (MT2 (n)IF (n))


Tl
= M (n)·
Tl

En conditionnant les deux membres de (1.40) par rapport à FT1 et en utili-


r
sant .rT r
C .rT<nJ (car T1 :S T
(n) b.
) on o tient
1 1
1

( 1.41)

Or, on a

( 1.42) lim M
n--too Ti
(n) = MT! et lim M
n--too
(n)
T2
= lv1T2'

21 pour la justification de cette assertion voir l'exercice 3 à la fin du chapitre.


34 Mouvement Brownien et calcul d'Itô

car les trajectoires de A1 sont càd. Mais les deux suites (!vlTl(nJ )n>o
-
et
(MT2(n) )n>o
-
sont équi-intégrables donc la convergence ( 1.42) a lieu aussi
dans LI. La continuité pour la norme LI de l'espérance conditionnelle,
permet de déduire de ( 1.41) que

D'où le premier résultat.


2) Soient tI < t2. En appliquant le résultat du l) aux deux temps d'arrêt
TI = tI /\ T et T2 = t2 /\ T qui sont tels que TI :::; T2 :::; t2, on a

ce qui démontre l'assertion.


3) Soient TI :::; T2 des temps d'arrêt et soit M 00 la limite dans LI de la
martingale M lorsque t tend vers l'extrémité droite d de l'espace des temps
T (cette limite existe car M est supposée équi-intégrable). Comme dans la
démonstration du point l ), on considère des suites Tin) et T~n) de temps
d'arrêt prenant un nombre dénombrable de valeurs, telles que Tin) :::; T~n)
et qui convergent en décroissant vers TI et T2. Les relations ( 1.40), ( 1.41) et
( 1.42) sont encore valables dans ce cas et la démonstration se termine de la
même façon car pour justifier que les suites (!vlTl(n) )n>O
-
et (MT2(nJ )n>O
-
sont
équi-intégrables, on utilise l'argument du lemme 1.4. l avec M 00 à la place
de Mb et on remplace Tti par la famille de tous les temps d'arrêt prenant un
nombre dénombrable de valeurs. D

1.5 Annexe
1.5.1 Tribus sur un espace de trajectoires
A) Tribu produit sur ET
Soit T un sous-ensemble de lR+ et E un espace topologique muni de sa
tribu de Borel BE (i.e. la tribu des parties de E engendrée par les ensembles
ouverts). On considère n = ET l'ensemble de toutes les applications w :
t f-t w(t) de T dans E. Pour w E n, on écrira aussi w = (w(t))tET· Pour
tout t E T, on note Xt l'application t-ième projection de ET dans E i.e.
Chapitre 1. Introduction aux processus stochastiques 35

l'application

(1.43)

parfois appelée évaluation de la trajectoire w à l'instant t. On notera P f (T)


l'ensemble de toutes les parties finies de T.

Définition 1.5.1 : On appelle cylindre toute partie de f2 =ET de la forme

(1.44)

où {t1, ... , tn} E P1(T) et Ai E BE (i = 1, ... , n).

Le cylindre ( l.44 ), ensemble des trajectoires qui, aux instants fixés ti pas-
sent dans les ensembles Ai ('i = 1, ... , n), est représenté de manière plus
probabiliste sous la forme :

( 1.45) [Xt 1 E A1, Xt 2 E A2, ... , Xtn E An] = nn

i=l
[Xti E Ai],

qu'on note parfois encore [(Xtp ... , Xtn) E A1 x · · · x An]·

Définition 1.5.2 : La tribu produit B~T est la tribu des parties de f2 en-
gendrée par les cylindres

Clairement B~T est aussi la tribu Œ(Xt, t E T) engendrée22 par toutes les
applications coordonnées Xt (t E T) définies en (1.43).
Remarque : Si on munit f2 = ET de la topologie produit (encore ap-
pelée topologie de la convergence simple23 ), B~T est la tribu de Borel de
ET dans beaucoup de cas raisonnables :

Proposition 1.5.1 : Si l'espace topologique E est à base dénombrable


d'ouverts (par exemple polonais) et si T est fini ou dénombrable, alors
B~T est la tribu de Borel de ET.

22 i.e. la plus petite tribu sur n qui rend les applications Xt (t E 1') mesurables.
23 i.e. la suite w<n) converge vers w dans n si Vt E 1', w<n) (t) --+ w(t) dans E.
36 Mouvement Brownien et calcul d'Itô

Démonstration : Notons BET la tribu de Borel de ET. Les cylindres de


la forme ( 1.44) avec tous les Ai ouverts de E, constituent une base de la
topologie de ET pour laquelle toutes les applications coordonnées Xt sont
continues. Ainsi, pour tout t E T et tout A E BE, les images inverses
xt- 1 (A) = [Xt E A] de A par Xt appartiennent à la tribu BET· Il résulte

alors de ( 1.44) que tout cylindre de ET appartient à la tribu B ET. Donc


B~T C BET· Pour montrer l'inclusion inverse, considérons une famille
dénombrable (U(n)) d'ouverts qui constituent une base de la topologie de
E. Comme Test dénombrable, les cylindres de la forme (l.44) (ou (l.45))
avec tous les Ai dans {U(n), n E N}, forment clairement une base dénom-
brable de la topologie de ET. Autrement dit tout ouvert de ET est réunion
dénombrable de cylindres ouverts donc appartient à la tribu produit B~T.
Donc BET c B~T· D
Remarque : En fait comme le montre la première partie de la démons-
tration précédente, l'inclusion B~T C B ET est toujours vraie pour T et E
quelconques. En dehors des hypothèses de la proposition, l'inégalité peut
être stricte (voir Bourbaki, Topologie).
B) Tribus boréliennes de C([O, +oo[, JRd).
Dans cette partie, T = [O, +oo[, E = JRd et on considère le sous-espace
C := C(T, E) de ET constitué des trajectoires continues. La topologie
la plus usitée sur cet espace est celle de la convergence uniforme sur les
compacts. Il est bien connu que cette topologie sur C est donnée par la
métrique:

d(x, y) = ~ ln en(x, y) (x, y E C),


2 l+en(x,y)
n=l

( 1.46) en(x, y) = sup llx(t) - y(t) Il,


tE[ü,n]

et 11·11 est la norme euclidienne sur JRd. L'espace métrique (C, d) est alors
un espace polonais et on notera B 1 sa tribu de Borel. Mais il y a une autre
topologie, moins fine, mais très utile pour les besoins de la théorie des pro-
cessus, c'est la topologie engendrée par les ensembles de la forme

(l .47)
Chapitre 1. Introduction aux processus stochastiques 37

(appelés cylindres ouverts) où {t 1 , ... , tn} est une partie finie de Tet les
Oi sont des ouverts de E. Cette topologie est la trace sur è de la topologie
produit de Er. Notons 82 la tribu borélienne de C pour cette deuxième
topologie.
Le résultat suivant est bien connu mais sa démonstration n'est pas souvent
donnée dans les manuels :

Théorème 1.5.1 : 81 = 82.

Démonstration : Notons T 1 (resp. T2 ) la topologie24 de la convergence uni-


forme sur les compacts (resp. la topologie engendrée par les cylindres ou-
verts).
étape 1(82 C 81) : Soit Uti;Oi un cylindre de la forme (1.47), soient aussi
x E Uti;oi et E > 0 tels que

Vi = 1, ... 'n: ]x(ti) - E, x(ti) + E[C oi.


Prenons N = maxi=l, ... ,n k
Clairement Vx ={y E C; eN(x,y) < E} C Uti;Oi· D'autre part Vx est
un ouvert de T 1 puisque l'application y --+ eN(x, y) est continue pour la
distance d. Ceci montre que Uti;Oi E T1 donc T2 C T1, ce qui prouve que
82 c 81.
étape 2(81 c 8 2 ) : La topologie T 1 est une topologie uniformisable25 asso-
ciées à la famille d'écarts (ou semi-normes) en, (n EN) donnée par (1.46)
et dont les ouverts élémentaires sont les intersections finies d'ensembles de
la forme
Vx,n,€ = {x E C; en(x,y) < E},
où X E C, n E Net E > O. Or Vx,n,€ = nrEQn[O,n] Ar où

Ar= {y E C; lx(r) - y(r)I < E} E T2;

i.e. Vx,n,€ est une intersection dénombrable d'ouverts de T2. Donc Vx,n,€ E
82, d'où T1 c 82 et 81 c 82. D
24 i.e. la collection de tous les ouverts.
25 cf. le livre de J. Dieudonné [l 7].
38 Mouvement Brownien et calcul d'Itô

1.5.2 Démonstration du grand théorème de Kolmogorov


On utilisera le théorème d'extension de Carathéodory que nous rappe-
lons sans démonstration (voir les livres de M. Métivier [40] ou de J. Neveu
[43]):

Théorème 1.5.2 : Soit A une algèbre de parties d'un ensemble n etµ :


A--+ [O, 1] une fonction vérifiant:
1) µ(r/J)=O,
2) VA, BE A, An B =(/)~µ(AU B) =µ(A)+ µ(B) (additivité),
3) pour toute suite (An) E A et telle que An '\, 0, on a lim µ(An) =O.
Alors µse prolonge de manière unique en une mesure de probabilité sur la
tribu a(A) engendrée par A.
La démonstration du grand théorème de Kolmogorov est basée sur un argu-
ment de compacité (extraction diagonal de sous-suite) qui permet de vérifier
les hypothèses du théorème de Carathéodory.
démonstration du Théorème 1.1.3 : On utilise les notations du para-
graphe l. l.6. En particulier, pour tout I = { t 1 , ... , tn} E P1(T), on note
X1 = (Xt 11 . . . , XtJ· Mais attention ici car 0 = Er. Soit F1 = a(Xt 11
... , Xtn) la tribu sur n, engendrée par les applications coordonnées Xt
pour t E J. Notons que tout ensemble A E F1 est de la forme
( 1.48) A= [X1 EH]= {w E 0; X1(w) EH}
pour H E B E1 (la tribu de Borel de E 1 ). On a tout de suite besoin du :

Lemme 1.5.1 : L'ensemble A= LJIEPi(T) F1 est une algèbre. De plus la


tribu a(A) engendrée par A est égale à B~T·
Démonstration : II est clair que n E A et que A est stable par passage
au complémentaire. Pour montrer que A est stable par réunion, considérons
A, B E A. Il existe alors I E P1(T) et J E P1(T) tels que A E F1 et
BE F1. Mais on a aussi A, BE FIUJ donc AUBE FIUJ CA, d'où le
résultat. D
Procédons alors en plusieurs étapes :
étape l (définition de JPl sur A) : Pour A E F1 de la forme:
A= [X1 EH] où HE BE1, on pose
( 1.49) P(A) = M(H).
Chapitre 1. Introduction aux processus stochastiques 39

Cette définition présente une petite difficulté car A appartient aussi à toutes
les tribus FI' avec I C I' E P1(T). Il suffit de considérer le cas où I' =
I U {tn+i} contient un point de plus que I. Alors avec H' = H x E,
A = [(X1, Xtn+i) E H x E] = [XI' E H'] est la représentation sous
la forme (1.48) en tant qu'élément de :Ff'. Mais d'après la condition de
cohérence µ1 est la marginale deµ!' sur E 1 et donc µ 1,(H') = µ 1(H), ce
qui justifie totalement la définition ( 1.49).
étape 2 (JPl additive sur A) : Soient A, B E A tels que An B = 0. On a
vu dans la preuve du lemme qu'il existe I E :F1 tel que A, B E :F1 . D'après
(1.48), il existe H, H' E BEI tels que A= [X1 EH] et B = [X1 EH'] et
on peut choisir H et H' tels que H n H' = 0. Alors

P(A U B) = P([X1 E H] U [X1 E H'])


= P([X1 E HU H'])
= µ1(H U H') = µ1(H) + µ1(H 1 )
= P(A) + P(B),
ce qui montre que JPl est une fonction additive sur A.
étape 3 (continuité décroissante de JPl) : Soit (A1.:) E A une suite déc-
roissante vers 0 (i.e. A1 :) A2 :) · · · :) An :) · · · et n~ 1 Ai = 0). On
va montrer que limn--.oo P(An) = O. D'après (1.48), chaque An est de la
forme

(1.50)

où In E P1(T) et Hn E BEin· Comme An peut aussi s'écrire sous la


forme [X1 E H1] pour toute I E P1(T) telle que I :) In avec H1 =
Hn x ITtEI\f,. E E BEI , on peut donc sans perte de généralité supposer
que la suite (In) est strictement croissante (11 Ç I2 Ç · · · ).
La suite P(An) décroît; supposons par l'absurde qu'elle ne tend pas vers O.
Il existe alors E > 0 tel que

( 1.51) Vn 2: 1, P(An) > E.

On va montrer que nnAn =/= 0, ce qui sera contraire à l'hypothèse. Par dé-
finition de JPl et par ( 1.50) et ( 1.51 ), on a donc
40 Mouvement Brownien et calcul d'Itô

Comme l'espace E 1n est polonais, Mn est une mesure régulière. Pour tout
E > 0, il existe donc un compact Kn c Hn tel que

Ainsi, en considérant Bn = [Xr,. E Kn], on a Bn E A, Bn C An et

(1.52)

En posant Cn = n?= 1 Bi C An et en sommant les inégalités ( 1.52), on a


n
( 1.53) IP(An \ Cn):::; LIP(An \Bi):::;~-
i=l

Il résulte alors de (1.51) et (1.53) qu'on a

\ln 2 1,

En particulier ceci montre que les Cn sont non vides. D'autre part ils for-
ment une suite décroissante (C1 :::) C 2 :::::i • ··)et sont tels que

\ln 2 1, Cn C [XIn E Kn]·

On va montrer que nnCn 1- r/J, ce qui prouvera que nnAn 1- r/J. Soit wn un
point arbitraire dans Cn. Notons que ce point appartient aussi à tous les Cm
pour m:::; net qu'on a donc

Comme K 1 est compact, il existe une suite </>1 (n) strictement croissante
d'entiers telle que X1i (w<Pi(n)) converge (quand n ---> oo) vers un élém-
ent x1 E K l · De la suite </> 1(n), on peut extraire une suite </>2 (n) telle que
X h (w<P 2 ( n)) converge vers un élément x2 E K 2. En utilisant la notation
(1.8), il est clair que <I> hli ( x2) = x1 i.e la projection canonique de x2 E
E 12 sur Eli est exactement x 1 . En itérant, pour chaque entier p, on construit
une suite d'entiers </>p(n) extraite de la suite </>p- 1 (n) et telle que
Chapitre 1. Introduction aux processus stochastiques 41

et Cf.>1p,lp-I (xp) = Xp-1· Pour la suite "diagonale" <Pn(n) extraite de toutes


les suites précédentes, on a :

Soit alors x E EUplp tel que sa projection (canonique) sur E 1P soit égale
à Xp. On peut trouver un élément w E 0 = ET tel que (w(t))tEUp/p = X
(il suffit de prendre w( t) arbitraire pour les t tt. Uplp). Par construction on
a donc Xp(w) = xp E Kp pour tout entier p i.e. w E npBp et chaque
Bp c Ap donc npAp # 0, ce qui est absurde.
Il reste à appliquer le théorème d'extension de Carathéodory et le Théorème
1.1.3 en résulte. D

1.5.3 Considérations sur les lois, l'indépendance des processus,


etc•..
1) Loi d'un processus
Soit X = (0, F, (Ft)tET, (Xt)tET, IP) un processus à valeurs dans un es-
pace polonais (E, BE)· Les lois de dimension finie µ1 (J E P1(T)) du
processus X constituent une famille cohérente de probabilités sur les puis-
sances cartésiennes de E qui détermine, comme on vient de le voir dans le
paragraphe précédent, une mesure de probabilitéµ sur l'espace canonique
des trajectoires (ET, B~T). Cette probabilité s'appelle la loi du processus
X.
Soit Cf.> l'application

Cf.>: w f---7 {t t--t Xt(w)},

de (0, F) dans (ET, B~T) qui à w E 0 associe la trajectoire t t--t Xt(w).


Cette application est mesurable. En effet l'image inverse par Cf.> de tout cy-
lindre C = {x E ET; Xt 1 E A1, ... , Xtn E An} (ti E T, Ai E BE) de
B~T est dans F puisque

cp- 1 (C) = {w E 0; (Xt(w))tET C} E


= {w E O;Xt 1 (w) E A1, ... ,Xtn(w) E An}
= [Xt1 E A1' ... 'Xtn E An] E F.
42 Mouvement Brownien et calcul d'Itô

Pour tout ensemble mesurable de trajectoires (parfois appelé de manière


imagée "paquet de trajectoires") B E B~T, notons [XE B] := q>- 1 (B).
On a alors

(1.54) µ(B) = lP ([XE B]).


Ceci montre que la loi d'un processus est l'analogue de la loi d'un vecteur
aléatoire de dimension finie.
Notons que si T = [ü, a] où lR+ et E = JRd et si le processus X est continu,
sa loiµ est une probabilité sur l'espace métrique C = C(T, JRd) muni de sa
tribu borélienne B 1 (voir le théorème 1.5.1 ).
On remarquera aussi que la loi d'un processus ne dépend que de la famille
de variables aléatoires (Xt)tET et non de la filtration qui peut être plus
grosse que la filtration naturelle du processus.
On peut comme dans le cas des variables aléatoires définir la notion
de couple ou de n-uplet de processus. Par exemple si X et Y sont deux
processus définis sur (n, F, JP) et ayant (ET, B~T) comme espace des tra-
jectoires, le couple (X, Y) est le processus (X, Y) = (Xt, Yt)tET avec
1' espace produit (ET x ET, B~T i8l B~T) comme espace des trajectoires.
La loi µxy du couple (X, Y) est alors la probabilité sur cet espace en-
gendrée par la famille cohérente des lois de dimension finie de (X, Y). On
peut alors définir, comme pour les couples de variables aléatoires, les lois
marginales d'un couple de processus. Nous n'entrons pas dans les détails
de ces questions strictement analogues au cas classique.
Il) Processus de même loi :
Deux processus X = (Xt)tET et Y = (Yt)tET définis sur le même espace
probabilisé ou sur deux espaces probabilisés distincts et à valeurs dans le
même espace polonais (E, BE) sont donc de même loi si et seulement s'ils
ont les mêmes lois de dimension finie 26 . On notera alors X ~ Y pour
désigner l'égalité en loi des processus X et Y.
III) Transformation d'un processus par fonctionnelle déterministe :
On reprend les notations de la partie 1) et du paragraphe 1.5.1. On considère
soit des processus quelconques avec (ET, B~T) comme espace des trajec-
toires, soit des processus continus à valeurs dans JRd et dans ce cas l'espace
des trajectoires est (C, B 1 ). On notera (ET, B~Tr (resp. (C, Bir) l'espace
produit de n copies de l'espace des trajectoires.
26 i.e.ils sont équivalents suivant la terminologie de la définition 1.1.3.
Chapitre 1. Introduction aux processus stochastiques 43

Définition 1.5.3 : On appelle fonctionnelle déterministe toute application


mesurable

(l.55)

Il est évident que le transformé d'un n-uplet de processus par une fonction-
nelle déterministe est encore un processus.
Exemple: Si l'espace des trajectoires est (C, B 1 ) les applications

</>: (x, y) 1-7 x +y et cp: (x, y) 1-7 x.y

de (C, B1) 2 dans (C, B1) définies pour x = (xt)tET et y= (Yt)tET par
(l.56) <f>(x, y) = (xt + Yt)tET et cp(x, y)= (XtYt)tET,

sont continues pour la topologie de la convergence uniforme sur les com-


pacts donc sont mesurables. Ces applications sont aussi des fonctionnelles
déterministes dans le cas où l'espace des trajectoires est (ET, B~T), si E
est polonais et à condition que T soit fini ou dénombrable. En effet dans
ce cas elles sont continues pour la topologie de la convergence simple et il
suffit d'appliquer la proposition 1.5.1.
Le résultat suivant de conservation des lois par transformation déterministe,
est valable pour des n-uplets de processus, nous l'énonçons seulement pour
des couples pour plus de simplicité :

Proposition 1.5.2 : Soient (X, Y) et (X', Y') deux couples de processus


et cp une fonctionnelle déterministe comme donnée en (1.54) avec n = 2. Si
(X, Y)~ (X', Y'), alors cp(X, Y)~ cp(X', Y').

Démonstration : en utilisant ( 1.54) la preuve est formellement analogue au


cas d'une transformation déterministe de couples de variables aléatoires. D
IV) Processus indépendants :

Définition 1.5.4 : Deux processus X et Y définis sur le même espace pro-


babilisé (0, F, lfD) sont dits indépendants si les sous-tribus
F x = cr (Xt; t E T) et Fy = cr (Yt; t E T) engendrées 27 par les Xt, res-
pectivement les yt, sont indépendantes relativement à lfD.
27 on notera que F x (resp.Fy) est la tribu terminale de la filtration naturelle de X (resp.

de Y).
44 Mouvement Brownien et calcul d'Itô

Le résultat suivant est facile à obtenir; nous le donnons sans démonstra-


tion:

Proposition 1.5.3 : Les conditions suivantes sont équivalentes :


1) Les processus X et Y sont indépendants.
2) Pour toutes parties finies I et J de l'espace des temps T, les vecteurs
aléatoires.fini-dimensionnels X1 et YJ sont indépendants.
3) La loi µ(X,Y) du couple (X, Y) coïncide avec le produit tensoriel
µx 0 µy des lois respectives de X et Y.

1.5.4 Notes et exercices


Pour alléger les énoncés, les variables aléatoires et les processus consi-
dérés sont supposés définis sur un espace probabilisé (n, F, IP') que nous ne
mentionnerons pas dans les énoncés. De même les processus sont supposés
adaptés à une filtration que nous ne préciserons que s'il y a ambiguïté.
Exercice 1 * : Soit X = (Xt)t>o un processus à temps continu tel que
les Xt (t 2: 0) forment une famille de variables aléatoires indépendantes et
de même loi normale N (0, 1).
1) Vérifier qu'un tel processus existe et qu'il est gaussien.
2) Montrer que X n'est pas mesurable (indication : on pourra montrer à
l'aide du théorème de Fubini que si X était mesurable, pour IP'-presque tout
T
w E 0, on aurait J~ Xt(w)dt = 0 pour tout T > 0).
Remarque: Cet exercice m'a été proposé par Marc Yor qui nomme X "le
monstre".
Exercice 2 : Soient </> : IR --+ IR une fonction convexe et V une sous-
tribu de F. Montrer que toute variable aléatoire X telle que :
lE(l<f>(X)I) < +oo, on a:
<f>(lE(XIV)):::; lE(<f>(X)IV) (inégalité de Jensen).

(indication: une fonction convexe est toujours l'enveloppe supérieure d'une


famille dénombrable de fonctions affines)
Exercice 3 (discrétisation d'un temps d'arrêt): Soit T un temps d'arrêt
d'une filtration (Ft)tET à temps continu T = [O, a] où [O, oo[. Démontrer
qu'il existe une suite (Tn)EN de temps d'arrêt discrets (i.e chaque Tn ne
prend qu'un nombre dénombrable de valeurs) et telle que Tn ".,. T quand
n--+ OO (i.e Vn, Vw En, Tn+1(w):::; Tn(w) et lim 'Tn(w) = T(w)).
Chapitre 1. Introduction aux processus stochastiques 45

Exercice 4: Démontrer que si Tet rJ sont des temps d'arrêt d'une fil-
tration (Ft)tET· alors T + rJ est aussi un temps d'arrêt . On commencera
par le cas plus facile où T = N puis on étudiera le cas du temps continu
T = [O, a] ou [O, oo[ (indication : dans le cas continu, on pourra utiliser
l'exercice 3).
Exercice 5 : Tous les processus de cet exercice sont à temps discret T =
N. Soient Y = (Yn)nEN un processus prévisible (i.e. tel que \ln 2: 1, Yn
est Fn-1-mesurable) et soit X = (Xn)nEN une martingale.
1) Si le processus Y est borné (i.e. toutes les variables Yn sont bornées par
une même constante K > 0), montrer que le processus Z = (Zn)nEN avec
Zo = 0 et
n
Zn= LYk(Xk - xk-1) (n 2: 1),
k=l
est une martingale.
2) Montrer que le résultat de la question 1) subsiste si l'on suppose que les
processus X et Y sont dans L 2 (i.e. \ln 2: 0, Xn E L 2 et Yn E L 2 ).
Exercice 6 : Soit X = (Xn)nEN une martingale à temps discret et T
un temps d'arrêt pour la filtration de X. On construit une suite (Yri)n>l de
variables aléatoires en posant

lsiT(w)2:n
Yn(w) = {
0 si T (w ) < n.

1) Montrer que Yn est Fn-1-mesurable.


2) Vérifier que pour tout n 2: 1,

et en déduire que le processus (X71\n)nEN est une martingale pour la même


filtration que X. (On remarquera qu'en appliquant le théorème d'arrêt de
Doob 1.4.1, on obtient seulement que (XTAn)nEN est une martingale pour
la filtration (:FTAn)nEN).
Exercice 7 : Soit X = (Xn)nEN une martingale et T un temps d'arrêt
tel que T < +oo p.s. On suppose que JE(IXTI) < +oo.
1) Vérifier que JE(XT) = :Lt~ JE (Xkl[T=kJ) et en déduire que
limn->+oo lE(XTl[T>nJ) =O.
2) On suppose que limn_,+ 00 lE(Xnl[T>nJ) = 0, montrer alors que
46 Mouvement Brownien et calcul d'Itô

IE(X7 ) = IE(X1).
(indication: On pourra utiliser l'identité X 7 = Xr/\n + (X7 - Xn)l[r>nj).
Exercice 8 : Soit (Zi)i>l une suite de variables aléatoires i.i.d. de loi
lP'(Zi = 1) = lP'(Zi = -1):, ~et a> 0 est un entier fixé. On pose So = 0
et Sn = Z1 +···+Zn (n 2: 1) et on définit le temps d'arrêt

T = min {n : [Sn [ = a} ,
1) Démontrer que

et en déduire que IE( T) <+oo (indication : on pourra remarquer que


IE(T) = L~~ 2:~~ 1 (2an + l)lP'(T = 2an + k)).
2) En utilisant le fait que X = ( s; -n )nEN est une martingale en
déduire que IE( T) = a2 (indication : utiliser l'exercice 7).
Notes: La modélisation moderne d'un processus stochastique comme
l'axiomatisation du calcul des probabilités remonte à A. Kolmogorov et
à son célèbre livre "Grundbegriffe der Wahrscheinlichkeitsrechnung" [34],
(voir [7] pour des détails) mais c'est le livre de J.L. Doob [ 18] qui po-
pularise définitivement l'espace (0, F, lP') et qui donne un premier exposé
systématique de la théorie des martingales. Notons à ce propos, comme le
font remarquer M. Barbut, B. Locker et L. Mazliak [3] que P. Lévy, grande-
ment à l'origine des martingales, "rejettera l'espace n et son appareillage,
ce qui ne l'empêchera pas de parler de questions aussi profondes que celle
de la séparabilité des processus ou de leurs modifications". La théorie de la
mesure et de l'intégrale abstraite, sont dans le même temps introduites dans
l'enseignement universitaire aux USA principalement grâce au livre de P.
R. Halmos [25]. Plus tard dans les années 1960, les livres de J. Neveu [43]
et [44] auront un retentissement similaire dans l'Université française.
Dans la période récente, les livres qui ont marqué le plus le dévelop-
pement spectaculaire de la théorie des processus sont ceux de Dellacherie
et Meyer ([13], [14], [15], [ 16]), Revuz et Yor ([51]) et Rogers et Williams
([52]). Tous les résultats de notre cours sont développés, sous une forme
la plupart du temps beaucoup plus générale, dans ces grands traités. Pour
Chapitre 1. Introduction aux processus stochastiques 47

la matière de ce chapitre 1, la démonstration du critère de Kolmogorov de


continuité des trajectoires (théorème 1.1.2) est, à des détails près, celle don-
née par D. Revuz et M. Yor [51]. Pour la démonstration du théorème de Kol-
mogorov (théorème 1.1.3), j'ai utilisé une preuve de Métivier ([40]) avec
une présentation de Breiman ([5]). Notons à ce propos que j'ai emprunté
à Rényi [49] la dénomination "grand théorème de Kolmogorov" pour dis-
tinguer ce résultat (qui englobe aussi le théorème 1.1.4) des très nombreux
autres résultats de Kolmogorov et qu'il n'y a pas dans mon esprit de "petit
théorème de Kolmogorov" même si on pourrait penser au théorème 1.1.4
qui est une version du même résultat mieux adaptée au temps discret. Le
fait que la loi d'un processus gaussien est entièrement déterminée par ses
fonctions espérance et covariance, est un exemple fondamental d'applica-
tion du grand théorème de Kolmogorov. Les processus gaussiens sont par
ailleurs étudiés en détails dans la monographie de Neveu ([ 42]) que nous
avons largement utilisée ainsi que l'autre livre de Neveu [44] d'où sont ex-
traits tous nos résultats sur les martingales discrètes. Les résultats sur les
tribus sur un espace de trajectoires qui figurent en annexe, sont des présen-
tations personnelles de sujets épars dans la littérature (voir [40] et [ 13 j).
48 Mouvement Brownien et calcul d'Itô
Chapitre 2

Le mouvement brownien

En 1827, grâce aux progrès qui viennent d'être réalisés dans la fabri-
cation des microscopes, le botaniste écossais R. Brown observe des minus-
cules particules de pollen qui placées dans l'eau, au lieu de tomber régu-
lièrement, se trouvent animées d'un mouvement vif et parfaitement désor-
donné qui se prolonge indéfiniment dans les mêmes conditions quelle que
soit la durée de l'observation. Il vient de faire l'une des découvertes les plus
fructueuses de ces deux derniers siècles : elle va permettre de confirmer les
intuitions des physiciens et des chimistes sur la structure atomique de la
matière.
L'hypothèse que le déplacement de ces particules 1 est dû à d'incessants
chocs aléatoires infinitésimaux avec les molécules du liquide va s'imposer
petit à petit (voir l'article de M. Gouy [22] de 1886). La modélisation ma-
thématique de ce phénomène difficile à comprendre va intervenir plus tard
avec les remarquables travaux d' A. Einstein (1905) [l 9] et de M. Smolu-
chowski [53] qui le mettent en équation et lui donnent le nom de mouve-
ment brownien. La vérification expérimentale de ce modèle par le physicien
J. Perrin (prix Nobel 1926) va en particulier le conduire à une détermination
précise du nombre d' Avogadro. Jusqu'à nos jours le mouvement brownien
n'a pas cessé d'être une source d'inspiration pour de nombreux travaux
théoriques ou appliqués (voir par exemple [26] et [27]).

1qui peuvent être du pollen ou des grains sphéroïdes de masse infinitésimale (i.e. très
faible) de nature quelconque comme de la gomme-gutte ou du mastic, etc ... : voir l'ex-
cellent livre de J. Perrin [46].

49
50 Mouvement Brownien et calcul d'Itô

De manière complètement indépendante, le mathématicien français L.


Bachelier, dans sa thèse [ 1] propose en 1900 le mouvement brownien com-
me modèle des fluctuations du cours des actions en bourse. Ce travail, long-
temps ignoré, est considéré aujourd'hui comme fondateur des modèles pro-
babilistes appliqués à la finance (voir [4]).
La théorie moderne du mouvement brownien date des années 1930. Ini-
tiée par N. Wiener, A. Kolmogorov et P. Lévy, on peut la trouver exposée en
détails avec ses développements les plus récents dans le livre de D. Revuz
et M. Yor [51] (voir aussi les articles didactiques [36] et [57]). Nous nous
contenterons ici d'une présentation du mouvement brownien unidimension-
nel et des propriétés essentielles de ses trajectoires (variation quadratique,
non différentiabilité) qui permettent de comprendre la nature de l'intégrale
stochastique du chapitre 4. L'étude de l'aspect markovien du mouvement
brownien, sera abordée dans le chapitre 3.

2.1 Généralités
2.1.1 Les accroissements du mouvement brownien
Il y a plusieurs présentations possibles du mouvement brownien. Nous
avons choisi de privilégier l'aspect processus à accroissements indépen-
dants. On obtient aussitôt que le mouvement brownien est une martingale.
Le caractère gaussien du mouvement brownien sera vu ensuite.

Définition 2.1.1 : Un processus B = (0, F, (Ft)t:::o, (Bt)t:::o, JP) à va-


leurs réelles est appelé mouvement brownien si

(2.1)
Bo = 0 lP - p.s.
(2.2)
V0 ~ s ~ t, la variable aléatoire Bt - B 8 est indépendante de F 8 •
(2.3)
VO ~ s ~ t, Bt - B 8 est de loi N(O, t- s).

Autrement dit, le processus B part de 0, ses accroissements sont indépen-


dants du passé et sont de loi normale centrée et de variance égale à la
longueur de l'intervalle de temps.
Chapitre 2. Le mouvement brownien 51

Définition 2.1.2 : Lorsque (Ft)t;:::o est la filtration naturelle de (Bt)t;:::o,


on dit que B est un mouvement brownien naturel.

Remarques : 1) On considère parfois des mouvements browniens sur un


intervalle de temps compact T = [O, a]. La définition est la même que celle
donnée ci-dessus mutatis-mutandis 2 .
2) Le point (2.2) implique que les variable aléatoires Bt -B8 et Bu 1 ••• Bun
sont indépendantes pour tous u1, ... , Un ::; s.
3) On peut affaiblir la condition (2.3), en demandant seulement que les
variables aléatoires J=s(Bt -B8 ), pour 0::; s < t, soient toutes de même
loi centrée avec un moment d'ordre deux. En effet en écrivant

Bt - Bs = _1_ (Bt - B(s+t)/2 + B(s+t)/2 - Bs)


vlt=BJ2 ~ ~'
on voit que X = Bi-B(s+tl/ 2 et Y = B<s+n; 2 -Bs sont indépendantes et
~ ~
de même loi L,, et que x; { est aussi de loi L. Il est bien connu que cela
implique que L, = N(O, 1) (voir par exemple le livre de A. Rényi [49] p.
305).
4) Le point (2.2) de la définition a trois conséquences importantes :

Proposition 2.1.1 : Tout mouvement brownien est une martingale relative-


ment à sa.filtration i.e.: pour touts< t, lE(BtlFs) = B 8 •
Démonstration: sis < t, l'indépendance de Bt - Bs et Fs implique que
JE(Bt - BslFs) = JE(Bt - B 8 ) = 0, puisque Best centré. D'où le résultat.
D

Proposition 2.1.2 : Tout mouvement brownien est un processus à accrois-


sements indépendants i.e. : Pour tous s = to ::; t1 ::; · · · ::; tn, les variables
aléatoires Btk - Btk-l ( k = 1, ... , n) sont indépendantes et indépendantes
de la tribu F 8 •

Démonstration: Soient f 1, ... , r n des boréliens de IR et A E F 8 • Comme


pour tout k = 1, ... , n, Btk - Bt1,;_ 1 est indépendante de Ftk_ 1 , on voit
facilement par récurrence descendante que :
2 i.e. en remplaçant T = [O, oo[ par T = [O, a].
52 Mouvement Brownien et calcul d'Itô

IP'(Btn - Btn-i Ern, ... , Bt 1 - Bs E r1, A)


= IP'(Btn- Btn-l E rn)IP'(Btn-TBtn_ 2 Ern-1 ... Bt 1 - BsE r1, A)

~ (fi; ll'(B,, - s,,_, Er,)) ll'(A)

ce qui prouve en même temps que les variables aléatoires Btk - Btk-l
sont indépendantes (prendre A = Q) et le résultat. 0
Le résultat précédent a pour conséquence l'intéressante propriété sui-
vante du mouvement brownien

Corollaire 2.1.1 : Si B est un mouvement brownien, le processus


(B( - t)t?.O est une Ft-martingale.

Démonstration: Soit t > s. Comme IE(BtBslFs) = B'l (car Best une


martingale) et IE((Bt - B 8 ) 2 1Fs) = IE((Bt - B 8 ) 2 ) (voir la proposition
2.1.2), on a

IE(Bz - tJFs) =JE ((Bt - Bs) 2 + B; - tJFs)


=t- s+ B; - t = B; - s. O.

Il est important de signaler que cette propriété est caractéristique du


mouvement brownien parmi les martingales continues. Plus précisément
on a le résultat suivant de P. Lévy (voir l'annexe pour une démonstration) :

Théorème 2.1.1 (caractérisation de P. Lévy du mouvement brownien) :


Soit (Ft)t>O une filtration et M = (lVIt)t>O une Frmartingale continue
avec Mo :: O. Si le processus (M[ - t)r;o est aussi une Ft-martingale,
alors M est un mouvement brownien.

On aura besoin par la suite de la précision suivante sur les accroissements


du mouvement brownien à partir d'un instants:

Proposition 2.1.3 : Pour tout s > 0 (fixé), la tribu Œ(Bt - B 8 ; t 2:: s)


engendrée par tous les accroissements ultérieurs à l'instant s, est indépen-
dante de la tribu F 8 •
Chapitre 2. Le mouvement brownien 53

Démonstration : L'assertion découle aussitôt du résultat précédent et des


deux lemmes suivants dont nous omettons la démonstration (voir [45] p.
39):

Lemme 2.1.1 : Soient F1 = (Xi)iEI et F2 = (Yj) jEJ deux familles de


variables aléatoires. Les tribus o-((Xi)iEI) et o-((Yj)jEJ) engendrées res-
pectivement par F1 et F2, sont indépendantes si et seulement si pour tous
n, m E N* et tout choix des variables X1, ... , Xn E F1 et Y1, ... , Ym E
F2, les vecteurs aléatoires (X1, ... , Xn) et (Y1, ... , Yrn) sont indépen-
dants.

Lemme 2.1.2 : Soient s :S: t1 :S: · · · :S: tn. La tribu o-(Btn - B 8 , Btn-i -
Bs, ... , Bt 1 - Bs) coïncide avec la tribu

2.1.2 Caractère gaussien du mouvement brownien


Théorème 2.1.2 : 1) Soit B = (n, F, (Ftk:::o, (Bt)t?_O, IP') un mouvement
brownien. Alors il satisfait les propriétés suivantes :

(2.4)
Bo = 0 IP' - p.s.
(2.5)
V 0 :S: t1 < · · · < tn, (Bt 1 , ••• , BtJ est un vecteur gaussien centré,
(2.6)
Vs, t 2: 0, IE(BsBt) = min(s, t).

c'est-à-dire B est un processus gaussien réel centré et de fonction de cova-


riance r(s, t) = min(s, t).
2) Inversement, si un processus B vérifie (2.4), (2.5), (2.6) et si on note
(Ft)t?_O la filtration naturelle de la famille (Bt)t?_Q, alors

(D, F, (Ft)t?_o, (Bt)t?_o, IP')

est un mouvement brownien (naturel).


54 Mouvement Brownien et calcul d'Itô

Démonstration :
partie 1 : supposons que B soit un mouvement brownien. Il n'y a que (2.5)
et (2.6) à prouver. Soient a1, ... , an E lR et 0 :S t1 < · · · < tn. Montrons
par récurrence sur n que a 1 Bt 1 + · · · + anBtn est une variable aléatoire
normale. Sin = 1 cela résulte de (2.3) car a1Bt 1 = a1(Bt 1 - Bo). Si on
suppose l'assertion démontrée pour n - 1, la variable aléatoire a 1 Bt 1 +
· · · + anBtn est alors normale comme somme des deux variables aléatoires
a1Bt 1 +···+(an+ an-1)Btn-i et an(Btn - Btn_ 1 ) qui sont normales et
indépendantes, d'où (2.5). Prenons maintenant 0 ::::; s ::::; t. Grâce à (2.2) et
à (2.3), on a IE(Bs(Bt - Bs)) = IE(Bs)IE(Bt - Bs)) =O. On obtient alors
aussitôt (2.6) puisque

IE(BsBt) = IE(Bs(Bt - Bs) + B;) = IE(B;) = s = min(s, t).

partie 2: Supposons que le processus B vérifie (2.4), (2.5), (2.6). Les condi-
tions (2.1) et (2.4) sont identiques. Soit 0 ::::; s ::::; t. D'après (2.5), Bt - B 8
est une variable normale et centrée car chaque Bt est centrée. De plus (2.6)
implique que :

IE((Bt - Bs) 2 ) = IE(B;) + IE(Bz) - 21E(BsBt)


= t + S - 2s = t - S.
Donc Bt - B s est de loi N (0, t - s). Finalement pour tous 0 ::::; r ::::; s ::::; t,
d'après (2.6), on a

IE( (Bt - B 8 )Br) = min(t, r) - min(s, r) =O.

Comme le processus Best gaussien, les variables aléatoires Bt - Bs et Br


sont indépendantes pour tout r ::::; s, ce qui prouve que la variable Bt - B 8
est indépendante de la tribu Fs = Œ(Br; r::::; s). Cela montre que Best un
mouvement brownien pour sa filtration naturelle. D
II résulte alors de la partie 1) du théorème, l'important fait suivant:

Corollaire 2.1.2 : Le mouvement brownien est unique à équivalence 3 près.

Remarque : Le résultat précédent justifie l'abus de langage qui consiste à


parler "du" mouvement brownien au lieu "d'un" mouvement brownien.
3 Voir la définition 1.1.3 du chapitre 1.
Chapitre 2. Le mouvement brownien 55

2.1.3 Construction du mouvement brownien


Il existe de nombreuses constructions du mouvement brownien mais
toutes procédent en fait des mêmes idées, soit on le construit explicitement
par une méthode hilbertienne à partir d'une suite de variables aléatoires
normales indépendantes N(O, 1), soit on utilise le théorème de Kolmogorov
1.2. l pour justifier son existence.
A) Existence du mouvement brownien

Théorème 2.1.3 : Il existe une probabilité JPl sur l'espace JR[O,+oo[ muni
de la tribu produit B:[o,+oo[ tel que le processus (Xt)t::=:o des applications
coordonnées, soit un mouvement brownien naturel.

Démonstration : On vient de voir qu'un processus réel, gaussien centré,


partant de 0 et de fonction de covariance r( s, t) = min( s, t) est un mou-
vement brownien. Il suffit donc d'après le théorème 1.2. l de prouver le
résultat suivant :

Lemme 2.1.3 : Pour tout entier n et tous 0 ::S t 1 ::S t2 < < tn, la
matricer = ( min(ti, tj)) l::;i,j::;n est de type positif

Démonstration du lemme: Par récurrence sur n. Sin = 1, le résultat est


trivial. Si n = 2, on a

et pour un vecteur u = ('u 1, u 2 ) E JR 2, on a facilement< u[fu >= t 1ur +


2t1 U1'U2 + t2u~ 2: t1ur + 2t1 U1 U2 + t1'U~ = t1 (u1 + 'U2) 2 2: 0, d'où le
résultat dans ce cas. On fait alors l'hypothèse de récurrence suivante: Pour
n - 1 instants, la matrice r correspondante est telle que pour tout vecteur
v = (v1, ... , Vn-1) de JRn-l, on a< v[fv >2: t1(v1 + · · · + Vn-1) 2 .
Pour vérifier cette hypothèse à l'ordre n, remarquons que la matrice r a sa
première ligne et sa première colonne composées uniquement de la valeur
t1 et que le reste constitue une matrice fn-1 correspondant aux valeurs
t2 ::S ... ::S tn. Pour tout vecteur 'U = ( u 1, ... , un) on obtient alors
56 Mouvement Brownien et calcul d'Itô

où v = ('u2, ... , 'Un). Mais on a < vlfn-1V >2: t2('U2 + · · · + 'Un) 2 2:


t1('u2 + · · · + 'Un) 2, et l'hypothèse de récurrence est aussitôt vérifiée. D'où
le résultat. D
B) Construction hilbertienne du mouvement brownien
Soit I = [ü, T] (ou IR+) et (en)nEN une base hilbertienne orthonormale
de l'espace de Hilbert L 2 (I, dt) des fonctions f : I --+ IR de carré intég-
rable pour la mesure de Lebesgue sur I. On note< f, g >= j~T f(t)g(t)dt
le produit scalaire des fonctions f, g E L 2 (J, dt).

Théorème 2.1.4 : soit (Nj )JEN une suite de variables aléatoires i.i.d. de
loi N(O, 1) définies sur un espace probabilisé4 (0, F, IP). Pour tout t E J,
on pose

(2.7) Bt = L < l[o,t]> en> Nn


nEN

Alors le processus B = (Bt)tEI est bien défini et c'est un mouvement


brownien naturel sur (0, F, IP).
Démonstration : La série (2.7) converge dans L 2 (0, F, IP). En effet
si sin)
désigne sa somme partielle d'ordre n, comme les N1;; sont non-
corrélées, pour tout m :::; n, on a
n
JE ((sin) - sim))2) = 2= < l[o,t]1 e1;; > 2 --+ 0
k=m+l

quand m, n--+ oo comme reste de la série convergente qui s'écrit:


L:t~ < l[o,t], ek > 2 = l ll[o,t] l1Pui5- Ce qui montre que la suite sin) est
de Cauchy dans L 2 donc elle converge. De plus comme les s}n) sont des
variables aléatoires normales centrées, il en est de même pour leur limite
Bt (voir le paragraphe 1.2.1, propriété 6). Par le même argument, on voit
aussi que toute combinaison linéaire a1Bt 1 + · · · + aN BtN est aussi une
variable normale centrée donc le processus (Bt)tEI est gaussien centré. De
plus Bo = 0 par définition et pour touts, t E [ü, I], grâce à l'indépendance
4 par exemple l'espace canonique n = JRN, :F = BIR~ et lP' = µ 0 N oùµ est la mesure
gaussienne centrée réduite sur lR.
5 d'après l'égalité de Bessel-Parseval.
Chapitre 2. Le mouvement brownien 57

des Nj, on voit que

JE(BsBt) =L < l[o,s],ek >< l[o,t],ek >


nEN
=< l[o,s]' l[o,t] >= min(s, t),
par la formule de Bessel-Parseval. Le processus Best donc un mouvement
brownien sur I d'après le Théorème 2.1.2.
Remarque: Si I = [ü, T], à partir de B = (Bt)tE[O,T] on peut construi-
re un mouvement brownien B = (Bt)tEIR+ par un procédé de recollement.
Considérons une suite B(k) (k ?: 1) de copies indépendantes du processus
B. Si 0 :S t :S T, on pose Bt = BP) et pour tout entier n > 1 et tout
nT :S t :S (n + 1 )T, on définit
n
B
t
= ""B(k)
~ T
+ B(n+1)
t-nT ·
k=l

Le processus B part de 0, il est gaussien centré et de covariance JE( B 8 Bt) =


inf(s, t). En effet considérons par exemple le cas n ?: 1 et nT :S s :S t :S
(n + l)T. Alors, par l'indépendance de Bnr et B(n+l), on a

t =JE ((B nT + B(n+l))(B


JE(Bs B) s-nT nT + B(n+l)))
t-nT
= JE(B2 + B B(n+1) + B B(n+1) + B(n+1)B(n+1))
nT nT t-nT nT s-nT s-nT t-nT
= JE(B~r) + JE(B~~~~Bi~~~) = nT + inf(s - nT, t - nT)
= s = min(s, t).
Le cas où s et t sont dans deux intervalles différents de la forme [nT, (n +
1)T] est laissé en exercice.
Exemple : La première construction explicite de ce type est due à N.
Wiener, qui montre que le processus W = (Wt)tE[O;rr] défini par

(2.8)

est un mouvement brownien sur I = [O, 7r]. Ceci résulte du théorème avec
la base hilbertienne eo(t) = Jrr et en(t) = j!i cos(nt) (n ?: 1) de
58 Mouvement Brownien et calcul d'Itô

L 2([0, 7T]). Mais la sommation par paquets de la série (2.8) a permis à Wie-
ner de démontrer que pour JPl-presque tout w E Q, la série converge uni-
formément pour t E [O, 7T] et donc que t r--+ Wt(w) est continue. Ce point
délicat est démontré dans l'annexe. Cet exemple de Wiener a été aussi le
point de départ de la théorie des séries de Fourier aléatoires (voir le livre de
J .P. Kahane [31 ]). D'autres constructions analogues sont abordées dans les
exercices.

2.1.4 Continuité des trajectoires browniennes


Supposons donné un mouvement brownien

B = (0, F, (Ft)t>o,
-
(Bt)t>o,
-
P).

Théorème 2.1.5 : Il existe une version continue de B. Plus précisément,


il existe une version de B telle que, pour tout ry < ~' les trajectoires sont
holdériennes d'exposant ry sur tout intervalle compact.
Démonstration: Soit n > 0 et 0 < s < t. Comme Bt - B 8 est de loi
N(O, t - s ), on a:

lE(IBt - Bsl 2n) = l ;·oo x 2n exp(-~ x2 ) dx


J27T(t-s) -oo 2(t-s)

= (t - sr--1 ;·OO y 2n exp (--y


1 ) 2 dy
J27f -OO 2
= Cn(t - sr,
où en > 0 est une constante. Le théorème de continuité de Kolmogorov
(Théorème l .1.2 du chapitre l avec f3 = 2n et a = n - 1) montre alors
que B a une version continue et même holdérienne d'exposant ry < n2~/
sur tout compact. Notons B(n) cette version. Pour m # n, la proposition
1.1.2 montre que les versions B(n) et B(m) sont indiscernables, c'est-à-dire
l'ensemble

(2.9) A n,m = {w E Q ·' 'ïlt >


-
0 ' B(n)(w)
t
= B(m)(w)}
t

est tel que P(A~ ,m) = O. Ainsi il suffit de restreindre B à l'espace n' =
nn,mAn,m pour obtenir une version à trajectoires (localement) hëildériennes
pour tout ry < ~- D
Chapitre 2. Le mouvement brownien 59

2.1.5 La mesure de Wiener sur C([ü, oo[, JR)


Considérons l'espace C = C([O, oo[, IR) des fonctions continues sur
[O, oo[ à valeurs réelles et pour tout t 2: 0, considérons l'application t-ième
coordonnée Xt : C ,----+ IR, définie pour tout w E C par

Xt(w) = w(t).
On munit l'espace C de la filtration naturelle Wtk".o des Xt et de la tribu
terminale Ç = Œ(Ut;:::o9t) qui compte tenu du Théorème 1.5.4, coïncide
avec la tribu borélienne de l'espace polonais (C, d) où d est la métrique
de la convergence uniforme sur les compacts. Considérons maintenant un
mouvement brownien continu6 B = (D, F, (Ft)t>O, (Bt)t;:::o, JP). On a

Proposition 2.1.4 : L'application

(2.10) <I> : w f-----+ { t r-+ Bt (w)},


de (D, F) dans (C, Ç) qui à w E n associe la trajectoire brownienne t r-+

Bt (w ), est mesurable.
Démonstration : Il suffit de montrer que l'image inverse par <I> de tout
cylindre ouvert de Ç
(2.11)
C = {f E C; j(t1) E 01, ... , j(tn) E On} (ti E IR, Oi ouvert de IR),

est dans F. Mais ceci est clair car :

(2.12) <I>- 1 (C) = {w ED; (Bt(w))t;:::o E C}


= {w E D;Bt 1 (w) E 01, ... ,Btn(w) E On}
= [Bt1 E 01, ... ) Btn E On] E F.
Proposition 2.1.5 : J) Soit W = <I>JPl la mesure image de lP par l'appli-
cation <I> définie en (2. JO). Cette mesure W sur la tribu de Borel Ç de
C([O, oo[, IR), ne dépend pas du mouvement brownien continu B qui a servi
à la construire. On l'appelle la mesure de Wiener de C([O, oo[, IR).
2) Le processus W = (C, Ç, 9t;:::o, (Xt)t;:::o, W) est un mouvement brow-
nien continu appelé processus de Wiener.
6 qui existe d'après le théorème 2.1.5
60 Mouvement Brownien et calcul d'Itô

Démonstration : 1) Il suffit de vérifier que la mesure W est définie de


manière intrinsèque sur les cylindres (2.11 ). Mais d'après (2.12),

ne dépend que de la loi de (Et 1 , ••• , EtJ qui est intrinsèque. D'où le 1).
2) Le processus W est à trajectoires continues par définition et ses lois
de dimension finie sont les mêmes que celles de E donc c'est aussi un
mouvement brownien . 0

2.1.6 Invariances du mouvement brownien


Théorème 2.1.6 : Soit E = (0, F, (Ftk:::o, (Et)t?_O, IP) un mouvement
brownien et s > 0, c > 0 des réels fixés. Les processus définis sur (0, F, IP)
par

(2.13) E t(1) -
-
-Et,
(2)
(2.14) Et = Et+s - Es,
(2.15) Ei3) = cE t
~'

(2.16) Ei 4 ) = tE1t (t > 0) et Eb 4) = 0,


sont des mouvements browniens, les deux premiers relativement à la filtra-
tion (Ft)t>o,
-
le troisième pour la filtration (F t )t>O
-
et le quatrième pour
~

sa filtration naturelle. c

Démonstration : Les assertions concernant (2.13), (2.14) et (2.15) sont


faciles et laissées en exercice. Le processus E( 4 ) part de 0 par définition et
c'est clairement un processus gaussien centré. De plus pour 0 < s, t, on a

IE(Ei4 ) Ei 4 )) = stlE(E1E1) = stmin( ~' ~) = min(s, t),


s t s t

d'où le résultat pour E( 4 ) grâce au Théorème 2.1.2. 0


Remarque : Le théorème précédent montre que modulo multiplication
par un scalaire et centrage adéquat le mouvement brownien est invariant
par les changements de temps de la forme t --+ ~itâ (transformations pro-
jectives ou homographiques).
Chapitre 2. Le mouvement brownien 61

2.1.7 Mouvement brownien multidimensionnel


On peut généraliser la définition 2.1.1 comme suit

Définition 2.1.3 : Un processus B = (0, F, (Ft)t>o, (Bt)t>o, lP') à va-


leurs dans JR.d est appelé mouvement brownien d-dim;nsionnelsi
(2.17)
Bo =0 lP' - p.s.
(2.18)
V 0 :S s :S t, le vecteur aléatoire Bt - Bs est indépendant de F 8 .
(2.19)
V 0 :S s :St, Bt - Bs est de loi gaussienne Nd(O, (t - s )Id),

où Id est la matrice identité de JR.d.


La structure du mouvement brownien sur JR.d est très simple comme l'in-
dique le résultat suivant :

Proposition 2.1.6 : Soit B = (Bt)t?.O un processus à valeurs dans JR.d.


Ecrivons Bt = (Bi1), ... , B~d)) dans la base canonique de JR.d. Alors B
est un mouvement brownien d-dimensionnel si et seulement si les processus
B(i) = (0, F, (Ft)t?_O, (B~i))t?_O, lP') sont des mouvement browniens réels
indépendants7 (1 :S i :S d).
Démonstration: i)(condition nécessaire) Supposons que Best un mouve-
ment brownien d-dimensionnel. Il est facile de vérifier avec la définition
2.1.1, que les processus réels B(i) sont des mouvements browniens réels.
Comme ils sont tous issus d'une même famille gaussienne, pour montrer
qu'ils sont indépendants, il suffit de vérifier que pour i -=f. jet pour t1 :S t2,
on a JE(B(i)
t1
B(J))
t2
= 0 . Mais JE(B(i) t1
B(J))
t2
= JE ((B(i)t1
- B(i))B(J))
t2 t2
+
JE(B(i)
t2
B(j))
t2
= 0 . En effet JE ((B(i)
t1
- B(i))B(j))
t2 t2
= 0 car les variables

aléatoires B~:) - B~;) et B~;) sont indépendantes (car Bt 1 - Bt 2 et Ft 2 le


sont) et JE( B~;) B~;)) = 0 car la matrice des covariances de Bt 2 est diago-
nale.
ii)(condition suffisante) : La réciproque est facile à vérifier. D
7 voir la définition 1.5.4
62 Mouvement Brownien et calcul d'Itô

2.2 Régularité des trajectoires browniennes


2.2.1 Variation quadratique des trajectoires
Rappel : Soit f : [a, b] ---7 lR une fonction et 1T : a = to < t1 < · · · <
tn = b une subdivision de [a, b]. La variation (resp. la variation quadratique
de f le long de la subdivision 7î) est le nombre V'.7!" = L::~:6 If (tk+1) -
v;
f(tk)i (resp. 2 ) = L::~:6(f(t1.:+1) - f(tk)) 2 ) et la variation (totale) de f
sur [a, b] est égale à
V 1b = sup V'.7!".a,
7r

où le sup est pris sur toutes les subdivisions de [a, b]. La fonction f est alors
f
dite à variation bornée8 sur [a, b] si V b < +oo. Toute fonction à variation
bornée est la différence de deux fonctions croissantes9 et réciproquement.
Il en résulte que la somme, la différence et le produit de deux fonctions à
variation bornée est aussi à variation bornée. De plus, comme toute fonction
croissante, toute fonction à variation bornée est dérivable presque partout.
Pour les besoins de la théorie des processus, on définit la variation qua-
dratique (totale) de f sur [a, b] non pas comme sup'.7!" vP) mais comme la
limite
lirn v( 2 l'
[fla ,b = 17!"1-+0 7r

où l?TI = maxk( tk+l -tk) est le pas de la subdivision ?T. On voit immédiate-
ment que si f est continue et à variation bornée, sa variation quadratique
est nulle (voir la démonstration du corollaire ci-dessous).
Soit maintenant B un mouvement brownien. On va étudier la variation qua-
dratique de ses trajectoires un intervalle de temps quelconque [s, t]. Comme
ci-dessus pour une subdivision 1T : s = t 0 < t 1 < · · · < tn = t, on pose :

n-1
v; 2
> = l)B(tk+1) - B(tk)) 2 .
k=O

v; 2
> est maintenant une variable aléatoire dont on va considérer la conver-

gence au sens de L 2 . On a:
8 ou à variation finie.
9 au sens large
Chapitre 2. Le mouvement brownien 63

Proposition 2 .2.1 .. i·im[7r[---+O Tv'lr


r(2) -- t - s dans L2 1.e.
.

lim IE((v;2l - (t - s)) 2 ) =o.


[7r[---+O

Démonstration: Soit h = t - s = L:Z::6(tk+l - tk)· Alors

n-1
vpl - h = L ((Btk+l - Btk) 2 - (tH1 - tk)).
k=O

Comme les variables aléatoires (Btk+i - Btk) 2 - (tk+l - tk) sont indépen-
dantes et centrées, on en déduit que

Mais la quantité

est finie et indépendante de k puisque la variable aléatoire 8~~+ 1 -::/k est


k+l k
de loi N(O, 1). On a donc

n-1
JE ((v;2l - h) 2) = c L(tk+1 - tk) 2 ~ c17rl(t - s).
k=O

D'où le résultat en faisant tendre 17rl vers O. D

Corollaire 2.2.1 : Soit B un mouvement brownien continu. Alors, presque


sûrement, pour tous 0 ~ s < t, les trajectoires de B ne sont pas à variation
bornée sur [s, t].
64 Mouvement Brownien et calcul d'Itô

Démonstration : On reprend les notations de la proposition précédente.


Pour tout w E 0 et toute subdivision 7f de [s, t], on a
n-1
v;2l(w) = l::(Btk+I(w)- Btk(w)) 2
k=O

: : ; (s~p IBtk+I (w) - B,k(w)I) ~ IBtk+i (w) - B,k(w)I


k=O

(2.20) :::::; Vs,t(w) (s~p IBtk+I (w) - Btk (w)I) ,


où Vs,t(w) est la variation totale sur [s, t] de la fonction 'U 1-+ Bu(w). Com-
me cette fonction est uniformément continue, on a

(2.21) lim
17rl-+O
(sup IBtk+ (w) - Btk(w)I)
k
1 =O.

Si Vs,t (w) < +oo, (2.20) et (2.21) montrent que nécessairement on doit
avoir

(2.22) lim v;2l(w) =o.


17r1~0

Mais comme la convergence L 2 implique la convergence presque sûre pour


une suite extraite, on déduit de la proposition précédente qu'il existe un en-
semble As,t E F avec IP'(As,t) = 1 et une suite extraite 1fk de subdivisions
dont le pas tend vers 0 et tel que

lim
k-+oo
v;;l(w) = t - si= o.
D'après (2.22), une trajectoire w qui vérifie Vs,t (w) < +oo appartient donc
à l'ensemble (As,t)c qui est de probabilité nulle. Ainsi une trajectoire qui
serait à variation bornée sur un certain intervalle de temps, doit appartenir
à Us,tEIQl(As,t)c qui est de probabilité nulle, d'où le corollaire. D

2.2.2 Non différentiabilité des trajectoires browniennes


Le corollaire 2.2.1 implique que presque sûrement, il n'y a aucun inter-
valle (aussi petit soit-il) sur lequel la trajectoire du mouvement brownien
Chapitre 2. Le mouvement brownien 65

ait une dérivée bornée. Ceci laisse suspecter que la trajectoire brownienne
n'est dérivable en aucun point. Ce fait a été conjecturé par le physicien
J. Perrin puis démontré rigoureusement par Paley, Wiener et Zygmund en
1933. La démonstration très simple que nous donnons ci-dessous est due à
Dvoretski, Erdos et Kakutani (1961).

Théorème 2.2.1 : Presque sûrement, les trajectoires du mouvement brow-


nien ne sont différentiables en aucun point.

Démonstration: Il suffit d'après (2.14) de se restreindre à l'étude des tra-


jectoires sur l'intervalle [O, l]. Fixons lvl > 0 et pour tout entier n > 0
considérons l'événement :

2 1 - -2] : ls - tl ::; -2
An = { w E r2; 3s E [ -,
n n n

=? IBs(w) - Bt(w)I::; 2Mls - tl}·

Les An forment une suite croissante et A (M) = UnAn contient tous les
w En tels que la trajectoire t---.. Bt(w) a une dérivée en un point de JO, 1[
dont la valeur absolue est inférieure à M. D'autre part sis E rn,1 - ~J
est tel quels - ti ::; ~implique IBs(w) - B,(w)I ::; 2Mls - tl et si k est
le plus grand entier tel que ~ ::; s, alors, on a :

.6.k(w) =max (IBk+2 (w) - Bk+1 (w)I, IBk+1 (w)


n n n
6M
-BE.(w)I, IBk(w) - Bk-1 (w)I)::; - .
n n n n

Si donc on considère les événements


(2.23)
66 Mouvement Brownien et calcul d'Itô

On a An c An. Donc pour prouver que lP'(A(M)) = 0, il suffit de montrer


que limn_, 00 lP'(An) = O. On déduit de (2.23) que

(2.24)

Mais la valeur de lP' ( ,6.k ::; 6 ,~1 ) ne dépend pas de k car le vecteur aléatoire

( Bk+2
n
- Bk+1, Bk+1 - B!i, Eli - Bk-1)
n n n n n

a des composantes indépendantes et il est donc de loi N (0, ~ ysi 3 . On peut


alors récrire (2.24) sous la forme

lP'(An)::; (n - 2) lP' 6M))


( (IB+,I::;---:;:;-- 3

)3
Vrn;·-n (-~nx 2 ) dx
6M
= (n - 2) ( exp
2; _6M 2
n

= 1-;·
(n - 2) ( -
~ -6A1
6
M exp (-~Y
2 n
2 ) dy) 3 ----+ O (n----+ oo).

Ce qui prouve que lP'( A (M)) = O. Pour finir, il suffit de remarquer que l'en-
semble des w E 0 tels que la trajectoire t ----+ Bt (w) est dérivable quelque
part, est inclus dans UMENA(M) qui est de probabilité nulle. D

2.3 Renaissance du mouvement brownien après un


temps d'arrêt
2.3.1 L'accroissement du mouvement brownien à partir d'un
temps d'arrêt
On a vu au théorème 2.1.6 que pour touts 2: 0 fixé, le processus Bi1) =
B s+t - B s est encore un mouvement brownien. On va généraliser ce résultat
en remplaçant le temps fixe s par un temps d'arrêt. C'est la raison du titre
imagé de ce paragraphe : le mouvement brownien "renait" IO
10 1tô et Mc Kean [29] utilisent le terme "starts afresh" qui a été repris depuis dans la

littérature anglophone.
Chapitre 2. Le mouvement brownien 67

Théorème 2.3.1 : Soit T un temps d'arrêt pour la filtration de B. On sup-


pose que T est presque sûrement fini (i.e. JP( T < +oo) = 1 ). Alors le
processus X défini par

est un mouvement brownien relativement à la filtration (F 7 +t k:::o et indé-


pendant de .F7 •

Démonstration : Supposons que T prend un nombre dénombrable de va-


leurs s1, s2, ... , Sn, ... et soient A1, ... , An des boréliens de~ et E dans
la tribu .F7 des événements antérieurs à T. Pour 0 :S t 1 < · · · < tn. on a

1P(Xt1 E A1, ... 'Xtn E An, E)


= LJP(Bt 1+sk - Bsk E A1, ... , Btn+sk - Bsk E An, T = SJ;;, E)
k
= 1P(Bt1 E A1, ... 'Btn E An)lP(E),

car [T = sk, E] E Fsk et les variables aléatoires Btn+sk - Bsk sont indé-
pendantes de Fsk et leur loi ne dépend pas de Sk. En prenant E = n, on
voit que le processus X a les mêmes lois de dimension finie que B. Comme
Xo = 0, X est donc un mouvement brownien. En prenant ensuite E quel-
conque dans Fn le calcul précédent montre aussi que X est indépendant
de .F7 . Pour terminer la démonstration dans le cas général, on a besoin du
lemme suivant :

Lemme 2.3.1 : Soit T un temps d'arrêt du mouvement brownien B. Alors


il existe une suite ('Tn)n>O de temps d'arrêt prenant chacun un ensemble
dénombrable de valeurs, tels que [Tn = +oo] = [T = +oo] et Tn "'>. T i.e.
'Tn+l :S Tn et limn-+oo Tn = T.
Démonstration : Il suffit de considérer les Tn définis par
k+l k ( ) k+l
2" si 2n < T W :S 2'i"""
Tn(w) ={ +oo si T(w) = +oo.

Alors il est clair que Tn "'>. T. De plus, pour tout t > 0, [Tn :S t]
k+l] -_ LJ k t,1 ::;t [2kn < T <
Uk2t,1 9 ['Tn = 2" k+1] E -'t·
_ 2" r D one Tn es t un
2
temps d'arrêt. D
68 Mouvement Brownien et calcul d'Itô

suite de la démonstration du théorème : Soit T < +oo JPl-p.s. un


temps d'arrêt et Tn les temps d'arrêt considérés dans le lemme. Soit f une
fonction continue bornée sur IR et E E F 7 (noter que pour tout n, E E F 7 n
car F 7 C F 7 n). D'après la première étape, on a

(2.25) E (f(BTN+t 1 - BTN' · · ·, BTN+tn - BTN )lE)


=JE (f(Bt 1 , ••• , Btn)) JPl(E).
Comme les trajectoires de B sont continues, le terme de gauche dans (2.25),
converge vers JE (f(B7 +t 1 - B 7 , • • . , B 7 +tn - B 7 )lE) quand N --+ oo,
d'après le théorème de convergence dominée. D'où le résultat. D

2.3.2 Loi du temps d'atteinte d'un point


Une application intéressante du théorème précédent est la détermina-
tion explicite de la loi de l'instant (aléatoire) où le mouvement brownien
atteint un point donné. Soit a E R Le temps d'atteinte Ta de a par le mou-
vement brownien continu B est la variable aléatoire définie par

Ta(w) = inf{t 2: O; Bt(w) =a}.


On a vu dans le chapitre l que Ta est un temps d'arrêt de B.

Proposition 2.3.1 : Pour tout t E IR+, on a

(2.26) P(ra :St)= 1 t


o
lai
~exp(--)d'U.
21m 3
a2
2'U
Autrement dit la variable aléatoire Ta a une densité de probabilité de la
forme
. lai a2
ÎTa('U) = ~exp(- 2 ,)l[o,+oo[('U).

Démonstration : On a

(2.27) P(ra < t) = P(ra < t, Bt >a)+ P(ra < t, Bt <a),


et comme par continuité des trajectoires [Bt > a] C [ra < t], il vient

(2.28) P(ra < t, Bt >a)= P(Bt >a).


Chapitre 2. Le mouvement brownien 69

Maintenant

(2.29) IP(Ta < t, Bt <a)= IP'(Ta < t, BTa+(t-Ta) - BTa < 0)


~ 1
= IP'(Ta < t, B(t-Ta) < 0) = 21P'(Ta < t),

car B = (B 7 a+u - B 7 Ju>o est un mouvement brownien indépendant de


F 7 "' par le théorème 2.3. l. Il résulte de"2.28 et 2.29 qu'on a

(2.30) IP'(Ta·< t) = 21P'(Bt ~a)= 2 1a


00 1
y 27rt
y2
~exp(--)dy.
2t

D'où le résultat (2.26) en faisant le changement de variable y= J(a 2 t)lu


dans l'intégrale du second membre de (2.30). D

Corollaire 2.3.1 (égalité maximale pour le mouvement brownien) : Pour


tout a E IR, on a

(2.31) IP'( sup Bs 2: a)= 2IP(Bt 2: a).


o::;s:<:;t

Démonstration : On utilise (2.30) et l'égalité évidente [supo<s<t Bs >


a] = [Ta :S t]. - - D
Une autre conséquence très utile du théorème 2.3.1 est le fait que la
famille des temps d'atteinte (Ta)a2'.0 constitue un processus de Lévy . Plus
précisément

Corollaire 2.3.2 (processus temps d'atteinte): Pour la filtration (F7 Ja2'.0,


(Ta)a2'.0 est un processus à accroissements indépendants et stationnaires
(i.e. la loi de Tb - Ta (a< b) est la même que celle de Tb-a).

Démonstration : (F7 Ja2:0 est une filtration car si 0 :::; a :::; b, Ta :::; Tb
(car le mouvement brownien est à trajectoires continues partant de 0) donc
F 7 a C F 7 b. De plus pour tout a 2: 0, Ta est F 7 a-mesurable. Soient a 2: 0
eth > 0 et Ê = (B 7 a+u - B 7 Ju2'.0 le mouvement brownien renaissant à
l'instant Ta. La continuité des trajectoires de B montre que

Ta+h =Ta+ inf{t > O; Ê = h} =Ta+ Th,


70 Mouvement Brownien et calcul d'Itô

où 'TJi est le temps d'atteinte de h pour Ê. Mais Ê est indépendant de Fra


donc 7'i = Ta+h - Ta, ce qui implique le résultat. D
Une application importante du résultat précédent est la détermination
de la loi jointe du couple (Bt, Mt) où Nft = supo<s<t Bs est le maximum
de la trajectoire brownienne sur l'intervalle [O, t]. - -

Corollaire 2.3.3 : Pour t > 0, la loi de (Bl, !Mt) a une densité par rapport
à la mesure de Lebesgue de IR 2 de la forme
(2.32)
Ü S't X > y O'U y < Ü
{
ft(x, y)= (2y - x) exp (-(2y - x) 2 )
/!2 ------.,-- S'l y >_ 0 et x <_ y
7r t3/2 2t

Démonstration : D'après le corollaire 2.3.1 on sait que 1'v1t > 0 p.s.; pre-
nons donc y > 0 et considérons le mouvement brownien Ê = (Bry+u -
Bry)u~o renaissant après le temps Ty d'atteinte du point y. On a

.IP'(Bt::; x, Mt 2': y)= .IP'(Ty::; t, Ê(t-Ty) ::; X - y)


= JP'(Ty::; t, Ê(t--r:y);?: X -y))(*)
= .IP'(Ty::; t, T(y-x)::; t - Ty) (**)
= ~ JP'(T(y-x) + Ty ::; t)
1
= 2JP'(T(2y-x)::; t) (* * *)
= .IP'(Bt 2': 2y - x) = - 1 - /"+oo exp (-'U2) d'U,
y'2ri J2y-x 2t

les égalités ( *) par symétrie de la loi gaussienne, ( **) d'après (2.31 ), (* *


*) car (Ta) est à accroissements indépendants et lavant dernière égalité
toujours d'après (2.31). On obtient alors le résultat en dérivant en x et y. D
Remarque : Une autre démonstration de ce résultat est basée sur le
principe de symétrie d'André (voir l'annexe).
Chapitre 2. Le mouvement brownien 71

2.4 Annexe
2.4.1 La caractérisation de P. Lévy du mouvement brownien
Nous donnons ici une démonstration du théorème 2.1.1. Pour alléger les
notations nous noterons JE(t)(X) = lE(XIFt), l'espérance conditionnelle
de la variable aléatoire X relativement à la sous-tribu Ft. Les hypothèses
du théorème se traduisent alors pour tous t, h 2:: 0 par

En fait il nous suffit de prouver que pour tout x E lR

(2.33)

En effet si (2.33) est vraie, pour toute suite finie 0 :S to < ti < · · · < tn et
tous x1, ... , Xn E JR,

E (eil:Z= 1 xdMtk-Mtk_ 1)) = lE (eil:'k:ixdMtk-Mtk_ 1 )

JE(tn-1) (eixn(Mtn -Mtn-l )) )

=JE (eil:'k;:;;{xdMtk-1\!ftk_ 1 )) e-~x~(tn-tn-1),

et par récurrence

n
lE(eil:'k=1xdM1k-Mtk-1l) =II e-~xf(tk-tk_i)'
k=l

ce qui montre que les variables aléatoires Mtk - Mtk-l sont indépendantes
gaussiennes centrées et JE ((Mtk - Mtk_ 1 ) 2) = tk - tk-1· D'où le résultat
du théorème.
Passons à la preuve de (2.33) et pour cela fixons t, h 2:: 0, x E lR et posons :
72 Mouvement Brownien et calcul d'Itô

On peut écrire

JE(t) (e·ix(M1+1i-M1)) _ e-1x 2h = JE(t) (eix(L:r= 1Nh,n))- e-1x 2h

(2.34)
n-1
=L JE(t) ( e-ix(L:%!i Nh,n) - eix(L;k=l Nh,n)- 2\ x 2 h) e-21n (n-r-l)x 2 h.
r=O
Evaluons la quantité :

IE(t) ( e·ix(L;k-:!;~ Mk,n) _ e'ix(L;J:= 1 Nh,,,)- 2~ x2h)

= JE(l) ( eix(L;/;=1 Nh,n) [eixM,,+1,n _ e-}n x 2h])

= JE(t) ( eix(L;/;= 1Nh,n)JE(t+ 1: ) [ e·ixM,·+1,n _ e- 21n x 2h])

= IE(t) ( eix(L;k=l 1\!h,n)JE(t+ ';'.') [e'iXMr+l,n - 1 - ixlvlr+l,n

(2.35)

+ ~2 (Mr+l;n)2]) +JEU) ( e·ix(L:/:=1 Nh,n) [ 1 - 2~n x2h - e-},,x2h]) .

En tenant compte de e-a - 1 +a = 0( a 2 ), le dernier terme de (2.35)


est oc,;2)
et grâce à (2.34) et au calcul précédent on obtient la majoration:

IIE(t) (eix(Mt+1i-M1)) _ e-1x 2hl :S O(~)


(2.36)

+ ~ ~(t) (IE(t+ ;~ 1 [ eixM,+>,n - 1 - ixM,+1,n + x; (M,+i,n)'] I) .


Admettons que l'on ait démontré que pour tous t, h 2 0, l'accroissement
lvlt+h - l\llt a un moment d'ordre 4 tel que:

(2.37)

Alors d'après l'inégalité de Cauchy-Schwarz, on a

JE(t) (IMt+h - Mti3) :S [IE(t) ((l\llt+h - Mt) 4 ) JE(t) ((Mt+h - Mt) 2 )] 112
Chapitre 2. Le mouvement brownien 73

et on déduit de (2.37) que

(2.38)

Mais puisque leio - 1 - i8 + e; 1:=; 1°J3, (2.38) implique


~IE(t) (IJE(t+';I [e•xM,+"• - 1- ixM,+1,n + x; (Mc+!,n)'] I)

::; 1~ 3 nO (~) 312


=O( Jn).
On déduit alors de (2.36) que IJE(t) (eix(Mt+h-Mt)) - e-~x 2 hl = O( Jn).
donc JE(t) ( eix(Mt+h-Mt)) = e-~x 2 • Il reste donc à démontrer l'inégalité
(2.37):
D'abord remarquons que pour ô > 0, on a

n n
:~:::)Mk,n) 2 +ô :=; sup(Mk,n) 8 L(Mk,n) 2
k=l k k=l

et donc
n
(2.39) L(Mk,n) 2+ô--+ 0 en probabilité (n--+ oo)
k=l

(car ]p> (I:~=l (Mk,n) 2 2: N) :=; ~ --+ 0 (N --+ oo) et supk(Mk,n) 8 --+ 0
p.s. sin--+ oo puisque les trajectoires sont continues). Ainsi, comme pour
tout entier n, on a (Mt+h - Mt) 4 = (I:~=l Mk,n) 4 , on peut écrire:

(2.40) (Mt+h - Mt) 4 = n-+oo


lim (~
L Mk 'n)
4
k=l

Mais d'après (2.39), quitte à prendre une sous-suite (pour conserver la con-
74 Mouvement Brownien et calcul d'Itô

vergence p.s.), on a aussi

(2.41)

(Mt+h - Mt) 4 =

~Î.~ (t, Mk,n) 4


+3 (t, Mt,n) - (t, Ml,n) (t, M1,n) ·
4

On a besoin du lemme suivant dont la démonstration se fait par récurrence


surn:

Lemme 2.4.1 : Pour toute suite finie de réels x1, ... , Xn, on a

n
:s; 6 L XI(L Xj) 2 + 12 X2x2
i J"
i=l #i

Grâce au Lemme, pour tout entier n, on a

n n n n
Sn = (L 1Vh,n) 4 + 3L Mf,n - 4 L MZ,n L Mt,n
k=l k=l k=l l=l

+ 18 L Mi~n!VIJ,n 2'. O.
i<j

On déduit alors de (2.41) et du lemme de Fatou :

(2.42)

Mais si on développe Sn. on constate qu'il n'y a (à une constante multipli-


cative près) que des termes de la forme Mi,nMj,nMk,nMz,n (avec i < j <
k < l), Mi,nMj,nMf,n (avec i < j < k), M( nlVIj,nMk,n (avec i < j < k)
Chapitre 2. Le mouvement brownien 75

et Mi~nMJ,n (avec i < j) et on voit facilement que tous ces termes sont
dans L 1 et qu'on a

et si j < k < l,

JE (t) (11'
lVj j,n
M k,n (Ml,n )2) -- JE (t) ( Mj,nMk,nlE (t+<1-1)h)(
n Jl/f1,n )2)

= ( ~) JE(t) ( Mj,nll/h,n) = O.

Il ne reste dans JE(t)Sn que les termes JE(t) ((Jl/Ii,n) 2(Jl/Ij,n)2) pour i < j.
Mais comme
JE(t) ( (M,i,n) 2(Mj,n) 2) = JE(t) ( (Mi,n) 2JE(t+ (j-nl)h) (Mj,n) 2)

= ~JE(t) ( (M1,n)2) = ( ~) 2'


on déduit aussitôt de (2.42)

JECt) ((Mt+h - Mt) 4 ) :S: ,j~~ 24JE(t) (L:Mi~nMJ,n)


i<J

. n(n - 1) h 2 2
<
-
hm 24
TL->00 2 n2
<
-
12h
'

ce qui termine la preuve du théorème. 0

2.4.2 La construction de Wiener du mouvement brownien


On va montrer que pour lP'-presque tout w E 0, la fonction t f-+ Wt (w)
donnée par la formule (2.8) est continue sur [O, 7r]. Pour 0 < t < 7r et
0 :::; m < n entiers, on considère les variables aléatoires

Tm n = n1ax ISm n(t)I.


' O:St'.S7r '
76 Mouvement Brownien et calcul d'Itô

La démonstration est basée sur le lemme technique suivant :

Lemme 2.4.2 : Pour tout entier m > 0, on a

)3
(2.43) lE(Tm,2m) :::; ml/4.

Admettons provisoirement ce lemme. On voit alors clairement que

ce qui implique

Ainsi la série

converge uniformément et sa somme est donc une fonction continue (avec


probabilité 1). D'où le résultat. Il reste à prouver le lemme:
,
D emonstratlon. d u )emme: 0 na T2 l"°'n-1
éUt) Ar 12
rn,n:::; maxo::;t:<:;n L..,j=rn -j-JVj .

Mais
2
n-1 ei(jt) n-1 i(l-j)t
'°'-N·
L; j J 2: e lj NLNJ
1=·m l,j=m

= rLi-1 N} + 2 L
·2
cos(Z - j)t NiN·
z· 1 1
.
J=m
J .
y<l
J

n-1 N2 n-m-1 n-k-1 COS kt


(2.44) = 2:
J=m
j~ + 2 2: 2: u+ k)jNJNJ+k,
k=l J=m

où pour obtenir la dernière égalité de (2.44 ), on a fait le changement de


variable l - j = k E { 1, ... , n - m - 1} (ce qui revient à sommer suivant
Chapitre 2. Le mouvement brownien 77

les tranches parallèles à la diagonale des axes l, j). Ainsi on a

(2.45)

car dans le développement de E ( L,j:;:~-l (jj_k)jNjNj+k) 2 ci-dessus on


a
E(.NJ.NJ+k) = 1 et E(NJNJ+kNJ'NJ'+k) = 0 si j # j'. Finalement la
n-m
somme (2.45) est encore majorée par - -2-
rn
+ 2(n - m) (n-m)
--
m
4-
112

1 1 ) 1/2 v13
D'oùilrésultequeE(Tm,2m):::;; ( m +2m(m3 ) 1/ 2 ::S: ml/ 4 . D

2.4.3 Le principe de symétrie d'André

Soit T un temps d'arrêt de la filtration d'un mouvement brownien c~nti­


nu B. On suppose que T < +oo p.s. et on considère le processus B =
(Btk~o défini par

(2.46) - { Bt(w) si t < r(w)


Bt(w) = 2B7 (w)(w) - Bt(w) si r(w) :::;; t

Autrement dit si on considère le graphe de t t-t Bt (w), avant l'instant T,


Bt (w) coïncide avec Bt (w) et, à partir de T, Bt (w) est le symétrique de
Bt(w) par rapport à la droite horizontale y = B 7 (w) (voir la figure ci-
dessous):
78 Mouvement Brownien et calcul d'Itô

Bt(w)
H,.(w) ------
Bt(w)

T(w) t

figure: principe de symétrie d'André

Théorème 2.4.1 : Le processus B défini en (2.46) est un mouvement brow-


nien continu.

Démonstration : Par définition on a Bt = Xt + yt, où X et Y sont tels que


(2.47)

et
(2.48)

Puisque t A T ::; T, pour tout t, Xt est Fr-mesurable d'après la propo-


sition 1.3. l. D'autre part par la même méthode que celle utilisée dans la
preuve du théorème 2.3.1, on voit que le processus Y est indépendant
de la tribu Fr. Les processus X et Y sont donc indépendants. De plus
les processus Y et -Y sont de même loi comme on peut le voir sur les
lois de dimension finie en conditionnant par T. Les couples de proces-
sus (X, Y) et (X, -Y) sont donc de même loi et sont à trajectoires dans
C([O, +oo[, IR) x C([O, +oo[, IR). Si on les transforme par la fonctionnelle
déterministe somme </; définie dans l'annexe du chapitre l en ( 1.56), vu
qu'elle conserve l'égalité des lois d'après la proposition l.5.2, on obtient
aussitôt

(2.49) B = <P(X, Y)~ <P(X, -Y) = B


Chapitre 2. Le mouvement brownien 79

C'est le résultat annoncé. D


Applications : 1) A l'aide du principe de symétrie d'André, on peut
donner une démonstration élégante de la proposition 2.3. l donnant la loi
du temps d'atteinte Ta du poin~a par le mouvement brownien B: Considé-
rons le mouvement brownien B réfléchi au sens d'André à partir du temps
d'arrêt Ta. Ayant établi les équations (2.27) et (2.28), on continue en appli-
quant le principe de symétrie d'André pour dire que :

(2.50) IP'(Ta, Bt <a)= IP'(Ta < t, Bt >a)= IP'(Ta < t, Bt >a)(*),


car le temps d'atteinte Ta de a par Best égal à Ta. Donc par (2.28), on a
(*) = IP'(Bt >a)= IP'(Bt >a). D'où IP'(Ta < t) = 2JPl(Bt >a).
2) On peut aussi redémontrer le résultat du corollaire 2.3.3 sur la loi du
couple (Bt, Mt) en considérant le mouvement brownien B réfl~hi à partir
du temps d'arrêt Ty (qui est aussi le temps d'atteinte de y pour B). Comme
[Mt 2': y] = [Ty ::; t] et que sur [Ty ::; t] on a Bt = 2y - B, pour x > y, il
vient

IP'(Bt::; x, Mt 2 y)= IP'(Bt ::; x, Ty ::; t) = IP'(B 2 2y - x, Ty ::; t)


= IP'(Bt 2': 2y - x, Ty :St) = IP'(Bt 2 2y - x),
et la fin de la démonstration est la même qu'en 2.3.3.

2.4.4 Notes et exercices


Exercice 1 (Construction de Ciesielski du mouvement brownien) : On
considère la fonction h = l[o,~[-1[~,l[ qui vaut 1 sur l'intervalle [O, ~[et
-1 sur [~, 1 [ et zéro ailleurs. Alors pour tous les entier n 2 1 et 0 ::; k ::;
2n - 1, on définit

(i.e. hk,n = 2n/ 2 1[k 2 -n,(k+i) 2 -n[ - 2n/ 2 1[(k+i) 2 -n,(k+l)2-n[). L'ensemble
constitué des fonctions 1, h et des hk,n est appelé le système de Haar etc' est
une base hilbertienne de l'espace L 2 ([0, 1], dx) (voir par exemple [35]). On
considère aussi les primitives nulles en 0 des fonctions de Haar :

s(t)
tt
= Jo h(x)dx,
80 Mouvement Brownien et calcul d'Itô

La fonction sk.n est une fonction continue "en triangle" basée sur l'inter-
valle [k2-n, (k + 1)2-n] et qui vaut 2-(n/ 2)-l au point (k + ~)2-n. L'en-
semble constitué des fonctions t, s et des s1;;,n est connu sous le nom de
système de Schauder.
On se donne maintenant une suite de variables aléatoires indépendantes
de même loi N(O, 1) et qu'on note No, N 1 etN1;;,n (n 2: 1, 0 ::; k::; 2n-1)
et pour tout n 2: 1, on définit un processus (Sin))tE[ü,l] en posant
2n-1
s?i\w) = L N1;;,n(w)s1;;,n(t).
k=O

1) Montrer que la série Bt = tNo + s(t)N1 + L~~ sin)


converge dans L 2 (0, :F, IP') et que B = (Bt)tE[O,l] est un processus gaus-
sien de fonction de covariance min(s, t).
2) Vérifier que
[[S(nl(w)[[oo = sup [Sin)(w)[ = r(n/ 2)-l ( max [Nk,n(w)[).
tE[ü,l] O:Sk:S2n-1
3) Démontrer que

(on utilisera les inégalités classiques : i) 1- N X ::; (1-X)N si 0 ::; X ::; 1


et ii) ]~00 e-x 2 1 2 dx ::; ~e-a 2 1 2 si a > 0).
3) En déduire à l'aide du lemme de Borel-Cantelli que pour IP'-presque tout
w:
[[S(n)(w)[[oo::; ffnr(n/2)-1,

sin est assez grand et que la série L~~ sin)(w) est uniformément con-
vergente sur [ü, l].
4) Conclusion: Presque toutes les trajectoires du mouvement brownien de
Ciesielski B sont continues.
Exercice 2 (Une construction hilbertienne du mouvement brownien) :
On considère l'opérateur de Fredholm K de L 2 ([0, l], dx) dans lui même
de noyau k(s, t) = min(s, t) i.e. pour toute f E L 2 ([0, l], dx),

Kf(s) =
/1
Jo min(s, t)f(t)dt (s E [O, l]).
Chapitre 2. Le mouvement brownien 81

1) Vérifier que l'opérateur K est injectif.


2) Pour un scalaire .À # 0, montrer que l'équation aux valeurs propres
K </> = .À</> est équivalente à l'équation différentielle

</>" + .!..À </> = 0 .


avec les conditions au bord </>(O) = 0 et </>'(1) =O.
3) En déduire que les seules valeurs propres possibles de l'opérateur K
sont les nombres .Àk = ~ ( 2 k~ll2 (k E N) et que les fonctions propres (de
norme 1) associées sont données par

4) On se donne une suite (Nkk?.o de variables aléatoires indépendantes de


même loi N(O, 1) et on pose
OO

Bt(w) =L J):;.Nk(w)</>k(t).
k=O

i) Montrer que la série précédente converge dans L 2 (0, F, IF') et que B =


(Bt)tE[ü,l] est un processus gaussien de covariance k(s, t) = min(s, t).
(On pourra utiliserle théorème de Mercer: k( s, t) = L:r=o .Àk</>k(s )</>k(t)).
ii) En déduire que B est un mouvement brownien.
Exercice 3 : Soit B un mouvement brownien sur [ü, 1]. On veut déter-
J
minerla loi de la variable aléatoire w r-+ 01 B[ (w)dt qu'on notera J~1 B[dt.
1) En utilisant la représentation de B de l'exercice 2, montrer que

2) En déduire la fonction caractéristique

JE [exp (iÇ lof 1


Bzdt)] = fi Jl -
k=O
1 .
2iÇ.Àk
.

(on utilisera la fonction caractéristique d'une loi du x2 à un degré de liberté


qui est la fonction Ç r-+ (1 - 2iç)- 112 ).
82 Mouvement Brownien et calcul d'Itô

3) Est-ce-que la représentation de Ciesielski de B permet d'obtenir le résul-


tat de 2)?
4) Quelles sont l'espérance et la variance de 01 Brdt? J
5) Remarque (due à M. Yor) : Par la même méthode qu'à la question 1)
mais en considérant la transformée de Laplace au lieu de la fonction carac-
téristique et comme on sait que JE(exp(-W'f)) = v 2 ~+1 (À > -~)(voir
[ 12] t. I p.118), on obtient la formule dite "de laire de Lévy" (voir [51] p.
445) :

(
JE exp(-- ç21·1 Bfdt) ) =
1 .
2 o Jcosh(Ç)

Exercice 4 : Soit B = (Bt)t>o un mouvement brownien. Pour tout


n 2::: 1, on considère l'événement

IBtl
An= [ -t- >n pour un t E]O, n14 ] ] .

l) En utilisant l'événement [n B
4 i
;;:4
> n] et l'invariance du mouvement
brownien par changement d'échelle, montrer que limn--.oo IP'(An) = 1.
2) En déduire que IP'-presque sûrement, t t--t Bt n'est pas dérivable en t = O.
3) Montrer que pour touts 2::: 0 (fixé), IP'-presque sûrement, t t--t Bt n'est
pas dérivable en s.
4) Expliquer pourquoi le résultat de la question 3) est beaucoup plus faible
que celui du théorème 2.2.1.
Exercice 5 : Soit B un mouvement brownien. Pour tout À > 0, on
considère le processus

l\!If') = exp ( ÀBt - ~2 t) .


1) Montrer que pour tout t 2::: 0, JE(M?')) = 1.
2) En déduire que Mf'l est une martingale (indication : faire apparaître
Bt - Bs dans le calcul de l'espérance conditionnelle JE(M?) IFs)).
Cette martingale est appelée martingale exponentielle.
3) Si Ta = inf {t 2::: O; Bt = a} désigne le temps d'atteinte du point a ,
montrer que pour tout À 2::: 0, JE (exp( - ; 2 Ta)) = e->.a.
Chapitre 2. Le mouvement brownien 83

Exercice 6 : Soit X = (0, F, (Ft)t:::o:o, (Xt)t:::o:o, IP') un processus sur IR


avec Xo =O.
1) On suppose que pour tout u E IR et tous t, h :?: 0, on a
1 2
IE(exp(iu(Xt+h -Xt))l:Ft) = exp(-2u h).

Démontrer que X est un mouvement brownien.


(indication : pour 0 :S t1 < · · · < tn, on pourra calculer la fonction carac-
téristique du vecteur (Xt 2 - Xt 1 , ••• , Xtn - Xtn_ 1 ).
2) De même montrer qu'un processus X ayant des moments exponentiels,
est un mouvement brownien si pour tout ,\ > 0 et tous t, h :?: 0, on a

1 2
JE (exp(,\(Xt+h - Xt))l:Ft) = exp(2,\ h).

3) (Application) Si pour tout,\ > 0, le processus MF') = exp ( ÀXt - >-22 t)


est une martingale, montrer que X est un mouvement brownien.
Exercice 7 : Soit B un mouvement brownien.
1) Montrer que le processus U = (Ut)tE[O,l] défini par Ut = Bt - tB1
est un processus gaussien dont on calculera la fonction de covariance. Ce
processus s'appelle le pont brownien.
2) Si U est un pont brownien, montrer que (U1-t)tE[O,l] est aussi un pont
brownien et que le processus ((t + l)U_t_) t2".0 est un mouvement brow-
t+1
ni en.
3) Remarque : la loi de la variable aléatoire suptE[ü,l] Ut est utilisée en sta-
tistique dans le test de Kolmogorov-Smimov (voir [ 12] t.2 p. 226).
Exercice 8 : Soit B = (Bt)t>o un mouvement brownien et Mt =
SUPo::;s::;t B 8 le maximum de B sur l'intervalle de temps [O, t] où t > 0
est fixé.
1) Montrer que la variable aléatoire Mt - Bt est distribuée comme 1Bt1 et
comme Mt.
2) Montrer que 2Mt - Bt est distribuée comme l1Bl 3 ) 11 où B( 3 ) est un
·mouvement brownien de IR 3 et 11-11 est la norme euclidienne de IR 3 .
Remarque : Ces résultats à temps fixé s'étendent au niveau des processus,
ainsi
a) Les processus (Mt - Bt)r?.o et (IBlt)t:::o:o ont même loi (théorème de
Lévy).
84 Mouvement Brownien et calcul d'Itô

b) Les processus (2Mt - Bt)t?.O et (llB( 3 lllt)t?.O ont même loi (théorème
de Pitman) (voir [51] p. 253).
Exercice 9 : (marche aléatoire et mouvement brownien)
Soit (Çk)k?.l une suite de variables aléatoires indépendantes et de même loi
prenant les deux valeurs ±1 avec probabilité 1/2. Le processus (Sk)kEN tel
que Sa = 0 et Sk = 6 + · · · + Çk (k 2: 1) est la marche aléatoire simple sur
Z. Les changements d'états s'effectuent à chaque unité de temps (mettons
chaque seconde) en effectuant un pas de ±1 unité avec équiprobabilité.
Effectuons un changement d'échelle à la fois de temps et d'espace en consi-
dérant (pour n entier fixé) la marche aléatoire (Xt(n))tE~N sur Jnz partant
de 0 telle que
(n) 1 k
Xt = ;;;;Bk si t = -. n
vn
Ici les changements d'états ont lieu toutes les ~ secondes en faisant un
pas de ± Jn
avec équiprobabilité. Considérons alors le processus à temps
continu qu'on notera encore xin), dont les trajectoires sont obtenues par
interpolation linéaire entre chaque couple de points ( ~, Xk/~) et ( k~l,
X (n) )
(k+l)/n ·
1) Montrer qu'on peut l'exprimer explicitement sous la forme

2) Pour tout p 2: 1 et tous 0 ::::; t 1 < · · · < tp, montrer 11 qu'on a :

où B = (Bt)t>o est un mouvement brownien.


(indication : on pourra utiliser l'indépendance des composantes)
3) En déduire que

11 le signe !:.. signifie converge en loi.


Chapitre 2. Le mouvement brownien 85

4) Conclure que (xti(n) , X(n)


t 2 , ... ,
X(n))
tp
.c (B t1, B t2, ... , B tp ),
--->

autrement dit les lois de dimension finie du processus (Xin))t?.O conver-


gent vers les lois de dimension finie correspondantes du mouvement brow-
nien.
5) Remarque: En fait la loi IPn de (Xin))t?.O considérée comme mesure de
probabilité sur l'espace C([O, oo[, JR) muni de sa tribu de Borel 12 , converge
étroitement vers la mesure de Wiener (théorème de Donsker, [51] p. 518).
6) Note pratique : pour simuler une trajectoire brownienne sur ordinateur,
on peut construire une trajectoire du processus (Xin))t?.O (pour n assez
grand).
Notes : Après le fameux livre de P. Lévy [37] paru dans les années
50 et mis à part le traité très complet de D. Revuz et M. Yor [51], il y a
peu d'ouvrages récents dont le sujet principal soit le mouvement brownien.
Il est souvent considéré comme un processus bien connu alors qu'en fait,
beaucoup de ses propriétés sont très subtiles. Ce sont quelques unes de ces
propriétés bien connues que nous avons présentées dans ce chapitre, sans
prétention d'aucune originalité.
La démonstration de la non-différentiabilité des trajectoires browniennes
est empruntée à Breiman ([5] p. 261 ), la démonstration simple de la pro-
position 2.3.1 et du corollaire 2.3.3 sur la loi des temps d'atteinte et la loi
du couple (Bt, Mt) nous a été communiquée par Marc Yor alors que notre
démonstration initiale était basée sur le principe de symétrie d'André dont
la preuve assez délicate que nous donnons en annexe est inspirée d'un ar-
gument heuristique de Rogers et Williams ([52] vol. l, p. 25). La construc-
tion de Wiener du mouvement brownien sur [O, 7r] est empruntée à Itô et
McKean ([29]) et le prolongement à lR par recollement de copies indépen-
dantes suit l'idée donnée par D. Revuz dans [50] p. 243. Enfin la démonstra-
tion du théorème 2.1.1 de P. Lévy sur la caractérisation du brownien comme
l'unique martingale continue de variation quadratique égale à t, nous a posé
12 voir l'annexe du chapitre 1.
86 Mouvement Brownien et calcul d'Itô

plus de problèmes. La démonstration qu'on donne maintenant est élégante


est rapide (voir par exemple [51] p. 150) mais elle utilise le calcul stochas-
tique et est basée sur la notion de crochet de martingales que je n'ai pas
souhaité introduire. J'ai dû revenir à la démonstration initiale de Lévy qui a
malheureusement disparu des éditions de 1965 et 1992 ([37]) dont je dispo-
sais. J'ai donc reconstitué cette preuve à partir des notes d'un cours donné
par B. Roynette en 1976 à l'Université de Nancy. Enfin l'exercice 2 sur la
construction hilbertienne du mouvement brownien est empruntée au livre
de M. Kac ([30] p. 12) qui fait remarquer que les constructions de Wiener
ou de Ciesielski ne permettent pas de déterminer les lois de certaines fonc-
tionnelles naturelles du mouvement brownien comme celles de l'exercice
3 par exemple. Mais comme nous l'a fait remarquer Marc Yor, il convient
de relativiser toutes ces constructions particulières élaborées à une époque
où leurs auteurs ne disposaient pas du critère général de Kolmogorov de
continuité des trajectoires (théorème 1.1.2).
Chapitre 3

Le mouvement brownien
comme processus de Markov

Un processus X = (0, F, (Ft)tET, (Xt)tET, lfD) à valeurs dans l'espace


d'états (E, BE) est de Markov si pour tous s < t( ET) la loi de Xt sachant
le passé jusqu'à l'instant s ne dépend que de X 5 (i.e. du passé le plus ré-
cent). Dans le cas d'un processus de Markov à temps discret T = Net à
espace d'états discret, ceci se traduit par la condition que pour tout n E N
et tous i, j, in-1, ... , io E E, on a

lfD(Xn+l = j\Xn = i, Xn-1 =in-1 ... Xo = io)=P(Xn+l = j\Xn = i).

La quantité Pn,n+1(i,j) = lfD(Xn+l = j\Xn = i) est la probabilité de


transition partant dei à l'instant n d'aller en j à l'instant n + 1. On sait
alors que les lois de dimension finie de X sont entièrement déterminées
par la loi de Xo et par les probabilités de transition puisqu'alors pour tous
n EN, io, il, ... , in E E, on a:

lfD(Xo = io, X1 = i1, ... , Xn =in) =


lfD(Xo = io)Po,1(io, il)··· Pn-1,nUn-1, in)·

Quand les probabilités de transition Pn,n+l (i, j) = p(·i, j) ne dépendent


pas den le processus est homogène et s'appelle "chaîne de Markov".

87
88 Mouvement Brownien et calcul d'Itô

Dans le cas où le temps est continu et (ou) l'espace des états est quel-
conque, la modélisation rigoureuse d'un processus de Markov est beaucoup
plus délicate pour deux raisons :
D'abord on ne peut pas éviter l'utilisation del' espérance conditionnelle
pour exprimer la propriété de Markov. Ainsi, on dit que X est un processus
de Markov si pour tous s < t( ET) et tout A E BE, on a

(3.1)

D'après (1.24), on sait que JP(Xt E AIXs) = <P(Xs) où <Pest une fonction
déterministe 1 • On note alors JP(Xt E AIXs = x) := <f>(x). Pour abréger,
on pose <P(x) := Ps,t(x, A) et on dit que c'est la probabilité de transition
partant de x à l'instant s d'atteindre l'ensemble d'états A à l'instant t. En
fait, on peut, pour chaque triplet ( s, t, A) choisir la fonction <P de telle sorte
que l'application A f-+ Ps,t(x, A) soit une mesure de probabilité sur la tribu
BE (voir [5] p.319). On la note Ps,t(x, dy).
Ensuite, il convient d'adopter un nouveau point de vue sur les probabi-
lités de transition. On doit considérer Ps,t(x, dy) comme un opérateur Ps,t
qui transforme une fonction f : E----> lR borélienne bornée (ou positive) en
une fonction Ps,d donnée par :

Ps,tf(x) = j~ f(y)Ps,t(:i;, dy).


Concrètement Ps,d(x) représente l'espérance de f(Xt) sachant que Xs =
x. On a ainsi un moyen analytique efficace pour exprimer la propriété de
Markov et calculer les lois de dimension finie du processus. Si Ps,t ne dé-
pend que de la différence t - s, on dit que le processus de Markov est
homogène.
Les processus de Feller constituent une classe particulièrement intéres-
sante de processus de Markov homogènes. Leurs opérateurs de transition
forment un semi-groupe dont la structure analytique est assez riche pour
fournir de précieuses propriétés probabilistes du processus. Dans ce cha-
pitre nous illustrons ces idées sur l'exemple du mouvement brownien. Ceci
nous permet d'introduire les outils fondamentaux que sont la résolvante et
le générateur infinitésimal d'un processus de Feller.
1déterminée à un ensemble µx,, -négligeable près.
Chapitre 3. Le mouvement brownien comme processus de Markov 89

3.1 Notions sur les processus de Markov


3.1.1 Noyaux de transition et propriété de Markov
Soit T = N ou lR+ ou [O, a] (a> 0) et (E, BE) un espace polonais.
Définition 3.1.1 : Une collection { Ps,t; s, t E T et s < tj d'applications
de E x BE dans [O, 1] est appelée famille de noyaux de transition si
1) VA E BE, Vs< t, l'application x f-+ JID 5 ,t(x, A) est mesurable.
2) \lx E E, Vs < t, A f-+ Ps,t(x, A) est une mesure de probabilité sur BE.
3) VA E BE, Vs< t < 'U, on a l'équation de Chapman-Kolmogorov:

(3.2) Ps,u(x, A)= l Ps,t(x, dy)Pt;u(Y, A).

Remarque 1 : Les noyaux de transition Ps,t agissent comme des opérateurs


sur les fonctions boréliennes bornées f : E --+ JR, si on pose

(3.3) Ps,tf(x) = l Ps,t(x, dy)J(y).

On vérifie immédiatement que la fonction JP>s,d ainsi définie sur E est aussi
une fonction borélienne et bornée. L'équation de Chapman-Kolmogorov
(3.2) se traduit alors en termes d'opérateurs sous la forme

(3.4)

où Ps,tPt,u est le composé (dans cet ordre) des opérateurs Ps,t et Pt,u (i.e.
pour toute fonction f borélienne bornée, Ps,tPt;uf = Ps,t(Pt,uf)).
Remarque 2: Lorsque E =]Rd et que pour tout x E E, et tous s < t,
la mesure Ps,t(x, dy) a une densité y f-+ Ps,t(x, y) par rapport à la mesure
de Lebesgue (i.e. Ps,t(x, dy) = Ps,t(x, y)dy), les fonctions Ps,t s'appellent
les densités de transition de la famille (Ps,t). L'équation de Chapman-Kol-
mogorov prend alors la forme suivante (exercice) :

\lx, z E :!Rd, Vs< t < u, Ps;u(x, z) = { Ps,t(x, Y)Pt,u(y, z)dy,


J~d
Définition 3.1.2 : Un processus X = (n, :F, (:Ft)tET, (Xt)tET, JP>) est un
processus de Markov à valeurs dans E et de famille de noyaux de transition
90 Mouvement Brownien et calcul d'Itô

{Ps,t; s, t E T et s < tj si pour toute fonction f E ---+ IR borélienne


bornée et tous s < t dans T, on a

(3.5)

Les noyaux de transition Ps,t sont aussi appelés probabilités de transition.


La loi de Xo i.e. la mesure de probabilité v sur BE définie par

v(A) = I!D(Xo E A),

est appelée loi initiale du processus X.


Lorsque Ps,t = Po,t-s ne dépend que de la différence t - s, on dit que X
est un processus de Markov homogène.

Remarque 3 : L'équation (3.5) s'appelle la propriété de Markov. Si


f = lA où A E BE, elle signifie que P(Xt E AJFs) = P(Xt E AJXs)
(voir l'introduction).
Remarque 4 : L'introduction du chapitre peut suggérer que la définition
3.1.2 devrait plutôt avoir un statut de Proposition. En fait, en temps continu,
on ne prend pas (3.1) comme définition d'un processus de Markov pour évi-
ter des complications théoriques. En particulier, il faudrait alors démontrer
que les noyaux de transition vérifient l'équation de Chapman-Kolmogorov
ce qui exigerait quelque restriction supplémentaire sur le processus X : voir
à ce propos 1' exercice 1 à la fin de ce chapitre.
Remarque 5 : Lorsque le processus de Markov X est homogène, la
famille des noyaux de transition ne dépend plus que d'un paramètre car
pour tous s et 'U dans T, Ps,s+u = Po;u· On pose alors Po;u := Pu pour
simplifier les notations. On a alors

Vs ET, Pu(x, A) = P(Xs+'u E AJXs = x),

et la propriété de Markov (3.5) prend la forme

(3.6)

La propriété de Chapman-Kolmogorov (3.4), s'écrit alors

(3.7) Vt, t' E T, PtPt = Pt+t'.


1
Chapitre 3. Le mouvement brownien comme processus de Markov 91

La famille d'opérateurs (PthET est le semi-groupe du processus de Markov


homogène X. Lorsque T = f::l, le semigroupe est complètement déterminé
par l'opérateur P 1 puisque la propriété de semi-groupe (3.6) implique que
pour tout entier n, on a

Dans ce cas le processus X est appelé chaîne de Markov d'opérateur de


transition P 1 . Le cas où l'espace des états E est fini ou dénombrable 2 est
généralement étudié en détail dans les cours de Master 1 (voir [39]).

3.1.2 Lois de dimension finie d'un processus de Markov

Proposition 3.1.1 : Soit X un processus de Markov de loi initiale v et de


probabilités de transition Ps,t· Pour toute suite finie d'instants 0 = to <
t1 < · · · < tk et tout choix de fonctions boréliennes bornées fi : E ---> lR
(0 ::::; i ::::; k ), on a

lE(fo(Xo)fi(Xt 1 ) ••• fk(Xtk))

= L L
v(dxo)f(xo) Po,t 1 (xo, dx1)fi (x1) ...

...L Ptk-i,tk (xk-1, dxk)fk(xk)

=< v, foPt 0 ,tJ1Pt 1 hh ... fk-1Ptk-i,tkfk >,

où dans la formule précédente, on utilise la notation (3.3) et où chaque


opérateur Pti-i,ti s'applique à toute l'expression située à sa droite alors
que chaque fonction fi est multipliée par toute l'expression située à sa
droite.

2 dans ce cas P1 s'identifie à la matrice des transitions de la chaîne de Markov X.


92 Mouvement Brownien et calcul d'Itô

Démonstration : En utilisant les propriétés de l'espérance conditionnelle


et la propriété de Markov, on a

g
JE([! f;(X,,)) ~JE (JE( h(X,,)IF,,_,))
~JE(!! f;(X,,)JE(fk(X,,)IFi'-'))

où 9i = fi si i :S k - 2 et 9k-l = fk-1Ptk-i,tkfk. On arrive alors au


résultat par récurrence descendante sur k. D

Corollaire 3.1.1 : Sous les hypothèses de la proposition précédente, pour


tous Ao, A1, ... , Ak E BE, on a

IP'(Xo E Ao, Xt 1 E A1, ... , Xtk E Ak)


=1· Ao
v(dxo);· Po,t 1 (xo,dx1)j. Pt 1 ,ti(x1,dx2) ...
A1 Az

(3.8) ... ;· Ptk_ 1 ,tk(x1,;-1, dxk)-


Ak

Si le processus de Markov X est homogène de semi-groupe (Pu)u>o, la


formule précédente se récrit sous la forme

IP'(Xo E Ao, Xt 1 E A1, ... , Xtk E Ak)

= ;· v(dxo) ;· Pt 1 (xo, dx1) ;· Ptrt 1 (:r1, dx2) ...


Ao A1 A2

(3.9) ... ;· Ptk-tk-i (xk-1, dxk)-


Ak

Démonstration : il suffit d'appliquer la proposition avec fi = 1 A,. D


Remarque: Supposons que (Ft)tET soit la filtration naturelle du processus
Chapitre 3. Le mouvement brownien comme processus de Markov 93

de Markov X. La restriction de la probabilité lP à la tribu F 00 = o-(UtETFt)


terminale de X est parfaitement déterminée par les valeurs
JP(Xo E Ao, Xt 1 E A1, ... , Xtk E Ak) prises par lP sur les ensembles
cylindriques

(3.10) [Xo E Ao,Xt 1 E A1, ... ,Xtk E Ak]


(k E N, (ti) E yk, (Ai) E (BE)l.:+ 1 ). On voit grâce à (3.8) et (3.9) que cette
probabilité notée parfois lP v est entièrement caractérisée par la loi initiale v
et les noyaux de transition (resp. le semi-groupe) de X. En général, lorsque
X est un Markov homogène, on définit sur F 00 une famille (lPx)xEE de
mesures de probabilité en posant

lPx(Xo E Ao, Xt 1 E A1, ... , Xtk E Ak)


= { ôx(dxo) ;· Pt 1 (xo, dx1) ;· Pt 2 -t 1 (x1, dx2) ...
}Ao A1 A2

... { Ptk-tk-1 (xk-1, dxk),


}Ak
où Ôx est la mesure de Dirac au point x. Cette mesure lPx qui s'identifie
à la probabilité conditionnelle "sachant [Xo = x]" permet des interpréta-
tions très intéressantes dans l'étude des processus de Markov et permet de
simplifier beaucoup d'énoncés. Nous donnerons quelques détails sur ces
notions dans l'annexe de ce chapitre et en particulier nous verrons qu'on a

lPv = L lPxdv(x).

3.2 Probabilités de transition du mouvement


brownien
3.2.1 Le semi-groupe du mouvement brownien .
Soit B = (D, F, (Ft)t:;:::o, (Bt)t:;:::o, JP) un mouvement brownien sur R

Théorème 3.2.1 : B est un processus de Markov homogène sur JR, de loi


initiale v = 80 et dont le semi-groupe est de la forme

(3.11) r 1
Ptf(x) =}IR y'27rt exp
(
-21 (x t
y) 2 )
f(y)dy,
94 Mouvement Brownien et calcul d'Itô

pour tout t > 0 et toute fonction f : lR ---+ JR, borélienne bornée. Autrement
dit pour tout borélien A C JR,

Pt(x, A)= }A
r J21rt
1
exp
(
-21 (x -t y)
2)
dy,

i.e. Pt(x, dy) est la mesure gaussienne de moyenne x et de variance t.


Pour la démonstration on aura besoin d'un résultat bien connu sur l'espér-
ance conditionnelle :

Lemme 3.2.1 : Soient g : JR 2 ---+ lR borélienne bornée, X et Y des va-


riables aléatoires avec X mesurable par rapport à une tribu T et Y indé-
pendante de la tribu T. Alors si g(x) = IE(g(x, Y)), on a:

IE(g(X, Y)IT) = g(X).

Démonstration : Voir par exemple le livre de J. Y. Ouvrard [45] p.161.


Démonstration du théorème : Soit f : lR ---+ lR une fonction boré-
lienne bornée et 0 < s < t. Alors en considérant la fonction 3

-
J(x) = IE(J(x+Bt-Bs) = l. 1
IRV27r(t-s)
l(x-y) 2 ) J(y)dy
exp ( - -
2 t-s

et en appliquant le lemme 3.2.1. avec X= B 8 , Y= Bt - B 8 , g(x, y) =


f (x + y), T = Fs, on a
IE(J(Bt)l:Fs) = IE(J(Bt - Bs + Bs)l:Fs) = J(Bs)
= l j2Jr~t - s) exp(-~ (B; ~ :)2) J(y)dy
= Pt-sf(Bs),

ce qui prouve d'après (3.6) que Best un processus de Markov homogène


dont le semigroupe Pt est bien de la forme annoncée en (3.11 ). 0
Remarque : Le lemme 3.2.1 se généralise immédiatement au cas de 2
vecteurs aléatoires X et Y à valeurs dans JRd avec g : JRd x ]Rd ---+ JRd. On
montre alors de la même façon que le mouvement brownien de JRd (voir
3 on rappelle que E 1 - Es est de loi N(O, t - s)
Chapitre 3. Le mouvement brownien comme processus de Markov 95

2.1.3) est un processus de Markov homogène de semi-groupe (Pt) donné


par

(3.12) Ptf(x) =
r
Jw.d
1
(27rt)d/2 exp
( 111x-yll 2 )
-2 t
.
j(y)dy,

pour tout t > 0 et toute fonction f : JRd __, R borélienne bornée, où 11-11
est la norme euclidienne de ]Rd. Autrement dit le mouvement brownien de
]Rd a des densités de transition

(3.13) 1 ( 1 JJx - YI 12 ) (x, y E lRd).


Pt(x, y)= (27rt)d/2 exp -2 t

3.2.2 La propriété de Markov forte


Nous avons défini le mouvement brownien

B = (0, F, (Ft)t>o,
-
(Bt)t>o,
-
IP')

comme un processus partant de 0 (i.e. Bo = 0). Le processus B(x) défini


pour tout t ;:::: 0 par

(3.14)

est aussi un processus de Markov homogène de même semi-groupe que B


donné par la formule (3.11). On l'appelle le mouvement brownien partant
de x. Plus généralement, si on considère une variable aléatoire Xo indépen-
dante de B, le processus (Xo + Bt)t>o est encore un processus de Markov
de semi-groupe (3.11).
Voyons maintenant comment on peut reformuler le théorème d'arrêt vu
dans la section 3 du chapitre 2 à l'aide du semi-groupe (3.11) de B:

Théorème 3.2.2 (Propriété de Markov forte) : Pour toute fonction f


lR __, lR borélienne bornée, pour tout h ;:=:: 0 et tout temps d'arrêt presque
sûrement fini T de La filtration de B, on a
96 Mouvement Brownien et calcul d'Itô

Démonstration: on écrit JE(f(ET+h) p::·T) = JE(f(ET+h - ET+ ET) IFT)


et on utilise le lemme 3.2.1 avec X= BT, Y= ET+h - BT et g(x, y) =
f (x + y), la démonstration est alors identique à celle du théorème 3.2.1,
puisqu'on sait par le théorème 2.3.1 que la variable aléatoire ET+h - ET
est de même loi que B1i et qu'elle est indépendante de ET. 0
On trouvera dans l'annexe une présentation rapide de la propriété de Mar-
kov forte pour un processus de Markov canonique.

3.3 Propriétés analytiques du semi-groupe brownien


3.3.1 Générateur infinitésimal d'un semi-groupe de Feller
Considérons l'espace de Banach (Co ( E), 11-11 00 ) des fonctions f : E ___.
lR continues et tendant vers 0 à l'infini, muni de la norme
llflloo = supxEE lf(x)I de la convergence uniforme et soit (Ptk?.o une
famille d'opérateurs positifs4 de Co(E) dans lui même.

Définition 3.3.1 : On dit que (Pt)t>o est un semi-groupe de Feller si:


1) Po= I et 1IPtl1 :S: 1 pour tout t 2: O.
2) 'eft, t' 2: 0, PtPt' = Pt+t'
3) 'ef f E Co(lR), limtio IJPd - flloo =O.
Un processus de Markov homogène sur E dont le semi-groupe (au sens de
(3. 7)) est de Feller, est appelé processus de Feller5.
Ainsi un processus de Markov homogène sur E est de Feller si ses opéra-
teurs de transition envoient <Co (E) dans lui même et si pour toute fonction
f E <Co(E), limtio IJPd - flloo =O.
Remarque : On déduit immédiatement de 2) et 3), la continuité à droite du
semi-groupe en tout point t 2: 0 i.e.

(3.15) limPt+hf =Pd dans Co(E).


hlO
Définition 3.3.2 : Si f E Co(E) est telle que la limite
(3.16) lim ~(Pd - J) = Af,
tlO t
.ii.e. f 2: 0 ~ Ptf 2: O.
5 Pour un tel semi-groupe, les opérateurs sont de plus markoviens i.e. \;/t 2: 0, Ptl = 1.
Chapitre 3. Le mouvement brownien comme processus de Markov 97

existe dans Co(E) 6, on dit que f est dans le domaine DA de l'opérateur


A ainsi défini par (3.16) et appelé générateur infinitésimal du semi-groupe
(Pt)t::::o·
Remarques : 1) La notion de générateur infinitésimal pour un processus
X de Markov-Feller, permet de préciser l'accroissement du processus en
temps petit. En effet, avec les notations de (3.6), pour tout instant s > 0, si
h > 0, pour tout f E DA, on a

où o( h) ne dépend que de f.
2) L'importance du générateur infinitésimal dans la théorie moderne des
processus de Markov est due au fait que pour toute fonction f E DA, le
processus

(3.17) J(Xt) - f(Xo) - lot (AJ)(Xs)ds (t 2:: 0),

est une martingale par rapport à la filtration de X. Nous donnerons un


aperçu de ces liens entre générateur infinitésimal et propriétés de martin-
gale dans l'annexe de ce chapitre.
Les propriétés analytiques générales liant le semi-groupe et son généra-
teur infinitésimal sont contenues dans le résultat suivant

Proposition 3.3.1 : Soit f E DA· On a :


i) 'tlt 2:: 0, Ptf E DA
ii) pour tout x E lR.,la fonction t f-+ Ptf(x) est dérivable, la fonction
:ftPtf: x f-+ ftPtf(x) est dans Co(E) et on a

(3.18)

de plus on a

(3.19) Ptf - f =lot APsfds =lot PsAfds.

6 i.e. AJ E Co(E) et limt-o llt(Ptf- !) - AJll= =O.


98 Mouvement Brownien et calcul d'Itô

Démonstration : Soit t 2: O. La propriété de semi-groupe et la continuité


de !'opérateur Pt impliquent

. Pu(Ptf) - Pd - i·
1lffi (Puf - f)
T)
- lffi -'t
'U-->Ü 'U u-->0 'U

ce qui prouve l'assertion i). Le même calcul montre que t r-r Pd est déri-
vable en tout t > 0 et dérivable à droite en t = 0 et qu'on a (3.18). De plus
la fonction t r-r J~ AP8 f ds est dérivable et sa dérivée t r--+ APd coïncide
avec la dérivée de la fonction t r-r Pd - f. Ces deux fonctions égales à 0
en t = 0 sont donc égales partout et on a (3.19). D
Remarque : L'équation (3.18) montre que la fonction

(t, x) r-r u(t, x) = Pd(x); (t > 0, x ER),


est solution de "l'équation de la chaleur"

a
(- -A)u = 0
Dt
avec la condition initiale 'u(O, x) = f(x). Cette dénomination trouve son
origine dans le cas du semi-groupe du mouvement brownien dont le gén-
érateur infinitésimal est l'opérateur~ d~2 comme on va le voir ci-dessous.

Théorème 3.3.1 : Le mouvement brownien est un processus de Feller. De


plus toute fonction f E Co(IR), de classe C 2 avec une dérivée seconde
f" E Co(IR) , est dans le domaine DA du générateur infinitésimal A et
pour une telle fonction, on a

1 d2 f
Af(x) = --(x).
2 dx 2
Démonstration: l) Montrons d'abord que Best un processus de Feller.
Pour f E Co(IR), la fonction Pd définie par la formule (3.11), est conti-
nue d'après le théorème de continuité d'une intégrale dépendant d'un pa-
ramètre. En effet pour tout y fixé, la fonction sous le signe intégrale est
clairement continue en x et on peut la dominer, si :x: est dans un intervalle
Chapitre 3. Le mouvement brownien comme processus de Markov 99

compact, par une fonction intégrable de la forme l lflloo exp(-~y 2 +Gy),


où C > 0 est une constante. Montrons ensuite que Ptf(x) --+ 0 quand
lxl--+ +oo:
Soit E > 0 et M = M(c) > 0 tel que IYI > M implique lf(y)i :S ~­
Comme le noyau intégral de (3.11) est une densité de probabilité, on a

(3.20) IPtf(x)I :S 1
-M
M 1
~exp
y27rt
(
--
2
l(x-y) 2 )
t
E
lf(y)idy + -.
2
Mais en passant à la limite sous le signe somme, l'intégrale du second
membre de (3.20) tend vers zéro quand lxl --+ oo puisque la convergence
est dominée par la fonction continue If 1 qui est intégrable sur [-lvf, M]. On
a ainsi Ptf(x)I ::::; E pour x assez grand, ce qui prouve que Pd E Co(IR). Il
reste à prouver le point 3) de la définition 3.3. l :
Ona

r 1
Ptf(x) - f(x) =}li?. y12;t ( l(x-y) 2 )
exp -2 t (f(y) - f(x))dy

(3.21) = l
li?.
1
~exp
y 27rt
1 z-2 ) (f(x
( --
2 t
+ z) - f(x))dz.
Soit E > O. Comme f E Co(IR), f est uniformément continue sur IR et il
existe ex > 0 tel que pour tout x ER lzl ::::; ex implique qu'on ait la relation
lf(x + z) - f(x)I::::; ~-En décomposant l'intégrale du second membre de
(3.21) en une intégrale sur [-ex, ex] et sur [-ex, ex]c, on déduit aussitôt que
(3.22)
sup JPtf(x) - f(x)J :S
xEIT?.
~2 + 2ilflloo J[-a,a]c
{ ~exp
V 27rt
1 z2 )
(--2
t
dz.

Mais l'intégrale dans le second membre de (3.22) tend vers 0 quand t --+ oo.
Le premier membre de (3.22) peut donc être rendu inférieur à E pour t assez
grand, d'où l'assertion 3).
2) Considérons maintenant f E Co(IR) n C 2 (IR) avec f" E Co(IR). Si on
fait le changement de variable y = x + zv't dans la formule (3.11 ), on a

Ptf(x) = j~ ~exp (-tz2 ) f(x + zVt)dz.


La formule de Taylor-Lagrange appliquée à l'ordre 2 au point x avec l'ac-
croissement h = zv't, montre qu'on peut écrire
100 Mouvement Brownien et calcul d'Itô

(3.23) f(x + zvt) = J(x) + zvtf'(x) + ~z 2 tf"(x) 2


+ tz (!"(x + Bzvt) - J"(x)),
2t

e
où = B(x, zVt) E [O, l]. Ainsi lorsqu'on intégre la relation 3.23 par
rapport à la mesure ~exp (-~z 2 ) dz, en tenant compte du fait que

r- -z
lw. V2K
1 exp (-~z 2 ) dz = 0
2
et r- -z
lw. V2K
1 2 exp (-~z 2 ) dz = 1,
2
on voit que

~(Ptf(x) - f(x)) - ~ J"(x)


t 2

(3.24) = t j~ vbz 2 exp (-tz 2) (J''(x + Bzvt) - J"(x)) dz.


Il nous reste à prouver que le second membre de (3.24), tend vers 0 unifor-
mément en x E lR quand t --+ O. On doit procéder délicatement. D'abord,
on fait le changement de variable u = zVt et l'intégrale de (3.24), s'écrit

r(t, x) = tl vb t~u2 exp (- ,~:) (f"(x + e'u) - J"(x)) du.

Comme f" est uniformément continue sur JR, à tout E > 0, on peut associer
a > 0 tel que lhl ::::; a implique lf"(x + h) - f"(x)I : : ; E. Si on décom-
pose l'intégrale précédente, en une intégrale sur [-a, a] et sur [-a, a]c, on
obtient

E + llf"lloo {
lr(t, x)I : : ; -2
J[-a,a]c V
~ \u
27r ty t
2 exp (- 'U2
2

t
) du,

et en revenant à z = :Jt, on obtient


(3.25) lr(t,x)I::::; ~ + 2llJ"lloo j~+oo vbz 2 exp (- z;) dz.
VI
Comme l'intégrale du second membre de (3.25) tend vers 0 quand t --+ 0,
ceci montre que Ir(t, x) 1: : ; E uniformément en x, pour t assez petit. La
deuxième assertion du théorème en résulte aussitôt. D
Chapitre 3. Le mouvement brownien comme processus de Markov 101

3.3.2 La résolvante du mouvement brownien


Pour déterminer complètement le domaine DA du générateur infinité-
simal du mouvement brownien, on a besoin de la notion de résolvante:

Définition 3.3.3 : On appelle résolvante7 d'un semi-groupe de Feller (Ptk~o,


la famille (R>.)>.>O des opérateurs définis sur Co(E) par:

(3.26) (x E E).

On notera que la fonction t t----t Ptf (x) est borélienne (puisque continue à
droite d'après (3.15)) et qu'elle est bornée (par 11!11 00 ) donc elle est intég-
rable pour la mesure e->.tdt. L'expression R>.f(x) est donc bien définie.
De plus, par continuité sous le signe somme et par convergence dominée,
on voit clairement que R>.f E Co(E).

Proposition 3.3.2 : La résolvante (R>.h>o d'un semi-groupe de Feller


(Pt)t?.O vérifie les propriétés suivantes:
J) \:/).. > 0, \:/t 2 0, PtR>. = R>.Pt.
2) \:/>.., µ > 0, R>.Rµ = RµR>..
3) \:/).., µ > 0, R>. - Rµ = (µ - >..)R>.Rµ (équation résolvante) 8 .
4)\:/À > 0, \:/f E Co(E), 11>..R>.flloo :S llflloo·

Démonstration : Les propriétés de commutation 1) et 2) sont faciles à éta-


blir et sont laissées en exercice. La propriété 4) est immédiate puisque pour
tout x, IPtf(x)I :S llflloo· Etablissons l'équation résolvante.
Pour f E Co(E), on a

(3.27) R>.Rµf(x) = fo+oo e->.t Pt (fo+oo e-µs Psf(x)ds) dt,


et comme Pt est un opérateur continu, on voit facilement qu'on peut le
passer à l'intérieur de la deuxième intégrale du membre de droite de (3.27),
ce qui compte tenu de la propriété de semi-groupe donne:

(3.28) R>,Rµf(x) = Jo r+oo e->.t ('+oo


Jo e-µs Pt+sf(x)ds ) dt.

7 ou transformée de Laplace.
8 0n notera que l'équation résolvante implique la propriété de commutation 2).
102 Mouvement Brownien et calcul d'Itô

Le changement de variable s = 'U - t dans l'intégrale centrale de (3.28)


puis une interversion des intégrations donne alors

D'où le résultat. D
Une conséquence cruciale de l'équation résolvante, concerne la constance
de l'image de Co(E) par les opérateurs R;..:

Corollaire 3.3.1 : L'espace 1J = R;..( Co(E)) ne dépend pas de À> O.


Démonstration: Grâce à l'équation résolvante, pour f E Co(E), on a

R;..f = Rµf + (µ - À)RµR;..f


= Rµ (f + (µ - À)R;..f),

ce qui signifie que R;..(Co(E)) c Rµ(Co(E)); mais comme À> 0 etµ>


0 sont quelconques, on a aussi Rµ(C 0 (E)) c R;..(Co(E)), d'où l'égalité
R;..(Co(E)) = Rµ(Co(E)). D
Cet espace D, image commune de Co(E) par les opérateurs résolvants R;..,
coïncide en fait avec le domaine DA du générateur infinitésimal A du semi-
groupe ! Plus précisément on a le théorème fondamental suivant :

Théorème 3.3.2 : Soient À > 0 et f, g E Co(E). Alors g = R;..f si et


seulement si g E DA et
Àg -Ag= f.
Autrement dit 1J = DA et ( ÀI - A) R;.. = I, où I est l'opérateur identité
de Co(E) 9 .
9 0n notera qu'on a alors aussi R>-(>d - A) =IDA où IDA est l'opérateur identité de
DA car R>- et A commutent sur DA.
Chapitre 3. Le mouvement brownien comme processus de Markov l 03

Démonstration: i)(condition nécessaire) Supposons que g = R>.f· Alors


pour tout h > 0, on a
(3.29)
1
h(Ph - I)g(x) = h
1 -Àt
Jor'° e 1 -Àt
Pt+hf(x)dt - h Jor'° e Ptf(x)dt.

Le changement de variable s = t + h dans la première intégrale de (3.29)


conduit à

1
h(Ph - I)g(x) =
eÀh - 1
h Jor'° e-Às Psf(x)ds - heÀh Jor e-Às
' P f(x)ds
8

(3.30)

=
eÀh - 1
h
1
(g(x) - ~ f(x)) -
eÀh
h
r e->.s (Psf(x) - J(x)) ds.
Jo
Comme Ptf(x) - f(x) ---+ 0 uniformément en x, quand t---+ 0, l'intégrale
du second membre de (3.30) tend vers 0 quand h ---+ 0 (uniformément en
x ), ce qui implique

lim
h->O h
~(Ph - I)g =À (g - ~ 1)
À
dans Co(E).

Donc g E DA et Ag = Àg - f i.e. f = (ÀI - A)g. D'où la condition


nécessaire.
i
ii) (condition suffisante) Soit v E DA· On a donc limh-.o (Ph -I)v = Av
dans Co(E) et comme l'opérateur R>. est continu et commute avec Ph, ceci
implique

(3.3 l)

Mais, dans la condition nécessaire, on a vu que la limite du membre de


gauche de (3.31) est égale à ÀR>.v - v. On a donc R>.Av = ÀR>.v - v, ce
qui montre que v E R>. (Co (E)) et comme R>. et A commutent, on obtient
aussi v = (ÀI - A)R>.v. D'où le théorème. D

Théorème 3.3.3 : 1) La résolvante du mouvement brownien est la famille


des opérateurs intégraux (R>.)>.>O de la forme:

(3.32) R>.f(x) = k~exp (-mlx - YI) J(y)dy (f E Co(IR)).


104 Mouvement Brownien et calcul d'Itô

2) Le domaine DA du générateur infinitésimal du mouvement brownien est


constitué des f E C0 (ffi.) de classe C 2 et telles que f" appartienne aussi à
Co(ffi.). Pour f E DA, on a alors Af = ~f".

Démonstration: 1) Pour une fonction f E C0 (ffi.) positive, le théorème de


Fubini-Tonelli permet d'écrire

R>.J(x) = lu. (j"OO e->.t. y~exp(-


1R O
1
2nt
(X - y)2 )dt )
2t
f(y)dy.

Pour prouver (3.32), il suffit donc de montrer que

(3.33) <P(z) := 1
0
00 1 z2
e->.t _ _ exp(--)dt = -e-../2>:izl.
V2ii 2t
1
vv:
Pour z > 0, on peut dériver <P( z) sous le signe intégrale, ce qui donne

(3.34)
1
cp (z) = - j0
·oo
e
-ÀtZ
1 z-')
- - - exp(--)dt.
t V2ii 2t

Si on fait le changement de variable s = z;t dans l'intégrale (3.34), on


2
obtient aussitôt
<P'(z) = -v'2>.<P(z),

ce qui implique que </J(z) = ce-..n>:z (z > 0); mais C = </J(O) = k


comme on peut le voir aussitôt par un changement de variable évident 10 •
On en déduit (3.33) puisque <P( z) est une fonction paire.
2) Si on récrit la formule (3.32) sous la forme

R>.f(x) = e-..n>:x j ·x 1
-e../2>:y f(y)dy
-OO vv:

10 dans l'intégrale donnant f (0) faire le changement de variable >..t =f pour se ramener
à une intégrale de Gauss.
Chapitre 3. Le mouvement brownien comme processus de Markov l 05

on voit facilement que la fonction g(x) := R>J(x) a des dérivées pre-


mière et seconde données par
(3.35)
g'(x) = -e-v'2>:x l-OO
x
ev'2>:y f(y)dy + ev'2>:x 1·+00 e-v'2>:y f(y)dy,
X

et

(3.36) g"(x) = 2,\g(x) - 2f(x).

La relation (3.36) montre que g" E Co(IR). L'image de Co(IR) par R>..
égale à DA (d'après le Théorème 3.3.2) est donc contenue dans l'ensemble
CJ(IR) des fonctions g E Co(IR) de classe C 2 telles que g" E Co(IR) qui est
lui même inclus dans DA d'après le Théorème 3.3.1. Donc DA = CJ(IR)
et le théorème en découle. D
Remarque: La formule (3.35) montre que l'on a

lg'(x)I ~ e-v'2>:x j~~ ev'2>:YIJ(y)ldy + ev'2>:x 1+oo e-v'2>:ylf(y)ldy


= h":\R>..lfl(x),
donc g' (x) ---+ 0 quand lxl ---+ +oo. Ainsi les fonctions f E DA sont
aussi telles que J' E Co(IR), ce qui n'était pas clair a priori (on essayera de
montrer directement qu'une fonction f E Co(IR) de classe C 2 et telle que
f" E Co(IR), vérifie aussi f' E Co(IR)).

3.4 Annexe
3.4.1 Famille des lois de probabilité d'un processus de Markov
Soit X = (f!, F, (Ft)tET, (Xt)tET, JP) (où T = N ou IR+) un proces-
sus à valeurs dans un espace polonais (E, BE)· On suppose que X est un
processus de Markov homogène de semi-groupe (Pt)tET· Pour simplifier
on supposera que (Ft)tET est la filtration naturelle de X et on notera F 00
sa tribu terminale. On sait d'après le corollaire 3.1. l que la restriction lP v
de lP à F 00 est déterminée par la formule (3.9).
106 Mouvement Brownien et calcul d'Itô

Définition 3.4.1 : On appelle probabilité partant de x E E, la mesure de


probabilité IP'x sur (D,F00 ) définie sur les ensembles cylindriques (3.10)
par11

IP'x(Xo E Ao,Xt 1 E A1, ... ,Xt1.: E Ak)


= ;· 6x(dxo) ;· Pt 1 (xo, dx1) ;· Pt 2 -t 1 (x1, dx2) ...
Ao A1 A2

(3.37) ... ;· Pt1.:-t1.:-i (xk-1, dxk).


A1.;

(IP' x)xEE est la famille des lois associée au processus de Markov X.


Il est clair que si l'on regarde la collection des variables aléatoires (Xt)tET
sur l'espace filtré (D, (Ft)tET, F 00 ) muni de la probabilité IP'x que nous
venons de définir, on obtient un nouveau processus de Markov

(3.38)

homogène de même semi-groupe (Pt)tET et qui est tel que Xo = x IP'x-


p.s. Ce processus est obtenu à partir de X en changeant la probabilité IP'
en IP' x. Quand on considère un processus de Markov homogène X, on doit
donc considérer la famille des lois (IP' x )xEE comme autant de processus de
Markov associés au sens de (3.38). On fait souvent l'abus de langage qui
consiste à parler du processus "X sous IP' X" quand on considère x(x).
On constate immédiatement à partir de (3.9) et de (3.37) qu'on peut
écrire

IP'(Xo E Ao,Xt 1 E A1, ... ,Xt1.: E Ak)

= l IP'x(Xo E Ao, Xt 1 E A1, ... , Xtk E Ak)v(dx).

La probabilité IP'v peut donc s'exprimer comme la moyenne relativement à


v des mesures Px :

(3.39)

11 il est facile de vérifier en adaptant l'argument de cohérence de Kolmogorov du chapitre

1 que li",, est bien définie sur :F=·


Chapitre 3. Le mouvement brownien comme processus de Markov 107

au sens où pour tout FE F 00 , on a

(3.40) IP(F) = IPv(F) = l IPx(F)v(dx),

Remarques : 1) Pour un t > 0 et A E BE, la formule (3.37) appliquée à


l'événement [Xt E A] donne

c'est à dire la probabilité partant de x d'aller dans A à l'instant t.


2) On peut comparer (3.40) à la formule "de la probabilité totale" relative
au système complet d'événements (infinitésimaux) "[Xo = x]" (x E E):

IP(F) = l IP(FIXo = x)IP(Xo E dx) = l IP(FIXo = x)v(dx).

Ces deux remarques nous conduisent à admettre que la probabilité ]p> x peut
aussi être considérée comme la probabilité conditionnelle sachant "[Xo =
x]" 12 • C'est la raison pour laquelle on dit que IPx est la probabilité pour le
processus "partant de x" ou "sachant qu'il part de x".

Définition 3.4.2 (et Notation) : Pour toute variable aléatoire Z 0 -----+


IR+ U { +oo }, F 00 -mesurable, on posera

lEx(Z) = l ZdIPx (éventuellement +oo),

Pour une variable aléatoire Z: 0-----+ IR (ou <C), F 00 -mesurable et telle que
lEx(IZI) < +oo, son espérance sous IPx est donnée par

On dira que l'opérateur lEx est l'espérance pour le processus partant de x.


12 Nous n'essayerons pas de détailler plus rigoureusement cette question de probabilité

conditionnelle; nous invitons le lecteur intéressé à consulter les ouvrages spécialisés indi-
qués dans la bibliographie.
108 Mouvement Brownien et calcul d'Itô

Exemple : Pour une variable aléatoire de la forme

où 0 ::::; t1 < t2 < · · · < tk et fi : E ----+ IR est borélienne bornée (ou


positive), on a

IEx(Z) = j~ Pt 1 (x,dx1)fi(x1) j~ Ptrt 1 (x1,dx2)h(x2) ...

···j~ Ptk-tk-i (xk-1, dxk)fk(xk)·


En particulier pour t > 0 et f :E ----+ IR borélienne bornée (ou positive)

(3.41) IEx(f(Xt)) = j~ Pt(x, dy)f(y) = Ptf(x).


Ainsi la propriété de Markov (3.6) peut (pour t > s) s'écrire sous la forme
(3.42) IE (f(Xt)IFs) = IExs(f(Xt-s)) p.s.,

où pour une variable aléatoire Z, la variable aléatoire IExs(Z) (appelée es-


pérance de Z partant de X 8 ) est la composée des applications w----+ X 8 (w)
et X ----+ IEx (Z).
Exercice : Si X = Best un mouvement brownien, vérifier (avec les
notations précédentes) que les probabilités Px sont données par

IPx(Bt 1 E A1, ... , Btk E Ak) = IP(x + Bt 1 E A1, ... , x + Btk E Ak)

= IP(B}~l E A1, ... , B}~) E Ak),

où B(x) est le mouvement brownien partant de x, défini en (3.14) et que


l'espérance partant de x est telle que

IEx (f(Bt)) = IE(f(Bt + x)) = IE(f(B~x))).


Remarque : Le principe de symétrie d'André (voir annexe du chapitre 2)
est également valable pour le mouvement brownien partant de n'importe
quel point x autrement dit sous n'importe quelle probabilité IPx comme on
peut le vérifier facilement en reprenant la démonstration du théorème 2.4.1.
Chapitre 3. Le mouvement brownien comme processus de Markov 109

3.4.2 Processus de Markov canonique


3.4.2.1 Construction du processus canonique
Soit T = N ou IR+ et (E, BE) un espace polonais. On suppose donné un
semi-groupe markovien (Pt)tET sur E. On peut construire 13 un processus
de Markov de semi-groupe (Pt)tET et de loi initiale donnée sur l'espace
canonique n = ET de la manière suivante :
Pour tout t E T, on considère la t-ième application coordonnée den dans
E, donnée par
Xt : w--; Xt(w) = w(t).
et la tribu
Ft =cr (X 8 , s :S: t),
engendrée par les applications Xs pour tous les s :S: t. Ainsi (Ft)tET est
la filtration naturelle de la famille (Xt)tET· On munit alors [2 de la tribu
F 00 = cr(UtETFt)· Soit v une probabilité sur (E, BE)· Pour tout entier
k > 0, tout choix d'instants 0 = to < t 1 < · · · < tk et de boréliens
Ao, ... , Ak de E, si I = {t 1 , ... , tk} on pose

M(AoxA1 ... xAk) = l v(dxo) ;· Pt 1 (xo, dx1) ;· Ptrt 1 (x1, dx2) ...
}Ao Ai A2

... ;· Ptk-tk-l (xk-1, dxk)·


Ak

Alors µJ définit une mesure de probabilité sur E 1 et on peut vérifier


facilement que la famille (M )JEPJ(T) est une famille cohérente au sens de
Kolmogorov. Il existe donc une probabilité lP\, sur (ET, B®T) dont les µ 1
sont les lois de dimension finie i.e. on a

lPv(XoEAo,Xt 1 EA1, ... ,Xtk EAk) =

j . v(dxo) / Po,t 1 (xo,dx1)j. Pt 1 ,l2(x1,dx2) ...


~ jA1 k

. ·1 Ak
Ptk-i,tk(Xk-1, dxk).

13 comme on l'a fait au chapitre 1


! IO Mouvement Brownien et calcul d'Itô

Le processus des coordonnées X = (Xt)tET est donc un processus de


Markov de semi-groupe (PthET et de loi initiale v. On l'appelle le proces-
sus canonique de loi initiale v.

3.4.2.2 Les opérateurs de décalage sur ET et la propriété de Markov


Pour tout t E T (fixé), on considère l'application ()t : ET ___, ET telle
que pour tout w E ET, ()t ( w) est la trajectoire définie par

()t(w)(s) = w(t + s) (s ET).

On dit que ()t est l'opérateur de translation ou de décalage 1-I- par t. Son
action sur les variables aléatoires coordonnées Xu se traduit par

Plus généralement si Z est une variable aléatoire définie sur ET, la variable
aléatoire Z o ()t est par définition telle que :

(Z o ()t)(w) = Z(()t(w)).

Heuristiquement, si Z est une caractéristique numérique des trajectoires,


Z o ()t est la mesure de cette caractéristique sur les trajectoires décalées de
t. Par exemple soit xo un point fixé de J'espace des états E et supposons
que Z(w) égale Je nombre de fois (éventuellement +oo) où la trajectoire w
passe en x 0 ; Z o ()t est alors la variable aléatoire qui représente le nombre
de passages en xo à partir de linstant t.
Ce formalisme des opérateurs de décalage est très pratique pour exprimer
simplement la propriété de Markov (3.6) et (3.42) sous la forme suivante

(3.43) Vs, u ET, JE (f(Xu) o ()slFs) = JEx,(f(Xu)) p.s.

On peut montrer (exercice) qu'on peut généraliser (3.43) en remplaçant


f (Xu) par n'importe quelle variable aléatoire z : n = ET ___, lR Foo-
mesurable et bornée et on a la propriété de Markov "générale" :

Vs ET, JE (Z o ()slFs) = JEx,(Z) p.s.

14 ou "shift" en anglais
Chapitre 3. Le mouvement brownien comme processus de Markov 111

Cette propriété est très parlante car elle exprime que l'espérance condition-
nelle (sachant :F8 ) de Z mesuré sur les trajectoires à partir du temps s est
égale à l'espérance de Z partant de X 8 • Heuristiquement cela signifie que
pour x E E:
Vs ET, JE (Z o eslXs = x) = lEx(Z).
3.4.2.3 Décalage par un temps d'arrêt et propriété de Markov forte
On considère toujours un processus de Markov canonique X et soit T un
temps d'arrêt presque sûrement fini du processus X. On définit l'opérateur
de décalage (}7 par le temps d'arrêt T comme l'application (}7 : ET __.., ET
donnée par

autrement dit
Vs ET, eT(w)(s) = w(s + T(w)),
eT(w) est donc la trajectoire W"regardée" à partir de l'instant T(w).

Définition 3.4.3 : On dit que le processus de Markov X vérifie la propriété


de Markov forte si pour tout temps d'arrêt presque sûrement fini T et toute
variable aléatoire bornée Z définie sur ET, on a

où :F7 est la tribu des événements antérieurs au temps T et X 7 l'état du


processus à l'instant aléatoire T (voir le chapitre 1 ).
Exemple : Le résultat du théorème 3.2.2 est équivalent à la propriété de
Markov forte pour le mouvement brownien. D'autres processus vérifient
la propriété de Markov forte par exemple les processus de Markov-Feller
(voir [51 ]).
Remarque: Il n'est pas nécessaire de considérer la version canonique
d'un processus de Markov X = (Xt) pour exprimer la propriété de Markov
forte qui (comme on l'a vu pour le mouvement brownien) s'énonce comme
suit : Pour toute fonction f : IR __.., IR borélienne bornée, pour tout h 2::: 0 et
tout temps d'arrêt presque sûrement fini T de la filtration de X, on a

(voir [14] pour des détails).


112 Mouvement Brownien et calcul d'Itô

3.4.3 Processus de Markov-Feller et propriété de martingale


Comme annoncé dans le paragraphe 3.3.1 (en particulier en (3.17))
nous donnons quelques détails des liens fondamentaux entre générateur in-
finitésimal et propriété de martingale. Soit X un processus de Feller sur E
de semi-groupe (Pt)t~o de générateur infinitésimal A et de loi initiale v.
On note DA le domaine dans C0 (E) de l'opérateur A.

Théorème 3.4.1 Soit f E DA· Alors le processus


{t
(3.44) NI/ := f(Xt) - f(Xo) - Jo (Af)(Xs)ds (t 2:: 0),

est une martingale pour la filtration (:Ft)t~o du processus X, quelle que


soit la loi initiale v.
Démonstration : Pour tout t 2:: 0, la variable aléatoire NI/ est dans L 1
puisque f est Af sont des fonctions bornées. Si 0 :::; s :::; t, on a alors
(3.45)
E (Mf [Fs) = lv1f + E (f(Xt) - f(Xs) - lt (Af)(Xu)dul:Fs) .

Mais d'après la propriété de Markov (3.42), l'espérance conditionnelle du


second membre de (3.45) est égale à

Exs (f(Xt-s) - f(Xo) - lt-s (Af)(Xu)du)

= Pt-sf (Xs) - f (Xs) - lt-s PuAf (Xs)du


=0,
d'après (3.19). D'où le résultat. D
Remarque : On notera que pour une fonction f E DA telle que Af =
0, le processus (f(Xt)) est une martingale.
Le résultat qui suit est une sorte de réciproque du précédent énoncé.

Proposition 3.4.1 : Si des fonctions f et g de Co(E) sont telles que pour


toute loi initiale de X, le processus
Chapitre 3. Le mouvement brownien comme processus de Markov 113

est une martingale, alors f E DA et Af = g.


Démonstration: Puisque (M{ 9 ) est une martingale pour toute probabilité
IP'x (x E E), on a IEx(M{ 9 ) = IEx(M{ 9 ) =O. Mais d'après (3.41), on a

IEx(lv1{ 9 ) = Ptf(x) - J(x) - lt P8 g(x)ds.

On en déduit donc que

Il ~(Pd - f) - glloo = Il~ lt (Psg - g)dslloo


::; ~ lt ll(Psg- 9)jj ds---+ 0 (t---+ 0).
00 D

3.4.4 Notes et exercices


Exercice 1 : Soit X un processus vérifiant la condition de Markov (3.1)
donnée dans l'introduction du chapitre 3.
1) Pour tous s < t < u, montrer en utilisant les propriétés de 1' espérance
conditionnelle et le fait que Fs c :Ft, qu'on a

Ps,u(Xs, A)= L Ps,t(Xs, dy)Pt,u(Y, A).

2) En déduire que si µx. désigne la loi de X 8 sur (E, BE), on a

Px;u(x, A)= L Ps,t(X, dy)Pt,-u(y, A)

pour µx. -presque tout x E E.


Exercice 2: 1) Soit X= (Xt)tET un processus surJRd à accroissements
indépendants (i.e pour tous s = to ::; t 1 ::; · · · ::; tn, les variables aléatoires
Xtk -Xtk-i (k = 1, ... , n) sont indépendantes et indépendantes de la tribu
:F8 ) et stationnaires (i.e la loi de Xt - X 8 ne dépend que de t - s). Démon-
trer que X est un processus de Markov homogène de semi-groupe donné
par
Ptf(x) = IE(f(Xt - Xo + x)).
On remarquera que si µt désigne le loi de Xt - Xo, la formule précédente
peut s'écrire Ptf(x) = Ôx * µt(f) où Ôx désigne la mesure de Dirac en
114 Mouvement Brownien et calcul d'Itô

x et * le produit de convolution des mesures. La propriété de semi-groupe


Pu(Pv) = Pv(Pu) = Pu+·v est équivalente ici au fait que µ.u * µv = µv *
µ.u = µu+v· Pour cette raison on dit que (Pt)r;::.o est un semi-groupe de
convolution et que (µt)r;::.o est le semi-groupe de mesures associé.
Remarque : Les processus de Markov de ce type très particulier portent le
nom de processus de Lévy et jouent un rôle très important dans la théorie
des processus. Le mouvement brownien est un processus de Lévy ainsi que
le processus de Poisson (question suivante et exercice 3) et le processus des
temps d'atteinte (voir Je corollaire 2.3.2 du chapitre 2).
2) En déduire que Je processus de Poisson de paramètre >. est un processus
de Markov homogène et déterminer la forme explicite de son semi-groupe
d'opérateurs de transition.
Exercice 3 (semi-groupe de Poisson) : Soit >. > O. Pour tout t > 0, on
considère l'opérateur défini par

Ptf(x) = e->.t ~ f(x + n) (~ln (x E JR),


n=O

où f E Cb(JR).
1) Montrer directement (i.e. sans utiliser l'exercice 2) que (Pt)t>O est un
semi-groupe markovien.
2) Vérifier que (Pth>o est un semi-groupe de Feller.
3) Trouver le générateur infinitésimal du semi-groupe.
Exercice 4 (mouvement brownien avec dérive): Soit Bun mouvement
brownien sur R Montrer que le processus (Bt + µt)t;::.o (mouvement brow-
nien avec dérive µ E JR) est un processus de Lévy (voir exercice 2) et
déterminer ses noyaux de transition.
Remarque : On peut montrer que les seuls processus de Lévy à trajectoires
continues sont de la forme ( aBt + µt )r;::.o où cr et µ sont des constantes
réelles (voir [51 ]).
Exercice 5 (processus de Bessel) : Soit B un mouvement brownien sur
ffi.d ( d :?: 2) et 11-l l la norme euclidienne de JRd. Montrer que R = (11Bt11 k'.::o
est un processus de Markov homogène sur [O, oo[, dont Je semi-groupe a des
densités de transition de la forme

Pt(x, y)= t1 exp ( - x2 + y2 ) (xy)-a la ( xy) y2a+1,


2t t
Chapitre 3. Le mouvement brownien comme processus de Markov 115

si t > 0, x > 0 et y > 0 avec o = ~ - 1 et la est la fonction de


Besse1 mo d l.fi,ee d'.md"ice a : Ja ( x ) = '-"+oo (x/2)2n+a (. d" .
Lm=a n!r(n+a+l) m tcatwn : on
pourra utiliser la formule donnant la transformée de Laplace de la me-
sure Superficielle dŒ de la Sphère unité Sd-1 de JRd : fs e<xp> dŒ =
d-1
(27r )d/ 2 1lxl1-(d/2-l) ld/2-1 ( l lxl 1) ).
Six= 0, Pt(O, y) est la limite de l'expression précédente quand x ..__, 0 i.e.

0 - 1 ex ( - -
Pt( 'y) - 2ar(o + l)ta+l p 2t
y2) y2a+l '
1

Remarque : Pour tout réel o 2:: -1/2, il existe un processus de Markov


homogène sur [O, oo[ ayant les densités de transition précédentes. C'est le
processus de Bessel d'indice o (voir le livre de Revuz et Yor [51 ]).
Exercice 6* : Soit B un mouvement brownien sur IR dont on note
Pt(x, y) les densités de transition. Montrer que le processus (IBtl)t;:::a (mou-
vement brownien réfléchi en 0) est de Markov-Feller homogène sur E =
[O, +oo[ et qu'il a des densités de transition de la forme Pt(x, y) +Pt(x, -y)
(x, y E E) et un générateur infinitésimal Af(x) = ~f"(x) avec le domaine

DA={f E Ca([O, +oo[) n C 2 ([0, +oo[); f~ j''E:=Ca([O, +oo[),J'(O)=O}.

Exercice 7* : Soit T = inf {t 2:: O; Bt = 0} le temps d'atteinte de 0


pour le mouvement brownien B.
1) Soit x > 0 un point fixé et A c IR+ un borélien. On note IP'x la probabilité
pour le mouvement brownien B partant de x.
a) Démontrer que IP'x(Bt E A, T :St) = IP'x(Bt E -A).
2
a (x-y)
b) En déduire que IP'x(T :St) = J_ 00 vhte--21-dy.
2) Montrer que pour tout xa > 0, sous la probabilité IP' xo, le processus
X = ( Bt/\T )t;:::a (mouvement brownien absorbé en 0) est de Markov sur
E = [O, +oo[ avec un semi-groupe de la forme

r+oo r+oo
Qtf(x) =la (Pt(X, y) - Pt(X, -y)) f(y)dy+2f(O) la Pt(X, -y)dy,

où les Pt (x, y) sont les densités de transition de B. Autrement dit (puisque


Qtf(x) = lExf(Xt)) ceci signifie que la loi de Xt (sachant que Xa = x),
116 Mouvement Brownien et calcul d'Itô

J
est la somme d'une mesure ponctuelle en 0 de masse 2 0+00 Pt(x, -y)dy
et d'une mesure absolument continue sur lR+ de densité y 1-t Pt(x, y) -
Pt(X, -y).
Montrer ensuite que X a pour générateur infinitésimal Af(x) = ~f"(x)
avec le domaine

D A={J ECo([O, +oo[) n C 2 ([0, +oo[);J', J"E Co([O, +oo[),J"(O)=O}.


Remarque importante : on notera que les processus des exercices 6 et 7
bien que différents, admettent le même générateur infinitésimal mais sur
des domaines distincts.
Notes : La notion de processus de Markov à temps continu est déli-
cate à formaliser comme nous l'avons expliqué au début de ce chapitre. Par
exemple quand on a reconnu le caractère markovien homogène d'un pro-
cessus donné X, on a besoin pour pouvoir travailler, de considérer toute la
famille des processus xCx) définis en (3.38) qui permettent le passage dans
les deux sens du raisonnement probabiliste au calcul fonctionnel via la pro-
priété de Markov: lEx(f(Xt)) = Ptf(x). Le cas du mouvement brownien
est spécial et plus simple car B(x) = x + B (homogénéité spatiale). Le cas
des processus de Markov non-homogènes est abordé dans le chapitre 5 et
nécessite encore plus de précautions. C'est pour rester dans le cadre d'une
introduction élémentaire que nous avons limité au maximum les dévelop-
pements généraux et que nous nous sommes contentés des exemples qu'on
trouve dans la section exercices. C'est d'ailleurs celle que nous considérons
comme la plus importante de ce chapitre. Notre référence principale pour ce
chapitre est encore le livre de Revuz et Yor ([51]) où nous avons emprunté
essentiellement les résultats de l'annexe : processus canonique, opérateurs
de décalage, propriété de Markov forte et propriétés de martingale. Le cal-
cul de la résolvante et la détermination du domaine du générateur infinitési-
mal du mouvement brownien suit la présentation de Karlin et Taylor ([32]
p. 288 et p.296). Ce livre [32] est une source extraordinaire d'exemples de
processus de Markov, nos exercices 6 et 7 en sont extraits ( exercices 45
et 47 énoncés p. 392 mais non résolus). Une exposition élémentaire très
instructive des divers aspects du mouvement brownien dont l'aspect mar-
kovien, figure dans le petit livre de Chung [9] dont nous recommandons la
lecture. Pour une étude plus avancée des processus de Markov incluant la
théorie du potentiel, on peut consulter le livre de Dellacherie et Meyer [ 16].
Chapitre 4

Construction de l'intégrale
stochastique

4.1 Introduction

Dans l' Analyse du 18ième siècle, l'intégration est l'opération inverse


de la dérivation. Ainsi, étant donnée une fonction t f-+ y(t) (t E [O, a]) dont
la différentielle est de la forme dy(t) = f(t)dt, où f est une fonction assez
régulière (disons continue), on peut récupérer la valeur y(t) de la fonction
y au point t en "sommant" ses accroissements de 0 à t i.e. y(t) - y(O) =
J~ f (s )ds. Plus généralement si les accoissements infinitésimaux de y sont
de la forme dy(t) = f(t)dg(t) où g est une fonction à variation bornée, on
peut encore "sommer" les accroissements de y et on obtient y(t) - y(O) =
J~ f(s)dg(s) (intégrale de Riemann-Stieltjes).
Soit maintenant B = (0, F, (Ft)t:o::o, (Bt)t:o::o, JP) un mouvement brow-
nien continu. Dans certains problèmes on est amené à considérer des pro-
cessus Y dont les accroissements infinitésimaux 1dyt (pour t variant dans
un certain intervalle de temps [a, b]) sont de la forme dyt = XtdBt où
dBt est l'accroissement infinitésimal du mouvement brownien B et X =
(Xt)tE[a,b] un processus adapté à la filtration (Ft)t?:O et suffisamment régu-
lier. Pour pouvoir reconstituer le processus Y en "sommant" ses accroisse-

1 La notion de diftërentielle stochastique sera formalisée dans le chapitre 5.

117
118 Mouvement Brownien et calcul d'Itô

ments, il nous faut donner un sens à des expressions du type

(4.1)

La première idée serait de définir (4.1) "w par w"(i.e. trajectoriellement)


mais on a vu au chapitre 2 que la fonctions ---+ B 8 (w) n'est pas à varia-
tion bornée donc on ne peut pas considérer (4.1) comme une intégrale de
Lebesgue-Stieltjes.
La bonne méthode, initiée par Wiener dans le cas où le processus intég-
rand X est une fonction déterministe puis systématiquement développée
par K. Itô, a été d'utiliser des procédés d'approximation probabiliste com-
me la convergence L 2 et la convergence en probabilité pour définir (4.1)
comme une limite de sommes de Riemann convenables. Ainsi les processus
intégrands X devront pouvoir être approchés (au sens L 2 ou en probabilité)
par des processus élémentaires qui vont jouer le rôle des fonctions en es-
calier (resp. des fonctions simples) dans l'intégration des fonctions au sens
de Riemann (resp. au sens de Lebesgue).

4.2 Intégrale stochastique des processus élémentaires


Définition 4.2.1 : On dit qu'un processus X = (Xs)sE[a,b] est élémentaire
s'il existe une subdivision a= to < t1 < ... < tn = b de l'intervalle [a, b]
et des variables aléatoires réelles (Xi), i E {O, 1, ... , n - 1 }, telles que

n-l
(4.2) Vt E [a, b], Vw E 0, Xt(w) = 2: Xi(w)l[t;,ti+d(t),
i=O

et telles que pour tout i E { 0, 1, ... , n - 1}, Xi soit Fti mesurable. Autre-
ment dit dans chaque intervalle de temps [ti, ti+l [, Xt(w) ne dépend pas de
t et vaut Xi(w ).
On notera alors E (resp. En, n > 0) l'ensemble de tous les processus élém-
entaires sur [a, b] (resp. le sous-ensemble des X E E tels que les variables
aléatoires Xi ont un moment d'ordre n, i.e. lE(IXiln) < +oo).

Exercice: On rappelle (cf. chap. 1) qu'un processus X= (Xt)tE[a,b] défini


sur (0, F, (Ft)t>O) est progressivement mesurable si pour touts E [a, b],
Chapitre 4. Construction de l'intégrale stochastique 119

la fonction (t,w)-+ Xt(w) de [a, s] x n dans IR est B[a,s] ® F 8 mesurable


2. Montrer que tout processus X E E est progressivement mesurable.

Définition 4.2.2 : On appelle intégrale stochastique (au sens d'Itô) du pro-


cessus X E E donné par (4.1), la variable aléatoire réelle

·b n-1
(4.3) j a
XtdBt := L Xi(Bti+l -
i=O
BtJ·

Proposition 4.2.1 (propriétés de l'intégrale stochastique):


l)(linéarité) Si X et Y E E et À,µ E IR, on a

(4.4) 1b (>.Xt + µyt)dBt =À 1b XtdBt +µ 1b ytdBt·

2)(centrage) Si XE E1, alors J: XtdBt E L 1 (f2,F,IP) et on a

(4.5)

3)(appartenance à L 2 ) Si XE E2, alors J: XtdBt E L 2 (f!,F,IP) et

(4.6)

Démonstration: 1) Il suffit d'écrire la définition de l'intégrale stochastique


dans une subdivision commune à X et Y et le résultat est alors trivial.
2) Pour tout i E {O, 1, ... , n - 1}, les variables aléatoires Bti+t - Bti et
Xi sont indépendantes3 et sont dans L 1 donc leur produit est dans L 1 et
comme Bti+i - Bti est centrée, on a

et 2) en résulte aussitôt.
3) Soit i < j. La variable aléatoire Xi(Bti+i - BtJ est dans L 2 comme
2 où B[a,sJ désigne la tribu de Borel de l'intervalle [a, s].
3 car Bi,+i - Bt, est indépendante de :Ft, donc indépendante de Xi
120 Mouvement Brownien et calcul d'Itô

produit de deux variables de L 2 indépendantes. Comme Xj est dans L 2 ,


la variable aléatoire XiXJ (Bt.;+i - BtJ est dans L 1. De plus étant Fti
mesurable, elle est indépendante de Btffi - Bti. Le produit de ces deux
dernières variables est donc dans L 1 et on a

JE (xixj(Bti+l - BtJ(Btj+I - BtJ)


=JE (XiXj(Bti+t - BtJ) JE(BtJ+ 1 - BtJ) =O.

On en déduit que 1: XtdBt est dans L 2 et que :

E[ (l X,ds,) '] ~ E (~o X;X;(Bt,., - Bt,)(Bt;+t - B,j))


=JE (I: i=O
X[(Bt;+i - BtJ 2 )
n-1

= LJE(X[)JE ((Bt.;+1 - BtJ 2 )


i=Ü

=
n-1
L JE(X[)(ti+l -
i=O
ti) = 1
a
·b
JE(X[)dt

=JE (1b X(dt)

(la troisième égalité découlant de l'indépendance de (Bt;+i - BtJ 2 et de


Fti donc de X[ et la quatrième du fait que Bti+i - Bt.; est de variance égale
à ti+1 - ti). D'où le résultat.
Remarque : Il est intéressant de noter que si on considère un processus
XE E2 comme une fonction (t,w) f-7 Xt(w) des deux variables (t,w) E
[a, b] X n alors X E L 2 ([a, b] X n, B[a,b] @ F, dt@ dl?) et IE(f: X[dt) =
l[a,b]xn(Xt(w) )2dtd1P n'est autre que le carré de la norme L 2 de X dans cet
espace de Hilbert. On peut alors reconsidérer les résultats de la proposition
sous la forme suivante qui va se révéler cruciale pour la suite :

Corollaire 4.2.1 : L'application X 1----> I(X) := 1:


XtdBt est une iso-
métrie de l'espace vectoriel E2 muni de la norme de L ([a, b] x n, B[a,b]@
2
F, dt@ dlP) dans l'espace L 2 (n, F, lP).
Chapitre 4. Construction de l'intégrale stochastique 121

Démonstration: La linéarité de X r---+ I(X) est donnée dans le 1) de la


proposition et l'égalité llI(X)llL2(n,IP') llXllL2([a,b]x!1,dt©IP') est l'équa-
tion (4.6). D

4.3 Les processus intégrands


Dans cette partie nous définissons les classes de processus qu'on peut
intégrer par rapport au mouvement brownien. Les notations et le contexte
sont les mêmes que précédemment.

Définition 4.3.1 : Soit X = (Xt)tE[a,b] un processus défini sur l'espace


filtré (D, F, (Ft)t>O, IP') du mouvement brownien continu B considéré au
paragraphe 1, et restreint à l'intervalle de temps [a, b].
1) On dit que X est dans la classe A2 si X est progressivement mesurable
et si

(4.7) 1b X'fdt < +oo, IP' p.s.

2) On dit que X est dans la classe Jvl 2 si X est progressivement mesurable


et si

(4.8) JE (1b Xfdt) < +oo,

où J: X[dt est la variable aléatoire qui pour tout w E n est égale à l 'inté-
grale de Lebesgue J: X[(w)dt.
Remarque : On a clairement E2 c Jvl 2 c A2 et A2 (resp. M 2 , resp.E) est
un espace vectoriel pour les opérations usuelles d'addition des processus
(VX, Y E A2 ,X+Y = (Xt+Yl)tE[a,bJ)etlamultiplicationd'unprocessus
par un scalaire (V>.. E IR, VX E A2 , >..X= (>..Xt)tE[a,bJ)· En fait c'est M 2
qui a la structure la plus intéressante car c'est un espace de Hilbert. En
effet comme dans une remarque précédente, on constate que tout X E M 2
s'identifie à un élément de L 2 ([a, b] X n, B[a,b] ® F, dt® d!P') puisque la
condition (4.8) s'écrit

Jalb X[dt) = J[a,b]xn < +oo.


llXllI2([a,b]x!1,dt©IP') =JE( /" (Xt(w)) 2 dtd!P'
122 Mouvement Brownien et calcul d'Itô

4.3.1 Aspects hilbertiens de l'intégrale stochastique


On conserve les notations précédentes.

Proposition 4.3.1 : M 2 est un sous-espace fermé de l'espace de Hilbert

L 2 ([a, b] X n, B[a,b] ® F, dt® dIF').


Démonstration : Soit (X(n)) une suite d'éléments de M 2 qui converge
vers un élément X E L 2 ([a, b] x D, dt® dlP'). Alors il existe une sous-
suite (X(ni)) qui converge vers X dt® dIP presque sûrement et donc X est
progressivement mesurable comme chacun des X(n;). D
2
On peut encore préciser la structure de M par le résultat suivant :

Proposition 4.3.2 : L'ensemble Prog de toutes les parties A c [a, b] X n


telles que le processus (t, w) f-+ lA (t, w) est progressivement mesurable,
est une sous-tribu de B[a,b] ® F. De plus on a :

(4.9) M2 = L 2 ([a, b] X n, Prog, dt® dIF').


Démonstration : Il est clair que A E Prog si et seulement si pour tout
s E [a, b], An [a, s] x D E B[a,s] ®Fs et on en déduit que Prog est une tribu.
Soit alors X un processus progressivement mesurable. Par définition, pour
tout x E lR et touts E [a, bj, l'événement4 [X :S: x] n [a, s] X D appartient
à B[a,s] ® F 8 • Ceci signifie que [X :S: x] E Prog i.e. X est mesurable par
rapport à la tribu Prog et le résultat (4.9) en découle aussitôt. D
Notation : Pour simplifier l'écriture, on notera
llXllM2 := llXllL2([a,b]xn,dt®IP') la norme du processus X de l'espace de
Hilbert M 2 .

Théorème 4.3.1 : L'espace E2 des processus élémentaires de carré intég-


rable est un sous-espace dense de l'espace de Hilbert M 2 .
(i.e. 'ï!X E M 2 , :3(X(n)) E E2: limn-+oo llX(n) - XllM2 = 0)

Démonstration : Voir l'annexe. D

~[X::; x] := {(t,w);Xt(w)::; x}
Chapitre 4. Construction de l'intégrale stochastique 123

Corollaire 4.3.1 : L'isométrie I : X 1--+ I(X) = J: XtdBt de E2 dans


L 2 (0, IP) définie au corollaire 4.2.1, se prolonge de manière unique en une
isomètrie de M 2 dans L 2 (0, JP) (qu'on notera toujours J). Pour X E M 2 ,
on posera

{b
(4.10) I(X) = Ja XtdBt

et on l'appellera l'intégrale stochastique de X sur l'intervalle [a, b].


Remarque :Pour déterminer pratiquement l'intégrale stochastique d'un pro-
cessus X E M 2 , on doit donc trouver une suite de processus élémentaires
(X(n)) E E2 qui converge vers X au sens de la norme JJ.JLv12. On a alors:

. 1·b
hm
n-+oo a
Xt(n) dBt = lb a
XtdBt dans L 2 .

Toutes les propriétés de l'intégrale stochastique des processus élémentaires


de la proposition 4.2. l sont valables pour les processus de M 2 :

Proposition 4.3.3 : L'application X 1--+


dans L 2 (0, IP) et pour tout X E M 2, on a
J: XtdBt est linéaire de l\/1 2

(4.11)

(4.12)

Corollaire 4.3.2 (covariance de deux intégrales stochastiques):


Pour X, Y E M 2 , ona

(4.13)

Démonstration : En utilisant les notations du Corollaire 4.3.1, le premier


membre de (4.13) est le produit scalaire< I(X),I(Y) >L2(n,IP) et le se-
cond membre n'est autre que< X, Y> 1v12. L'égalité (4.13) n'est donc rien
d'autre que la conservation du produit scalaire par l'isométrie I. D
124 Mouvement Brownien et calcul d'Itô

Exemple (calcul d'une intégrale stochastique) : Soit a > O. On va cal-


culer l'intégrale stochastique I = J~a BtdBt où Best le mouvement brow-
nien de référence (restreint à l'intervalle [ü, a]). Notons tout d'abord que
B E M 2 . En effet B est à trajectoires continues donc progressivement me-
surable d'après le théorème 1.1.1 et :

E (10r ) 10r
Bzdt = EBzdt = 10la tdt =
2
~ < +oo,

donc l'intégrale I a un sens. Considérons alors la subdivision Kn de l'inter-


valle [ü, a] constituée des points,

ka
t•.=- k=0,1, ... ,2n.
" 2n'

et les processus élémentaires X(n) = (Xin))tE[ü,a]' définis par:

2n-1
x?i) = L B1.;a;2nl[ka/2n,(k+I)a/2 11 [(t).
k=O

La suite (X(n)) converge vers B dans M 2 . En effet

(n---> oo).

Calculons maintenant l'intégrale stochastique de xCn) :


Chapitre 4. Construction de l'intégrale stochastique 125

2n-l
= ~ L (Bfk+l)a/2n - B~a/2n)
k=O

La première des sommes ci-dessus est télescopique et vaut B~ (car Bo =


0). la deuxième somme est égale à la variation quadratique S'Trn de B sur
l'intervalle [ü, a]. D'après un résultat vu au chapitre 2, on sait que
limn-->OO s'Trn = a (dans L 2). Il en résulte que

(4.14)

Remarque et Exercice : En utilisant les mêmes méthodes que précédem-


ment, montrer que

La limite est donc différente de celle trouvée en (4.14). On notera à ce


propos que les processus
2"-1
~(n) = L B(k+l)a/2nl[ka/2",(k+l)a/2"[(t),
k=O

ne sont pas des processus élémentaires au sens de la définition 4.2.1 car ils
ne sont pas Ft-adaptés : la variable aléatoire B(k+I')a/2" n'est pas Fka/2"
mesurable; elle est en fait F(k+l)a/ 2" mesurable i.e. la valeur de ~(n) à un
instant t dépend du futur.
126 Mouvement Brownien et calcul d'Itô

4.3.2 Extension de l'intégrale stochastique à la classe A2


Pour étendre lintégrale stochastique aux processus de la classe A2 , on
va utiliser une propriété d'approximation de tout processus X E A2 par des
processus élémentaires, au sens suivant :

Proposition 4.3.4 : pour tout X E A2, il existe une suite (X(n)) E E telle
que:

(4.15) lim
n-roo
ja
·b
(Xt - xin)) 2 dt = 0, lP' - p.s.

(la convergence a donc lieu aussi en probabilité).


Démonstration : voir l'annexe. Le résultat fondamental est alors le sui-
vant :

Théorème 4.3.2 : 1) Si X E A2 et (X(n)) E E vérifient (4.15), alors la


suite J:
xi"i) dBt converge en probabilité vers une variable aléatoire I(X)
qui ne dépend pas de la suite (X(n)) E E vérifiant (4.15). On pose alors

I(X) =
j XtdBt
a
·b

et on l'appelle l'intégrale stochastique de X.


2) Si X E M 2 , l'intégrale stochastique de X obtenue au paragraphe 4.3.1
coïncide avec l'intégrale obtenue ci-dessus au 1).
Pour la preuve on a besoin d'une inégalité de type Bienaymé-Tchebychev
pour l'intégrale stochastique des processus élémentaires :

Lemme 4.3.1 : Soit X E E. Pour tout E > 0 et tout a > 0, on a

(4.16)

Démonstration: On a Xt = :EZ:-01 Xil[ti,t;+i[(t). Considérons le proces-


sus tronqué x(a) défini par

Xj si t E [tj, tJ+i[ et :E{,:-6 Xf (ti+1 - ti) :Sa.


0 si t E [tj, tJ+d et :E{:-6 Xf (ti+1 - t.i) >a.
Chapitre 4. Construction de l'intégrale stochastique 127

Dans chaque intervalle [tj, ti+i[, le processus X(a) ne dépend pas de t.


C'est donc un processus élémentaire. D'autre part on a

(4.17)

par construction. Donc xCa) E Jvl 2 . Mais on a aussi l'inclusion des événe-
ments

(4.18) [1b Xfdt :Sa] c [xt = Xia),\/t E [a,bJ].


On déduit aussitôt de (4.18) l'inégalité :

On déduit alors aussitôt (4.16) de l'inégalité de Bienaymé-Tchebychev ap-


pliquée à la variable aléatoire J:
xi a) dBt compte tenu de (4.17). D
Démonstration du théorème: 1) Soit (X(n)) E E vérifiant (4.15).
l'inégalité triangulaire pour la norme de L 2 ([a, b], dt) implique que
J:(xin) - xim)) 2 dt - 7 0 IP' - p.s., donc en probabilité sin, m -7 +oo.
Pour tout a > 0, il existe5 un entier Na tel que n, m > Na impliquent

(4.19) JP' (1b (Xin) - xim)) dt > Œ) < Œ.


2

En utilisant l'inégalité (4.16) avec Xt = x?i) - x}m) et la relation (4.19),


pour n, m >Na, on a:

(4.20)

Etant donné E, on peut choisir a assez petit pour qu'on ait à la fois a < ~
et ~ < ~. Le second membre de (4.20) est alors inférieur à E dès que
n, m > Na. Ceci montre que la suite des variables aléatoires

(l xin) dBt)
a
b
n>O
,

5 par définition de la convergence en probabililé


128 Mouvement Brownien et calcul d'Itô

est de Cauchy en probabilité. Donc elle converge en probabilité vers une


variable aléatoire U. On va montrer maintenant que cette limite est indé-
pendante de la suite (X(n)) :
Soit (Y(n)) E E une autre suite convergente vers X au sens de (4.15) et
soit V la variable aléatoire telle que

lb
.J~~Ja Y,,(n)dBt =V,

en probabilité (qui existe d'après le raisonnement précédent). Considérons


alors la suite ( zCn)) E E telle que z(n) = X(n) si n est pair et z(n) = y(n)
si n est impair. Il est clair que ( z(n)) converge vers X au sens de (4.15).
Donc il existe aussi une variable aléatoire W telle que

lim
n----;.oo
i
·b

a
zin) dBt = W,

en probabilité. La suite ( J: zin) dBt) a deux sous-suites ( l: xti) dBt)


et (J: -y,_(n) dBt) qui convergent respectivement vers et U V.
L'unicité de
la limite en probabilité exige que l'on ait U = V = W. D'où le 1) du
théorème.
2) Si XE M 2 , soit (X(n)) E E2 une suite qui converge vers X au sens de
M 2 i.e

La suite (J:(Xt - xin)) 2 dt)qui converge vers 0 dans L 1 a donc une


sous suite qui converge vers 0 IP' - p.s. donc en probabilité i.e. : il existe
une sous suite (X(ni)) de (X(n)) qui converge vers X au sens de (4.15).
D'après le 1), la suite des intégrales stochastiques l:
xin;) dBt converge
en probabilité vers l'intégrale stochastique donnée par le 1) du théorème
mais elle converge aussi (au sens L 2 ) vers l'intégrale stochastique du para-
graphe 4.3.1 donc les deux intégrales sont les mêmes. Le théorème est donc
entièrement démontré. D
Exercice: Montrer que l'inégalité de type Bienaymé-Tchebychev don-
née dans le lemme 4.3.1, est valable pour tout processus X E A2 .
Chapitre 4. Construction de l'intégrale stochastique 129

Théorème 4.3.3 (intégrale d'un processus continu et sommes de Riemann-


Stieltjes) : Soit X E A2 un processus continu. Alors pour toute suite (7rn)
de subdivisions a = tn,O < tn,l < · · · < tn,mn = b dont le pas 17rnl tend
vers 0 quand n--+ oo, on a

(4.21)

en probabilité quand n --+ oo.

Démonstration : pour tout entier n, considérons le processus X(n) défini


par
rnn-1

t = ~
X(n) L._,
X tn,i.l [tn,i ,tn;i+ i[
(t) ·
i=O

Pour tout w E D, la trajectoire t --+ Xt(w) étant continue, on a X}nl ------+


Xt(w) uniformément sur [a, b] quand n--+ oo. On a donc

et le résultat du théorème découle de la définition de l'intégrale stochas-


tique. D

4.3.3 Résultats complémentaires sur l'intégrale stochastique


Théorème 4.3.4 (multiplication par une variable aléatoire bornée) : Soit
Z une variable aléatoire Fa-mesurable et bornée; alors pour tout proces-
sus X E A2, on a :

(4.22)

Démonstration : Le résultat est évident si X est un processus élémentaire.


Dans le cas général, soit X(n) une suite de processus élémentaires appro-
chant X au sens de (4.15). Alors le processus ZX(n) = (ZX}n))tE[a,b] est
130 Mouvement Brownien et calcul d'Itô

encore élémentaire et comme Z est bornée la suite zxCn) converge vers


Z X au sens de (4.15). Ainsi on a

1ba
ZXtdBt = lim 1b
n->oo a
ZX}n)dBt

=
n-+oo
1b
lim Z
a
X(n) dBt
t

= Z 1b XtdBt. D

Théorème 4.3.5 (égalité de deux intégrales sur un ensemble) : Soit A E F


et X, Y E A2, deux processus qui coïncident sur [a, b] x A (i.e. Xt(w) =
Yt( w) pour tout t E [a, b] et tout w E A). Alors :

(4.23) 1b XtdBt = 1b Yt,dBt IfD - presque sûrement sur A.

Démonstration : Dans la démonstration de la proposition 4.3.4 (voir le


théorème 4.5.1), on peut constater que si X(n) et y(n) sont les processus
élémentaires approchant respectivement X et Y, alors pour tout entier n,
on a
lb xin) dBt = 1b ~(n) dBt sur A.

Le résultat du théorème en découle en passant à la limite quand n ___. oo


puisque la convergence en probabilité implique la convergence presque
sûre pour une sous-suite. D

Théorème 4.3.6 (convergence des intégrales stochastiques): Soit (X(n)) E


A 2 une suite de processus (pas forcément élémentaires) et X E A 2 . On sup-
pose que limn_, 00 J:(Xt - X}n)) 2 dt = 0 en probabilité. Alors

J~~ 1b Xt(n) dBt = 1b XtdBt en probabilité.

Démonstration: il suffit d'appliquer l'inégalité de Tchebychev du lemme


4.3.1 6 au processus X(n) - X; alors l'inégalité (4.19) est vraie avec le
processus X(n) - X au lieu de X(n) - xCm) et on termine en utilisant la
même méthode que dans la preuve du Théorème 4.3.2. D
6 qui est valable pour tout processus X E A 2
Chapitre 4. Construction de l'intégrale stochastique 131

4.4 L'intégrale stochastique comme processus


4.4.1 La martingale intégrale stochastique
Dans toute cette partie on a besoin de supposer que le mouvement brow-
nien B = (n, :F, (:Ft)t~o, (Bt)t~o, lP') qui sert à définir les intégrales sto-
chastiques a une filtration complète 7 . L'intervalle d'intégration sera [O, T]
(T > 0). Pour un processus XE A2 ([0, T]), on considère les intégrales

(4.24) It =lot X dBs


8 (t E [O, T]).

t'
Il est clair que pour tous 0 :S t < t' :S T, on a It' - It = ft XsdBs.

Proposition 4.4.1 : Le processus I = Ut)tE[ü,T] est adapté à la filtration


(:Ft)tE[ü,T]·

Démonstration : Soit x(n) une suite de processus élémentaires approchant


X au sens de (4.15) et Iin) = J~ xin) dB 8 • Alors Iin) --+ It en probabilité
donc lP'-presque sûrement pour éventuellement une sous-suite. Comme les
Iin) sont des variables aléatoires Frmesurables par construction et que la
tribu :Ft est complète, It est donc aussi Frmesurable. D

Théorème 4.4.1 : Si X est un processus de M 2 , alors le processus I =


(It)tE[ü,T] est une martingale de carré intégrable, adaptée à la filtration
brownienne.

Démonstration : Soit 0 :S t < t + h :S T. Pour tout A E :Ft, d'après le


théorème 4.3.4, on a

car l'intégrale stochastique est une variable aléatoire centrée. La propriété


caractéristique de l'espérance conditionnelle implique JE( (It+h - It) l:Ft) =
0, d'où le résultat. D
7 i.e. pour tout t 2: 0, la tribu :Ft conti~nt les ensembles négligeables de :F.
132 Mouvement Brownien et calcul d'Itô

Théorème 4.4.2 : Si le processus X est dans A 2 , alors le processus I =


(It)tE[ü,T] a une version continue.

Démonstration : Supposons d'abord X E !vf 2 et soit xCn) une suite de


processus élémentaires de lvf 2 approchant X dans lvf 2 • Par construction
les processus J(n) = uin))tE[O,T] sont à trajectoires continues. D'après le
Théorème 4.4.1, pour tous m, n E N, J(n) - J(m) est donc une martingale
continue et par l'inégalité maximale (l.37)(appliquée à la sous-martingale
(I(n) - J(ml)2), pour tout E > 0, on a

(4.25) JP'( sup uin) - J}m))2 2: E2) :::; 12JE((I~t) - J~n))2)


tE[ü,T] E

= 121E {T (X~n) - X~m))2ds.


E lo
Mais le terme de droite de (4.25) tend vers zéro quand n, rn -+ oo. En
prenant E = 2-k (k E N), il existe donc une suite strictement croissante
d'entiers nk. telle que

IP'( sup IIt(nk) _ J(n1.:+1) 1 > 2 -k) < 2_


(4.26) t - - k2.
tE[O,T]

Le lemme de Borel-Cantelli montre alors que

(4.27) IP'( sup IIink) - 1}n1.:+i) 1 2: rkpour une infinité de k) =O.


tE[ü,T]

Pour IP'-presque tout w E D, on a donc

(4.28) sup 11tkl(w) - 1in"+ 1 l(w)I:::; rk,


tE[ü,T]

pour tout k assez grand. Grâce aux inégalités (4.28) on voit8 qu'on peut ap-
pliquer le critère de Cauchy uniforme et on en déduit que Iink) (w) conver-
ge uniformément sur [O, T] lorsque nk -+ oo. La limite qu'on note Jt(w),
est donc une fonction continue de t E [O, T]. Mais on a aussi Iink) -+ It
dans L 2 , ce qui exige lt = lt IP'-presque sûrement. On a donc montré que
8 par sommation sur l'indice k.
Chapitre 4. Construction de l'intégrale stochastique 133

J = (Jt) est une version continue de I et le théorème est entièrement


prouvé dans le cas X E M 2 .
étape 2(peut être omise en première lecture) : Soit X E A 2 . Pour tout
>. > 0, on pose

(4.29) 7A(w) ~{ inf{t E [O, T]; j~ X'l(w)ds ~ >.}


T si {t E [O, T]; f~ X'l(w)ds ~ >.} = (/J.

Il est facile de voir que T>. est un temps d'arrêt. Considérons le processus
"tué" après l'instant T>. :

(4.30)

Il est clair que X(>.) E A2 et que J?' (XY) ) dt :::; >..Donc X(>.) E M
2 2. Soit
alors Ji>.) une version continue de l'intégrale stochastique J~ xi>-) dBs qui
existe d'après l'étape 1 et considérons l'événement

n =
11 [1T Xfdt < v] (v > 0).

Si V < À, on a ni/ c nÀ et si de plus w E ni/, on a clairement xi 11 ) ( w) =


xY)(w) pourtoutt E [O,T] et donc Ji>.)(w) = J} 11 )(w) pour!P'-presque
tout w E n11 d'après le théorème 4.3.5. D'autre part comme X E A2 , on a
n11 / ' n JP>-p.s. quand V / ' OO. Il en résulte que pour JP>-presque tout W E n,
Jt(v) (w) est constant pour v assez grand. Ainsi la limite suivante existe

(4.31)

uniformément en t E [O, T]. La fonction t f-7 Jt(w) est donc continue. De


plus c'est une version de h En effet pour tout E > 0, on a

JP>( 1t (Xs - Xi 11 l) 2 ds ~ E) :::; JP>( (nv )c) ---7 0 (v ---7 OO).

Donc d'après le Théorème 4.3.6, pour tout t E [O, T], Ji 11 ) ---t It (v ---t oo)
en probabilité donc IP'-p.s. pour une sous-suite. Compte tenu de (4.31 ), on a
donc It = Jt IP'-p.s. D
Convention : A partir de maintenant, nous considérerons toujours que
It = J~ X 8 dB 8 est la version continue de l'intégrale stochastique.
134 Mouvement Brownien et calcul d'Itô

Corollaire 4.4.1 (théorème d'arrêt) : Soit X E M 2 ([0, T]) et T un temps


d'arrêt de la.filtration brownienne tel que T :ST. Alors le processus

(t E [O, T])

est une martingale.

Démonstration : Le résultat découle du théorème 1.4.1 O. D


Remarque et contre exemple: Si le processus X E A n'appartient
2

pas à M 2 , It = J~ X 8 dB 8 (t E [O, T]) n'est pas en général une mar-


tingale. Par exemple soit T > 1/2 et X = (Xt)tE[ü,T] le processus él-
émentaire Xt = exp(B~)l[~,T](t). Dans ce cas pour~ < t :S T, It =
B2 B2
e i1 2 (Bt - B 1; 2 ) n'est pas intégrable puisque JE(IItl) = lE(e i1 2 )lE(IBt -
B 1; 2 I) = +oo. Ceci nous conduit à introduire la notion de martingale lo-
cale qui joue un rôle important dans la théorie moderne du calcul stochas-
tique.

Définition 4.4.1 : Un processus réel (re~p. à valeurs dans C) M est une


Fi-martingale locale réelle (resp. complexe) s'il existe une suite croissante
(Tn)n>l de Ft-temps d'arrêt telle que
1) limn_, 00 Tn = +oo lP'-p.s.
2) Pour tout n, le processus (Nit/\TJt est une Fi-martingale équi-intég-
rable9.
La suite de temps d'arrêt (Tn)n>l est appelée suite localisante de NI.

Exemple et Remarque : Toute martingale continue M est une martingale


locale. En effet la définition est vérifiée en prenant pour Tn le temps d'en-
trée10 de NI dans l'ensemble fermé l:r:I 2': n. De la même manière, dans
la définition de martingale locale, on peut, si M est continue, remplacer
la condition 2) par la condition apparemment plus forte : Pour tout n, le
processus (Nit/\TJt est une Frmartingale bornée. Il suffit en effet de rem-
placer les temps d'arrêt Tn de la définition par Tn /\Tri où Tri est le temps
d'entrée dans l'ensemble lxl 2': n.

9 voir le théorème 1.4.9. Il suffit par exemple qu'elle soit bornée dans L 2 .
111 c'est un temps d'arrêt d'après la proposition 1.3.3.
Chapitre 4. Construction de l'intégrale stochastique 135

Théorème 4.4.3 : Si X E A2 , It = j~ X 8 dB 8 (t E [O, T]) est une mar-


tingale locale.
Pour la preuve on a besoin du lemme suivant

Lemme 4.4.1 (intégrale jusqu'à un temps d'arrêt) : Soit T un temps d 'ar-


rêt pour la filtration brownienne tel que T :s; T et soit X E A2 ([0, T]).
Alors le processus (Xtl[t< 7 J)tE[ü,T] appartient à A2 ([0, T]) et on a

(4.32) Jo
r XsdBs = Jo{T Xsl[s<T]dBs.
Démonstration : Ce résultat est intuitivement évident et peut être admis en
première lecture. Nous donnons une preuve complète dans l'annexe.
Démonstration du théorème : Posons

TAI) = inf { t E [O, T]; lot x;ds 2: n}


ainsi que

r.fi2) = inf { t E [O, T]; llo' XsdBsl 2: n}

(avec la convention que inf {0} = +oo) et Tn = Tr\1) /\ TA2 ). Alors Tn est
un temps d'arrêt et lim Tn = +oo IID-p.s. car pour tout w fixé les fonctions
t r--+ J~ X'}(w)ds et t r--+ J~ X 8 dB 8 (w) sont continues donc bornées sur
[O, T] et donc TAI)(w) = TA2 )(w) = +oo pour n assez grand. Or d'après le
lemme on a
ft/\Tn = lot l[s<-r.n]XsdBs,
qui est une martingale puisque le processus intégrand est dans Jvl 2 par dé-
finition de TAI) et cette martingale est bornée par définition de TA2 ). D
Remarque : Une martingale locale M telle que Nlt soit intégrable pour
tout t n'est pas forcément une martingale. On trouvera un contre-exemple
dans le livre de D. Revuz et M. Yor [51] (chapitre 5, p.194). Inversement
voici un résultat très simple qui donne une condition suffisante :

Proposition 4.4.2 : Une martingale locale l'vl dominée par une variable
aléatoireintégrable(i.e. tellequepourtoutt, IMtl :s; Y avec Y E LI(n,IID))
est une martingale.
136 Mouvement Brownien et calcul d'Itô

Démonstration : Pour tout t, on a Mt/\T.n --+ lvft IP'-p.s. donc dans L 1


d'après le théorème de convergence dominée. Ainsi pour tout 0 :S s :S t, en
utilisant la continuité de l'espérance contionnelle et en passant à la limite
dans L 1 quand n--+ oo dans la relation IE(Mt/\Tn IFs) = lvfsATn• on obtient
IE(MtlFs) =Ms. 0

4.4.2 Applications : Inégalités maximales pour le processus in-


tégrale stochastique
On examine dans ce paragraphe quelques conséquences très utiles dans
la pratique de la propriété de martingale de l'intégrale stochastique.

Théorème 4.4.4 (inégalité maximale simple) : Soit X un processus appar-


tenant à M 2 . Alors pour tout E > 0, on a

(4.33) IP'( sup 1 j ·t


XsdBsl 2:
1
E) :S 2IE( 1·T x;ds).
tE[ü,TJ 0 E 0

Démonstration: le processus Ut) de (4.24) est une martingale continue de


carré intégrable. Il suffit donc d'appliquer l'inégalité maximale (1.37). 0

Théorème 4.4.5 (inégalité maximale L 2 ) : Soit X un processus apparte-


nant à Jv1 2 . Alors

(4.34) IE( sup 1 /t XsdBsl 2) :S 4IE( f'T x;ds).


tE[ü,TJ lo lo
Démonstration: Il suffit d'appliquer le théorème 1.4.3). 0

Théorème 4.4.6 (inégalité de Tchebychev maximale): Soit X un proces-


sus appartenant à A2 • Pour tout E > 0 et tout À > 0, on a

(4.35) IP'( sup 1 j ·t


X 8 dBsl 2: E) :S 1P' (j·T Xfdt >À )+ À

tE[ü,T] 0 0 . E

Démonstration : Utilisons le processus tué X(>.. ) défini en (4.30) et pour


1·t
. It = Jort X 8 dB8 et It(>..) = 0 Xs(>..) dB8 • Il est clair. que
tout t E [0, T l soit
Chapitre 4. Construction de l'intégrale stochastique 137

s1. on a a' la f ois


. suptE[O,T] II(.\)
t 1 :::; E et suptE[O,T] 1It - It(.\) 1 = 0, alors
suptE[O,T] lltl :::; E. Donc
(4.36)
IP'( sup lltl > E) :S IP'( sup IIt - Jt(.\)I > 0) + IP'( sup IIi.\)I > E).
tE[O,T] tE[O,T] tE[O,T]

Comme X(.\) E M 2 , le théorème 4.4.4 montre que

(4.37)

Le résultat du théorème découle alors de (4.36) compte tenu de (4.37) et du


fait que
[suptE[ü,T] llt - I?)I > o]
C [Jci1' X{dt > D >.].
L'inégalité de Tchebychev maximale, permet d'obtenir un résultat très inté-
ressant de convergence uniforme des intégrales stochastiques lorsque les
processus intégrands convergent dans A2 :

Théorème 4.4.7 (convergence uniforme des intégrales stochastiques):


Soient X(n) (n E N) et X des processus appartenant à A2 . On suppose
que la suite (X(n)) converge vers X dans A 2 (i.e. Jci1' (Xin) - X 8 ) 2 ds _.!, 0
,n---+ oo). Alors

(4.38)

Démonstration : En appliquant l'inégalité de Tchebychev maximale au


processus X(n) - X, on obtient
(4.39)
IP'( sup
tE[O,T]
1 j (Xin)_Xs)dBsl 2'.: E) :S (j·T (Xin) - Xs) ds ) ,\
0
·t
1P'
0
2 >À +2.
E

Pour E > 0 fixé, on choisit À :::; E; . Alors puisque que pour n assez grand,
on a
IP' ( Jci1' (Xin) - X 8 ) 2 ds > À) : :; ~. le premier membre de (4.39) est infé-
rieur à E, ce qui prouve le résultat. D
138 Mouvement Brownien et calcul d'Itô

4.5 Annexe
4.5.1 Approximation d'un processus de A 2 par des processus
élémentaires
Définition 4.5.1 (Rappel) A2 ([a, b]) (resp . .l\J 2 ([a, b])) désigne la classe
des processus réels
X = (0, F, (Ft)a-S.t'S.b, (Xt)a'S.t'S_b, JP') qui sont
i) progressivement mesurables (ou non anticipatifs)
ii) tels que lP'(j: IXtl 2 dt < +oo) = 1 (resp. IE (J: IXtl dt) < +oo).
2

Théorème 4.5.1 : Soit XE A2 . Alors


i) il existe une suite (Y(n) )n de processus continus appartenant à A 2 tels
que

(4.40)

ii) il existe une suite (X(n))n de processus élémentaires tels que

(4.41) lim
n-;.oo
l
a
·b
IX~n) - Xtl 2 dt = 0 p.s.

Avant de commencer la démonstration, considérons la fonction de classe


coo
c e-1/(1-t2) S'l itl < 1
(4.42) p(t) = { 0
si ltl 2: 1,
où la constante c est telle que J~00 p(t)dt = 1. Alors la famille (Pe)oo
où Pe(x) = ~p(~), est une approximation de l'identité 11 de classe C00 et à
support compact. Le résultat suivant est bien connu mais nous le présentons
en détails pour éviter le recours à des références.

Lemme 4.5.1 : Soit f une fonction de L 1 ([a, b]) qu'on prolonge à IR en


posant f(t) = 0 si t tJ: [a, b]. Alors
11 0n dit aussi que (p,) 0 0 est une unité approchée ou famille régularisante suivant les

auteurs,
Chapitre 4. Construction de l'intégrale stochastique 139

i) pour tout c > 0, la fonction PE: * J(t) = J~00 Pe(t - s)f(s)ds est
uniformément continue sur IR.
ü) Si J E L 2 ([a, b]) alors lim Pe * J = J dans L 2 ([a, b])
g___,.Q

(i.e. J: IPe * J(t) - J(t)l2dt--+ 0 quand c--+ 0).

Démonstration du lemme : i) Soient x et h E IR on a

IPe * f (x + h)-Pe * f(x) 1


= 1 I: J(s)pe(x + h - s)ds - ;~: f(s)pe(x - s)dsl

= 1;~: f(s)(pe(x + h - s) - Pe(x - s))dsl

:SI: IJ(s)llPê(x + h - s) - Pe(x - s)lds


(4.43) :S I: IJ(s)lds
fih

où fih = sup IPê (y + h) - Pe (y) 1- Or Pe est continue et à support compact.


yEIR
En particulier pê est uniformément continue sur IR donc lim fih = 0 et la
h--+O
majoration (4.43) montre aussitôt que pê * f est continue en x.
ii) On va faire la preuve dans le cas où f est continue (on n'utilisera le
résultat d'ailleurs que dans ce cas). Grâce aux propriétés de Pe· en particu-
lier au fait que J~00 Pe( s )ds = 1, on a

lalb IPE: * f(t) - f(t)l 2 dt lba 11·00


= -oo Pe(t - s)J(s)ds - J(t) 12 dt
=lb 11~: Pe(t - s)(J(s) - f(t))dsl dt
2

l
= ab llt+e
t-e Pe(t - s)(J(s) - f(t))ds dt 12
:S l )2
dt (it+E:Pe(t - s)ds sup IJ(s) - J(t)1 2
b

a t-E: ls-tl<E
:S (b- a) sup lf(s) - J(t)1 2 --+ 0,
ls-tl<E
140 Mouvement Brownien et calcul d'Itô

quand E ___, 0 car la fonction f est uniformément continue sur [a, b].
Démonstration de la partie i) du théorème :
Soit Oo = {w E 0; J:
X{(w)dt < +oo }. On a IP'(Oo) = 1 par hypothèse.
Pour w E Oo, la fonction X.(w) : t t-t Xt(w) est dans L 2 ([a, b]) (et donc
dans L 1 ([a, b])). D'après le lemme 1.3, la fonction

Ps * X.(w): t t-t ;~: Ps(t - s)X8 (w)ds

est continue 12 . Définissons alors pour tout E > 0, un processus


z(s) = (Z}s))tE[a,bJ en posant

(4.44) zis)(w) = { (Ps *X0.(w))(t) si


si

Ce processus est à trajectoires continues et il est adapté (exercice) donc il


est progressivement mesurable d'après le théorème 1.1.1.

Lemme 4.5.2 : Pour tout E > 0, le processus z(s), défini par (4.44), est
dans la classe A2.

Démonstration du Lemme : Soit w E 0 0 ; on a

lalb [zis\w)] 2 dt =lalb dt (;·l p(v)Xt-rn(w)dv)2


-l

= 1b dt (j~ll p(v) 1/2p(v)1/2 Xt-rn (w )dv) .S 2


1 1
1b dt [ 1 p(v)dv [ 1 p(v)X'f-sv(w)dv (Cauchy-Schwarz)

.s j~1lp(v)(1b x'f-sv(w)dt)dv .s 1b x'f(w)dt < +oo.

Lemme 4.5.3 : lim lb IXt - zis) 12 dt = 0 p.s.


s-+O la
12 on a posé Xi = 0 si t ~ [a, b]).
Chapitre 4. Construction de l'intégrale stochastique 141

Démonstration du Lemme : Soit w E Oo et 8 > 0 donnés. Les fonctions


continues étant denses dans L 2 ([a, b]), il existe une fonction 't/J6 : [a, b] --+
b ? 6
IR, continue telle que fa IXt(w) - 't/J6(t)1-dt :S 12 . Alors on a

(on a utilisé l'inégalité

1b IPe * (X.(w) - 't/J6)(t)l 2 dt :S 1b IXt(w) - 't/J5(t)l 2 dt).


D'après le lemme 4.5.1 ii), la dernière intégrale ci-dessus peut être rendue
inférieure à 8/ 6 pour E: assez petit. Au total on a

dès que E: est assez petit; d'où le lemme. Le point i) du théorème en résulte
en posant

(4.45) yt(n) = z?ln).


Démonstration du ii) du Théorème : Pour simplifier les notations, on sup-
pose [a, b] = [O, 1]. On considère pour chaque entier n E N fixé, la suite des
processus élémentaires y(n,m) définis à partir du processus y(n) de (4.45)
par:
m-1
v(n,m) ~ v(n) ( )
L t = ~ L k/m l[k/m,(k+l)/m[ t .

k=O
Comme la fonction t f---7 yt(n) (w) est continue sur [a, b], on a
.
1llll "'{,r(n,m) (
Lt
) _ v(n) (
W-Lt W
)
m-++oo
142 Mouvement Brownien et calcul d'Itô

uniformément en t E [a, b]. Ainsi, pour tout w E n, on a:

Donc lim f 1 \Y/n,m) - ~(n) \2dt = 0 en probabilité, pour tout n fixé.


m~+oo}o
Soit maintenant o > 0 fixé. D'après (4.45) et le lemme 4.5.3,
J~ \Xt - ~(n) \2 dt .!:.+ O. Il existe donc un entier no = no( o) tel que

Pour cet entier n 0 , il existe un autre entier m 0 = m 0 ( o) tel que

Mais

i l \Xt - ~(no,mo) \2dt :S 2 i l \Xt - ~(no) \2dt


+ 2 i l \~(no) _ ~(no,mo) \2dt.

Donc J01 \Xt - ~(no,mo) \2 dt 2: oimplique qu'on a

Il en résulte que

En prenant o = 1 / k et en posant

X (k) _ "\.Ano(l/k),mo(l/k))
t - .L t '
Chapitre 4. Construction de l'intégrale stochastique 143

on obtient donc

La convergence en probabilité impliquant la convergence p.s. pour une sous


suite, il existe (kn)nEN telle que

Jofol IXt - xt(kn) 12dt -7 0 p.s. ( n +oo ),


---+

et le ii) du théorème est démontré. D


Remarque : Dans toute la démonstration, on a utilisé la propriété suivante
de la convergence en probabilité : une suite Xn converge vers 0 en proba-
bilité si et seulement si pour tout 6 > 0, il existe un entier n( 6) tel que

Vn?: n(6), JPl(IXnl ?: 6) :S 6.

4.5.2 Approximation d'un processus de Jvl 2 par des processus


élémentaires de carré intégrable
Théorème 4.5.2 : Pour tout processus X = (Xt)tE[a,b] E M 2, il existe
une suite x(n) de processus élémentaires dans E2 telle que

Démonstration : On va déduire ce résultat du théorème 4.5. l par une mé-


thode de troncature. Pour tout N > 0 fixé, considérons la fonction

x si lxl :S N
(4.46)
4>N(x) = { Îxl S'i lxl > N.
Il est clair que 4> N est lipschitzienne de constante de Lipschitz égale à l.
D'après le théorème 4.5.l, il existe une suite (Y(n)) de processus élém-
entaires telle que

lim
n->+oo
lb
a
IXt - l
-v,_(n) 2 dt = 0 p.s.
144 Mouvement Brownien et calcul d'Itô

On a alors

Un =1 6
l<f>N(Xt)-<f>N(Y/n))l 2 dt ':5:1b IXt-~(n)l 2 dt __, 0 (n--+ +oo),
presque sûrement. Mais la suite Un est bornée car 0 ':5: Un ':5: 4N 2 (b - a).
Le théorème de convergence dominée de Lebesgue donne alors

(4.47)

pour tout N > 0 fixé. D'autre part, on a

(L'inégalité (i) car l<f>N(Xt) - Xtl 2 = IXtl 2 1 :tl -


li ':5: 2IXtl 2 si
1

IXtl > Net l'égalité (ii) par le théorème de convergence dominée de Le-
besgue, puisque lim
N-++oo
l a
·b
l[[Xt[>NJ(w)IXt(w)l 2 dt = 0). Mais pour tout
w E f2 fixé, on a

(lb l<f>N(~(n)(w))- Xt(w)l2dt) 112 ':5:

(lb i<f>N(Xt(w)) - Xt(w)l 2 dt)


112

+ (1 l<f>N(~(n)(w))
b 1/2
- <f>N(Xt(w))l 2 dt)

(inégalité triangulaire pour la norme de L 2 ([a, b], dt)).


En élevant au carré, on obtient

lbl<f>N(~(n)) - Xtl 2 dt

(4.49) ':5: 2(1b i<f>N(~(n)) - <f>N(Xt)l 2 dt + 1b l<I>N(Xt) - Xtl 2 dt).


Chapitre 4. Construction de l'intégrale stochastique 145

En passant ensuite aux espérances dans l'inégalité (4.49), on voit facilement


à partir de (4.47) et (4.48) que pour tout entier k, il existe des entiers Net
n tels que

Pour ces entiers Net n, on pose xik) = <I> N(~(n)). La suite de processus
élémentaires (X(kl) ainsi définie, satisfait le théorème. D

4.5.3 Intégrale jusqu'à un temps d'arrêt : démonstration du


lemme 4.4.1
La formule (4.32) est claire si X est un processus élémentaire et si le
temps d'arrêt T prend ses valeurs dans un ensemble dénombrable. Lorsque
X E A2 ([0, T]), considérons une suite X(n) de processus élémentaires telle
que

(4.50) lim
n--+oo Jofr IXin) - Xt[ 2 dt = 0 en probabilité,

et (Tn)nEN une suite décroissante de temps d'arrêt prenant chacun un nombre


dénombrable de valeurs et telle que limn--+oo T n = T (voir le lemme 2.3.1 ).
Pour tout entier n on a

(4.51)

Mais, d'une part, on a

(4.52) en probabilité

puisque f0T Jl[t<Tn(w)]Xt(w) - l[t<T(w)]Xt(w)[ 2dt --+ 0 pour ?-presque


tout w et que clairement, J0T l[t<Tn] JXin) - Xt[ 2 dt--+ 0 en probabilité. Le
théorème 4.3.6 montre alors que

(4.53) en probabilité.
146 Mouvement Brownien et calcul d'Itô

D'autre part, d'après le théorème 4.4.7,

(n---+ oo),

ce qui implique

(4.54)

Mais

(4.55) (n---+oo)

car les trajectoires de l'intégrale stochastique sont continues. II résulte alors


de (4.54) que

(4.56) (n---+ oo).

D'où le résultat compte tenu de (4.51), (4.53) et (4.56). 0

4.5.4 Notes et exercices


Dans tous les exercices, B = (0, F, JPl, (Ft)t:::::o, (Bt)t:::::o) un mouve-
ment brownien naturel sur lR à trajectoires continues.
Exercice 1 : Considérons un processus X = (Xt)tE[ü,T] E M 2 ([0, T])
(ou plus généralement A2 ( [O, T])) et soient 0 ::; a < b < T.
1) Soit 0 :S c ::; a. Vérifier que

où B?) = Bt+c - Bt (indication : commencer par le cas où X est élém-


entaire).
2) Soit c > 0 tel que be::; T. Montrer que

i ·b
a
XsdBs =
1bc
ac
1
r:.XidBt ,
yC c
(c)
Chapitre 4. Construction de l'intégrale stochastique 147

où Bic) = JCB~ (on notera le facteur }c alors qu'avec l'intégrale clas-


sique on a le facteur ~ ).
Exercice 2: Soit X = (Xt)tE[ü,T] E M 2 ([0, T]). Montrer que le pro-
cessus suivant est une martingale

Exercice 3 (intégrales de Wiener-Itô): Soit f E L 2 ([O, T]) une fonction


déterministe. Pour tous 0::::::; a < b::::::; T, on pose:

lb
Ja,b = Ja J(s)dBs.

1) i) Dans le cas où la fonction f est en escalier sur l'intervalle [ü, T], mon-
trer que :la,b est une variable aléatoire n01male centrée dont on précisera la
variance.
ii) En déduire en toute généralité que Ja,b est une variable aléatoire nor-
male centrée de variance égale à J:
2) Soient 0 : : : ; a < b : : : ; c < d : : : ; T.
f 2 (s)ds.

Montrer que le couple de variables aléatoires (Ja,b, Jc,d) est gaussien et


que Ja,b et Jc,d sont des variables aléatoires indépendantes. (indication :
on pourra commencer par le cas où f est en escalier sur [ü, T]).
3) Pour t E [O, T], on pose Jt = Jo,t· Démontrer que le processus J =
(:lt)tE[ü,T] est gaussien et calculer sa fonction de covariance.
4) En déduire que le processus (:ft)tE[ü,T] est équivalent au mouvement
brownien changé de temps

(B J~ f2(s)ds) tE[ü,T] .
Exercice 4: Soit f E L 2 ([0, T]). Montrer que le processus défini pour
t E [ü, T] par

est une martingale (indication: utiliser l'exercice 3 et s'inspirer du cas f =


1 déjà traité dans un autre exercice).
148 Mouvement Brownien et calcul d'Itô

Exercice 5: On reprend les hypothèses de l'exercice 3.


l) On suppose que f est de la forme f (s) = ~ où cl> : IR+ ----r IR+ est
une fonction dérivable, strictement croissante et telle que cI>(O) = O. Véri-
fier dans ce cas que le processus gaussien J a une fonction de covariance
r(s, t) = cI>(s /\ t) où s /\ t = min(s, t).
2) Prouver que le processus BiJ! = (B[)t?.O défini par:

/cp-1 (t)
B{ = Jo ~dBs
est un mouvement brownien par rapport à sa filtration naturelle mais aussi
par rapport à la filtration (Fcp-l(t))t?.O· (Remarque (de M. Yor): En fait on
peut montrer que ces deux filtrations coïncident aux ensembles négligeables
près si (Fth>o est la filtration naturelle de B).
Exercice 6 (identification de L 2 (IR+) à l'espace gaussien engendré par
B): Soit g E L 2 (IR+)·
1) Montrer que la limite limt__, 00 J~ g(s)dBs existe dans L 2 (0, F, IP'). On
notera J0+00 g(s)dBs cette limite et on donnera son espérance et sa va-
riance.
2) Soit H c L 2 (0, F, IP') le sous-ensemble des variables aléatoires de
la forme Y9 = J0+00 g ( s) dB s où g E L 2 (IR+). Montrer que H est le
sous-espace fermé de L 2 (0, F, IP') engendré par les variables aléatoires Bt
(t E IR+) et que l'application g ~ Y9 est une isométrie de L 2 (IR+) sur H.
Cet espace s'appelle l'espace gaussien engendré par B.
Exercice 7 (variation quadratique d'une intégrale de Wiener) : Soit
f E L 2 ([0, T]) une fonction qui ne s'annule sur aucun sous intervalle de
[O, T] et soit J = (..lt)tE[ü,T] où .Jt = J~ f(s)dB 8 , le processus intégrale
stochastique considéré dans l'exercice 3.
Lorsque 7r : 0 = 'Uo < u 1 < · · · < 'UN = t, est une subdivision de [O, t], on
note 17rl =max{ Uk+l - uk; 0 :S k :S N - 1} le pas de cette subdivision et
on considère la variation quadratique de J sur 7r :
N-1
s'Tr = L:.: (:luk+l - :1uk) 2 .
k=O

1) (Question préliminaire) : Montrer que 'f:.~;;01 ( J:kk+ 1(J( s) )2 ds) 2 ----r 0


lorsque 17r 1----r O.
Chapitre 4. Construction de l'intégrale stochastique 149

2) Montrer que

lim s7r
111"1-->0
= j
0
·t
j 2 (s)ds (dans L 2 )

(on l'appelera variation quadratique de .J sur [O, t]) (indication : com-


mencer par calculer JE(S7r) et s'inspirer du cas du mouvement brownien).
3) En déduire que IP'-presque sûrement, les trajectoires du processus .J ne
sont à variation bornée sur aucun intervalle de temps.
Notes: Comme nous l'avons dit dans l'avant-propos, par souci de sim-
plicité, nous n'avons pas souhaité dépasser le cadre de l'intégrale stochas-
tique relative au mouvement brownien en abordant par exemple l'intégrale
par rapport à une martingale continue. Comme nous l'a fait remarquer Marc
Yor, cela présente certains inconvénients dans l'optique d'une généralisa-
tion ultérieure de la théorie. Par exemple nos processus élémentaires de la
définition 4.2. l sont dans la théorie générale des processus optionnels él-
émentaires. Dans le cas de la filtration brownienne ceci est sans importance
car les deux notions de prévisibles et optionnels coïncident mais ce n'est
plus vrai dans un cadre plus général où il convient donc de considérer des
processus élémentaires prévisibles. On pourra consulter à ce propos le livre
de Priouret [47] ou celui de Chung et Williams [11].
Les résultats de ce chapitre viennent de deux sources essentielles : les livres
de Baldi [2] et de McKean [41 ]. Plus particulièrement, les sections 4.3.2
(extension del' intégrale stochastique à la classe A 2 ), 4.4.2 (inégalités maxi-
males pour le processus intégrale stochastique), 4.5. l et 4.5.2 (approxima-
tion d'un processus de A 2 par des processus élémentaires) sont empruntées
à 1' excellent livre de Baldi.
Je voudrais faire une dernière remarque au sujet des notations !v1 2 et A 2
pour les deux classes essentielles de processus intégrands de la définition
4.3.l. On peut associer la lettre NI à "martingale" et la lettre A (i.e. L) à "lo-
cale" car l'intégrale stochastique d'un processus de M 2 est une martingale
(théorème 4.4. l) alors que l'intégrale stochastique d'un processus de A2
n'est qu'une martingale locale (théorème 4.4.3). Espérons que cette astuce
mnémotechnique contribuera à adoucir un peu l'accumulation des résultats
essentiellement techniques de ce chapitre.
150 Mouvement Brownien et calcul d'Itô
Chapitre 5

Notions sur le calcul


stochastique d'Itô

5.1 Introduction
La classe des processus d'Itô relative à un mouvement brownien donné,
est particulièrement intéressante pour une introduction aux idées du calcul
stochastique. C'est d'abord une classe stable pour les opérations de combi-
naison linéaire et de multiplication des processus ; autrement dit elle a une
structure d'algèbre. Cette classe est également stable par toute transforma-
tion déterministe de classe C 2 . Elle se prête donc parfaitement au calcul
et même à une sorte de calcul différentiel. De plus elle contient la classe
des martingales browniennes. Enfin elle est largement utilisée dans les ap-
plications en particulier dans les modèles probabilistes des mathématiques
financières.
Dès le début de ce chapitre nous introduisons la notion de différentielle
stochastique pour les processus d'Itô. En fait la définition de cet objet n'est
qu'un artifice de notation qui représente les processus intégrale usuelle et
intégrale stochastique. Néanmoins son utilisation a le grand avantage de
faciliter les calculs car il obéit à des règles simples analogues à celles du
calcul différentiel usuel modulo un terme correctif : le terme complémen-
taire d'Itô. Les règles de ce pseudo calcul différentiel stochastique sont
présentées de manière à la fois intuitive et suffisamment rigoureuse pour
permettre une première approche du sujet.

151
152 Mouvement Brownien et calcul d'Itô

Les deux résultats essentiels sont démontrés relativement en détail :


le premier concerne l'expression de la différentielle d'un produit de deux
processus d'Itô (résultat connu sous le nom de formule d'intégration par
parties) et le second est laformule d'Itô qui donne la différentielle stochas-
tique du transformé d'un processus d'Itô par une fonction de classe C 2 . Ces
résultats constituent le socle du calcul stochastique.
Comme application, nous présentons quelques exemples d'équations
différentielles stochastiques ainsi qu'un théorème d'existence et d'unicité
des solutions du type Cauchy-Lipschitz. On verra que ceci nous permet
de traiter, tout de suite et sans "grand investissement", quelques questions
fondamentales comme par exemple la représentation des martingales brow-
niennes ou le fait que la solution d'une équation différentielle stochastique
est toujours un processus de Markov dont on peut déterminer le semi-
groupe si on sait résoudre les équations de Kolmogorov.
Enfin nous introduisons la notion d'exponentielle stochastique à l'ori-
gine d'une des techniques actuelles les plus fructueuses : le changement de
probabilité que nous présentons brièvement. Comme application on trou-
vera en annexe la solution du fameux problème de Black, Scholes et Merton
sur la détermination du prix d'une option européenne.

5.2 Processus d'Itô et notion de différentielle stochas-


tique

Soit B = (0, F, (Ftk::o, (Bt)t"2_o, JlD) un mouvement brownien continu,


donné une fois pour toutes et T > 0 un temps fixé. On considérera, comme
au chapitre 4, les espaces de processus intégrands AP([ü, T]), p 2: 1 (i.e. les
processus X progressivement mesurables tels que JlD-p.s., t f--7 Xt(w) est
dans LP([O, T])), (resp. l'espace M 2 ([0, T])) relativement à l'intervalle de
temps [O, T] et on les notera AP (resp. M 2 ) pour simplifier les notations.

5.2.1 Notion de processus d'Itô

Définition 5.2.1 : Un processus X = (Xt)tE[ü,T] défini sur (0, F, JlD) et


adapté à la filtration (Ft)tE[ü,T]' est appelé processus d'Itô s'il est de la
Chapitre 5. Notions sur le calcul stochastique d'Itô 153

forme

(5.1) (Vt E [ü, T]),

où a E A 1 et b E A 2 sont deux processus.

Remarque 1 : On considérera toujours la version continue de l'inté-


grale stochastique. Ainsi le processus X défini en (5.1) est un processus
continu et par conséquent, X E AP pour tout p 2:: O.

Définition 5.2.2 : Pour traduire l'égalité (5.1 ), on dira que le processus X


admet la différentielle stochastique

(5.2)

Remarque 2 : On notera que (5.2) équivaut à dire que pour tous 0 :S


t1 < t2 :S T, on a

(5.3)

Il suffit en effet de faire la différence des valeurs prises par (5.1) pour les
valeurs t = t2 et t = t1.
Remarque 3 : On a privilégié l'intervalle de temps [ü, T] pour faci-
liter la présentation mais on peut définir la notion de processus d'Itô sur
n'importe quel intervalle de temps [c, d] (0 :S c < d). Ainsi un proces-
sus X= (Xt)tE[c,d] adapté à la filtration (Ft)tE[c,d]• est d'Itô, s'il est de la

j ·t a lt
forme
Xt =Xe+ c 8 ds + c b8 dBs (Vt E [c, d]),

où a E A 1 ( [c, d]) et b E A2 ( [c, d]) sont deux processus.


Il est évident que si X est un processus d'Itô sur un intervalle de temps I,
sa restriction X = (Xt)tEI' à un sous-intervalle I' C I, est un processus
d'Itô sur J'.
Exemple 1 : On a vu au chapitre 3 que J~ B 8 dB 8 = ~(Bz - t) i.e.
B[ = t + 2 J~ B 8 dB 8 , qu'on peut récrire la sous forme différentielle:

(5.4) d(Bz) =dt+ 2BtdBt.


154 Mouvement Brownien et calcul d'Itô

On remarque que par rapport à la règle de différentiation classique, il y a le


terme supplémentaire dt.
Exemple 2 : On va montrer que (tBt)tE[ü,T] est un processus d'Itô et
que sa diftërentielle stochastique est donnée par :

(5.5)

Ici le résultat de la différentiation est le même que dans le cas classique.


Pour démontrer (5.5), on utilise l'intégrale stochastique J~ sdB8 qui d'après
le théorème 4.3.3 vaut :
t n-l

lor sdBs = lim L tn;i(Btn


n--->OO i=Ü ,
i+l - Btn J
,
(en probabilité),

où 7rn : 0 = tn,O < tn,l < · · · < tn;i < · · · < tn,n = test une subdi-
vision à points équidistants de pas ~. Mais on peut remplacer la somme
I:~:a1 tn,i(Btn,i+l - Btn,J par la somme 2:::~01 tn,i+l (Btn,i+l - Btn,J
puisque la valeur absolue de la différence de ses deux sommes est majo-
rée, d'après l'inégalité de Cauchy-Schwarz, par:

n-1 ) 1/2 (n-1 ) 1/2


( L ltn,i+l - tn,il
2
L IBtn,i+1 - Bt,,,il
2 _ t 1/2 L 2
- VnS7rn __, 0,
i=O 't=O

car la variation quadratique s7rn du brownien relativement à la subdivision


7rn tend vers t dans L 2 quand n---+ oo. Donc on a:

·t n-1
(5.6) jO
sdB8 = n__,.oo
lim ""tni+1(Bt
~ ,
i=O
,+
n,i 1
- Bt n,i ) (en probabilité).

Mais on a aussi
·t n-1
(5.7) / B 8 ds = lim ""Bt (tn i+l - tn i) (en probabilité).
lrO n~OO~
'i=O
n,L ' l

En sommant les deux relations (5.6) et (5.7), on obtient

car la somme est télescopique. La relation (5.5) en résulte. D


Chapitre 5. Notions sur Je calcul stochastique d'Itô 155

5.2.2 Différentielle stochastique d'un produit ou


formule d'intégration par parties
Théorème 5.2.1 (première formule d'Itô) : Soient X et Y deux processus
d'Itô sur [ü, T] de différentielle stochastique

dXt = a~ 1 l dt+ bpl dBt


(5.8) {
dyt = a~ 2 l dt+ bFl dBt.

Alors le processus XY = (XtYt)tE[ü,T] est un processus d'Itô dont la dif-


férentielle stochastique est donnée par

(5.9)

Le terme supplémentaire b~ 1 ) b~ 2 ) dt (par rapport à la règle de différentiation


classique) s'appelle le terme d'Itô.

Démonstration:
étape 1 : Si les processus a(i) et b(i) (i = 1, 2) ne dépendent pas du temps,
on vérifie immédiatement (exercice) que le résultat est une conséquence des
deux formules (5.4) et (5.5) obtenues dans les exemples 1 et 2 ci-dessus.
étape 2 : Si les a(i) et b(i) (i = 1, 2) sont des processus élémentaires, consi-
dérons une subdivision (tj) de [O, T] commune à ces quatre processus.
Sur tout sous-intervalle [tj, tj+ 1], ces processus sont des constantes en t
et d'après l'étape 1, on a

Xti+ 1 yti+ 1 -
-1tj+1
XtJ ytJ - XtdYt +
1·tj+l
ytdXt +
1·tj+1 (1) (2)
bt bt dt.
0 0 0
En sommant sur j toutes ces relations, on obtient immédiatement le résultat
dans ce cas.
étape 3 : Soient (a(i,n))n::::o et (b(i,n))n::::o (i = 1, 2) des suites de processus
élémentaires telles que

lim {T la~i,n) - a~i) ldt = 0 p.s.


n-+oo Jo
et
lim {T lb~i,n) - b~i) ldt = 0 p.s.
n-+oo Jo
156 Mouvement Brownien et calcul d'Itô

(de telles suites existent d'après le théorème 4.5.l). Définissons alors pour
tout entier n, des processus X(n) et y(n) sur [O, T] par:

X(n)
t
=X0 + j ·t a(i,n)ds + 1t b(l,n)dB
0
s
0
s s,

et
Y/n) = Yo + l t aF,n)ds + l t b~2 ,n)dB5 •
Alors en utilisant le théorème 4.4.7 1 on obtient

lim sup IX~n) - Xtl = 0,


n-+oo 0'.5,t'.5,T

et
lim sup l~(n) - Ytl = 0,
n-+oo 0'.5,t'.5,T
en probabilité. D'où en passant éventuellement à une sous-suite, on a

(5.10) (resp. lim ~(n)(w) = yt(w)),


n--+oo

uniformément en t E [O, T] et pour J!D-presque tout w E O. Or d'après


l'étape 2, pour chaque entier n, on a

Xt(n)~(n) = x6n)yo(n) + l t xinl(a~2,n)ds + b~2,n)dBs)

+ l t ys(n)(ap'n)ds + bp,n)dBs)

+ l t bp,n)b~2,n)ds.
En faisant tendre n vers l'infini, on peut montrer grâce à (5. l 0) que les cinq
intégrales ci-dessus convergent vers les intégrales des processus correspon-
dant sans l'indice n. Le résultat du théorème en découle aussitôt. D
Remarque : Le résultat (5.8) est la formule d'intégration par parties
stochastique. Elle signifie que pour tous 0 :::::; t 1 :::::; t2 :::::; T, on a

1sur la convergence uniforme (en probabilité) des intégrales stochastiques


Chapitre 5. Notions sur Je calcul stochastique d'Itô 157

Lorsque X ou Y sont des fonctions déterministes (i.e. b~ 1 ) =0 ou bF) =0),


c'est la formule d'intégration par parties classique.
Discussion heuristique du résultat du théorème 5.2.1 :
Considérons l'accroissement ~Xt = Xt+.6.t - Xt d'un processus d'Itô X
entre les instants t et t + ~t. La différentielle de X est la quantité fictive
dX 8 susceptible d'être intégrée et telle que:
rt+.6.t
~Xt = }t dX8 ,

(cette égalité étant en fait la définition de la différentielle). Soit alors Y un


autre processus d'Itô. L'accroissement du processus XY = (XtYt)tE[ü,T]
entre les instants t et t + ~t est égal à

~(XY)t = Xt+.6.trt+.6.t - XtYt


= (Xt + ~Xt)(yt + ~yt) - XtYt
= Xt~Yt + yt~Xt + ~Xt~Yt.

Si on remplace l'accroissement par la différentielle et si on assimile


~Xt~Yt à dXtdYf, en utilisant (5.8), on obtient :
(5.11)
dXtdYt = aF)aF)(dt) 2 + (aF)b~ 2 ) + aF)bF))dtdBt + bF)bF)(dBt) 2 .
Dans l'expression (5.11 ), on peut rejeter les quantités a~ 1 ) a~ 2 ) ( dt) 2 et
(aF)b~ 2 ) + aF)bF))dtdBt comme étant des infiniments petits d'ordre sup-
érieur aux infiniments petits dt et dBt. Mais la quantité b?)b~ 2 )(dBt) 2 ne
doit pas être considérée comme un infiniment petit d'ordre supérieur car
(~Bt) 2 = (Bt+.6.t - Bt) 2 , et pour tout accroissement ~t > 0, on sait que

Bt+'Jit Bt ~ N(O, 1).


~t

done --zs:;:- .!:_ (N(O , 1))2 , d' ou


(.6.Bt)2 - ' JE ( --zs:;:- - 1, 1.e.
(.6.Bt)2) - . JE(( u"Bt )2) -- ut.
A

Ceci justifie heuristiquement qu'on doit considérer que


(5.12) (dBt) 2 =dt.
Ainsi l'expression (5.11) se réduit à

(5.13)
158 Mouvement Brownien et calcul d'Itô

et on a donc d((XY)t) = XtdYt + YtdXt + dXtdYt = XtdYt + YtdXt +


bp) b~ 2 ) dt. C est la formule du Théorème 5.2.1.

5.3 La formule d'Itô


La propriété remarquable d'un processus d'Itô, c'est qu'il reste un pro-
cessus d'Itô lorsqu'on le transforme par une application déterministe suffi-
samment "lisse". Plus précisément, on a le résultat suivant

Théorème 5.3.1 (formule d'Itô): Soit X un processus d'Itô sur l'intervalle


[ü, T], de différentielle stochastique

Soit f: (x, t) ~ f(x, t), une fonction de 2 C 2 , 1 (1R x IR+). Alors:


(f(Xt, t))tE[ü,T]' est un processus d'Itô qui a pour différentielle stochas-
tique:
(5.14)
âf âf 182 !
d(f(Xt, t)) = Dt (Xt, t)dt + üx (Xt, t)dXt + 2 âx 2 (Xt, t)(bt) 2 dt.

Le terme 1~:-~ (Xt, t)(bt)2dt s'appelle le terme complémentaire d'Itô.


5.3.1 Motivation heuristique à la formule d'Itô
Considérons une fonction f d'une variable réelle x, suffisamment dif-
férentiable. Le processus Xt = f (Bt), transformé déterministe du mou-
vement brownien B, admet-il une différentielle stochastique? Pour un ac-
croissement L:::.t de la variable t, on a grâce à la formule de Taylor :

L:::.Xt = f (Bt+~t) - f (Bt)


= f(Bt + L:::.Bt) - f(Bt)

= J'(Bt)L:::.Bt + ~2 J"(Bt)(L:::.Bt) 2 + · · ·
2 i.e. de classe C 2 en la variable x et de classe C 1 en la variable t.
Chapitre 5. Notions sur Je calcul stochastique d'Itô 159

Si on fait tendre b..t vers zéro, on obtient la relation différentielle

d (f(Bt)) = j'(Bt)dBt + ~J"(Bt)(dBt) 2 + ···


Si t r------+ Bt était à variation bornée, seul le premier terme f' (Bt)dBt
contribuerait à l'intégrale entre t1 et t2 pour obtenir l'accroissement f (Bt 1 ) -
J(Bt2 ). Mais ici ce n'est pas le cas et compte tenu de ce qu'on a vu en
(5.12), on doit s'attendre à une contribution du deuxième terme, c'est à
dire:
d(f(Bt)) = j'(Bt)dBt + ~J"(Bt)dt.
C'est ce que précise de manière plus générale le théorème 5.3.1. Mais avant
de démontrer ce résultat, voyons comment retrouver heuristiquement la for-
mule (5.14). On écrit la formule de Taylor à l'ordre deux pour la fonction
f:

Les termes qui contiennent dXtdt et (dt) 2 doivent être négligés et d'après
ce qu'on a vu en (5.13), (dXt) 2 = (bt) 2 dt. Des termes d'ordre deux dans le
développement de Taylor, on ne retient donc que le terme complémentaire
d'Itô:

5.3.2 Démonstration de la formule d'Itô


Venons en maintenant à la démonstration du théorème 5.3.1.
étape 1 : Supposons f(x, t) = xn. On doit montrer que

(5.15)

La formule est claire sin= 1 et on a vu au théorème 5.2.1 qu'elle est vraie


si n = 2. On procède alors par récurrence en appliquant le théorème 5.2.1
avec Xt f-7 (Xtr- 1 et yt f-7 Xt.
160 Mouvement Brownien et calcul d'Itô

étape 2 : On déduit immédiatement de l'étape 1 que le théorème est vrai


lorsque f(x) = P(x) est un polynôme en la variable x seule. Supposons
que f(x, t) = P(x)g(t) où Pest un polynôme et g une fonction de la va-
riable t. compte tenu du fait que dg(t) = g'(t)dt, en appliquant le théorème
5.2.l aux deux processus (P(Xt))tE[O,T] et (g(t))tE[O,T]• on obtient encore
le résultat (5.14) dans ce cas.
étape 3: Pour le cas général, on utilise le lemme d'approximation suivant:

Lemme 5.3.1 : Si f E C 211 (IR X IR+), il existe une suite Un) de polynômes
en les variables ( x, t) telle que

Ôfn Ôf
fn(x, t) ---t f(x, t), Dx (x, t) ---7 ax (x, t)
Ofn ôf D2 fn 82 f
~(x, t) ---t ~(x, t), ~(x, t) ---t ô (x, t),
ut ut ux- x-9
quand n ---t oo, uniformément en (x, t) sur tout compact de IR x IR+.

Démonstration : Le résultat est admis. Pour la preuve voir [21].


Fin de la démonstration du théorème: On écrit la formule d'Itô pour
les processus f"n(Xt, t) et grâce au lemme 5.3.1, on peut passer à la limite
terme à terme dans l'égalité

ce qui donne le résultat. On notera quand même qu'on doit utiliser le


théorème 4.3.6 pour assurer qu'on a la convergence:

D
Remarque importante : Le théorème 5.3.1 montre que les deux pro-
cessus f(Xt, t) - f(Xo, 0) et
Yt ·-
.- Jort (a.r
iJt (Xs, S) + !li éi2.f (X , s) (bs) 2) ds
iJx (Xs, s )as + 2i iJx 2 8
Chapitre 5. Notions sur Je calcul stochastique d'Itô 161

+ J~ ~(X8 , s)b8 dB 8 , sont une version l'un de l'autre. Comme de plus ils
sont continus, ils sont indiscernables d'après la proposition 1.1.2.
On peut généraliser le théorème 5.3. l à un nombre fini quelconque de
processus d'Itô. Précisément, on a le résultat suivant que nous donnons sans
démonstration :

Théorème 5.3.2 : Soient X(il, i = 1, ... , rn, des processus d'Itô de dif-
férentielles respectives

et soit f E C 2 , 1 (JR.m x lR+) une fonction à valeurs réelles. Si on pose


Xt = (Xi1), ... , xim)), le processus (f(Xt, t))tE[ü,TJ est d'Itô et il a une
différentielle stochastique donnée par:

DJ ~ 8f
d(j(Xt, t)) = -a
t
(Xt, t)dt+ L,, -a•. (Xt, t)dXt(i)
Xi
i=l

(5.16)

Le terme complémentaire d'Itô est ici égal à:

Remarque : Il est souvent commode, comme nous le verrons au paragraphe


5.5.4, de considérer des processus à valeurs complexe. Soit Z = ( Zt)tE[ü,T]
un processus à valeurs dans CC dont les parties réelle et imaginaire sont des
processus d'Itô réels relatifs au même mouvement brownien B. Si Zt =
Xt + iyt avec X et Y des processus d'Itô réels tels que dXt = a~X) dt +
b~X) dBt et dyt = a~Y) dt + b~Y) dBt, on a

(5.17) dZt = dXt + ·idyt = a~Z) dt + b~Z) dBt

avec a~Z) = a~X) + ia~Y) et b~Z) = b~X) + ib~Y). On a alors le résultat


suivant
162 Mouvement Brownien et calcul d'Itô

Corollaire 5.3.1 (formule d'Itô holomorphe) : Soit f : CC ---+ CC une fonc-


tion holomorphe et Z un processus complexe de différentielle stochastique
donnée par (5.17). Alors le processus (f (Zt) )tE[ü,T] est un processus com-
plexe de différentielle stochastique donnée par

(5.18)

Démonstration: Posons pour x, y E lR, z = x + iy et f(z) = P(x, y)+


iQ( x, y) où P et Q sont respectivement les parties réelle et imaginaire de f.
Il suffit alors d'appliquer le théorème 5.3.2 aux processus réels P(Xt, Yt)
et Q(Xt, Yt) pour obtenir le résultat, compte tenu des formules de Cauchy:
j .'(-) _ aP .aQ _ ,.(aP .aQ) !"( ) _ a2p ,.a 2 Q _ (a2p
"' - üx + i Ox - - i Üy + i Üy et z - ü"2x + i a2x - - a2y +
a2Q
ia2y). D
Exercices:
l) A l'aide de la formule d'Itô appliquée avec la fonction f(x, t) x2
(resp. x ), retrouver la formule d(Bl) =dt+ 2BtdBt.
3

(resp. montrer qu'on a d(Bf) = 3Btdt + 3B[dBt)-


3) Montrer que le processus Xt := exp(Bt - ~)est d'Itô et vérifie l'équa-
tion

(5.19)

(il suffit d'appliquer la formule d'Itô avec la fonction f (x, t) = exe-t1 2 ).


L'équation (5.19) est un exemple d'équation différentielle stochastique.
Nous allons présenter cette notion dans le paragraphe suivant.

5.4 Equations différentielles stochastiques


Définition 5.4.1 : Soit 0 :S: a < b. On appelle équation différentielle sto-
chastique (EDS en abrégé) sur [a, b], avec donnée initiale Ça, toute relation
de la forme:

(5.20) { dXt = Œ(Xt, t)dBt + µ(Xt, t)dt


Xa = Ça,
où X est un processus d'Itô sur [a, b] (appelé l'inconnue), Ça une variable
aléatoire donnée, Fa-mesurable et Œ(x, t) et µ(x, t) sont deux fonctions
Chapitre 5. Notions sur le calcul stochastique d'Itô 163

données, mesurables définies sur IR x [a, b] et à valeurs réelles. Résoudre


l'EDS (5.20) c'est trouver un processus d'Itô X sur l'intervalle [a, b] tel
que

(5.21) Xt = 1t
-Ea + a O"(X 8,
tt
s)dBs +la µ(X 8 , s)ds, ('it E [a, b]).

Remarque : Comme pour les équations différentielles, une EDS n'a pas
forcément une solution. Même si une solution existe, on ne pourra pas,
en général, l'exprimer simplement à l'aide du mouvement brownien (Bt).
On va néanmoins donner un résultat d'existence et d'unicité dans un cas
intéressant qui ressemble en tout point au théorème de Cauchy-Lipschitz
pour les équations différentielles ordinaires.

5.4.1 Un théorème d'existence et d'unicité pour les EDS


Théorème 5.4.1 : On suppose que les fonctions t 1---7 O"(O, t) et t 1---7 µ(O, t)
sont bornées sur [a, b] et qu'il existe une constante C > 0 telle que pour
tous x, y E IR et tout t E [a, b], on ait

(5.22) IO"(x, t) - O"(y, t)i ~ Clx - yi, iµ(x, t) - µ(y, t)i ~ Clx - YI
i.e. les fonctions O" et µ sont lipschitziennes en la variable x, uniformément
en t E [a, b]. On suppose aussi que la donnée initiale Ça a un moment
d'ordre deux.
Alors il existe une solution X = (Xt)tE[a,b] E lv1 2 de (5.20) et une seule à
indiscernabilité près (i.e. si X(l) et X( 2 ) sont deux solutions de (5.20) dans
M 2, alors IP(XJ1) = x?), 'it E [a, b]) = l).
Pour la démonstration, on aura besoin d'un résultat classique sur la crois-
sance des fonctions lipschitziennes :

Lemme 5.4.1 : Sous les hypothèses du théorème, il existe une constante


K > 0 telle que pour tout x E IR et tout t E [ü, T], on a :

(5.23) IO"(x, t)i ~ K(l + lxl), lµ(x, t)i ~ K(l + lxl).


Démonstration: L'hypothèse (5.22) implique IO"(x, t)i ~ 10"(0, t)I + Cj2:i
et le résultat du lemme en découle puisque la fonction t 1---7 O"(Ü, t) est
164 Mouvement Brownien et calcul d'Itô

bornée. Le même argument vaut aussi pour la fonction µ. 0


Démonstration du théorème 5.4.1 : On va supposer que [a, b] [O, T]
pour simplifier un peu les notations. On introduit aussi une nouvelle norme
sur l'espace M 2 ([0, T]): pour un processus XE M 2 , on pose

(5.24)

où À > 0 est un nombre qui sera précisé par la suite. Il est clair qu'avec cette
norme 11-1 i>,, .NI 2 est toujours un espace de Hilbert3 et que les deux normes
11-1 i>. et l l-l IM2 sont équivalentes. Si on peut démontrer que l'application
w : X f-+ w(X) définie sur .NI2 par:

/'t lt
(5.25) w(X)t = Xo + Jo µ(Xs, s)ds + Jo o-(Xs, s)dBs (t E [O, T]),

est à valeurs dans M 2 et qu'elle est strictement contractante, le théorème du


point fixe de Picard, nous assurera alors qu'il existe un élément X E .NI 2
unique, tel que X = w(X), d'où le résultat du théorème 5.4.1. Pour cela il
suffit de montrer que les applications wi : X f-+ wi(X) ('i = 1, 2), définies
sur M 2 par

(5.26) '111(X)t = lt µ(X,,, s)ds (t E [ü, T]),

et

(5.27) (t E [O, T]),

sont à valeurs dans .NI2 et sont des contractions de constantes respectives


o 1 et 02 telles que 0 < o 1 + 02 < 1. On va donc décomposer l'argument
en deux étapes :

i) Le lemme 5.4. l et l'inégalité de Cauchy-Schwarz permettent de voir


facilement que si XE M 2 , alors w1 (X) E .NI 2 . D'autre part, pour X, Y E

3 car c'est la norme de L 2 (Q x [O, '1'], dll" 0 e->.tdt)


Chapitre 5. Notions sur Je calcul stochastique d'Itô 165

M 2 , et grâce à la condition (5.22), on a aussi

ii) De même, on montre que IJ!2(X) E M 2 • Puis en intervertissant les


signes espérance et intégrale et en utilisant l'expression du moment d'ordre
deux d'une intégrale stochastique, pour X, Y E 1\11 2 , on a

ll1J12(X) - W2(Y)ll~ =JE (laT e-Àt( lat (a(Xs, s) - 2


a(Y8 , s))dBs) dt)

~ 1T e-MIE ( [[(<>(X., s) - <>(Y;, s))dB, ]')dt

= laT e-ÀtJE (lat (a(X 8 , s) - a(Ys, s)) 2 ds) dt

=JE (laT e-.X.t lat (a(X 8 ,


2
s) - a(Ys, s)) dsdt)

En procédant alors exactement comme en i), on obtient également :

n suffit donc de choisir la constante >. telle que c 2 ( vr + 1) 2 < >. pour que
l'application w soit strictement contractante. D'où l'existence et l'unicité
de la solution de (5.20) dans l'espace 1\11 2 ([0, T]).
Enfin, pour montrer l'unicité à indiscemabilité près, considérons deux pro-
cessus X(l) et X( 2 ) satisfaisant (5.20). On vient de voir que lIX(l) -
166 Mouvement Brownien et calcul d'Itô

X( 2 ) lIM2 = O. Or on a

(5.28)
2
sup IX;1)-xi2)1 2 :S2 sup 11·t(µ(Xi 1 ),s)-µ(Xi 2 ),s))dsl
O~t~T 09~T 0

2
+2 sup 11·t(o-(Xi 1 ),s)-o-(Xi 2 ),s))dB8 1
O~t~T 0

Mais en utilisant la condition (5.22) et l'inégalité de Cauchy-Schwarz pour


majorer le premier sup du membre de droite de (5.28) puis en passant à
l'espérance et en utilisant l'inégalité maximale L 2 (4.34) pour le deuxième
sup, on obtient

·T
:S2(C 2 T + 4C 2 ) fo JE [(xi 1) - xi 2 )) 2 ] ds

= 2C 2 (T + 4)llX(l) - X( 2 lll11 2 =O.


Ce qui implique aussitôt

lP' ( sup 1xf1l -


O~t~T
x?) 12 = o) = 1,

i.e. et X( 2 ) sont indiscernables.


X(l) 0
Remarque importante : La solution de (5.20) s'obtient donc par la
méthode des approximations successives, c'est-à-dire partant d'un proces-
sus X(o) = (Xi 0 ))tE[a,b] quelconque de M 2 = .ll!f 2 ([a, b]) (par exemple
X(O) = 0), la suite x(n) = (xin))tE[a,b] telle que x(n+l) = w(x(n)) i.e.
(5.30)

converge vers la solution X dans M 2 . Mais avec la même méthode utilisée


pour les inégalités (5.28) et (5.29), on obtient

(5.31) JE ( sup IXin) - Xtl 2 ) :S 2C 2 (b + 4)llX(n) - Xll112


a9~b
Chapitre 5. Notions sur Je calcul stochastique d'Itô 167

et cette dernière expression tend vers 0 quand n ____. oo. Grâce à l'inégalité
de Bienaymé-Tchebychev, on en déduit le résultat suivant

Corollaire 5.4.1 : La suite xCn) des approximations successives de la so-


lution X de l'EDS (5.20) converge uniformément vers X en probabilité
i.e.

VE> 0, lim lP ( sup


n->oo a-5,t-5,b
IXin) - Xtl >E) =O.

Le théorème d'existence et d'unicité est encore vrai lorsqu'on affaiblit les


conditions de Lipschitz (5.22) en demandant seulement que les fonctions
µ et Œ soient localement lipschitziennes en la variable x (mais toujours
uniformément en t). Plus précisément on a le résultat suivant (admis)

Théorème 5.4.2 : Avec les notations de 5.4.1, on suppose que les fonctions
(x, t) ~ Œ(x, t) et (x, t) ~ µ(x, t) sont mesurables et telles que
1) il existe une constante K > 0 telle que pour tout t E [a, b] et tout x E R

lµ(x, t)I :S K(l + lxl), IŒ(x, t)I :S K(l + 12:1),


2) pour tout n > 0, il existe une constante Cn > 0 telle que pour tous
lxl :S n, IYI :S net t E [a, b], on ait

IŒ(x, t) - Œ(y, t)I :S Cnlx - YI, lµ(x, t) - µ(y, t)I :S Cnlx - YI·

Si la donnée initiale Ça a un moment d'ordre deux, alors il existe une solu-


tion X= (Xt)tE[a,b] E M 2 de (5.20) et une seule à indiscernabilité près.

Remarque : La solution X de (5.20) du théorème 5.4.1 (ou du théorème


5.4.2) est construite dans l'espace filtré du mouvement brownien B consi-
déré au départ. Dans les ouvrages qui traitent des EDS, une telle solution est
appelée "solution forte". En fait dans des conditions plus générales où les
conditions de Lipschitz ne sont pas satisfaites, les EDS peuvent avoir des
solutions dans un autre espace filtré et on parle alors de "solution faible".
Nous n'étudierons pas cette question ici.
Par contre voici une précision technique importante pour la suite concernant
le processus X = (Xt)tE[a,b] solution de l'EDS (5.20) :
168 Mouvement Brownien et calcul d'Itô

Proposition 5.4.1 : Si la condition initiale de l'EDS est une constante P-


p.s. (i.e. Ça = x E lR, P- p.s.), alors pour tout t E [a, b], Xt est mesurable
par rapport à la tribu CJ(Bs+a - Ba, 0 :S s :S t - a) engendrée par
les accroissements du brownien à partir de l'instant a. Ainsi le processus
X= (Xt)tE[a,b] est indépendant de la tribu CJ(Bu, u :Sa).
Démonstration : Il suffit de démontrer que le résultat est vrai pour les
processus xCn) (5.30) qui convergent vers X. Si on prend X(o) = x, on a

x?l
tt tt
=X+ la µ(x, s)ds +la CJ(x, s)dBs,

qui est bien CJ(Bs+a - Ba, 0 :S s :S t - a)-mesurable par définition de


l'intégrale stochastique. On procède alors de même par récurrence sur n.D

5.4.2 Signification heuristique d'une EDS


Quand un processus d'Itô satisfait une EDS (5.20), cela signifie que
l'accroissement b.Xt = Xt+llt - Xt du processus entre les instants t et
t + b.t est approximativement donné par

(5.32)

Etant donné l'état Xt du processus à l'instant t, l'accroissement se com-


pose d'une partie µ(Xt, t)b.t proportionnelle à b.t de coefficient instantané
µ(Xt, t) (appelé dérive-!) et d'un accroissement aléatoire Cl(Xt, t)b.Bt pro-
portionnel à b.Bt et de loi normale centrée de variance CJ 2 (Xt, t)b.t (on
appelle CJ 2 (Xt, t) le coefficient de diffusion). Au total l'accroissement suit
une loi normale de moyenne µ(Xt, t)b.t et de variance CJ 2 (Xt, t)b.t.
Les considérations précédentes fournissent le principe d'une méthode qui
pourrait permettre de simuler une trajectoire approchée du processus solu-
tion de l'EDS (5.20), à condition de savoir simuler une suite de variables
aléatoires indépendantes de loi N (0, 1). Cette méthode, directement inspi-
rée de la méthode d'Euler de résolution approchée d'une équation différ-
entielle y'= f(t, y), consiste à se donner une subdivision

a = to < t1 < · · · < tk < tk+l < · · · < tn = b


•ou drift en anglais.
Chapitre 5. Notions sur le calcul stochastique d'Itô 169

de l'intervalle [a, b], avec ti+ 1 - ti = b..t. Partant de la donnée initiale ~a


(qu'on doit simuler si elle est aléatoire), on calcule une suite de valeurs x(k)
(valeurs approchées de Xtk) par récurrence, en posant:

x(k+l) = x(k) + o-(x(k), tk).jl;J,Nk + µ(x(k), tk)b..t


{
tk+l = tk + b..t,

où Nk est une suite de variables aléatoires indépendantes de loi normale


centrée réduite 5 N (0, 1). Mais la méthode que nous venons de suggérer est
trop schématique; on utilise dans la pratique des méthodes plus sophisti-
quées (voir par exemple [38] et ses références).
Exemples et exercices: l) On considère l'EDS sur [O, T],

(5.33) dXt = ŒdBt - µXtdt, (Xo = xo),


où Œ et µ sont des constantes. Trouver l'EDS vérifiée par le processus
yt = eµt Xt et en déduire la solution de (5.33).
2) Lorsque dans (5.20), on a µ(x, t) = ax et Œ(x, t) = bx, on dit que l'EDS
est linéaire, i.e.

(5.34)

par exemple, si a= 1 et b = 0, c'est l'équation différentielle de l'exponen-


tielle classique et dans ce cas Xt = xoeat. Si a= 0 et b = 1, c'est l'EDS
de l'exponentielle stochastique et Xt = x 0 eBte-tf 2 .
3) Montrer que le processus Xt = xo exp( at + bBt) est solution d'une EDS
et en déduire la solution générale de l'équation linéaire (5.34).

5.4.3 Caractère markovien de la solution d'une EDS


Si on considère heuristiquement une EDS comme une relation don-
nant l'accroissement infinitésimal (5.32), on voit que la valeur de Xt+.C:.t
est fonction de Xt et de l'accroissement du brownien entre les instants t et
t + b..t qui est indépendant de la tribu Ft. Ainsi Xt+.c:.t ne dépend du passé
que par l'intermédiaire de Xt; ce qui suggère que le processus X est de
Markov. Pour justifier ce résultat, on a besoin d'un lemme sur l'espérance
conditionnelle
5 noter qu'alors Vl5:t,Nk est de loi N(O, b.t) comme b.Bt.
170 Mouvement Brownien et calcul d'Itô

Lemme 5.4.2 : Soit (0, F, JP) un e!.pace probabilisé, (Y(x))xEIR une fa-
mille6 uniformément bornée de variables aléatoires mesurables et Ç une
sous-tribu de F. On suppose que l'application (x, w) f-+ y(x) ( w) est BIR ®
Ç-mesurable. Soit T une sous tribu de F indépendante de Ç et X une va-
riable aléatoire Y-mesurable. Alors
i) Vx E IR, y(x) est Ç-mesurable.
ii) La variable aléatoire y(X) : w f-+ y(X(w))(w) a un sens et

(5.35) IE(Y(X) IT) = h(X) (JP - p.s.),

où la fonction h est de la forme h(x) = IE(Y(x)) (x E IR).

Ce lemme généralise le lemme 3.2.1 qui correspond ici au cas où y(x) =


g(x, Y) avec g : IR 2 ----; IR borélienne bornée et Y une variable aléatoire. La
démonstration analogue à celle de 3.2.1 est omise.
On suppose que [a, b] = [O, T] et on considère X la solution de l'EDS
(5.20) sous les hypothèses du théorème 5.4.1. Pour 0 :'.S t :'.S T, on a donc

(5.36)
rl
Xt =Ça+ Jo µ(Xu, 'U)d'U + Jo a(Xu, 'U)dBu.
rt
Pour tous x E IR et s E [O, T], soit xx,s = (X~' 8 )r;:~_s la solution de l'EDS
(5.20) partant de x à l'instant s (i.e. [a, b] = [s, T] et Ç8 = x). Autrement
dit pour tout t 2: s :

(5.37) X~,s = x+ 1 t
µ(X~' 8 ,'u)d'U+
;·t a(X~·8,'U)dBu.
s s

D'autre part on déduit aussitôt de (5.36) que pour t 2: s, on a

ft rt
(5.38) Xt = Xs + Js µ(Xu, 'U)d'U + Js a(Xu, 'U)dBu.

Mais si on remplace formellement x par Xs dans (5.37), on voit que

(5.39) xX,,s
t =XS + 1 t
µ(XXs,S
'U
'u)d'U +
l
;·t a(Xx.,s
'U
'U)dB
l U1
s s

6 indexée par l'ensemble IR des réels.


Chapitre 5. Notions sur le calcul stochastique d'Itô 171

pour tout t 2: S, où x{·' 8 (w) = x{s(w),s(w). On peut justifier rigoureu-


sement la manipulation osée que nous venons d'effectuer. C'est un résultat
difficile que nous admettrons (voir par exemple [48], p. 294). Les relations
(5.38) et (5.39) montrent alors que les processus Xt et x{• ,s, vérifient pour
t 2: s la même EDS. Par unicité de la solution, on en déduit :

Proposition 5.4.2 : Pour tout t 2: s, on a

(5.40) X t -- xx.,s
t lJ.l> - p.s.

Notation : Pour tout borélien A de IR, tout 0 '.S s '.S t et tout x E IR, on
pose

(5.41) Ps,t(x, A) = JJ.l>(Xf' 8 E A).


Pour tout x E IR, A t-t JJ.l>(Xf' 8 E A) est une probabilité. On admettra que
pour tout A E BJR, l'application x t-t Ps,t(x, A) est mesurable 7 . On va voir
que les Ps,t sont les noyaux de Markov du processus X.

Théorème 5.4.3 Le processus X donné en (5.36) est de Markov avec des


noyaux de transition donnés par (5.41 ).
Démonstration : Pour 0 '.S s '.S t et f borélienne bornée, si on applique
(5.40), la proposition 5.4. 1 et le lemme 5.4.2 avec y(x) = f (Xf' 8 ) et T =
O"(Bs+h - B 5 , h 2: 0), on obtient

(5.42)

où h(x) =JE (f(Xf' 5 )) = P5 ,tf(x) par définition de Ps,t· Donc le proces-


sus X est de Markov. Il reste à voir que les noyaux Ps,t vérifient la propriété
de Chapman-Kolmogorov.
Soient 0 < s < t < u et f : IR _, IR borélienne bornée. Par les propriétés
de l'espérance conditionnelle et la proposition 5.4.1, on a

Ps,uf(x) =JE (f(X~' 8 )) =JE (JE(f(X~' 8 )l.:Ft))


= JE ( JE(f (X~t·\t) l.:Ft))
=JE (h(Xf's))'
7 ceci résulte de la mesurabilité de (x, t, w) >-> x:·• (w), voir (52].
172 Mouvement Brownien et calcul d'Itô

où h(z) =JE (f(X~'t)) = Pt;uf(z). On a donc

Ps,uf(x) = j~ h(z)IP'(Xf' 8
E dz) = l h(z)Ps,t(x,dz)

= l Ps,t(X, dz)Pt,uf(z),

et la propriété de Chapman-Kolmogorov est vérifiée. D


Remarque : Le processus de Markov X que nous venons de considé-
rer a pour espace de temps l'intervalle [O, T] mais si les fonctions µ(x, t) et
Œ(x, t) sont définies sur lR x lR+ et que les conditions de Lipschitz du théo-
rème 5.4.2 sont uniformes en t E lR+, une solution de l'EDS existe sur tout
intervalle [O, T]. Si T' > T, il est clair que la solution sur [O, T'] prolonge la
solution sur [O, T] donc il existe une unique solution X = (Xt)t:=::o sur lR+.
Cette solution est un processus de Markov de noyaux Ps,t, s, t E lR+, s < t.

5.4.4 Notion de processus de diffusion


On va examiner dans ce paragraphe le cas particulier où la dérive et le
coefficient de diffusion d'une EDS sont indépendants du temps. Soit

{ dXt = Œ(Xt)dBt + µ(Xt)dt


(5.43)
Xo = Ço,
où µ et O" sont des fonctions localement lipschitziennes vérifiant la condi-
tion de croissance [µ(x)[ :::; K(l + [x[) et [Œ(x)[ :::; K(l + [x[) pour tout
x E JR. On sait alors que si Ço admet un moment d'ordre 2, il existe un
processus unique X solution de cette EDS.

Proposition 5.4.3 La solution X de l'EDS (5.43) est un processus de Mar-


kov homogène.
Démonstration : Il s'agit de démontrer que le noyau Ps,t défini en (5.41)
ne dépend que de la différence t - s. Posons t = s + h (h > 0). On a
Ps,s+1i(x, A) = IP'(x:_:h E A). D'après (5.37) et en faisant le changement
de variable 'U = S +V (0 :::; V :::; h), le proceSSUS Yh = x::h vérifie la
relation

(5.44)
Chapitre 5. Notions sur Je calcul stochastique d'Itô 173

où B~l) = Bs+v - B 8 est aussi un mouvement brownien d'après le théo-


rème 2.1.6. Mais le processus X~,o (h 2: 0) vérifie d'après (5.37) la même
relation (5.44) que Yh mais avec B au lieu de B(l). Il en résulte que Yii et
X~,o ont la même loi. Donc Ps,s+h(x, A) = JPl(X~,o E A)= Po,h(x, A) et
le résultat est démontré. D
Notation (et rappel): D'après la Remarque 4 du paragraphe 3.1.l, X
est un processus de Markov homogène. Changeons alors de notation et po-
sons Po,t = Pt. Les opérateurs de transition Pt sont donc tels que

Ptf(x) = l f(z)Pt(x, dz) = l f(z)JPl(x:,o E dz)

pour toute fonction f borélienne bornée. Si (9t) désigne la filtration na-


turelle du processus X et 900 est la tribu terminale8, on considère, pour
x E IR, la probabilité JPlx sur 900 de la définition 3.4.1 et construite avec
les noyaux Pt. C'est la probabilité pour le processus partant de x. L'esp-
érance lEx associée est alors telle que lEx (f (Xt)) = j~ Pt (x, dy) f (y) =
Ptf(x) d'après (3.41). Mais on remarquera qu'on a aussi lEx(f(Xt)) =
JE (f(X:' 0 )) car x:,o est un processus de Markov de même semi-groupe
Pt et qui part de x.
Générateur infinitésimal du processus X : Le processus de Markov
homogène X n'est pas forcément un processus de Feller au sens de la dé-
finition 3.3.1, mais on a quand même une notion de générateur infinitésimal
pour le semi-groupe (Pt)- Plus précisément c'est la formule fondamentale
(3.19) de la théorie des semi-groupes qui garde un sens comme on va le
voir mais pour des fonctions f suffisamment régulières.

Théorème 5.4.4 : Pour toute f E C 2 (IR) bornée et à dérivées bornées9 ,


tout t > 0 et tout x E R, on a

(5.45) Ptf(x) = f(x) + lt Ps(Af)(x)ds,


où A est l'opérateur différentiel

(5.46) Af(x) = ~Œ
2
2 (x)J"(x) + µ(x)J'(x)
8 qui est simplement 9r si on considère X sur un intervalle de temps fini [O, T].
9 par exemple de classe C 2 sur lR et à support compact.
174 Mouvement Brownien et calcul d'Itô

et en particulier on a

. 1
(5.47) hm -(Ptf(x) - J(x)) = Af(x).
t--+Ü t

L'opérateur différentiel A est appelé générateur infinitésimal du processus


X solution de l'EDS (5.43). Pour des raisons provenant de la physique (voir
par exemple [ 19]), on dit que X est un processus de diffusion (homogène)
d'opérateur infinitésimal A.
Démonstration du théorème : La formule d'Itô donne immédiatement

En tenant compte de l'expression (5.43) de dX8 , en passant à l'espérance


lEx dans l'égalité précédente et puisqu'une intégrale d'Itô est toujours d'es-
pérance nulle, on obtient aussitôt 10 la relation (5.45). On en déduit alors
(5.47). D

Corollaire 5.4.2 Soit f E C 2 (IR) bornée et à dérivées bornées. Alors le


processus

(5.48) Mf := J(Xt) - J(Xo) - lat (AJ)(Xs)ds (t 2: 0),

est une martingale pour la.filtration (Çt)t~O du processus X.

La démonstration de ce résultat est identique à celle du théorème 3.4. l car


elle n'utilise que la propriété (5.45) du semi-groupe.
Remarque 1 : Avec l'hypothèse supplémentaire que les fonctions <Tet
µ sont bornées sur IR, on peut montrer que le semi-groupe (Pt)t~o est de
Feller (voir [51] p.380).
Remarque 2 : En fait il existe des processus de diffusion beaucoup
plus généraux que celui que nous venons de considérer. C'est la condition
de martingale vue dans le Corollaire qui sert à les définir. Nous renvoyons
le lecteur intéréssé au livre de D. Revuz et M. Yor [51 ].

Illon peut justifier facilement l'intervertion de JE,, et du signe J~.


Chapitre 5. Notions sur le calcul stochastique d'Itô 175

Exemple: Le processus d'Ornstein-Uhlenbeck est la solution de l'EDS


appelée équation de Langevin :

(5.49) { dXt
Xo
où x E R <Y E IR et À > 0 sont des constantes. Dans le problème physique
modélisé par cette équation, Xt représente la vitesse 11 d'une particule en
suspension dans un liquide, soumise au bombardement moléculaire ainsi
qu'à une force de frottement 12 de coefficient À.
Si on fait le changement de processus yt e>.t Xt, la première formule
d'Itô donne dyt = Àe>.t Xtdt + e>.tdXt = CYe>.tdBt. Donc yt = x +
<Y J~ e>. 8 dB 8 • D'où la solution

(5.50) Xt = e-Àtx + CYe-Àt lat eÀ 8 dB 8 •

Ce processus est une diffusion homogène d'après la proposition 5.4.3 et


le théorème 5.4.4. Son générateur infinitésimal est l'opérateur différentiel
A= <Y~ - Àx d~ d'après 5.46.
Remarque 3 : Nous avons étudié le cas des diffusions homogènes pour
simplifier la présentation mais dans le cas général considéré en (5.36) et au
théorème 5.4.3, le processus X est aussi une diffusion au sens où la famille
Ps,t (s < t) des opérateurs de transition définis en (5.41) vérifie une relation
fondamentale généralisant (5.45) :
Pour tous 0 < s < t, tout X E IR et toute f E C 2 (IR) bornée et à dérivées
bornées, on a

(5.51) Ps,d(x) = f(x) + 1t Ps,u(Auf)(x)d'U,

où Au est l'opérateur différentiel

(5.52)

En particulier, on a

(5.53) lim - 1-(Ps tf(x) - f(x)) = Asf(x).


t-->s,t>s t -s '
11 ou à un coefficient près la quantité de mouvement.
12 L'absence de frottement (À = 0) correspond au mouvement brownien.
176 Mouvement Brownien et calcul d'Itô

On peut aussi donner une version du corollaire 5.4.2 et même une ver-
sion plus générale en utilisant la formule d'Itô pour les fonctions dépendant
aussi du temps. Plus précisément, pour toute fonction f E C 2 ,l (JR X lR+)
bornée et à dérivées partielles bornées, le processus

est une martingale, où l'opérateur As agit sur la variable d'espace, c'est à


dire
1 02 f of
Asf(x, s) = -a 2 (x, s) ~ 2 (x, s) + µ(x, s)~(x, s).
2 uX uX

5.5 Exemples et applications


5.5.1 Représentation des martingales browniennes
Comme dans le paragraphe 2, soit B = (0, F, (Ft)t2'.0, (Bt)t2'.0, IF')
un mouvement brownien continu. On suppose aussi qu'il est standard, en
particulier chaque tribu Ft est complète. Soit T > 0 un temps fixé. On
s'intéresse à l'espace vectoriel H des variables aléatoires de la forme

Z = c+ lr XtdBt,

où X E M 2 ([0, T]). On notera que c = JE(Z) puisque l'intégrale stochas-


tique est une variable aléatoire centrée. On a le résultat suivant :

Théorème 5.5.1 : H = L 2 (0, Fr, IF') (Autrement dit toute variable aléa-
toire centrée de L 2 (0, Fr, IF') peut être représentée comme une intégrale
stochastique).

On a besoin de plusieurs lemmes :

Lemme 5.5.1 : H est un sous-e~pacefermé de L 2 (0, Fr, IF').


Démonstration: H est clairement un sous-espace de L 2 (0, Fr, IF'). Mon-
trons qu'il est fermé. Soit
Chapitre 5. Notions sur le calcul stochastique d'Itô 177

où xCn) E M 2 , une suite d'éléments de H qui converge dans L 2 vers


une variable aléatoire Z. Elle converge aussi au sens de L 1 . En particulier,
JE(z(n)) =en converge vers un réel c. La suite

~) = z(n) - Cn = 1T Xin) dBt,

doit donc converger dans L 2 . Elle est donc de Cauchy et on a

Il~) - ~lli2 = JE((1T xin)dBt -1T xim)dBt) 2 )

= JE((1T(xin) -xim))dBt) 2 )

=JE( 1T (Xin) - xim)) 2 dt) ----+ 0 si m, n----+ oo.

Ceci implique que la suite X(n) : (w, t) f--7 xin)(w) est de Cauchy dans
L 2 ([0, T] x n, dt 0 dlP'). En passant éventuellement à une sous suite, on
peut supposer que

lim xin) (w) = Xt(w), dt 0 dJP' p.s.


n-->oo

En utilisant le lemme de Fatou, on déduit aussitôt que

JE( 1T (Xin) - Xt) 2 dt) ----+ 0 sin----+ oo,

ce qui montre que (X(n)) converge vers X dans M 2 . D'où

lim {T xin) dBt = {T XtdBt,


n-->oo Jo Jo
J
dans L 2 . Mais on a aussi limn_, 00 0T xin) dBt = Z-c dans L 2 . Par unicité
de la limite, on déduit aussitôt que Z E H. D'où le résultat du lemme. D

Lemme 5.5.2 : Pour toute fonction <P : [O, T] ----+ IR en escalier, la variable
aléatoire

(5.55) V= exp(lT <j;(s)dB8 ),

appartient à l'espace vectoriel H.


178 Mouvement Brownien et calcul d'Itô

Démonstration : Il est clair que le processus I défini par

(5.56) It = j <P(s)dBs - - j't (<P(s)) ds,


0
·t 1
2 0
2 (t E [O, T]),

est un processus d'Itô appartenant à Jvf 2 . La formule d'Itô appliquée au pro-


cessus Y tel que yt = exp(It) donne immédiatement: dyt = Yt<P(t)dBt.
D'où

Mais Yr = eV où la constante c est égale à exp(-~ J[


(<P(s)) 2 ds) et on
aura Yr E H donc V E H si on peut montrer que le processus
(exp(It)<P( t) )tE[O,T] est dans M 2 i.e.

(5.57)

Montrons qu'en fait la fonction t 1----+ IE((eh<jJ(t)) 2) est bornée sur [O, T].
On a IE((e 11 <P(t)) 2) :::; KIE(e 21t), oil K = maxtE[ü,TJ(<P(t)) 2 et si

n-l

<P = I: >.k1[t1,;,t1,;+d
k=O

où les (tk) forment une subdivision de [O, t], on a compte tenu de (5.56),
de l'indépendance des accroissements du mouvement brownien et de l'ex-
Chapitre 5. Notions sur Je calcul stochastique d'Itô 179

pression de la transformée de Laplace d'une loi normale 13 :

exp(lt <t> 2 (s)ds)IE(e 21t) =JE (exp(lt 2<f>(s)dB 8 ) )

=JE ( exp(~2Àk(Bt,., - Bt,)))

n-1
= IIIE( exp(2.Xk(Bt1.:+i - Btk))
k=O
n-1
= II exp(2.X~(tk+l - tk))
k=O

Ainsi, la fonction t t-t IE(e 2 1t) = exp(f~(<f>(s)) 2 ds) est continue donc bor-
née sur [O, T] et par conséquent la condition (5.57) est bien vérifiée. D'où
le lemme. D
Démonstration du théorème 5.5.1 : On va montrer que le sous-espace H
est dense dans L 2 (rt, Fr, IP), ce qui compte tenu du Lemme 5.5.1, donnera
le résultat. Soit U une variable aléatoire de L 2 (rt, Fr, IP) orthogonale à H.
Il faut montrer que U = 0 :
Soit 0 = to < t 1 < · · · < tN = Tune subdivision de [O, T] et soit la
fonction p(t) = I:[:(;1 Àil[t,;,ti+i[(t). Grâce au lemme 5.5.2, U est ortho-
gonale à exp(f~ p(s)dB8 ) i.e. U est orthogonale aux variables aléatoires
de la forme

exp(.X1Bt 1 + · · · + ÀNBtN) =exp(< .XIW >),


où À = (.X1, ... , ÀN ), W = (Bt 1 , • . • , BtN) et< .1. >désigne le produit
scalaire dans !RN. D'après les propriétés de l'espérance conditionnelle, on
a donc
(5.58) O = IE(U exp(< .XIW >)) = IE( exp(< .XIW > )IE(UIW)).
180 Mouvement Brownien et calcul d'Itô

Or la variable aléatoire JE(UIW) est o-(W)-mesurable donc elle est de la


forme lE(UIW) = g(W), où g : JR.N ____, lR est une fonction mesurable. On
peut donc récrire (5.58) sous la forme

(5.59) 0= f'
JTR_N
exp(< À, w > )g(w)J(w)dw,

où f est la densité de probabilité de la variable aléatoire W. Mais (5.59)


signifie que la transformée de Laplace de la fonction g(w)f(w) est identi-
quement nulle. Donc g(w)f(w) = 0 dw-presque partout. Mais J(w) > 0
partout, ce qui implique que g(w) = 0 presque partout. D'où JE(UIW) = 0
et ceci vaut pour tous les vecteurs aléatoires W = (Bt 11 . • • , BtN ). Il en
résulte que U = lE(UIFr) =O. D'où le théorème. D

Corollaire 5.5.1 (structure des martingales browniennes) :


Soit NI = (Mt)tE[ü,T]• une Ft-martingale qu'on suppose dans L 2 (i.e.
JE( Ml) < +oo). Alors il existe un réel cet un processus X E M 2 ([0, T])
tels que

(5.60) Vt E [O, T], (p.s.)

Démonstration : D'après le théorème 5.5.1, il existe c E lR et X E M 2


tels que

Mr = c + 1T X 8 dB 8 •

Comme la martingale M est bornée 14 dans L 2 , elle s'exprime à l'aide de


sa valeur terminale Mr sous la forme Mt = JE(Mrl.Ft) (t E [ü, T]). Mais
d'après le chapitre 4, on sait que le processus (c+ J~ XsdBs )tE[ü,TJ est une
martingale donc pour tout t E [O, T] :

ce qui démontre le corollaire. D


14 en effet suptE[O,TJ IE(Mi2) = IE(Aij,) < +oo car t >--> IE(Mf) est une fonction crois-
sante.
Chapitre 5. Notions sur Je calcul stochastique d'Itô 181

5.5.2 Les équations de Kolmogorov


Dans la pratique un processus de diffusion apparaît toujours comme
solution d'une EDS

(5.61) dXt = Œ(Xt, t)dBt + µ(Xt, t)dt, Xo = Ço


et la question cruciale est alors : comment déterminer les noyaux de transi-
tion Ps,t du processus de Markov X ?
Ce problème est délicat. Commençons par examiner le cas peut-être le plus
simple, celui où les coefficients O" et µ ne dépendent pas du temps donc X
est un processus de Markov homogène et plus particulièrement supposons
que X est un processus de Feller 15 et soit A l'opérateur différentiel défini
en (5.46). Si f E Ck(JR) (ensemble des fonctions de classe C 2 à support
compact), on déduit facilement de la relation (5.45) que (Pd - f) --+ Af t
uniformément quand t --+ O. Ceci montre que A coïncide avec le généra-
teur infinitésimal du semi-groupe de Feller (Ptk;::.o sur Ck(JR). D'après la
proposition 3.3.1, pour f E Ck(JR), on peut permuter les opérateurs Ps et
A dans la relation (5.45), c'est à dire qu'on a

Ptf(x) = f(x) +lat A(Psf)(x)ds


et si on dérive cette expression par rapport à la variable t, on obtient
D
DtPtf(x) = A(Ptf)(x).

Ainsi la fonction u(x, t) = Ptf(x), satisfait l'équation aux dérivées par-


tielles

(5.62)

Si pour tout f E Ck(JR) on sait résoudre analytiquement cette EDP et


si la solution bornée est unique, on récupérera la valeur de Ptf (x) =
JIR f(y)Pt(x, dy). Comme Ck(JR) est dense dans CK(JR), la probabilité
Pt(x, dy) sera théoriquement déterminée. Cette détermination est plus fa-
cile dans le cas où l'on sait a priori que le semi-groupe a des densités de
15 par exemple si Œ etµ sont bornées, voir la remarque 1 suivant le corollaire 5.4.2.
182 Mouvement Brownien et calcul d'Itô

transition Pt(x, y) i.e. Pt(x, dy) = Pt(x, y)dy (x, y E IR). A condition
de pouvoir dériver en t et en x sous le signe intégrale dans Ptf (x) =
fIRPt(x, y)f(y)dy, on déduit de (5.62) que

1[) -[} Pt(X, y)f(y)dy =


IR t
11
IR 2
?
(-o--(x) ~
[)2
uX
.2
[)
+ µ(x)~ )Pt(X, y)f(y)dy.
uX

Comme cette équation est satisfaite par toute f E C_k(JR), on en déduit que
pour presque tout y E R on a

(5.63)

Cette équation aux dérivées partielles vérifiée par la fonction (x, t) f--+
Pt(x, y) s'appelle l'équation de Kolmogorov du passé 16 car elle porte sur
la variable x qui est le point de départ. Il y a une autre équation de Kol-
mogorov qui porte sur la variable d'arrivée y. On lobtient en dérivant di-
rectement par rapport à t la relation (5.45), ce qui donne
[)
-;:;-Ptf(x) = Pt(AJ)(x).
ut
Toujours dans l'hypothèse où le semi-groupe a des densités et si on dérive
formellement en t sous le signe intégrale, on déduit qu'on a

j~ gtPt(x, y)f(y)dy = j~ Pt(x, y) ( ~o- 2 (y)J" (y)+ µ(y)J'(y)) dy.


En intégrant ensuite par parties le membre de droite, on obtient

/8
jIR fJtPt(X, y)f(y)dy =}IR
l(lfJ2
2 f)y 2 (Pt(X, y)o- 2 (y))
- ~(µ(y)pt(X,
[)
uy
y)) ) f(y)dy

et il en résulte l'équation de Kolmogorov dufutur 17 vérifiée par la fonc-


tion (y, t) f--+ Pt(x, y):
1<"'backward Kolmogorov equation" en anglais
17 "forward Kolmogorov equation" en anglais
Chapitre 5. Notions sur le calcul stochastique d'Itô 183

(5.64)

On notera que cette équation est plus naturelle quel' équation "du passé"
car on n'a pas eu besoin ici de supposer que le semi-groupe est de Feller.
On remarquera que dans le second membre de (5.64) il apparaît l'opérateur
différentiel A* de la forme

(5.65) A* J(y) = t::2 2


(Œ (y)f(y)) - :y (µ(y)f(y))

qui est l'adjoint formel de A. L'équation de Kolmogorov du futur (dite aussi


équation de Fokker-Plank) peut donc s'écrire de manière plus condensée
sous la forme

(5.66)

où l'indice y signifie que l'opérateur A* agit sur la variable y.


Il est important de noter que la discussion précédente est relativement
formelle 18 mais elle est d'une grande importance car elle montre comment
on peut espérer déterminer les probabilités de transition de la diffusion X.
En fait il y a très peu de cas que l'on sait résoudre complètement. Voici tout
de même un résultat d'existence et d'unicité intéressant que nous admet-
trons (voir [2 l]) :

Théorème 5.5.2 : Supposons que les fonctions x f-+ Œ(x) et x f-+ µ(x)
sont lipschitziennes, bornées et que 0" 2 ( x) est bornée inférieurement par
une constante À > 0 (condition d'ellipticité). Alors pour toute f E Cl (JR)
le problème de Cauchy (5.62) a une unique solution bornée de la forme

(5.67) u(x, t) = L Pt(x, y)f(y)dy,

où pour tout x E R la fonction y f-+ Pt(x, y) est une densité de pro-


babilité et pour tout y, la fonction (x, t) f-+ Pt(x, y) est l'unique solu-
tion de l'équation de Kolmogorov du passé (5.63) avec la condition initiale
18 et doit être considérée comme heuristique
184 Mouvement Brownien et calcul d'Itô

limt_,opt(x, y)= ôx(Y) au sens des distributions (i.e. pour toute fonction
f E Cf{(R),
limt_,o ]~Pt(x, y)f(y)dy = f(x)).
Remarque : L'extrême difficulté à obtenir explicitement une expression de
Pt(x, y), a eu pour conséquence l'abandon progressif des méthodes analy-
tiques au profit de méthodes probabilistes permettant d'obtenir d'intéres-
sants résultats de nature qualitative sur les solutions des EDS. Nous nous
contentons de quelques exemples typiques dans les paragraphes suivants.

5.5.3 Exponentielle stochastique


L'EDS dXt = XtdBt avec Xo = 1 a (sur tout intervalle de temps
[ü, T]) une solution unique d'après le théorème 5.4.1. On peut alors "sor-
tir du chapeau" la solution et vérifier grâce à la formule d'Itô que Xt =
exp(Bt-1t). De manière plus instructive, si on note l'analogie avec l'équa-
tion différentielle classique dx(t) = x(t)dt et x(O) = 1 dont la solution est
x(t) = et, on peut imaginer que la solution Xt est peut-être de la forme
Xt = eY1 , pour un certain processus d'Itô yt. Si tel était le cas, en suppo-
sant que dyt = µtdt + O"tdBt, la formule d'Itô montre que
1 1
XtdBt = d(eYt) = ey1 dyt + 2ey 0"ldt =
1 Xtdyt + 2,0"lXtdt.
D'où il résulte que dyt = dBt -10"'f dt. Comparant les deux expressions
de dyt, il vient dyt = dBt -1dt d'où (puisque Yo = 0) yt = Bt -1t. On
vérifie ensuite que Xt = exp(Bt - 1t) est bien la solution de l'EDS. Ce
processus s'appelle exponentielle stochastique du mouvement brownien et
on notera

(5.68) E(B)t =exp ( Bt - ~t)


Par rapport à l'exponentielle classique il y a le facteur multiplicatif sup-
1
plémentaire e-2t.
Plus généralement on peut définir l'exponentielle stochastique d'un proces-
sus d'Itô.

Théorème 5.5.3 : Étant donné un processus d'Itô Z de différentielle sto-


chastique dZt = atdt + btdBt, l 'EDS
Chapitre 5. Notions sur le calcul stochastique d'Itô 185

(5.69) {
dXt = XtdZt = atXtdt + btXtdBt (t E [ü, T])
Xo = 1,
a une solution unique de la forme

(5.70) E(Z)t =exp ( Zt - t lat b;ds) (t E [O, T]).

On l'appelle exponentielle stochastique de Z.


On notera que l'EDS (5.69) n'est pas de la forme uselle définie en (5.20)
sauf si at et bt sont des fonctions déterministes.
Démonstration : Comme ci-dessus posons Xt = eYt, où Y est un proces-
sus d'Itô tel que dyt = µtdi + ŒtdBt. La valeur de d( eYt) (obtenue avec la
formule d'Itô) comparée à celle de XtdZt montre aussitôt que µt = at-~bz
et Œt = bt. D'où
yt = Zt - ? 11·t
~ 0
b;ds.

On vérifie alors immédiatement que le processus eYt est solution de (5.69).


Pour montrer l'unicité soit Xt une autre solution. Si on applique la for-
mule d'intégration par parties au processus Xte-Yt en tenant compte du fait
que d(e-Yt) = -e-Yt(at - bndt - e-YtbtdBt, on montre facilement que
d(Xte-Yt) = O. La condition initiale implique Xte-Yt = 1 i.e. Xt = eYt.
D
Remarques: 1) Si Zt = f(t) est une fonction déterministe, E(Z)t =
ef(t).
2) Si Z et Z' sont deux processus d'Itô avec dZt = atdi + btdBt et dZ~ =
a~dt + b~dBt, on a
(5.71)
Martingale exponentielle: Lorsque at = 0 dans l'équation (5.69), l'expo-
nentielle stochastique E(Z)t = exp ( J~ b8 dB 8 - ~ J~ b;ds) est telle que

(5.72)

donc ce processus est une martingale locale d'après le théorème 4.4.3. De


plus c'est une sur-martingale d'après le résultat suivant:
186 Mouvement Brownien et calcul d'Itô

Proposition 5.5.1 : Toute martingale locale positive est une sur-martin-


gale.
Démonstration: Soit (lvlt) une martingale locale positive et (Tn)n::=:i une
suite localisante. Comme Mo est intégrable, le lemme de Fatou implique
que que pour tout t, Mt est intégrable car

IE(Mt) = IE(liminf MtM.,J :'S liminf!E(Mt/\T,J = IE(Mo).


n---+oo n---+oo

Mais pour tout n et 0 ::; s :S t, on a

Le lemme de Fatou pour l'espérance conditionnelle, montre alors qu'on a


IE(MtlFs) = IE(liminfn_,ooMt/\TnlFs) :'S liminfn_,oolvfs/\Tn = lvfs. D
Il en résulte quel' espérance de [ ( Z)t est décroissante d'où le corollaire
suivant

Corollaire 5.5.2 : (f (Z)t)tE[ü,T] est une martingale si et seulement si pour


tout t, IE(f(Z)t) = 1.
On l'appelle la martingale exponentielle de Z.
Il n'est pas toujours facile de calculer l'espérance de E(Z)t aussi on a cher-
ché des conditions suffisantes simples pour assurer que l'exponentielle sto-
chastique est une martingale. Le résultat suivant que nous admettrons (voir
[33], [51 ], [52]) est un des plus efficaces :

Théorème 5.5.4 (Novikov): Soit (bt)tE[ü,T] E A 2 et Z = (f~ bsdBs)tE[O,T]·


Supposons que

(5.73)

Alors L'exponentielle stochastique

(5.74)

est une martingale 19 .


19 on notera que dans ce cas Z est aussi une martingale car la condition de Novikov (5.73)
implique JE (I bidt) < +oo.
0T
Chapitre 5. Notions sur le calcul stochastique d'Itô 187

5.5.4 Changement de mesure de probabilité


Pour centrer une variable aléatoire X de loi N (m, 1) définie sur un
espace probabilisé (0, F, IfD), il suffit de considérer la variable aléatoire X -
m ; mais la variable est transformée. Une autre façon est de changer la
probabilité IfD sur (0, F) en la probabilité IlD telle quedP = exp(-mX +
~m 2 )dlfD. La variable aléatoire X est alors de loi N(O, 1 ). En effet pour tout
t E lR et en utilisant la formule du transfert, on a

On peut utiliser une idée analogue pour modifier la dérive d'un processus
d'Itô. On suppose toujours qu'on travaille avec un mouvement brownien de
référence continu B = (0, F, (Ft)t2':0, (Bt)t2':0, IfD). Soit T > O.

Théorème 5.5.5 (Girsanov): Soit (bt)tE[O,T] E A2 et Z = (j~ bsdBs)tE[O,T]·


On suppose que E(Z) est une martingale20 . Posons

Alors B = (0, F, (Ft)tE[O,T]' (Bt)tE[ü,T]' P) est un mouvement brownien


pour la probabilité IlD de densité [ ( Z)r par rapport à IfD (i.e. dllD(w)
E(Z)r(w )dlfD(w )).
On a besoin du lemme suivant

Lemme 5.5.3 : Pour qu'un processus (.lVlt)tE[O,T] soit une (Ft, P)-martin-
gale (resp. martingale locale), il suffit que le processus (E(Z)t Mt)tE[O,T]
soit une (Ft, IfD)-martingale (resp. martingale locale).

Démonstration: Supposons que (E(Z)t 1\!It)tE[O,T] soit une (Ft, IfD)-mar-


tingale et soient 0 ::; s ::; t ::; T.
20 voir le théorème 5.5.4
188 Mouvement Brownien et calcul d'Itô

Par la ~opriété caractéristique de l'espérance conditionnelle et la dé-


finition de IP, lEjp;(MtlFs) est l'unique variable aléatoire F 8 -mesurable telle
que

(5.75)

Le membre de droite de (5.75) vaut J~ lEIP'(Mtl'(Z)rlFs)dIP. Or on a


lEIP'(Mtl'(Z)rlFs) = lEIP'(lEIP'(lVItl'(Z)rlFt)IFs) = lEIP'(Mtl'(Z)tlFs)
M 8 l'(Z)s (l'avant dernière égalité car l'(Z) est une martingale et la der-
nière égalité par hypothèse). De la même façon on montre que le membre de
gauche de (5.75) vaut J~ lEjp;(MtlFs)l'(Z) 8 dIP. On en déduit que
lEjp;(MtlFs)l'(Z)s = Msl'(Z)s d'où lEjp;(MtlFs) = M 8 • Le cas d'une mar-
tingale locale est analogue. D
Démonstration du théorème : Il suffit d'après une caractérisation du mou-
vement brownien vue au chapitre 2 de montrer que pour tout À E IR, le
processus
Mt= exp (iÀBt + ~>. 2 t)
est une (Ft, P)-martingale. Mais comme (Mt)tE[ü,T] est un processus borné,
il suffit d'après la proposition 4.4.2 de montrer que c'est une martingale
locale et donc d'après le lemme que Mtl'(Z)t est une (Ft, IP)-martingale
locale. D'après (5.73) On a

Mais la formule d'Itô holomorphe (corollaire 5.3. l) avec f (z) =é montre


que l'on a
d(Mtl'(Z)t) = Mtl'(Z)t(bt + i>.)dBt.
Le résultat découle alors du théorème 4.4.3 21 • D
Remarque importante: Comme l'(Z) est une martingale, on voit faci-
lement que pour tout t E [O, T] la probabilité dPl.Ft restreinte à la sous-tribu
21 qui est valable aussi lorsque l'intégrand est complexe.
Chapitre 5. Notions sur le calcul stochastique d'Itô 189

Ft vaut
(5.76)

Corollaire 5.5.3 (Annulation de la dérive d'une diffusion) : Soit X une


diffusion solution sur [O, T] de l'EDS
(5.77)

avec <J (x, t ) > 0. 0 n pose bt -- - µ(Xt,t)


cr(Xt,t)'
zt -- Jort bs dB s et on suppose
que l'exponentielle stochastique E(Z) est une martingale. On considère la
probabilité JPi sur Fr de densité E(Z)r par rapport à JP. Alors la diffusion
X vérifie l'EDS
(5.78)
- ~ -
où B = (Bt)tE[O,r] est un (Ft, JP) mouvement brownien.

Démonstration : Par le théorème de Girsanov, Bt = Bt - J~ bsds est un


(Ft, W) mouvement brownien. En reportant cette valeur de B dans l'équa-
tion (5.77), on trouve aussitôt (5.78). D
Remarque : Le résultat précédent ne doit pas trop faire illusion car il
ne permet pas, comme on pourrait le croire, de résoudre l'EDS (5.78) sauf
dans le cas simple où il existe une relation de pr<2J>ortionnalité entre µ et <J
car dans ce cas bt est une constante et la mesu_Ee lP est explicite.
Exemple : Soit µ E IR une constante et Bt = Bt + µt le mouvement
brownien avec dérive µ. On peut considérer ce processus sur un intervalle
de temps [O, T] pour être dans le cadre de c~ chapitre~2 . Soit t E [O, T],
on va déterminer la loi de lvlt = SUPo::;s::;t B 8 • Soit dlP la probabilité sur
(n, Fr) pour laquelle (Bt)tE[O,r] est un mouvement brownien. Compte
tenu de (5.76), pour tout borélien A de R on a

JP(lvlt E A) = / 1[MtEA]dlP

=/ 1[MtEA] exp (µBt - ~µ 2 t) dW


=/ j~xA exp (µx - ~µ 2 t) ft(x, y)dxdy,
22 1' peut évidemment être quelconque.
190 Mouvement Brownien et calcul d'Itô

où ft est la densité du couple (position, maximum) donnée en (2.32). La


densité de la variable aléatoire !Vft est donc nulle si y < 0 et vaut pour
y~ 0:

=y{2;c.1-exp
3
9 (
-
1
2µ 2 t
) ;·y -oo exp(µx)exp
(-
(2y -
2t
x)2) dx
= yf2
;t _.3/-') exp ( 2µy - 21 µ-t ? ) 1·+00 e - . exp (- '2Ut2) du.
Y µu

5.6 Annexe
5.6.1 La formule de Black, Scholes et Merton
Comme exemple d'application du calcul stochastique aux mathémati-
ques financières nous allons présenter la méthode de Black, Scholes et Mer-
ton de calcul du prix d'une option européenne. Nous n'allons évidemment
pas entrer dans les justifications techniques des diverses hypothèses dont
nous admettrons la pertinence et nous nous contenterons d'un examen suc-
cinct du schéma mathématique sous jacent.
A) Le modèle probabiliste de Black et Scholes
Supposons que le cours St (en euros) de l'action d'une certaine valeur
boursière A à l'instant t, évolue suivant l'EDS

dSt = µSt dt + cr StdBt


(5.79) {
So = so
où µ > 0 est la dérive et cr f- 0 la volatilité de laction.
Le prix initial s 0 est supposé connu. La solution explicite de (5.79) est
St = s 0 cxp (µt - ~cr 2 t + crBt)· Une option européenne est un produit
financier qui donne le droit à un client d'acheter à la banque une action de
A au prix p à l'instant T. Le problème est de déterminer le juste prix que la
banque doit demander au client lorsqu'il achète son option. Autrement dit
comment la banque doit-elle se prémunir du risque qu'à l'instant T, on ait
Sr >pet qu'alors elle perde la somme Sr - p? On se place donc du point
de vue du banquier.
Chapitre 5. Notions sur Je calcul stochastique d'Itô 191

Désignons par u(x, t) le juste prix de l'option à l'instant t sachant que


St= x. Pratiquement, on cherche u(so, 0). Les conditions aux limites sont
clairement u(O, t) = 0 et 'u(x, T) = (x - p)+. En fait c'est le processus
aléatoire

(5.80)

qu'on appelle le prix courant de l'option à l'instant t. Le banquier, pour


couvrir son risque, utilise une stratégie dite d'autofinancement. Celle ci
consiste à utiliser la somme u( s 0 , 0) qu'il demande au client pour constituer
un "portefeuille" composé de deux actifs : des actions de A et des coupons
d'obligations.
Rappelons qu'une obligation au taux r > 1 est un placement sans risque tel
qu'une somme Lo investie à l'instant 0 devient Lt = L 0 ert à l'instant t. Le
taux d'intérêt r est constant et en général il est fixé par l'Etat.
Supposons qu'à l'instant t le portefeuille comporte <Pt unités de l'action A
et 'l/Jt coupons 23 d'obligation. Sa valeur est alors

(5.81)

où St (resp. Lt ert) est la valeur d'une action (resp. d'un coupon) à


l'instant t (on suppose qu'un coupon valait 1 à l'instant 0). Le portefeuille
est dit "simulant" 24 si
Vr=Cr
(i.e. si sa valeur finale est égale au prix de l'option à l'échéance) et il est dit
"autofinancé" si

(5.82)

Admettons qu'il existe de tels processus <P = (<Pt)tE[O,T] et 'l/J = ('l/Jt)tE[O,T]


adaptés et tels que lP'-p.s.

{T {T
Jo <P;ds + Jo ['l/Js[ds < +oo.

Alors on aurait
23 attention <Pt et 'l/Jt peuvent être des nombres ::'.': 0 quelconques pas forcément entiers.
2 ~i.e. il simule le prix de l'option à l'instant t.
192 Mouvement Brownien et calcul d'Itô

d(e-rtvt) = -re-rtVl + e-rtdvt


= -re-rt(<f>tSt + 'i/JtLt) + e-rt(<f>tdSt + 'i/JtdLt)
= -re-rt</>tSt + e-rt</>tdSt = <f>td(e-rt St)-
Mais le processus St = e-rt St vérifie
dSt = -re-rtstdt + e-rtdSt =St((µ - r)dt + crdBt) = StcrdWt,
si on pose Wt =_ Bt + µ~r t. Or d'après le théorème de Girsanov, il existe
une probabilité IP' sur (f!, Fr) telle que W = (Wt)tE[ü,T] soit un mouve-
ment brownien. Alors St = S 0 exp( cr Wt- (cr 2 t) /2) est une martingale sous
la probabilité P. Mais on peut voir facilement que le processus (<f>tSt)tE[O,T]
est dans 1\!1 2 ([0, T]) donc, sous P, le processus
e-rtvt = Vo + l t </> 8 S8 crdW8 (t E [O, T]),

est une martingale bornée dans L 2 . Elle converge donc vers sa valeur ter-
minale e-rTvT = e-rTcT et pour tout t E [ü, T], on a
e-rtvt = EiP( e-rT Crl:Ft), d'où la valeur du portefeuille simulant :

vt = EiP(e-r(T-t)CrlFt)

qui est aussi la valeur Ct de !'option à !'instant t.


Remarque: Pour!' existence du portefeuille autofinancé c'est à dire des
processus</> et 'i/J vérifiant (5.82), on peut consulter le livre de Lamberton et
Lapeyre [38]. Cette existence résultera aussi a posteriori de la méthode de
résolution explicite que nous présenterons dans le prochain paragraphe. On
peut néanmoins expliquer heuristiquement comment il est possible d'ajus-
ter le portefeuille à chaque instant de manière à assurer la condition (5.82)
qui peut sembler un peu étrange au non spécialiste :
Les quantités <Pt et 'i/Jt ayant été calculées à!' instant t, servent jusqu'à !' ins-
tant t + dt où la valeur st+dt ayant été observée, on les recalcule de telle
sorte que

dvt = Vl+dt - vt = <!>t+dtSt+dt + 'i/Jt+dtLt+dt - <f>tSt - 'i/JtLt


= <!>t(St+dt - St)+ 'i/Jt(Lt+dt - Lt)
Chapitre 5. Notions sur le calcul stochastique d'Itô 193

Mais comme Lt+dt = ( 1 + r) Ltdt, la relation précédente est satisfaite si


on détermine </>t+dt et î/Jt+dt de telle sorte que

ce qui est possible dans la pratique où le temps est discrétisé (voir le modèle
de Black et Scholes discret dans [38]).
B) Solution analytique du problème de Black, Scholes et Merton
Reconsidérons l'équation (5.82) du portefeuille autofinancé sous la for-
me

(5.83)

où vt = Ct = u(St, t) (voir (5.80)). Supposons que la fonction u soit de


classe C 2 . On peut appliquer la formule d'Itô, ce qui donne

au a'U 1 a 2 'U 2 2
(5.84) dCt = -:;:;-dSt + ~dt + - 2 CY St dt !)
uX ut 2 ux
au
= ( ~+µSt-:;:;-+
ut
au 1 2 2a 2
-(Y St
ux 2 ux
2
a'u
dt+ CYSt-:;:;-dBt.
uX
!)
u)
où les dérivées partielles sont prises au point (St, t). Mais l'égalité des deux
expressions (5.83) et (5.84) impose que les coefficients de dBt soient les
mêmes, ce qui compte tenu de (5.79) est réalisé si :

au
(5.85) <Pt = -:;:;-( Sti t).
uX
De même l'égalité des coefficients de dt donne

au 2 au
(5.86) ~(St,
ut
t) + -21 Π2 St28uxu2 (St, t) + rSc-:;;-(St,
!)
ux
t) - ru(Sti t) =O.

Une manière d'assurer que cette relation est bien vérifiée et que 'U satisfasse
l'équation aux dérivées partielles avec conditions aux limites:

{ -a'U + -CY
1 2 a u Du
? 2
(5.87) x - - +rx- -ru= 0
Dt 2 ax2 Dx
u(O, t) = 0, u(x, T) = f(x), (0 :St :ST, x ;::=: 0),
194 Mouvement Brownien et calcul d'Itô

où 'U est continue dans le domaine fermé [O, +oo[ X [O, TJ et de classe C 2 >1
dans l'ouvert JO, +oo[x JO, T[ et j(x) = (x - p)+ avec les conditions im-
posées par le problème. C'est l'équation de Black, Scholes et Merton. On
remarquera que la dériveµ du cours de l'action n'intervient pas ce qui ex-
plique pourquoi les financiers ne s'intéressent vraiment qu'à la volatilité 25 .
Pour alléger l'énoncé qui suit, nous dirons qu'une solution u de (5.87) est à
croissance au plus polynomiale s'il existe un polynôme P(x) de la variable
x tel que pour tout t E [O, TJ et tout x E lR+ on ait u(x, t) ::; P(x).

Théorème 5.6.1 : Dans l'ensemble des fonctions à croissance au plus po-


lynomiale26, l'équation (5.87) a une solution unique de la forme

En particulier si f(x) = (x - p)+, on a


(5.89)

où <I> (y) = ~ J~ 00 exp ( - ~) df, est la fonction de répartition de la loi


normale centrée réduite et

a1 = ~ T-t
O"
(in(:!'.p_) + (r + 2/2)(T - 0" t))
a2 = a1 - ŒVT - t
Démonstration : Faisons le changement de variable x = eY et t = T - s
dans l'équation (5.88), la fonction v(y, s) := u( eY, T- s) vérifie l'équation
aux dérivées partielles
av fP,v
0" 2
- = - - -2 + (r - O"
2 av
/2)-. - rv,
as 2 ay ày
25 Uneexplication plus mathématique est qu'on peut toujours éliminer la dérive par chan-
gement de probabilité comme on l'a vu dans le paragraphe 5.5.4 et en A)
26 Noter que ceci implique que la donnée f(x) = u(x, ï') est aussi à croissance au plus

polynomiale.
Chapitre 5. Notions sur Je calcul stochastique d'Itô 195

avec les conditions aux limites v(-oo,s) = 0, v(y,0) = f(eY), (y ER


0 :S s :S T). Si on fait ensuite le changement de fonction

(5.90) w(y, s) = e-(acry+bs)v(O"y, s),

avec a = -1-<? et b = (a - 1) (r +a ~2 ), on voit facilement que w vérifie


l'équation de la chaleur

âw
(5.91) (0 :S s :ST, y E IR),
âs
avec la condition de Cauchy w(y, 0) = e-acry f(ecr'Y). La convolée de cette
fonction et du noyau de la chaleur :

(5.92) w(y, s) = 1 +00


-OO
-1- exp ( - (y - Ç)2) e-acrÇ J(ëç)dÇ,
j2";;:s 2S
vérifie (5.91) et compte tenu de l'hypothèse de croissance polynomiale sur
f, satisfait lw(y, s)I :S Cekiyl (y E R 0 :S s :S T) où C > 0 et k > 0
sont des constantes. Or il est bien connu qu'il existe une solution unique de
(5.91) dans l'ensemble des fonctions à croissance au plus en exponentielle
quadratique (voir [20], p.57). Cette unique solution est donc donnée par
(5.92) et ceci implique, compte tenu des changements de variables et de
fonctions effectués, le résultat d'unicité annoncé. L'expression de u(x, t)
s'obtient alors par un calcul facile à partir (5.92), (5.90) et des valeurs de
a et b. L'expression particulière (5.89), en découle sans difficulté; nous
laissons les détails en exercice. D

5.6.2 Notes et exercices


Exercice 1 (généralisation de l'EDS de Black et Scholes) : Soient f et
g : IR
-----* IR deux fonctions continues. Résoudre l'EDS

{
dXt = f(t)Xtdt + g(t)XtdBt (t E [O, T])
Xo = Ço.

(indication : on cherchera X sous la forme Xt = YtZt où Y est la solution


de l'EDS précédente avec f(t) = 0 et Z est un processus d'Itô à dérive et
coefficient de diffusion déterministes).
196 Mouvement Brownien et calcul d'Itô

Exercice 2 (EDS du pont brownien) : Montrer que pour tout T < 1


l'EDS suivante a une unique solution :

{
dXt = -f!-t_dt + dBt (t E [O, T])
Xo = O.

et trouver une forme explicite en cherchant X sous la forme d'un produit de


deux processus d'Itô à coefficients déterministes. On déduira de l'expres-
sion de X que ce processus a même loi que le processus (Bt - tB1)os,t<l·
Exercice 3: Le polynôme <l'Hermite "espace-temps" d'ordre n E N est
défini par
tn ? dn 2
Hn(x, t) = (-lr-ex-/2t_(e-x /2t).
n! dxn
1) Montrer qu'on a la relation génératrice

(a, :J: E IR, t E IR+)·

(indication : on pourra calculer f:;n (e-(x-o:t) 2 / 2 t) [o:=o).


2) Pour tout a E IR, on considère le processus f(aB) (exponentielle
stochastique de aB). En exprimant f (aB) de deux façons différentes mon-
trer que pour tout n E N et t > 0, on a

et en déduire que, pour tout n 2: 0, le processus ( Hn ( Bt, t) )t<::O est une


martingale.
3) Soit f E L 2 (IR+) une fonction déterministe. On note [ f l'exponen-
tielle stochastique du processus (JJ
f (s )dBs)t i.e.

En considérant [°'f (a E IR) et avec la méthode de la question 2) montrer


que pour tout n E N,
Chapitre 5. Notions sur le calcul stochastique d'Itô 197

lt Hn (ls f(u)dBu, ls f 2(u)du) f(s)dBs

= Hn+l (lt f(u)dBu, lt f 2(u)du) .

4) En déduire que

où dans les intégrales itérées précédentes, il est convenu que les intégrations
se font de la droite vers la gauche.
Exercice 4 : Soit (Ftk:::o la filtration du mouvement brownien B et
T > 0 (éventuellement T = +oo). On va donner une description hilber-
tienne de L 2 (Fr) := L 2 (0., Fr, lfD).
Pour tout entier n 2': 1, on considère l'ensemble

'6.n = {S = (S1, ... , Sn) E lR~ [T 2': s1 > s2 > · · · > Sn}
et L 2('6.n) l'espace des fonctions déterministes de carré intégrable pour la
mesure de Lebesgue définies sur '6.n. On sait que le sous-ensemble En
des fonctions f := @i~ 1 fi où fi E L 2 ([0, T]) (i.e. f(s1, ... , sn) =
fi(s1) · · · fn(sn)) est total dans L 2('6.n)· Pour f E En, on considère la
variable aléatoire

In(f) =
{T
Jo
(81
fi(s1)dBs 1 Jo h(s2)dBs2 ... Jo
rn-1 fn(sn)dBsn
1) Montrer que [[In(f)\\L2(Fr) = \\f\\L2(lln) et que In se prolonge en
une isométrie de L 2('6.n) sur le sous-espace Kn de L 2(Fr) engendré par
In(En). Ce sous-espace Kn est appelé le n-ième chaos de Wiener.
(Remarque: On peut montrer que Kn est l'ensemble des variables aléatoi-
res de la forme
198 Mouvement Brownien et calcul d'Itô

où f E L 2 (f).n) mais il convient de donner un sens précis à l'intégrale sto-


chastique itérée d'une fonction quelconque de L 2 (f).n) ce qui est possible
mais nous ne le demandons pas dans cet exercice.)
2) Montrer que les sous-espaces Kn sont deux à deux orthogonaux dans
L 2 (Fr ).
3) Montrer que l'espace L 2 (Fr) se décompose en la somme directe
hilbertienne
L 2 (Fr) = EB~=oKn
où Ko est lespace des constantes. Autrement dit pour toute variable aléatoi-
re X E L 2 (Fr), il existe une suite (j(n))n?.l avec j(n) E L 2 (f).n), telle
que
OO

Y= lE(Y) +L In(J(n))
n=l
où la convergence de la série précédente est au sens L 2 . (indication : Mon-
trer que le résultat est vrai pour les Y de la forme t:f où f E L 2 ([0, T])
(voir l'exercice 3) et utiliser (après l'avoir montré) le fait que la famille des
variables aléatoires t:f est totale dans dans L 2 (Fr )).
Exercice 5 : Soit X un processus tel que pour tout T > 0, X E
A ([0, T]) et vérifiant la propriété suivante: Pour P-presque tout w E il,
2

la fonction T f---7 J[ x; (
w )ds est strictement croissante et tend vers +oo
lorsque T --+ +oo. Pour tout a :2: 0, on pose alors

Ta = inf { :x: :2: O; lx X'}ds > a} .

1) a) Justifier que Ta(w) < +oo pour P-presque tout w En.


b) Montrer que Ta est un temps d'arrêt de la filtration brownienne et que
J;a X?ds =a.
2) a) Soit a> 0 fixé et AI= (Mth?.o tel que J\;ft = J~ Xsl[s::Sra]dBs.
Montrer que J\;f est une martingale de carré intégrable et que
supt?.O lE(M?) < +oo. b) En déduire que

lim Mt := Wa existe JPl - p.s. et dans L 1 .


t-++oo

On écrira alors dans toute la suite


Chapitre 5. Notions sur le calcul stochastique d'Itô 199

On fixe alors une suite finie d'instants 0 :S: t 1 < · · · < tm et pour tout
k = 1, ... , m, on considère le processus X(k) = (Xik))s::::o tel que

Xik) = Xsl[s:STt1.J
On pose alors

où les Àk (k = 1, · · · , m) sont des réels fixés.


3) a) Justifier pourquoi Y = (Yl)t::::o est un processus d'Itô à valeurs
complexes.
b) Calculer la différentielle stochastique de Y.
4) a) Vérifier que si tz :S: tk. il existe une constante C > 0 qu'on
précisera explicitement, telle que

et en déduire que le processus Y est borné en précisant par quelle borne.


b) Démontrer que Y une martingale et donner la valeur de IE(lt) pour
tout t 2::: 0 (indication : on pourra utiliser la question 3).
5) a) Démontrer que yt tend vers une limite JF-presque sûrement si t ---+
+oo et déterminer explicitement cette limite.
b) En déduire la valeur explicite de la fonction caractéristique du vec-
teur aléatoire (Wt 1 , ••. , Wtm).
c) Conclure que West un mouvement brownien.
6) a) Si on considère le processus défini par at = J~ X'}ds, montrer que
TID-p.s. on a
Wat = lat XsdBs.
ce qui montre que toute intégrale stochastique est un mouvement brownien
changé de temps.
b) En déduire par un autre argument que celui vu en cours que le processus
(J; X dBs)
8
t>O
a une version continue.
Remarque : Les résultats des questions 2) b) et 6) a) constituent un cas
200 Mouvement Brownien et calcul d'Itô

particulier du célèbre théorème de Dambis, Dubins-Schwarz (voir [51] p.


181).
Exercice 6 : Soit T 0 > O. On considère ici un processus X tel que pour
toutT < To,X E A2 ([0,T])etonsupposequepourlP'-presquetoutw E 0,
la fonction T f--+ J;{ X'} (w )ds est strictement croissante et tend vers +oo
lorsque T --t To.
Pour tout t 2: 0, on définit Tt par la même formule qu'à l'exercice 5.
1) Montrer à grands traits (i.e. sans refaire tous les calculs) que tous les
résultats de l'exercice précédent sont encore vrais.
2) On rappelle que le pont brownien est le processus vérifiant l'EDS

{ dUt = - {.}_t dt + dBt (t E [0, 10)


Uo = O.
et que sa solution est Ut = (1 - t) J~ 1 ~ 8 dB 8 • En appliquant les résul-
tats précédents, montrer que limt-+i Ut = 0 lP'-p.s. (On pourra utiliser les
invariances du mouvement brownien par translation et inversion du temps).
Notes : La définition que nous donnons d'un processus d'Itô corres-
pond dans notre cadre du mouvement brownien à celle de Revuz et Yor
([51] p.298). La discussion heuristique de la formule d'intégration par par-
ties en particulier les équations 5.11, 5.12 et 5.13, ainsi que la motivation
heuristique à la formule d'Itô sont inspirées de la "table de multiplication"
des éléments différentiels dBt et dt de Karatzas et Shreve [33] p. 154, table
qui figure déjà dans le livre de McKean [41] p.33. Nous avons fait une brève
allusion à la formule d'Itô holomorphe (corollaire 5.3.1) qui n'est en fait
qu'une réécriture commode de la formule 5.16 dans le cas m = 2 lorsque
la fonction f vérifie les conditions de Cauchy-Riemann. Cette formule que
nous avons appelée "holomorphe" ne sert que dans la démonstration du
théorème de Girsanov et n'a rien à voir avec le calcul stochastique holo-
morphe ou conforme qui utilise un mouvement brownien complexe (voir
par exemple l'article de Getoor et Sharpe [24]). Pour le théorème d'exis-
tence et d'unicité (théorème 5.4. l) nous avons adopté la présentation de
Brzeiniak et Zastawniak ([6] p. 205) qui donne très rapidement l'existence
de la solution; mais pour obtenir l'unicité à indiscernabilité près, on utilise
ensuite l'inégalité maximale V comme dans les preuves classiques (voir
par exemple [2] p. 196). Pour obtenir le caractère markovien de la solution
d'une EDS, nous avons suivi Protter ([48] p. 291) et Baldi ([2] p. 214). La
Chapitre 5. Notions sur Je calcul stochastique d'Itô 201

présentation du problème de Black, Scholes et Merton est adaptée de Lam-


berton et Lapeyre [38] alors que la mise en équation du paragraphe 5.6.1 B)
qui est celle utilisée par les professionnels de la finance, m'a été communi-
quée par mon fils Arnaud. Enfin les exercices 3 et 4 sur la décomposition
en chaos de Wiener sont tirés du livre de Marc Yor [56].
202 Mouvement Brownien et calcul d'Itô
Chapitre 6

Solutions des exercices

6.1 chapitre 1

Exercice 1: 1) La fonction (s, t) t-t l[s=t] qui vaut 1 sis= t et 0 sinon


est clairement une fonction de covariance et le processus gaussien X existe
d'après le théorème 1.2.1.
2) Supposons que X est mesurable et soit T > O. Comme J[lE(IXtl)dt
= 2T < +oo et que for lE(IXtl)dt = lE(j"[ IXtldt) (Fubini-Tonelli), on a
for IXt ldt < +oo IP'-p.s. et J"[ Xtdt est une variable aléatoire centrée
(car par Fubini on a alors lE(f0r Xtdt) = J"[ lE(Xt)dt = 0). Calculons sa
variance:
lE((f[ Xtdt) 2 ) = lE(f~r Xsds J[ Xtdt) = lE(J[o,r]2 XsXtdsdt) =
f[o,r]2 lE(XsXt)dsdt = 0 (l'intervertion de lE et de f[o,r]2 étant justifiée
par le théorème de Fubini car Jro,r]2 lE(IXsllXtl)dsdt = fro,r]2 lE(IXsl)
lE(IXtl)dsdt = 4T 2 < +oo). Il en résulte que J[ Xtdt = 0 IP'-p.s. Plus
précisément il existe un ensemble mesurable Ar E n avec IP'(Ar) = 1 tel
que for Xt(w)dt = 0 pour tout w E Ar. L'ensemble A= nrE<QAr est de
probabilité 1 et pour w E A, on a J'[ Xt(w)dt = 0 pour tout TE (Q donc
pour tout T E lR car la fonction T t-t J[ Xt(w )dt est continue. Mais alors
ceci implique que pour tout w E A, Xt(w) = 0 p.p. (i.e. pour presque tout
t) ce qui contredit le fait que les Xt sont de loi N(O, 1). Donc le processus
X n'est pas mesurable.

203
204 Mouvement Brownien et calcul d'Itô

Exercice 2 : Il existe des suites (an) et (bn) de réels tels </>(x) =


supn (anx + bn) (x E JR). La linéarité et la croissance de l'espérance condi-
tionnelle, impliquent :

anE(XID) + bn = E(anX + bnlD)::; E(</>(X)ID) (n EN).

En passant au sup en n, on obtient aussitôt Je résultat.


Exercice 3 : Pour tout n E N fixé, considérons les événements Ak n =
[zn Dk=l 2k,. l Ak,n. p ar construct10n
k-1 ::; T < 2k,. ] (k" E nfuT*) et posons Tn = °"+oo '·
on a Tn \,. T si n ---t +oo. D'autre part pour tout t E T, si kn est entier tel
k ::; t < k2n
que 2:;: k A k,n E .rkn/2n
+1 'on a [Tn ::; t ] = uk~l r r
c .rt. Donc Tn
est un temps d'arrêt.
Exercice 4 : 1) si T = N, pour tout n E N, on a
[T + O' ::; n] = ur=o[T ::; n - k] n [O' = k]. Or [T ::; n - k] E Fn-k c Fn
et [O' = k] E :Fk C Fn, d'où [T ::; n - k] n [O' = k] E Fn et [T + O' ::;
n] E Fn comme réunion de parties de Fn donc T + O' est un temps d'arrêt.
On notera que Je résultat est évidemment Je même pour lespace des temps
Tm= { 2';,,; k E N} où m E N est fixé.
2) Si T = lR+ (ou [O, a]) soit Tn (resp. O'n) les temps d'arrêt à valeurs
dans Tn tels que Tn \,. T (resp.O'n \,. O') quand n ---t +oo construits à
l'exercice précédent. Pour tout t E T, on a donc [T + O" ::; t] = n.t~ [Tn +
O'n ::; t] E Ft car pour tout n, on a [Tn + O'n ::; t] E Ft. D'où le résultat.
Exercice 5: 1) Il est clair que Zn E L 1. En prenant l'espérance condi-
tionnelle des deux membres de l'égalité Zn+l = Zn+ Yn+l (Xn+1 - Xn),
on obtient E(Zn+1 IFn) = Zn car E(ZnlFn) = Zn et comme Y,i+l est
Fn mesurable et bornée E(Yn+l (Xn+l - Xn) IFn) = Y,i+1E( (Xn+l -
Xn) IFn) = 0 (puisque X est une martingale). Donc Z est une martingale.
2) Yk(Xk - Xk_ 1) E L 1 par Cauchy-Schwarz donc Zn E L 1. Mais
les hypothèses L 2 assurent toujours l'égalité E(Yn+l(Xn+l - Xn)IFn) =
Y,i+1E( (Xn+l - Xn) IFn) et la méthode de 1) permet encore de conclure.
Exercice 6 : 1) Soit B un borélien de R L'événement [Y,i E B] vaut
respectivement l/J, il, [T 2: n] ou [T < n] si 0, 1 1. B, 0, 1 E B, 1 E B et
0 1- B, ou 11. B et 0 E B. Dans tous les cas on a [Yn E B] E Fn-1 ce qui
montre que Yn est Fn- l mesurable.
2) On a clairement X 7 /\n = Xn si Yn = 1 et X 7 /\n = X 7 si Yn = O.
Mais en remarquant que si Yn = 1, on a aussi Yk = 1 pour k ::; n, ceci
implique que Xo + Y1(X1 - Xo) + · · · + Y,i(Xn - Xo) = Xn si Yn = 1.
Chapitre 6. Solutions des exercices 205

De même lorsque Yn(w) = 0, la somme précédente vaut Xr(w)· D'où la


formule donnant Xr/\n· Il suffit alors d'appliquer le résultat de l'exercice 5
pour en déduire que (Xr/\n)n est une martingale.
Exercice 7 : 1) comme IF'( T = +oo) = 0 par hypothèse, on a 1 =
L:t~ l[r=k] p.s., donc X 7 = L:t~ X 7 1[r=k] p.s. et la première formule
s'obtient en prenant l'espérance des deux membres puis en intervertissant
JE et L ce qui, compte tenu du fait que les sommes partielles de la série
sont dominées par la v.a. intégrable [X7 1 est justifié par le théorème de con-
vergence dominée de Lebesgue. Le reste de la série convergente précédente
tend donc vers zéro, ce qui se traduit par limn___,+ 00 IE(X7 l[r>nJ) =O.
2) On a X 7 = Xr/\n + (X7 - Xn)l[r>n] car puisque les deux événe-
ments [T :S n] et [T > n] forment une partition de n, on vérifie immédiate-
ment que le second membre de l'égalité vaut X 7 (w) si w E [T :S n] ou si
w E [T > n]. On en déduit que

car comme (Xr/\n)n est une martingale, son espérance est constante et donc
IE(X1) = IE(Xr/\n)· Mais quand n ___. +oo, IE ((X7 - Xn)l[r>nJ) ___. 0
par l'hypothèse et le résultat de 1). D'où IE(X7 ) = IE(X1).
Exercice 8 : 1) Test le temps d'entrée du processus (à temps discret)
(Sn)nEN dans l'ensemble {-a, a}. D'après le cours c'est donc un temps
d'arrêt pour la filtration naturelle de (Sn)nEN mais aussi pour la filtration de
(Zn)nEN*· Si maintenant on voit la suite (Zi)i>l comme modélisant un jeu
de pile ou face symétrique (avec 1 :=pile et -1 :=face), T > 2an signifie
qu'au cours des 2an premiers lancers, on n'a jamais atteint un total égal à
a ou -a. Si l'on considère ces 2an lancers comme n séries de 2a lancers,
ceci implique que parmi ces n séries, aucune n'est composée que de piles.
Si on désigne cet événement par A et comme la probabilité qu'une série de
2a lancers ne contienne que des piles est égale à ~' par l'indépendance
des lancers, on a donc

IP'(T > 2an) :S IP'(A) = ( 1- 221a )n


Mais pour tout entiern > 0, on a [T = +oo] c [T > 2an], d'où 0 :S IP'(T
=
+oo) :S IP'(T > 2an) ___. 0 (sin___. +oo). Donc IP'(T = +oo) = 0 ce qui
équivaut à dire que T < +oo p.s.
206 Mouvement Brownien et calcul d'Itô

Ecrivons alors JE( T) = L~= 1 m!P'( T = m) et comme tout entier m


s'écrit de manière unique m = 2an + k avec n E Net 1 :S k < 2a, en
sommant par paquets de longueur 2a la série précédente, on a

OO 2a
JE(T) = L L(2an + k)IP'(T = 2an + k)
n=Ok=l
OO 2a
:S LL2a(n+ l)IP'(T > 2an)
n=Ok=l
OO

:S 4a2 L(n + l)IP'(T > 2an)


n=O

:S 4a 2 f
n=O
(n + 1) (i - ;a)n < +oo.
2

2) Le processus défini par Xn = S~ - n est une martingale. Si on peut


utiliser le résultat de !'exercice 7 et puisque s;
= a 2 , on obtiendra aussitôt
ce qui est demandé car a 2 - JE( T) = JE( Zr -
1) = O. La première condition
X 7 E L est bien satisfaite car JE(IX7 1) :S JE(S;) +JE(T) = a 2 +JE( T) <
1
+oo. Pour vérifier de plus que

il suffit de constater que puisque S.~ :S a 2 sur [T > n], on a JE (S~l[T>nJ) :S


a2 1P'(T > n) --t 0 et que JE (nl[T>nJ) = nlP'(T > n) --t 0 d'après 1). D'où
le résultat.

6.2 chapitre 2
Exercice 1 : 1) Les variables aléatoires et sin) s?n)
(n #- m) sont
2
orthogonales dans L (0., F, IP') car les variables Nk,n et Nk',m le sont.
D'autre part on a JE ( (Sin)) 2 ) = I::%:
01 JE(JV7,n)si,n (t) = 2:::%:
01 si,n(t)
:S 2-n car les supports des sk,n sont disjoints. Ainsi pour p < q, le théo-
Chapitre 6. Solutions des exercices 207

rème de Pythagore implique

si p ---+ +oo. Les sommes partielles de la série donnant Bt forment une


suite de Cauchy dans L 2 donc la série converge dans L 2. De plus les som-
mes partielles étant des variables gaussiennes, leur limite dans L 2, Bt, est
aussi une variable gaussienne. On montre de même que toute combinaison
linéaire a1Bt 1 + · · · + akBt" est une variable gaussienne donc (Bt)tE[O,l]
est un processus gaussien.
Soient 0 ::::; t ::::; t + ô ::::; 1. Dans le produit des séries donnant Bt et Bt+f,,
l'espérance des termes croisés est nulle car les variables en présence sont
indépendantes et centrées. On a donc

IE(BtBt+o) =t(t + ô)IE(N5) + s(t)s(t + ô)IE(N{) + L IE(Sin) s~:~)


n2':1
2n-l )
= t(t + ô) + s(t)s(t + ô) + L ( L Sk,n(t)sk,n(t + ô)
n2':1 k=l

Mais les sk,n(t) =< l[o,t]' hk,n > (resp. s(t), resp. t) sont les coefficients
de Fourier de la fonction l[o,t] relativement à la base hilbertienne des fonc-
tions de Haar de L 2([0, 1]). La formule de Bessel-Parseval, montre alors
qu'on a IE(BtBt+o) =< l[o,t], l[o,t+o] >= t = min(t, t + ô). Donc le
processus gaussien B est un mouvement brownien.
2) Comme les supports des sk,n (k = 0, ... , 2n - 1) sont disjoints, on
a llS(nl(w)lloo = maxo::;k9n-1 suptE[k2-n,(k+l)2-n[ INk,n(w)sk,n(t)I
= 2-(n/ 2)-l maxo::;k9n-1 IN1.:,n(w)l-
M:: 2n-l M::
3) P(maxk [Nk,nl > V L.n) = 1 - nk=O P(IN1.:,nl ::::; V 2n) =
1- (1 - 2
2 J+oo e-t /2 dt)
v'2n ../2ii
2n
-
2 .

v'2n ../2ii - ffn


.,. 2
< 2n+l J+oo e-t /2 dt < 2n+1 e-(v'Trï) /2
../2ii
_l (;?_)n .
.Jiï1i e
4) La série de terme général P(llS(n)lloo > J2rl2-(n/ 2 l- 1) majoré
par Jm (~) n est donc convergente et d'après Borel-Cantelli, pour presque
tout w, on a llS(nl(w)lloo ::::; J2rl2-(n/ 2)-l pour tout n assez grand. Ceci
208 Mouvement Brownien et calcul d'Itô

montre que la série L::~~ sin)(w) converge unifonnément donc est une
fonction continue de t. Ainsi pour presque tout w, t t-+ Bt (w) est continue.
Exercice 2 : 1) K f (s) = J; t f (t )dt+ s f 81 f (t )dt est dérivable presque
partout et (K J)'(s) = f 81 f(t)dt p.p. Si K f = 0, f 81 J(t)dt = 0 p.p. donc
f = 0 p.p.
2) K </> est une fonction continue, or K </> = À</> (À #- 0) implique </>
continue donc K </> est dérivable en tout point, on peut encore dériver et
(K</>)"(s) = -</>(s) = >.<t>"(s). D'où</>"+ ±<t> = 0 (*)et il est clair que
</>(O) = 0 et ef/(O) = 1 (C.I). Inversement si</> vérifie cette équation différ-
entielle avec conditions aux limites (C.I), il est facile de voir (en remontant
les calculs) que K </> = >.</>.
3) L'équation caractéristique de(*) est r 2 + ± = O. Si ).. < 0, on voit
facilement que la seule solution de (*) vérifiant (C.I) est </> = O. Si ).. > 0,
on a r1 = i~, r2 = -i~, </>(t) = C1eitJ1/>. + C2 e-itJ1/>.. La
condition </>(O) = 0 implique C2 = -Ci et
</>'(1) = 0 exige 2'iC1 ~cos(~) =O. Les seules fonctions</>#- 0,
sont obtenues pour~= (2k + lH avec k EN. D'où le résultat.
4) Comme dans l'exercice 1, on applique le critère de Cauchy aux som-
mes partielles de la série définissant Bt ce qui implique

Donc la série donnant Bt converge dans L 2 (0, F, P). Comme dans l'exer-
cice 1, on montre facilement que B est un processus gaussien.
5) Pour t, s E [O, 1], JE(BsBt) = L::t~ Àk</>k(s)</>k(t) = k(s, t), la
dernière égalité d'après le théorème de Mercer (voir [17] tome 1). Donc la
covariance de Best celle d'un mouvement brownien. D'où le résultat.
Exercice 3 : 1) Pour presque tout w, t t-+ Bt(w) est continue donc
f0 Brdt est une variable aléatoire définie P-p.s. En utilisant la représen-
1

tation de Bt de l'exercice 2, on obtient immédiatement


Z = j~1 Bzdt = Ln,m VÀnÀmNnMn f01 </>n(t)</>m(t)dt = Ln;:::o ÀnN;,
car les </>n sont orthogonales sur [O, 1]. Si on note Zn = L::Z=o >.kN'f,
pour tout Ç E IR, on a limn_, 00 Zn = Z et limn_, 00 IE(exp(iÇZn)) =
IE(exp(iÇZ)) par le théorème de convergence dominée.
Mais IE(exp(iÇZn)) = ITZ=o IE(exp(iÇ>.kNf)) (indépendance des N'f) et
Chapitre 6. Solutions des exercices 209

d'après l'expression bien connue de la fonction caractéristique du carré


d'une loi normale, IE(exp(iÇ).kNf)) = (1 - 2iÇ>-.k)- 1! 2 . D'où la formule
annoncée.
3) La formule de Ciesielski ne permet pas d'obtenir ce résultat.
4) IE(Z) = f 01 IE(Bl)dt = J~1 tdt = ~ (à l'aide du théorème de Fubini
pour la première égalité). En utilisant 1) pour exprimer Z 2 , on obtient

+oo
= L ÀnÀm + L À~IE(N~)
n;6m n=O

+oo +oo l
= (2= Àn) 2 + 2 I:: )..;! = 3
n=O n=O

car 1·1 est b"1en connu que "\'+oo 1 "\'+oo 1 7r4 D


L..n=O ( 2n+l)2 = 8 et L..n=O ( 2n+l)4 = 96 . one
7r2

Var(Z) = 112 •
Exercice 4: 1) Il est clair que [n 4 IB1;n41 > n] C An donc, puisque
n 4 B 1;n4 est de loi N(O, n 4 ), J·[-n,n, Je ,; 27rn
1
4 e-t 1 n dt :=:; P(An)· Le chan-
2 2 4

gement de variable t = n 2Ç dans l'intégrale précédente montre alors que


P(An) est minorée par f[-l/n,l/n]c ~e-f.21 2 dÇ qui tend vers 1 sin ---.
+oo. D'où le résultat.
2) Pour s 2: 0 fixé Notons D1j3 = {w ED; t 1-+ Bt(w) est dérivable en
t = s }. Or An "'"(i.e. An+l C An) donc P(An) = limn-++oo P(An) = 1.
Mais nnAn c (Dflr Ce qui implique P((Dfj)c) = 1, d'où P(Dfj) =O.
3) Comme B = (Bs+t - Bs)t?.O est un mouvement brownien et D1j3 =
Dt, la question 3) implique aussitôt P( D1j3) = P(Dt) = O.
4) On vient de montrer que pour tout s 2: 0, JPl-presque sûrement, la
fonction t 1-+ Bt(w) n'est pas dérivable en t = s. Le presque sûrement
dépend de s contrairement au presque sûrement du théorème 2.2.1 qui lui
est indépendant des.
Exercice 5: 1) IE(MF')) = exp(-;2 t)IE (exp(ÀBt)). Mais Bt est de
2IO Mouvement Brownien et calcul d'Itô

même loi que ./tN(O, 1) donc E(exp(ÀBt) exp((À./t) 2/2) (voir par
exemple [12] t.I, p. 76). Donc E(l\!It(À)) = 1.
2) Si t 2: s,

E(M?) IFs) = e->h/2+ÀBsE(eÀ(Bt-Bs) IFs)


= e-À t/2+ÀBsE(eÀ(B1-Bs))
2

= e-À 2 t/2+ÀBseÀ 2 (t-s)/2) = M(À)


s

(la première égalité car eÀBs est une variable de L 2 qui est Fs-mesurable et
la deuxième égalité car Bt - Bs est indépendante de F 8 ). Ce qui démontre
le résultat.
3) Le processus (1\!Ig;Jt"20 est une martingale bornée par eÀa donc elle
est uniformément intégrable. Le théorème d'arrêt de Doob appliqué à cette
martingale et au temps d'arrêt Ta : E( 1\!IJ:l) = 1 donne le résultat annoncé
puisque B 7 a =a.
Exercice 6: 1) Soient 0:::; t 1 < · · · < tn des instants et À1, ... , Àn-l
des réels. Posons Z1, ... ,n = exp( i(À1 (Xt 2 - Xt 1 ) + · · · + Àn-1 (Xtn -
Xtn_ 1 )). On a alors

E(Z1, ... ,n) = E(E(Z1, ... ,nlFtn-1))


= E(Z1, ... ,n-1E(exp(iÀn-1(Xtn - Xtn-JIFtn-1))
= exp(-À;i(tn - tn-1)/2)E(Z1, ... ,n-i).

Par récurrence descendante, on obtient ainsi


E(Z1, ... ,n) = IT%= 2 exp(-ÀL 1(tk - tk-1)/2).
Cette fonction de À1, ... , Àn-l est la fonction caractéristique d'un vec-
teur gaussien centrée de matrice des covariances diagonale, de diagonale
t2 - t1, t3 - t2, ... .tn - tn-1, ce qui montre que les variables Xtk - Xtk-i
sont indépendantes et de loi N(ü, tk - tk_ 1 ). Le processus (Xt) est donc
un processus à accroissements indépendants tel que Xt -X8 f=. N(O, t- s)
donc un mouvement brownien.
2) On utilise une méthode analogue à celle de la question l) en utilisant
la transformée de Laplace au lieu de la fonction caractéristique.
3) Il suffit de reprendre le calcul de la question 2 de l'exercice 5, on voit
alors que l'hypothèse que (1\!I?)) est une martingale implique E( exp À(Xt-
Chapitre 6. Solutions des exercices 211

Xs)IFs) = exp(>. 2 (t-s)/2) pour tous s < t. Le résultat de 2) permet alors


de conclure.
Exercice 7 : l) Pour des temps t 1 < · · · < tn et des scalaires a1, ... , an,
la variable n1Ut 1 +· · ·+r:xnUtn = n1Bt 1 +· · ·+anBtn -(a1 +· · ·+r:xn)B1
est gaussienne car B est un processus gaussien donc U est gaussien et cen-
tré. Pour s < t, on a IE(UsUt) = IE(BsBt - tB1Bs - sB1Bt + stBÎ)) =
s(l - t). Donc U est de covariance (s, t) f---7 min(s, t)(l - max(s, t)).
2) (U1-t)tE[ü,l] est clairement gaussien centré et pour s < t, puisque
1-t < 1- s, on alE(U1-sU1_t) = (1-t)(l - (1- s)) = s(l -t) donc
sa covariance est la même que celle de U. D'où le résultat.
3) X = ( (t + 1 )Ui/(t+i)) t>o est gaussien centré car toute combinaison
linéaire d'états de X s'écrit comme une combinaison linéaire d'états de
U qui est gaussien centré. Pour s < t, on a IE(XsXt) = (t + l)(s +
l)IE(U1/(t+1)Vi/(s+1)) = (t + l)(s + 1) 1 ~ 8 (1 - l~t) = s = min(s, t).
Donc X a même covariance que le mouvement brownien et comme Xo =
0, c'est aussi un mouvement brownien.
Exercice 8 : l) a) Loi de 1Bt1 : Pour g : IR --+ IR borélienne bornée, on a
IE(g(IBtl)) = J~: g(lxl) /( tldx = J~+oo g(x)P,e-x /( 2tldx.
Â7fte-x
2 2 2

Donc la fonction x f---7 lTJ?.+ (x) lf,,e-x 2 /( 2 tJ est la densité de IBtl·


b) Loi de Mt - Bt : Pour g : IR --+ IR borélienne bornée, écrivons
IE(g(Mt-Bt)) = J fo~y,O~y-xg(y-x)#(2y-x)e-( 2 y-x) 2 /( 2 tldxdy(*)
d'après l'expression de la densité du couple (Bt, Mt) donnée en (2.32). Fai-
sons le changement de variable u = y - x et v = y de jacobien ~~~~ = 1
1 1

dans l'intégrale précédente. On obtient

(*) = ;· r g(u) ~(u + v)e-(u+v) 2


/( 2t)d,udv
Jo~·u,O~v V;j3
= {oo g(u) (2e_.u2/(2t)du,
lo Vri
ce qui montre que Mt - Bt et IBtl ont même densité.
c) Loi de Mt : On a
IE(g(Mt)) = J fo~y,O~y-x g(y)#(2y-x)e-( 2y-x) 2 /( 2tldxdy et le chan-
gement de variable u = y et v = y - x fait immédiatement apparaitre
comme en b) que la densité de Mt est la même que celle de IBtl·
212 Mouvement Brownien et calcul d'Itô

2) a) Loi de 11Bf)11 : Pour toute fonction g borélienne bornée, on a


IE(g(llB?)ll)) = J~3g(llxll)(27rt)- 3 l 2 e-llxi12/( 2 tldx (*)d'après l'expres-
sion de la densité de Bi 3 ) (voir 2.19). Si on fait le changement de variable
en coordonnées sphériques x = p1J, où p = l lx 11 et 1J = l l~l I E 52 (la
sphère unité de JR.3 ), on a
( *) = J~., Jty:)g(p) (27rt)- 312e-P 2 /( 2t) p 2 dpd1J, où d1J est la mesure super-
ficielle dé 52. Comme l'intégrale en d1J vaut 47r, il en résulte aussitôt que
la densité de l1Bi3) 11 est la fonction p f-7 (27rt 3 )- 1/2 p2e-P 2 /(2t) lIR+ (p ).
b) Loi de 2Mt - Bt : on procède comme en 1) pour écrire

IE(g(2Mt - Bt)) =

j .1·O~y~~y-x g(2y - x) V~
~(2y - x)e-( 2y-:r:) 2 /( 2tldxdy(*).

= 2y- x et v = y de jacobien égal à 1, donne


Le changement de variable 'U
(*) = J J~~v~ug('U)~·ue-·u 2 /( 2 t)d·udv et l'intégration env montre
alors que 2Mt - Bt a même densité que l1Bi 3 ) 11-
Exercice 9 : 1) Si t = lin ou k+l
n ' la formule est claire '
· sin <t
li - < k+
n'
1
xin) = )n(5k +(nt - k)Çk+l) qui est exactement la fonction affine de t
qui vaut x(n)
k/n
en t = k/n et x(n)
(k+l)/n
en t = (k + 1)/n.
2) Pour 0 :S k :S p, on peut écrire

où N = [ntk] - [nt1.;-1] et tk-1 = 0 (donc 5[ntk_ 1 J = 0) par convention


si k = O. Mais N /n ---+ (tk - tk_ 1) sin ---+ +oo et l'expression entre pa-
renthèses dans le second membre de la formule précédente converge en loi
vers une loi N (0, 1) quand n ---+ +oo d'après le théorème limite central. Le
premier membre converge donc en loi vers N(O, t1.; -tk-1) ~ Btk - Btk-l.
Comme ses composantes sont des variables aléatoires indépendantes, le
vecteur Yn = .)n(5[nt 1 ],5[nt 2 ] - 5[nt 1 ], ••• ,5[ntp] - 5[ntp-l]) converge
donc en loi vers V= (Bt 1 , Bt 2 - Bt 1 , ••• , Btp - Btp_ 1 ).
Chapitre 6. Solutions des exercices 213

3) M ais . Z (X(n) X(n) X(n) X(n) X(n) ) "\J '


n= t1' t2 - t1 , ... , tp - tp-1 =.Ln+En,OU
En est un vecteur aléatoire qui tend vers 0 lJl>-p.s. Il résulte alors du lemme
classique de Slutzky que Zn a la même limite en loi que Yn.
4) En utilisant la fonction continue f(x1, ... , xp) = (x1, x1 + x2, ...
x 1 + · · · xp) et la conservation de la convergence en loi par transformation
continue, on en déduit f(Zn) .!:.+ f(V). C'est le résultat demandé.

6.3 chapitre 3
Exercice 1 : l) Pour alléger les notations, on écrira IEt pour désigner
l'espérance conditionnelle IE(.[Ft)· Pour s < t < u, on a Ps;u(X8 , A) =
lJl>(Xu E A[Fs) = IE 8 (1A(Xu)) = JES(JEt(lA(Xu)) = IE 8 (Pt,u1A(Xt))
(la dernière égalité d'après la condition de Markov (3.1)). Mais en notant
f = Pt;ulA, on a IE 8 (f(Xt)) = Ps,d(Xs) en appliquant une deuxième
fois la condition de Markov 3.1. On a finalement montré Ps,,u(Xs, A) =
JE Ps,t(Xs, dy)f(y) =JE Ps,t(Xs, dy)Pt,u(Y, A).
2) On a vu que Ps,u(X (w), A) = JE Ps,t(X (w), dy)Pt,u(Y, A) pour
8 8

lJl>-presque tout w. Donc on a Ps,u(x, A) = JE Ps,t(X, dy)Pt,,u(Y, A) pour


les x de la forme x = X 8 (w) donc pour µx,-presque tout x E E.
Exercice 2 : 1) Soit f une fonction borélienne bornée sur JRd. Pour
s < t, on a IE(J(Xt)[Fs) = IE(J(Xt - Xs + Xs)[Fs) = g(Xs) où g(x) =
JE (J(Xt - X 8 + x)) d'après le lemme 3.2.l puisque Xt - X 8 est indé-
pendante de F 8 et que X 8 est F 8 -mesurable. Mais Xt - X 8 est de même
loi que Xt-s - Xo par hypothèse; ainsi IE(J(Xt)[Fs) = Pt-sf(X8 ) où
Puf(x) = IE(f(Xu - Xo + x)) = j~d J(y + x)dµu(y), avec µ,u la loi de
Xu - Xo. Donc X est "candidat" à être un processus de Markov homogène
avec (Pt)f?.O pour famille d'opérateurs de transition.
Si u, v 2: 0, Pu+vf(x) = IE(J(Xu+v + x)) = IE(J(Xu+v - Xu + Xu -
Xo + x) (*). Mais les variables aléatoires Xu+v - Xu et Xu - Xo sont
indépendantes et de loi respectives µv (car Xu+v - Xu est de même loi
que Xv - Xo) et µu donc (*)= j~d j~d J(t + z + x)dµv(t)dµu(z) =
JJE.d Pvf(z + x)dµ,u(z) = Pu(Pvf)(x). Mais d'après Fubini cette quantité
est aussi égale à Pu(Pvf) (x ). Donc la propriété de semi-groupe est vérifiée
et X est donc un processus de Markov homogène.
2) D'après la proposition 1.1.4 et la question 1) le processus de Poisson
(Nt)t?.O est un processus de Markov homogène sur lR de semi-groupe tel
214 Mouvement Brownien et calcul d'Itô

que Ptf(x) = E(f(Nt + x)) = I:~~ f(x + n)e-Àt(>.tr /n! puisque Nt


est de loi de Poisson de paramètre Àt.
Exercice 3: 1) On note que Ptf(x) = E (f(Xt + x)) où Xt est une
variable aléatoire de Poisson de paramètre Àt. La première condition de
la définition 3.3.1 est évidente. Vérifions la propriété de semi-groupe :
Si ·u, v 2". 0, Pu+vf(x) = E(f(Xu+v + x)) où Xu+v est une variable
de Poisson de paramètre >-.(u + v). Cette variable est égale en loi à la
somme de deux variables de Poisson indépendantes de paramètres )..·u et
Àv qu'on notera Xu et Xv (cette propriété d'additivité des lois de Poisson
est bien connue). On a alors Pu+vf(x) = E(f(X.u + Xv + x)) et par la
même méthode qu'à la question 1) de l'exercice précédent, on montre que
Pu+vf(x) = Pu(Pvf)(x) = Pv(Puf)(x). Donc (Pt) est un semi-groupe
d'opérateurs de Markov.
2) Pour f E Co(~). on a
Ptf(x)- f(x) = 2:.~~(f(x + n) - f(x))e-Àt(>-.tr /n!. En fait on notera
que la somme précédente commence en réalité à n = 1. On a donc 11 Pt f -
flloo :S 2llf lloo L~~ e-Àt(>-.tr /n! quantité qui tend clairement vers 0
quand t - O. Donc le semi-groupe est de Feller.
3) Pour f E Co(~). on voit que C 1 (Ptf(x) - f(x)) = >-.(f(x + 1) -
f(x)) + L~~(f(x+ n) - f(x))e-Àt(>-.yitn-l /n! - >-.(f(x + 1)- J(x))
si t - O. Donc le générateur du semi-groupe de Poisson est l'opérateur L
de domaine DL= Co(~) donné par Lf(x) = >-.(f(x + 1) - f(x)).
Exercice 4 : 1) Si s < t et f est une fonction borélienne bornée sur ~.
E(f(Bt+µt)IFs) = E(f(Bt-Bs+µ(t-s)+Bs+µslFs) = g(Bs+µs)
oùg(x) = E (f(Bt - Bs + µ(t - s) + x)) (Lemme 3.2.1). Notons g(x) =
Ps,d(x), car c'est le candidat à être le noyau de transition. Comme Bt-Bs
est de loi N(O, t - s), on a Ps,tf(x) = (27r(t - s))- 1/ 2 JIR J(u + µ(t -
s) + x) exp(-u2 /2( t - s) )dz, et par le changement de variable u = z -
x - µ(t - s) on obtient:
Ps,d(x) = (27r(t-s))- 1/ 2 JIR f(z) exp (-(z-x-µ(t-s)) 2/2(t-s))du.
Exercice 5: Soit Fla filtration de B et 0 :::; s < t. On notera E.r• l'es-
pérance conditionnelle sachant F 5 • Soit A= (O,a]. On a E.r•(lA(Rt)) =
E.r• (lA(llBtll)) = EB, (lA(llBt-sll)) d'après la propriété de Markov. On
a (*)Ex(lA(llBull)) = JJRd ( 27r.~)d/ 2 111Yli::;a exp(-llx - Yll 2 /(2u))dy.
Mais si on fait le changement de variable en coordonnées sphériques p =
llYll et a = y/llYll E Sd-1 dans l'intégrale précédente, en notant da la
Chapitre 6. Solutions des exercices 215

mesure superficielle de la sphère sd-1 • on a


(*) = J[o,a]xSd-l (27r·~)d/2 exp(-21u([[x[[ 2+P2-2p < X,O' >)pd-IdpdO' =
ra 1 . exp(-..l.([[x[[2 + p2))(j' e(pf'u)<x,o->dŒ)pd-Idp.
Jo (27r·u)d/2 2'U sd-1

Or pour x E JR.d, l'intégrale fs e<x,o-> dO' vaut


d-1
2 2
(27r )df [[x[ [l-d/ Id; 2 _ 1 ([ [x[ [) (on peut démontrer ce résultat en passant en
coordonnées sphériques ou le déduire de la formule (25) de [54] p.347).
Ceci implique :

où on a posé a= (d/2)-1. En résumé on a démontré que JEFs (lA(Rt)) =


g([[Bs)[[) où g(x) = g([[x[[) = (*)est la fonction précédente (avec u =
t_- s) qui ne dépend que de [[x[[. Si on considère maintenant la filtration
:F naturelle du processus R (qui est une sous-filtration de :F), on en déduit
immédiatement que JEFs (lA(Rt)) = g(Rs); d'où le résultat demandé.
Exercice 6 : a) Détermination du semi-groupe : Utilisons la filtration
(:Ft) du mouvement brownien B et son semi-groupe (Pt)· Soit Ac lR+ un
borélien et s < t, on a IE(lA([Bt[)[:Fs) = IE(lA(Bt) + l_A(Bt)[:Fs) =
Pt-s(lA + 1-A)(B8 ), d'après la propriété de Markov de B. Mais notons
que si f est une fonction paire, Ptf est aussi une fonction paire et qu'alors
on a Ptf(Bs) = Ptf([Bs[) (c'est l'observation clé!).
Donc IE(lA([Bt[)[:Fs) = Pt-s(lA + 1-A)([Bs[) et cette relation est en-
core vraie si on remplace la filtration (:Ft) par la filtration naturelle de
[B[ = ([BtDt>O· Donc [B[ est un processus de Markov homogène. De
plus
(*) Pu(lA + 1-A)(x) = JJRp'U(x, y)lA(y)dy + j~p'U(x, y)l-A(y)dy =
Jtxi p'U(x, y)lA(y)dy + J~=p'U(x, y)l-A(y)dy (car Ac lR+) et le chan-
gement de variable y +-+ -y dans la deuxième intégrale montre que ( *) =
f 0+=(p'U(x, y)+ P·u(x, -y))lA(y)dy donc le semi-groupe (Qt)t:'.".O de [B[
adesdensitésdetransitionpt(x,y) +Pt(x,-y) (x,y;::::: 0).
b) Détermination du générateur infinitésimal : Soit D l'ensemble des
fonctions f E Co([O, +oo[) telle que J', f" E Co([O, +oo[) et f'(O) = 0
(en x = 0, J'(O) et f"(O) sont évidemment des dérivées à droite). Une
216 Mouvement Brownien et calcul d'Itô

fonction f E D se prolonge en une fonction paire JE Co(lR) deux fois dé-


rivable dont les dérivées f' E Co(lR) et f" E Co(lR) prolongent continue-
ment les fonctions f' et f". En effet si on pose f(x) = f(x)l[o,+oo[(x) +
J(-:r:)l]-oo,o[(x) il est facile de vérifier les assertions précédentes. Cette
observation va nous permettre de nous ramener au cas du mouvement brow-
nien. En effet pour une telle fonction f, on a
Qtf(x) = f 0+00 (Pt(x, y)+ Pt(x, -y))J(y)dy = J~;: Pt(x, y)f(y)dy =
Pd(x). Mais on sait (théorème 3.3.1) que C 1 (Pd-f)--+ Af dans Co(lR)
si t--+ O. Donc C 1 (Qtf - J)--+ Af dans C0 (lR+) si t--+ 0, ce qui montre
que D C DA· Pour l'inclusion inverse, on a besoin de la résolvante (R~)
du semi-groupe (Qt) mais compte tenu del' expression des densités de tran-
sition et du théorème 3.3.3, pour f E Co(lR+), on a

R~ J(x) = e-V2Xx j ·x 1
--eV2XY J(y)dy
0 Jv:
+ eV2Xx j·+oo --e-V2XY
X
1
Jv:
J(y)dy

+ e-V2Xx j
·+oo 1
--e-V2XY J(y)dy.
0 Jv:
Il est facile alors de vérifier que R~ f ED i.e. DAC D. D'où DA= D.
Exercice 7: 1) a) IP'x(Bt E A, T ::::; t) = IP'x(-Bt E A, T ::::; t) d'après
le principe de symétrie d'André car pour B ou -B partant de x > 0, le
temps d'atteinte de 0 est le même. Mais [Bt E (-A)] c [T::::; t] car -AC
]R_ et les trajectoires de B sont continues donc si Bt E (-A) le point 0 a
été atteint avant le temps t. D'où IP'x(Bt E A, T::::; t) = IP'x(Bt E -A).
b) Si on applique le résultat de 1) avec A = [O, +oo [, on voit que
IP'x(T :S t) = IP'x(T :S t, Bt 2:: 0) + IP'x(T :S t, Bt :S 0) = 21P'x(Bt :S 0)
Q.E.D.
2) Nous noterons JE (au lieu de lEx 0 ) l'espérance correspondant à la proba-
bilité IF'xo sur l'espace n des trajectoires et JE.Fs pour l'espérance condition-
nelle sachant F 8 •
a) Détermination du semi-groupe: Comme dans l'exercice 6, commen-
çons par travailler avec la filtration de B. Pour 0 ::::; s < t et A c lR+ un
borélien, on a JE.Fs (lA (Xt)) = JE.Fs (lA (Xt)l[t<TI )+JEFs (lA (Xt)1 1T::;tJ) =
Chapitre 6. Solutions des exercices 217

JEFs(lA(Bt)llt<T]) +JEFs(lA(Br)lJT$t]) = (*) + (**).


Mais en écrivant 1 1t<TJ = 1 - 1 1 91 , on a ( *) =
7"

JEFs (l[BtEAJ)-JEFs (l[BtEA,T::;t]) = JEBs (l[Bt-sEA] )-JEBs (l[Bt-sEA,T::;t-s])


d'après la propriété de Markov. Mais
lEx(l[B,,EAJ) = J~: Pu(x, y)lA(y)dy = Jt)()
Pu(x, y)lA(y)dy (car AC
IR'.+) et d'après la question 1),

lEx(l[BuEA,T'.S:uJ) = IP'x(Bu E -A)


0
=[ 00
Pu(x, y)l-A(y)dy

= 1 00
Pu(x, -y)lA(y)dy
d'où

Maintenant calculons
(**) = 1A(û)JEFs(1 1T$t]) = 1A(û)JEB (1[T$t-s]) =
8

lA(O)IP'Bs(T ::; t - s) par la propriété de Markov. Mais IP'x(T ::; u)


2IP'x(Bu < 0) d'après la question 1).
D'où(**)= 21A(O) J0+00 Pt-s(Bs, -y)dy.
On a donc prouvé que JEFs(IA(Xt)) = cj;(Bs) où <f; est la fonction donnée
par:
<f;(x) = f 0+00 (Pt(x, y) - Pt(x, -y))lA(y)dy + 21A(0) j~+oo Pt( X, -y)dy.
Considérons maintenant la filtration naturelle ( Ft/\T) t~o du processus X.
On a JEFs/\T (lA (Xt)) = JEFs/\TJEFs (lA (Xt)) = JEFs/\T (<f;(Bs) ). Finalement
pour montrer que X est de Markov avec les noyaux de transitions deman-
dés, il suffit de montrer que :
(* * *) = JEFsAT(cj;(Bs)) = cp(Bs/\T) = </>(Xs)·
Pour cela écrivons :
( * * *) = JEFs/\T (</>( Bs) l[T:'S:s]) + JEFsAT ( </>( B 8 ) l[T>s]). Mais il est facile de
voir que [T::; s] E Fs/\T donc JEFsAT(cj;(B8 )1[T:'S:sJ) =
l[T:'S:s]JEFs/\T (</>( Bs)) et JEfsf\T (</>( Bs) l[T>s]) = JEfsf\T (cj;(Xs) l[T>s])
= <f;(Xs)l[T>s]· On a donc obtenu
JEFsAT(cj;(Bs)) = l[T:'S:s]JEFsAT(cj;(Bs)) + <f>(Xs)l[T>s]
218 Mouvement Brownien et calcul d'Itô

et le résultat cherché en découle aussitôt.

b) détermination du générateur infinitésimal : Commençons par calcu-


ler la résolvante R>.. du processus X. Pour une fonction f E Co([O, +oo[),
en utilisant la résolvante connue du mouvement brownien, on obtient
R>..f(x) = JtX> Ptf(x)e->..tdt =
= vh JtXl(e-ffilx-yl _ e-ffi(x+y))J(y)dy
+ 2f(O) k Jt)o e-ffi(x+y)dy
= vh (e-xffi J; eYffi f (y )dy + exffi fx+oo e-y-/2,\ f (y )dy
- e-xffi fo+oo e-Yffif(y)dy) + f~)e-xffi.
Ainsi
d~R>..f(x) = -e-xm J; eYffi J(y)dy + exffi J~+oo e-y-/2,\ f(y)dy
+ e-xffi fo+oo e-y-/2,\ J(y)dy - jîf(O)e-xffi.
d2 R ).. 1·( X)=
D , OU, JXl
J2Xe-xffiJ; eYffi f(y)dy + J2Xexffi L+oo e-y-/2,\ f(y)dy
- 2f(x) - J2Xe-xffi f 0+ e-y-/2,\ f(y)dy + 2f(O)e-xffi.
00

On constate alors que !;zR>..f (0) = 0 et que R>..f, (R>..f)' et (R>..f)" sont
des fonctions de C 0 (lR+). Si A désigne le générateur infinitésimal de X et
DA son domaine, on a donc
DA c D = {f E Co([O, +oo[); J', J" E Co([O, +oo[), J"(O) = O}.
Réciproquement, soit f E D et prolongeons f en une fonction fi im-
paire sur lR i.e. pour tout x E JR, on pose fi(x) = f(x)l[o,+oo[(x) -
f(-x)l]-oo,o[(x). On a alors
fo+oo (Pt(:c, y) - Pt(x, -y)) f(y)dy = J~: Pt(X, y)fi(y)dy.
De plus on remarque qu'on a
2f(O) f 0+00 Pt(x, -y)dy = J~: Pt(x, y)2f(O)l]-oo,o[(y)dy. Donc
Qtf(x) = J~: Pt(x, y)(f1(y) + 2f(O)l]-oo,o[(Y))dy = Ptg(x),
où (Pt) est le semi-groupe du mouvement brownien et g est la fonction dé-
finie pour tout y E lR par
g(y) = fi(y) + 2f(O)l]-oo,o[(y).
Etant donné que J" (0) = 0, on constate immédiatement que la fonction g
est de classe C 2 sur lR, qu'elle coïncide avec f sur [O, +oo[ et que
limy--oo g(y) = 2f(O) donc g est uniformément continue sur lR. Pour
x 2:: 0, on a -f (Ptg(:i:) - g(x)) - ~g"(x) = f(Qtf(:i:) - f(x)) - ~f"(x).
Chapitre 6. Solutions des exercices 219

Mais si on reprend la méthode utilisée dans la deuxième partie du théo-


rème 3.3. l (en particulier entre (3.23) et (3.25)), on montre de même que
I(Ptg - g) -1g" --+ 0 uniformément sur lR si t --+ O. Il en résulte que
t(Qd(x) - f(x)) -1f"(x) --+ 0 uniformément en x 2: 0, si t--+ O. ce
qui prouve que si f E D, alors f E DA et Af(x) = 1f"(x). D'où l'égalité
D = DA et le résultat annoncé.

6.4 chapitre 4
Exercice 1 : l) Si X est élémentaire,
I = J:
XtdBt = L~,:01 Xti (Bti+i - BtJ avec a = to < t1 < · · · <
tn = b. Si on pose ti = c + t~, on a a - c :::::; t~ :::::; b - c et I =
Li Xe+t'. [ (Be+t'.+i - Be) - (Be+t; - Be)] = Li Xe+t; (Bg~ 1 -Bg)) =
J:~; Xe+tdB?), où B(l) = (Be+t - Bt)t?.O est un mouvement brownien
d'après le théorème 2.1.6. Si X E A2 ( [O, T]), soit x(n) une suite de proces-
sus élémentaires tels que x(n) --+ X dans A2 ; alors en passant à la limite en
probabilité quand n --+ +oo dans l'égalité
on obtient le résultat demandé.
1: 1:
xti) dBt = X~~~dBi 1 ),
2) Si X est élémentaire, I = J: XtdBt = LZ:o1 XdBti+i - BtJ
avec a = to < t 1 < · · · < tn = b. En posant t,i = tU c avec ac :::::;
t~ :::::; be, on a I = Li Xt;;ec 1 1 2 (Bi~~ - Bi~)) =
1 1:;Xt;edBie), où
B(e) = (JCBt;ek~_o est un mouvement brownien. Pour le cas général on
procède comme à la question l ).
Exercice 2 : Pour alléger l'écriture de l'espérance conditionnelle, on
écrira lEt = lE(.IFt). Si t E T et h > 0, on peut écrire JEl(Mt+h) =
lvlt + A1 + A2 où A1 =
lEt(2J~ XsdBs ftt+h X 8 dBs) et A2 = JEl((j~t+h XsdB 8 ) 2 - l~t+h X'}ds).
On va montrer que A 1 = A2 = 0 :
a) Comme la variable aléatoire J~ X 8 dBs est Ft mesurable et dans L 2 ,
on a A1 = 2 J~ X 8 dBs JEl(j~t+h X 8 dB 8 ) et le terme en espérance condi-
tionnelle est nul car J~ X 8 dBs est une martingale. Donc A1 = O.
b) Il est plus délicat de montrer que A 2 = O. Commençons par le cas
où X est un processus élémentaire. Alors
JEl((ftt+h XsdBs) 2 ) = JEl((Li Xt;(Bti+l - BtJ) 2 ) =
220 Mouvement Brownien et calcul d'Itô

Li,j IEt(XtiXtj (Bt,+ 1 - Bti) (BtJ+l - BtJ) ). Mais si ti # t1, par exemple
si ti< t1, IEt(Xt.,Xti (Bt.,+ 1 -BtJ(Bti+ 1 -BtJ) = IEtlEti (Xt.,XtJ (Bti+l -
Bti)(Bti+ 1 - Bti)) = JEl[XtiXti(Bt.,+ 1 -BtJIEti(Bt1+1 -Btj)] = Ocar
BtJ+i - BtJ est indépendant de Fti et centrée. Si t.i = t1, IEt(Xl(Bt.;+i -
BtJ2) = IEt[IEt'(Xl(Bt,+ 1 - BtJ 2 )] = IEt[X{;lEt'((Bti+ 1 - Bti) 2 )] =
IEt[Xl(tH1 - ti)].11 en résulte que
IEt((j~t+h X 8 dB 8 )2) = IEt[L·i Xl (tH1 - t.i)] = IEt(f/+h X'tds). Donc
A 1 = O. Dans le cas général X E lv/ 2 , soit X(n) une suite de proces-
sus élémentaires tels que X(n) converge vers X dans M 2 ([0, T]). Alors
la suite Yn = (j~t+h xin) dB,,) 2 - 1~t+h(xin)) 2 ds converge vers Y =
(ftt+h X 8 dB 8 ) 2 - ltt+h X'ffds dans L 1 et la continuité de l'espérance condi-
tionnelle implique que JEl(Y) = limn IEt(Yn) = 0 i.e. A2 =O.
Exercice 3: 1) i) Si f = L:'.:01 cil[ti,ti+l[ est en escalier sur [a, b] (avec
Ci des constantes et (ti) une partition de [a, b]), 1: f(t)dt = Li ci(Bt.;+i -
Bt.,) est une variable aléatoire normale et centrée comme somme de va-
riables normales indépendantes et centrées.
On a aussi Var(Ja,b) = Li crVar(Bti+l - BtJ = Li cr(tHl - ti) =
l: J2(t)dt.
ii) Soit f E L 2 ([0, T]). Il existe une suite Un) de fonctions en escalier
telles que fn --+ f dans L 2 ([0, T]) sin--+ +oo. Mais alors on a aussi fn --+
f dans M 2 en tant que processus donc l: fn(t)dBt --+ Ja,b = l: f(t)dBt
dans L 2 (0., F, IP') puisque l'intégrale stochastique est une isométrie. Donc
Ja,b est une variable aléatoire normale centrée comme limite dans L 2 de
variables normales centrées.
De plus Var(Ja,b) = limn-.+oo Var(J: fn(t)dBt) = 1: J2(t)dt.
2) Soit (ti)iEI une subdivision finie de [O, T] contenant les points a, b, c,
d et f =Li cil[t.,,t.;+d une fonction en escalier.
Alors Ja,b = L·iE!i Ci (Bti+l - Et;) et Jc,d = LjE/2 Cj (Bti+ 1 - Bti) (où
lin I2 est vide ou réduit à un point) sont des variables normales centrées et
indépendantes. Il en résulte que toute combinaison linéaire cxJa,b + f3Jc,d
est une variable normale donc le couple (Ja,b, Jc,d) est gaussien. Si f est
quelconque dans L 2 ([0, T]), soit Un) une suite de fonctions en escalier
sur [a, b] telle que fn --+ f dans L 2 si n --+ +oo. Comme à la ques-
tion 1), on montre que pour tout choix des constantes réelles ex, {3, on a
cxJd:~) + f3Jc:~) --+ cxJa,b + f3Jc,d dans L 2 (0., F, IP') (l'indice (n) corres-
Chapitre 6. Solutions des exercices 221

pondant à la fonction f n). La variable exJa,b + f3Jc,d est donc normale donc
le couple (Ja,b, Jc,d) est gaussien. D'autre part, on a cov(Ja,b, Jc,d) =
limn cov(Jd~), Je~~)) = O. Les variables Ja,b, Jc,d étant non-corrélées,
elles sont indépendantes puisque le couple (Ja,b, Jc,d) est gaussien.
3) Par la même méthode qu'à la question 2), on montre que pour 0 s
t1 < t2 < · · · < tk S T, le k-uplet (Jo,t 1 , Jt 1 h, ... , Jtk-i,tk) est gaus-
sien et ses composantes sont indépendantes. Pour tout choix de scalaires
er1, ... , ak. on a er1.7t 1 + · · · + exk3tk = (er1 + · · · + exk)Jo,t 1 + (er2 +
· · · +exk)Jt 1 ,t2 + · · ·+ exk3t1.;-i,tk qui est donc une variable normale centrée
donc J = (Jt)tE[O,T] est un processus gaussien centré.
Calculons sa fonction covariance r : si s < t, r(s, t) = IE(JsJt) =
IE(Jo,s(Jo,s + Js,t)) = IE(J6,s) = J; j2(u)du (en effet IE(Jo,sJs,t) = 0
car les variables Jo,s et Js,t sont indépendantes et centrées). Pour tous set
ton a donc r( s, t) = J;/\t j2( u)du, où s /\ t = min( s, t).
4) Si g(t) = J~ j2(s)ds, il est clair que le processus B = (Bg(t))tE[ü,TJ
est gaussien centré. Pour s < t, on a IE(Bg(s)Bg(t)) = min(g(s), g(t)) =
g(s). Donc Jet B ont même fonction de covariance donc mêmes lois de
dimension finie. Ce sont donc des processus équivalents.
Exercice 4: L'exponentielle d'une variable aléatoire normale étant inté-
grable, on a clairement l\llt E L 1(0, :F, JP). On note encore IEt pour l'espér-
ance conditionnelle sachant Ft. Pour t E [O, T] eth> 0, on a IEt(Mt+h) =
l\llt exp(-~ ftt+h J2(s)ds)IEt(exp(f/+h f(s)dBs)).
Mais comme J~t+h f(s)dB 8 est une variable aléatoire indépendante de :Ft
par construction puisque f est une fonction déterministe (voir l'exercice
précédent), on a IEt(exp(j~t+h f(s)dBs)) = IE(exp(j~t+h f(s)dBs)). Or
comme N = J/+h f(s)dBs est une variable normale centrée (exercice 3),
onsaitquelE(N) = exp(~Var(N)) =exp(~ ftt+h j2(s)ds(d'aprèsl'exer-
cice 3). Donc IEt(Mt+h) = Mt et M est une martingale.
Exercice 5: 1) On a J~ j 2 (s)ds = J~ <P'(s)ds = <P(s) < +oo donc
f E L 2 et on peut appliquer les résultats de l'exercice 3, le processus
(f~ ~dBs)t est donc gaussien de fonction de covariance (s, t) 1-+
<P(s /\ t).
2) B<P est clairement gaussien centré et d'après la question 1)
IE(Bi B{) = <P(<P- 1(s) /\ <P- 1(t)) = s /\ t. B<P est donc un mouvement
brownien pour sa filtration mais de plus pour tout t, B{ est F<P(t)-mesurable
222 Mouvement Brownien et calcul d'Itô

et (.F<P(t)) est une filtration car <I>- 1 est une fonction strictement croissante.
Le procesus B<P est donc également un mouvement brownien pour cette
filtration.
Exercice 6: 1) On a:
1;
lE((j~ g(u)dBu- g(u)dBu)2) = lE((f: g(u)dBu)2) = 1: g2(u)du - t 0
sin ---+ +oo car g E L (IR+)· Le critère de Cauchy dans L 2 (f!,.F,lP')
2

montre alors que limt_,+ 00 1~ g(s)dB 8 := l~+oo g(s)dBs existe dans


L 2 (Q, F, lP'). Mais comme on a aussi convergence des moments d'ordre 1 et
2, on en déduit facilement que JE(j~+oo g(s )dB8 = 0 et JE( (f0+00 g( s )dB8 ) 2)
= l 0+oo g-?( s )ds.
2) La variable aléatoire Y9 est gaussienne comme limite dans L 2 de
variables gaussiennes et l'application g t-t Y9 de L 2 (IR+) sur H est claire-
ment linéaire et isométrique donc H est fermé dans L 2 (Q, F, lP') (comme
image d'un espace complet par une isométrie).
Exercice 7 : 1) On a
L.t=-01 (J~ukk+1 (f (s) )2ds) 2 :S maxkU:kk-H (!( s) )2ds)
. L.f=o1 J~ukk+1 (f(s))2ds =
ruk+i (f(s)) 2ds) Jo
maxk( Juk rT (f(s)) 2ds.
Mais pour une fonction h intégrable on sait que JA
h(t)dt---+ 0 si À(A) ---+
0 où À désigne la mesure de Lebesgue (propriété d'absolue continuité de
l'intégrale). Donc maxo~k~N-1 u::kk+i (!( s) ) 2ds) ---+ 0 si \x\ - t 0 ce qui
prouve le résultat annoncé.
2) On a S1f = L.t;;-01( J::kk+i j(s)dBs) 2 et donc
lE(S7f) = 2:,f=01 r::kk+I j2(s)ds = f~ j2(s)ds d'après l'exercice 3. Pour
alléger les notations qui vont suivre posons h = u::kk-1-i J(s)dBs) 2 -
l:kk+i J2(s)ds. On a alors
lE((S7f - JE(S7f )) 2 ) = lE((L,f;;-01 h)2) = Lo~i,j~N-1 lE(Iiij)
= L,f;;-01 lE(ID car si i f. j, Ji et Ij sont des variables aléatoires indépen-
dantes et d'espérance nulle.
Mais on peut écrire JE(Il) = (f~ukk+i f 2(s)ds) 2JE((Jk - 1) 2) où la variable
aléatoire
u::kk+1 J(s)dBs)2
J1,; = f~ukk+1 f2(s)ds '

est pour tout 0 :S k :S N - 1 égale en loi au carré d'une variable aléatoire


Chapitre 6. Solutions des exercices 223

normale N(O, 1). Il en résulte que IE((Jk - 1) 2 ) = C (constante) ce qui


montre que IE((S7r - IE(S7r)) 2 ) = C'L./::=01 (J~ukk+ 1 (J(s)) 2 ds) 2 ----t O si
17rl ----t 0 d'après la question 1).
3) Comme dans le cas du mouvement brownien (corollaire 2.2.1), on
en déduit que JP>-presque sûrement, les trajectoires du processus :! ne sont
à variation bornée sur aucun intervalle de temps.

6.5 chapitre 5
Exercice 1 : Cherchons X sous la forme Xt = YtZt où Y et Z sont des
processus d'Itô respectivement tels que
dyt = g(t)ytdBt et Yo = Ço
dZt = µ(t)dt + <T(t)dBt et Z 0 = 1,
où g, µ et <T sont des fonctions déterministes. En utlisant la formule d'in-
tégration par parties pour différentier X, on obtient
dXt = ytdZt + Ztdyt + <T(t)g(t)ytdt = J(t)YtZtdt + g(t)YtZtdBt (ex-
pression initiale de dXt). Mais en observant que g(t)YtZtdBt = ZtdYt,
l'égalité précédente implique qu'on doit avoir:

Yt[dZt + (<T(t)g(t) - f(t)Zt)dt] =O.


Si on prenait Œ(t) = 0, l'égalité précédente serait vérifiée si dZt - f(t)Ztdt
= 0 (avec Zo = 1). Mais cette équation est une équation déterministe
(équation différentielle ordinaire) dont la solution est
Zt = exp(f~ f(s)ds).
comme l'équation de Y est, d'après le cours, celle de l'exponentielle sto-
chastique, on sait que
Yt = Ço exp(f~ g(s)dBs - ~ J~ g2 (s)ds).
L'expression de Xt devrait donc être nécessairement la suivante :

lt 1 lt lt )
Xt = Çoexp ( Jo g(s)dBs - 2 Jo g2 (s)ds + Jo J(s)ds .

Mais on vérifie facilement que ce processus satisfait l'EDS proposée. Com-


me l'EDS satisfait les conditions de Cauchy-Lipschitz l'expression trouvée
est bien l'unique solution du problème.
Remarque : La démarche utilisée pour résoudre l'EDS précédente est
typique de la technique qu'on utilise pour résoudre explicitement le petit
224 Mouvement Brownien et calcul d'Itô

nombre d'EDS satisfaisant la condition de Cauchy-Lipschitz et qui ont une


solution explicite : on essaye de faire un changement de processus inconnu
en introduisant un ou deux processus auxiliaires plus simples en relation
avec les coefficients des termes en dt et en dBt en espérant que ceci conduit
à résoudre deux EDS plus simples qui vont donner ces processus intermé-
diaires. On va encore utiliser cette idée dans l'exercice qui suit.
Exercice 2 : Sur l'intervalle [O, T], avec T < 1, cette EDS relève du
théorème de Cauchy-Lipschitz avec µ(x, t) = - 1 ~tx et a(x, t) = 1 car
ces coefficients sont bornés. Donc la solution est unique.
Cherchons alors X sous la forme Xt = Yi:Zt et essayons yt = f (t) (fonc-
tion déterministe) et dZt = g(t)dBt avec g fonction déterministe. Dans ce
cas on aurait :
dXt = ytdZt + Ztdyt = f(t)g(t)dBt + (j~ g(s)dBs)f'(t)dt = dBt -
f(t)I1~~s)dB, dt (la dernière égalité étant l'EDS initiale). Il serait judicieux
de choisir f et g telles que f (t)g(t) = 1; dans ce cas l'équation précédente
se réduirait à

- f(t) 1·t g(s)dB5 = ( /t g(s)dBs)f'(t),


1- t 0 Jo
condition qui serait satisfaite si f(t) = -(1-t)f'(t) donc par f(t) = 1-t.
Ce qui donnerait

Xt = (1 - t) j0
·t 1
--dB8 •
1- s

On vérifie alors facilement que ce processus X vérifie bien l'EDS proposée


et c'est donc l'unique solution sur [ü, T] pour tout T < 1 donc la solution
sur l'intervalle [O, 1 [. De plus en utilisant les résultats de l'exercice 3 du
chapitre 4, on montre facilement que sur [ü, T] (avec T < 1) X est un
processus gaussien centré de fonction de covariance r(s, t) = s(l - t) si
s < t. D'après l'exercice 7 du chapitre 2, ce processus est donc équivalent
au pont brownien (Bt - tB 1 )tE[ü,T]· Ceci étant valable pour tout T < 1, le
résultat est encore valable pour les processus prolongés à l'intervalle [ü, 1 [.
Exercice 3 : 1) La fonction f : (x, u) ~ exp(-(x - u) 2 /2t) vérifie
- d" ( -x 2 /2t) . SI. dans la
cla1rement anf
. - n8nf 8"f
Dxn - ( -1) Ô'U". Or axn l·u=O - dxn e . Mais
fonction f on fait le changement de variable u = at (t est fixé), ceci im-
Chapitre 6. Solutions des exercices 225

Plique ..sf:._
dan
(e-(x-o:t)2 /2t) 1 -
Œ-Ü
= tn f?n f 1, - = (-t)n ..sf:._
axn U-Ü dxn
(e-x2 /2t). Donc

Mais la fonction a t---> eo:x-(0: 2t)/ 2 est analytique donc égale à son dévelop-
pement de Taylor en a= 0 qui d'après ce qui précéde est égal à:
L~=O an H n (x, t). D'où le résultat demandé.
2) D'après le cours on sait que E(aB)t = exp(aBt - (a 2 t)/2). Donc
OO

(*) E(aB)t = LanHn(Bt,t).


n=O
D'autre part E(aB) vérifie l'EDS de l'exponentielle stochastique,
d(E(aB)t) = aE(aB)tdBt avec E(aB)o = 1, donc E(aB)t 1 +
a J~ E(aB) 8 dB 8 • Compte tenu de(*), on a donc

En identifiant les coefficients des ak dans les deux expressions ( *) et ( ** ),


on en déduit aussitôt la relation annoncée. De plus comme Hn(B 8 , s) est
un polynôme en B 8 , c'est un processus appartenant à M 2 ([0, T] donc
(f~ Hn(Bs, s)dBs)tE[O,T] est une martingale (théorème 4.4.1) et ceci vaut
pour tout T > 0 donc
(Hn+1(Bt, t))t=:::o est une martingale (n 2: 0) mais Ho(Bt, t) = 1 est aussi
une martingale, d'où le résultat.
3) Si on remplace x par J~ f(s)ds et t par J~ f 2 (s)ds dans la relation
génératrice des polynômes Hn de la question 1), on obtient
Ef1 = L~=O an Hn(J~ f(s)dBs, J~ f 2 (s)ds) (* * *).
(
Mais par définition on a aussi Ef f = 1 +a J~ E<;' 1 ) f (s) dB s et en reportant
l'expression ( * * *) sous l'intégrale puis en intégrant terme à terme comme
dans la question 2), on a un autre développement en puissances de a. En
identifiant les coefficients des ak, on obtient
Hn (J~ f(u)dBu, J~ f 2 (u)du) =
f~ Hn-1 (J; f(u)dBu, J; j2(u)du) f(s)dBs.
226 Mouvement Brownien et calcul d'Itô

4) En utilisant à nouveau la relation précédente pour exprimer le terme


en Hn-l du second membre par une intégrale en fonction de Hn-2 puis en
procédant de même par récurrence descendante on obtient
Hn (J~ f('U)dBu, J~ f 2('U)d'U) = J~ f(s1)dBs 1 J; f(s2)dBs 2
1

••• OJ·sn-1 j"(


Sn
)dBSn
D'où le résultat demandé grâce à ( * * *) en faisant a = 1.
n
Exercice 4: 1) Pour = 1, Ii(f) = J~r f(s)dBs et comme l'intégrale
stochastique est une isométrie, on a
[[Ji(f)[[i,2(.Fr) = [[f[[i2([ü,T]) = [[fllh(Âi)"
Sin= 2, f(s) = fi(s1)h(s2) et h(f) = J~r fi(s1)Xs 1 dBsl' où
Xs 1 = J; 1 h(s2)dB82 , ce qui a bien un sens car le processus (f1(t)Xt)
est dans M 2. Par le théorème d'isométrie, on a

= IE(f~r ff(s1)X'!1 ds1) = J-;{ ff(s1)1E(X'!1 )ds1 =


llh(f)lll2(.rr)
JÂ 2 ff(s1)f](s2)ds1ds2 = llflll2(Â 2 ). D'où la formule pour n = 2. Fai-
sons l'hypothèse de récurrence que la formule est vraie à l'ordre n - 1 et
dans tout "triangle" de la forme

avec a :S T i.e. pour toute fonction f(s2, ... , sn) = h(s2) ... fn(sn)
de carré intégrable dans ~~_ 1 , supposons [[12(f)ll12(.rr) = llflll2(Â~_ 1 )·
Vérifions l'hypothèse de récurrence : Soit a :::::; Tet f(s) = fi(s 1) ...
f~(sn), on a
Ina ( f ) = 1·T0 fi (s1 )Xs dB
1 avec Xs 1 = Jo
81
fSl
h ( s2 ) dBs 2 Jo
fS2

... J;n-l fn(sn)dBsn. Comme dans le cas n = 2, on montre que


[[I~(f)lll2(.rr) = f 0a ff(s1)1E(X,?Jds1. Par l'hypothèse de récurrence
IE(X,?1 ) = llJ(l)lli2(Â::_ 1 ) oùj(l)(s2, ... ,sn) = h(s2) ... f'n(sn).D'où
[[J~(f)[[i,2(.Fr) = foa Jf(s1)[[f(l)lli2(Â::_ 1 )ds1 = llflll2(Â~) Q.E.D. Fi-
nalement, il est clair que l'application In est linéaire de l'espace
@i~ 1 L 2 ([0,T])[~n (des fonctions f E ®f= 1L 2 ([0,T]) restreintes à ~n)
dans L 2 (Fr) donc c'est une isométrie qui se prolonge de manière unique
en une isométrie de L 2 (~n) dans L 2 (Fr) car ®f= 1L 2([0, T])[~n est dense
dans L 2 (~n).
Chapitre 6. Solutions des exercices 227

2) Kn = In(L 2 (b..n)) est un sous-espace vectoriel fermé de L 2 (Fr)


comme image isométrique d'un espace complet. Pour voir que Kn l_ Km
sin -=f m, supposons que n < met soient f E L 2 (b..n) et g E L 2 (b..m);
on a avec les notations de la question précédente
E(In(f)Im(g)) = E(f~ fi(s1)J~1_1(J(ll)dBs 1 J°J
91(s1)I1;_1(9(ll)dBs 1 ).
La propriété d'isométrie de l'intégrale stochastique (corollaire 4.3.2.) mon-
tre alors que
(*) E(In(f)Im(g)) = J°[ fi(s1)g1(s1)E(J~1_ 1 (f(l))J~~-l(g(l)))ds1 :=
J~ fi (s1)g1 (s1 )ds1E(J~1_ 1 (J(l) )I.~_ 1(g(l))) (on convient de déplacer l' él-
ément différentiel ds 1 pour faciliter les notations, ce que nous ferons encore
ci-dessous où figurent des intégrales itérées). Mais en itérant n fois la for-
mule précédente on obtient :

où on a noté

fk.gk(sk) := fk(sk)9k(sk)
et g(n) (sn+li ···,Sm) = 9n+l ( Sn+l) · · · 9m( Sm)·
Mais l'expression précédente est nulle car E((J~_n(g(nl)) = 0 comme
espérance d'une intégrale stochastique. D'où le résultat.
3) On a vu à l'exercice 3 que la variable aléatoire E,f se décompose sur
la somme directe EB~~Kn. Pour montrer que L 2 (Fr) = EB~~Kn, il suffit
de prouver que la famille des E,f (f E L 2 ([ü, T]) est totale dans L 2 (Fr) :
Soit U une variable aléatoire orthogonale à toutes les E,f i.e. pour toute f E
L 2 ([0, T], U l_ exp(f~ J(s)dB 5 ). En particulier si f = .L7= 1 Àil[ti,t·;+i[
est une fonction en escalier, U l_ exp(_L:~ 1 Ài ( Bt.;+i - BtJ) et en faisant
varier les coefficients Ài et les subdivisions (ti), on obtient

i.e. E(U exp(a.Z)) = 0 où a= (a1, ... , an), Z = (Bt 1 , ••• , Bt,,) et a.Z
est le produit scalaire de a et Z. On a donc E(E(U exp(a.Z)IZ)) = 0
228 Mouvement Brownien et calcul d'Itô

ou encore JE(exp(a.Z)g(Z)) = 0 avec g(Z) = JE(UIZ). Si f désigne la


densité du vecteur aléatoire Z, on a alors

Va E JRn, ln exp(a.z)g(z)f(z)dz = 0,

i.e. la transformée de Laplace de la fonction z 1--+ g(z)f(z) est nulle. Ceci


implique que g(z)f(z) = 0 presque partout. Mais f(z) > 0 pour tout z
donc g(z) = 0 presque partout, d'où JE(UIZ) = 0 et ceci vaut pour tous les
Z = (Bt 1 , . . . , Btn). Il en résulte que lE(ZIFr) = 0 donc U =O. Q.E.D.
Exercice 5: 1) a) Comme par hypothèse J[x;(w)ds ___. +oo, il existe
x E lR+ tel que fox x;ds > a donc Ta(w) ::::; x < +oo (et ceci est vrai lP'-
p.s.).
b) Pour tout t E IR+ on a [Ta ::::; t] = [J~ x;ds >a] E Ft car la v.a.
J~ X'}ds est Ft mesurable. Donc Ta est un temps d'arrêt. De plus comme
l'application X j~x x;(w)ds est continue, si on avait J;a(w) x;(w)ds >
1--+

a, il existerait to < Ta (w) tel que f ~ 0 x;


ds > a, ce qui contredirait la dé-
finition de Ta (w). Pour une raison analogue, il n'est pas possible non plus
que J;a(w) x;(w)ds <a. On a donc J;a(w) x;(w)ds =a.
2) a) Pour tout a > 0 (fixé), le processus X(a) = (Xia))s;:::o où Xia) =
Xsl[s::;-ra] est progressivement mesurable car Ta est un temps d'arrêt et pour
tout T > 0 fixé, sa restriction à [O, T] appartient à M 2 ( [O, T]) puisque
(J~(X~a))2ds) (w) ::::; J;a(w)llt x;(w)ds::::; a, ce qui implique

(*) lE (lt (Xia)) 2ds) :Sa.


D'après un résultat du cours (Mt)tE[ü,T] (le processus intégrale stochas-
tique de X(a)) est une martingale. Ceci étant valable pour tout T > 0, le
processus (Mt)t;:::o est une martingale. D'autre part, on a

la dernière inégalité provenant de (*).Donc supt>O JE(Mf) ::::; a < +oo.


b) La martingale M est bornée dans L 2 d'après i)~ ce qui implique (théorè-
me de convergence) que limt_,+ 00 lvft := Wa existe lP' - p.s. et dans L 1 .
Chapitre 6. Solutions des exercices 229

3) a) Pour tout T > 0, le processus défini sur [O, T] par

est un processus d'Itô complexe (comme somme de processus d'Itô). Le


processus yt = exp(Ut) est donc aussi d'Itô comme transformé de U par
la fonction holomorphe exp (théorème du cours).
b) D'après la formule d'Itô holomorphe, on a

d'après l'inégalité obtenue en(*) dans la question 2). D'où a) avec C = tz.
De plus

Donc le processus Y est borné.


b) Il résulte de a) que le processus (I:zi=l iÀkytX}kl) tE[ü,T] est dans
M 2 ([0, T] ce qui, compte tenu de 3) b) implique que (Yi)tE[ü,T] (processus
intégrale stochastique) est une martingale. Ceci étant vrai pour tout T > 0,
Y est une martingale. On a alors IE(yt) = IE(Yo) = 1.
5) a) Si on considère les différents termes composant Ut (voir ques-
tion 3) a)), on voit que si t --+ +oo, J~ xik) dBs --+ Wtk IP'-p.s. et que
230 Mouvement Brownien et calcul d'Itô

J~ xlk) x~l) ds -t tk /\ t1 IP'-p.s. Il en résulte que si t -t +oo, on a IP'-p.s.


m 1
Ut-> L i>.kWt" +? L >.k>.1(tk /\ tz)
k=l ~ l:S;k,l:S;m

donc

lim yt = exp
t-++oo ( L..,
·m
""''ÏÀk Wt1.: + ~2 ""'
L..,
ÀkÀL (tk /\ t1)
)
IP'-p.s.
k=l l'.S;k,l'.S;m

b) Comme Y est borné la convergence est dominée et a lieu aussi dans L 1


donc limJE(yt) = JEexp(l:'Z~ 1 iÀk Wtk + ~ Ll:S;k,l:S;m ÀkÀ1(tk /\ t1)). Or
d'après 4) b) cette espérance vaut 1, d'où

JE (f
k=l
iÀk Wtk) =exp (~ L
l'.S;k,l'.S;m
ÀkÀz(tk /\ tz)) =JE (f
k=l
i>.kBt1.:) .

c) On déduit de b) l'égalité en loi des vecteurs (Wt 1 , ••• , WtnJ et


(Bt 1 , ••• , Btm). Les processus W et B sont donc équivalents, ce qui montre
que W est un mouvement brownien.
6) a) Il est clair que Tai = t. Donc d'après 1), on obtient aussitôt que
Wa 1 = J~ XsdBs.
b) Si on prend une version continue de W et comme le processus Ut de la
question 6 i) est continu (intégrale ordinaire), on déduit que pour IP'-presque
tout w E 0, la trajectoire t r-+ Wa 1 (w) ( w) est continue, ce qui prouve le
résultat.
Exercice 6 : 1) Les résultats de la question l) de l'exercice 5 sont encore
vrais. On montre alors de manière analogue que (Mt)o<t<To est une mar-
tingale bornée dans L 2 et que limt->To- !vlt = Wr0 exist~ IP'-p.s. et dans L 1.
Les résultats des autres questions sont également valables.
2) Le processus déterministe Xs = 1 ~ 8 pour s E [O, 1 [,vérifie
J[ X'lds / +oo si T / 1 donc les hypothèses de 1) qui permettent
de définir le temps d'arrêt Tt sont satisfaites. On considère alors at =
J~ (l!s) 2 ds = t/(1 - t). On a alors J~ 1 ~ 8 dB 8 = Wat d'où Ut = (1 -
t)Wt/(l-t)· Mais d'après le théorème 2.1.6 le processus (uW1 ;u)·u:::::o est
un mouvement brownien, en particulier limu---.o 'U W 1lu = 0 IP'-p.s. donc
limt---.1 1;twt/(l-t) = 0 IP'-p.s. D'où le résultat.
Index

A des trajectoires, 8
accroissements indépendants cylindre de trajectoires, 35, 60
processus à, 14, 113
André D
principe de symétrie, 78, 108 décalage
annulation de la dérive opérateur de, 110
d'une diffusion, 189 par un temps d'arrêt, 111
Dambis, Dubins-Schwarz
B théorème de, 200
Black, Scholes, Merton différentielle stochastique, 153, 157
formule de, 190 diffusion
homogène, 174
c non-homogène, 175
caractérisation de Lévy
discrétisation
du mouvement brownien, 52
d'un temps d'arrêt, 45
caractérisation de Lévy
Doob
du mouvement brownien, 71
théorème d'arrêt, 28, 32
Chapman-Kolmogorov
équation de, 89, 113, 171 E
Ciesielski EDS (équation différentielle stochas-
mouvement brownien de, 79 tique), 162
convergence uniforme espérance conditionnelle, 24, 94
des intégrales stochastiques, 137 espace gaussien
couple du mouvement brownien, 148
de processus, 42 exponentielle stochastique, 185
covariance
fonction de, 18 F
critère de continuité famille cohérente (de probabilités),

231
232 Mouvement Brownien et calcul d'Itô

12 formule d ', 158, 161


Feller formule holomorphe d', 162
processus de, 96, 98, 112, 17 4 première formule d', 155
filtration, 3 processus d', 152, 158
continue à droite, 24
Fokker-Plank J
équation de, 183 Jensen
fonctionnelle déterministe, 43 inégalité de, 45

K
G
Kolmogorov
générateur infinitésimal
grand théorème de, 12, 38
d'un processus de Feller, 97, 98,
Kolmogorov
112
équation du futur, 182
d'une diffusion, 174
équation du passé, 182
Girsanov
théorème de, 187 L
Lévy
H caractérisation de, 52, 71
Haar formule de l'aire de, 82
fonctions de , 79 Langevin
Hermite équation de, 175
polynômes de, 196 loi d'un processus, 42
loi des temps d'atteinte, 68
1 lois de dimension finie, 5, 91
inégalité lois de Gauss dans JRd, 17
maximale, 28, 136
maximale LP, 29, 136 M
maximale de Tchebychev , 136 martingale, 27, 51, 112, 131, 180
intégration par parties brownienne, 180
formule stochastique d', 156 exponentielle, 82, 186
indiscernables (processus), 6 locale, 134
intégrale stochastique, 119, 123, 126, régulière, 27, 30, 32
131 marche aléatoire
d'un processus de A2 , 126 approximation brownienne, 84
d'un processus de Jv1 2 , 123 mouvement brownien, 50, 53, 55, 57,
qui n'est pas une martingale, 134 61, 67, 75
Itô absorbé, 115
Index 233

avec dérive, 189 stochastique, 3


changé de temps, 199 càd,8,31
partant d'un point x, 95 progressivement mesurable, 7
réfléchi, 115 propriété
de Markov, 90, 108, 110, 171
N de Markov forte, 95, 111
Novikov
condition de, 186 R
noyau de transition, 89, 171 résolvante
d'un semi-groupe, 101
0 du mouvement brownien, 103
option européenne, 190 recollement de processus, 57
Omstein-Uhlenbeck
processus d', 175 s
semi-groupe, 91, 93, 96, 174
p de convolution, 114
paquet de trajectoires, 42 simulation
pont brownien, 83 de la solution d'une EDS, 168
EDS du, 196 sommes de Riemann-Stieltjes, 129
principe de symétrie, 78, 108 sous(sur)-martingale, 27
processus suite localisante, 134
élémentaire, 118, 138
T
équivalents, 5
temps
canonique, 12 d'arrêt, 22
continu, 6 d'entrée, 23
d'Itô, 152, 158 de retour, 23
de Bessel, 114 temps d'arrêt
de diffusion, 174 renaissance à partir d'un, 67, 95
de Feller, 96, 98, 112, 17 4 théorème d'arrêt, 28, 32
de Lévy, 69, 114 pour l'intégrale stochastique, 134
de Markov, 89, 105 tribu produit, 36, 55
de Markov canonique, 109 tribu terminale, 22
de Poisson, 14, 114
de Wiener, 59 V
gaussien, 18, 53 variables aléatoires
indépendants, 44 existence d'une suite i.i.d. de, 14
prévisible, 45 variation quadratique, 62
234 Mouvement Brownien et calcul d'Itô

version (d'un processus), 5

w
Wiener
construction du mouvement brow-
nien, 57, 75
décomposition en chaos, 197
mesure de, 59
Bibliographie

[ 1] Bachelier L. : Théorie de la spéculation, thèse ( 1900). Réédition par


J. Gabay, Paris, 1995.
[2] Baldi P. : Equazioni differenziali stocastiche e applicazioni. Qua-
demi dell'Unione Matematica Italiana 28. Pitagore Editrice, Bolo-
gna, 1984.
[3] Barbut M., Locker B. et Mazliak L.: Paul Lévy-Maurice Fréchet,
50 ans de correspondance mathématique, éditions Hermann, Paris
2003.
[4] Bouchaud J.P. : Les caprices des marchés financiers : régularités
et turbulences, Université de tous les savoirs. Les Mathématiques,
volume 13, Éditions Odile Jacob, Paris, 2002.
[5] Breiman L. : Probability. Reprint of the first edition published by
Addison-Wesley in 1968. Classics in applied mathematics. S.I.A.M.
editor, 1992.
[6] Brzeiniak Z. and Zastawniak T. : Basic stochastic processes.
Springer-Verlag, London, 3rd printing with corrections, 2000.
[7] Charpentier E., Lesne A. et Nikolski N. : L'héritage de Kol-
mogorov en mathématiques. Éditions Belin, Paris, 2004.
[8] Chaumont L. and Yor M. : Exercises in Probability. A Guided Tour
from Measure Theory to Random processes via Conditioning. Cam-
bridge University Press. 2003.
[9] Chung K.L. : Green, Brown, and Probability & Brownian Motion
on the Line. World Scientific, Singapore, 2002.
[ 10] Comtet L. : Analyse combinatoire, tome 1, Presses Universitaires
de France, 1970.

235
236 Mouvement Brownien et calcul d'Itô

[ 11] Chung K.L. and Williams R. T. : Introduction to stochastic integra-


tion. Birkhauser, Boston, 1989.
[ 12] Dacunha-Castelle D. et Dufto M. : Probabilités et statistiques. Deux
tomes : 1. Problèmes à temps fixe et 2. Problèmes à temps mobile.
Masson éditeur, 1983.
[ 13] Dellacherie C. et Meyer P.A. : Probabilités et potentiel. Volume 1.
Nouvelle édition. Hermann éditeur, 1975.
[ 14] Dellacherie C. et Meyer P.A. : Probabilités et potentiel. Volume 2.
Théorie des martingales. Hermann éditeur, 1980.
[ 15] Dellacherie C. et Meyer P.A. : Probabilités et potentiel. Volume 4.
Théorie du potentiel, processus de Markov. Hermann éditeur, 1987.
[16] Dellacherie C., Maisonneuve B. et Meyer P.A. : Probabilités et
potentiel. Volume 5. Processus de Markov (fin). Compléments de
calcul stochastique. Hermann éditeur, 1992.
[ 17] Dieudonné J. : Eléments d' Analyse. Tome 2. Gauthier-Villars.1968.
[ 18] Doob J.L. : Stochastic processes. Wiley and Sons editors, 1953.
[ 19] Einstein A. : Investigations on the theory of the Brownian move-
ment. Complete text of 5 papers by A. Einstein translated by A.D.
Cowper, first published in 1926. Reprint by Dover Publications, Inc
in 1956.
[20] Evans L.C. : Partial Differential Equations. Graduate Studies in
Math. Volume 19. AMS publications. Providence, Rhode Island,
1998.
[21] Friedman A. : Stochastic differential equations and applications.
Volumes 1 and 2. Academic Press, 1975.
[22] Gouy M. : Sur le mouvement brownien. Comptes Rendus Acad. Sc.
Paris, section physique, vol. 109, p.102-105, 1889.
[23] Gelbaum E. and Olmsted J. : Counterexamples in Analysis.
Holden-Day, lnc., 1964.
[24] Getoor R.K. and Sharpe M.J. : Conformai martingales. Invent.
Math. 16, p. 271-308, 1972.
[25] Halmos P.R. : Measure Theory, D. Van Nostrand Co. lnc, 1950.
Bibliographie 237

[26] Hanggi P. and Marchesoni F. : 1OO years of Brownian motion.


Chaos 15, American Institute of Physics, 2005.
[27] Haw M.D. : Colloïdal suspensions, Brownian motion, molecular
reality : A short history. J; Phys. Condens. Matter 14, 7769-7779,
2002.
[28] Itô K. : Stochastic integral. Proc. Imp. Acad. Tokyo 20, p. 519-524,
1944.
[29] Itô K. and McKean H.P. : Diffusion processes and their sample
paths. Springer-Verlag, 1996, (Reprint of the 1974 Edition).
[30] Kac M. : Integration in fonction spaces and some of its applications.
Scuola Normale Superiore. Lezioni Fermiane. Pisa, 1980.
[31] Kahane J.P. : Sorne random series of fonctions. Second edition.
Cambrige studies in Advanced Mathematics, 5, ( 1985).
[32] Karlin S. and Taylor H.M. : A second course in stochastic pro-
cesses. Academic Press, Inc., New York, 1981.
[33] Karatzas 1. and Shreve S.E.: Brownian Motion and Stochastic Cal-
culus. Corrected 8th printing. Springer Verlag. 2005.
L34] Kolmogorov A. : Grundbegriffe der Wahrscheinlichkeitsrechnung.
Ergeb. der Math. Springer, Berlin, 1933.
[35] Kolmogorov A. et Fomine S. : Éléments de la théorie des fonctions
et de l'analyse fonctionnelle. Ellipses éditeur, 1994.
[36] Le Gall J.F. : Introduction au mouvement brownien. Exposé à la
journée annuelle de la Société Mathématique de France. Publications
de la SMF. 1989.
[37] Lévy P. : Processus stochastiques et mouvement brownien. 2ième
édition. Gauthier-Villars ( 1965). Réédition des éditions Gabay, 1992.
[38] Lamberton D. et Lapeyre B. : Introduction au calcul stochastique
appliqué à la finance. S.M.A.I. collection Mathématiques et applica-
tions. 1992.
[39] Mazliak M., Priouret P. et Baldi P. : martingales et chaînes de Mar-
kov. Editions Hermann. 1998.
[40] Métivier M.: Notions fondamentales de la théorie des probabilités.
Editions Dunod. 1968.
238 Mouvement Brownien et calcul d'Itô

[4 l] McKean H.P. : Stochastic Integrals. AMS Chelsea Publishing, Re-


print of the l 969 edition. 2005.
[42] Neveu J. : Processus aléatoires gaussiens. Les Presses de l'Univer-
sité de Montréal. l 968.
[43] Neveu J.: Bases mathématiques du calcul des probabilités. Masson
et Cie, l 970.
[44] Neveu J. : martingales à temps discret. Masson et Cie, l 972.
[45] Ouvrard J.Y. : Probabilités 2 (Maîtrise, Agrégation). Editions Cas-
sini, 2000.
[46] Perrin J. : Les atomes. Presses Universitaires de France, troisième
rédaction, l 939.
[47] Priouret P. : Processus de diffusion et équations différentielles
stochastiques. Lecture Notes in Mathematics, vol. 390, p. 38- l l 3,
Springer, Berlin, Heidelberg, New York, l 974.
[48] Protter P.E.. : Stochastic Integration and Differential Equations. 2nd
edition. Springer Verlag. 2004.
[49] Rényi A. : Calcul des probabilités. Dunod éditeur, Paris, 1968.
l50] Revuz D. : Probabilités. Hermann , 1997.
[51] Revuz D. and Yor M. : Continuous martingales and Brownian mo-
tion. Third edition, corrected second printing 2001, Springer-Verlag
editor.
[52] Rogers L.C.G. & Williams D. : Diffusions, Markov Processes and
martingales. Volume 1 : Foundations and Volume 2 : Itô Calculus.
Second Edition. Cambridge University Press. 2001.
[53] Schmoluchowski M. (von) : Zur kinetischen Theorie der Brown-
schen Molekularbewegung und der Suspensionen. Ann. Phys. 21, p.
756-780, 1906.
(54] Stein E.M.: Harmonie Analysis: Real-Variable Methods, Orthogo-
nality and Oscillatory Integrals. Princeton University Press. 1993.
[55] Williams D. : Probability with martingales. Cambridge mathemati-
cal textbooks. Cambridge University Press. 7th printing 2003.
(56] Yor M. : Sorne Aspects of Brownian Motion. Part 1 : Sorne special
fonctionnais, 1992. Part 2 : Sorne Recent martingale Problems, 1997.
Lectures in Mathematics ETH Zürich. Birkhauser editor.
Bibliographie 239

[57] Yor M.: Le mouvement brownien : un objet mathématique si com-


mun et pourtant si exceptionnel. Leçons mathématiques d'aujour-
d'hui, collection le sel et le fer, vol.3. Cassini, Paris, 2007.
Achevé d'imprimer en juillet 2008
par la Sté ACORT Europe
www.cogetefi.com

Dépôt légal à parution


Imprimé en France
Mouvement brownien et calcul d'Itô
Léonard Gallardo

Le mouvement désordonné de particules de pollen en suspension dans


un liquide en équilibre fut observé et rigoureusement rapporté par le
botaniste écossais Robert Brown en 1827.
Ce phénomène aléatoire lié à l'agitation moléculaire reçut par la suite le
nom de mouvement brownien. Sa description mathématique comme un
pvocessus stochastiqué·~ captivé l'attention des physiciens et mathémati-
ciens depuis plus d'un siècle. !Il intervient dans de très nombreux mod-
èles en physique, chimie, biologie, sciences économiques et mathéma-
tiques financières.
Le mouvement brownien est l'objet central du calcul des probabilités
moderne : il est tout à la fois une martingale, un processus gaussien, un
processus à accroissements indépendants et un processus de Markov.
Ces diverses propriétés qui en font le processus stochastique par excel-
lence, sont présentées dans cet ouvrage avec les deux outils qu'il permet
de développer: l'intégrale d'Itô et la notion d'équation différentielle sto-
chastique.
Ce livre s'adresse à tous ceux et celles qui recherchent une introduction
rapide et rigoureuse aux méthodes du calcul stochastique, en partic~-lier
aux étudiants des masters de mathématiques, aux élèves des graCdes
écoles scientifiques ainsi qu'aux candidats à l'agrégation. Nous y avons
inclus des e:xïercices de difficulté variée, corrigés en fin de volume, ~our
en faciliter la lecture et l'utilisation comme outil pédagogique. 1

Léonard Gallardo est professeur à l'université de Tours.

www.editions-hermannJr

iSBN : 978 27056 6797 9

Hermann 34 euros

Vous aimerez peut-être aussi