Vous êtes sur la page 1sur 33

©Roland Portait et Patrice Poncet

CHAPITRE 25

ELEMENTS DE CALCUL STOCHASTIQUE

L'utilisation du calcul stochastique qui s’applique aux mouvements browniens en temps


continu, et plus généralement aux processus stochastiques dont la variation s’exprime
en fonction de celle d’un brownien, s'est révélée particulièrement féconde pour
l'analyse des marchés financiers.
Ces processus ont été introduits par le mathématicien français Louis Bachelier, au début
du 20ème siècle, pour représenter le mouvement de cours boursiers. Les mathématiques
de ces processus ont été développées par la suite pour résoudre certains problèmes de
physique pointus puis appliquées à nouveau à la finance. Elles ne font pas partie des
programmes standard des classes préparatoires aux grandes écoles scientifiques, et des
« troncs communs » des programmes des écoles d'ingénieurs ou des facultés de
sciences; or le calcul différentiel et intégral sur des fonctions de processus stochastiques
n
s'écarte notablement du calcul familier qui régit les fonctions de R .

Cette annexe présente les éléments de calcul sur les processus d’Itô, qui constituent un
outil très utilisé dans la théorie et dans les techniques financières modernes. Les
démonstrations rigoureuses faisant appel à des mathématiques abstraites (notamment à
la théorie de la mesure) ne seront pas présentées dans cette annexe où l'accent sera mis
sur les outils de calcul et leur signification afin que l’exposé soit accessible à tous les
lecteurs, car ces outils sont nécessaires à la compréhension de nombreux chapitres de
cet ouvrage1. Des développements mathématiquement plus précis (et utiles seulement à
la compréhension des parties les plus techniques de ce livre) pourront être trouvés dans
les notes de bas de page et dans l’annexe G2 suivante.

Après l'énoncé de quelques définitions générales concernant les processus stochastiques


et leur typologie (au §1) nous étudierons les mouvements browniens (au §2), les
processus d’Itô et de diffusion unidimensionnels (au §3), les propriétés des fonctions de
processus stochastiques et les règles de calcul différentiel et intégral d’Itô (aux §4 et 5)
et les processus à sauts (au §6).

1 Les outils présentés dans les quatre premiers paragraphes de cette annexe sont utilisés dans une dizaine
de chapitres de ce livre. Les paragraphes 5 et 6 sont moins indispensables et pourront être omis lors
d’une première lecture.
2

1 Définitions, notations et considérations générales sur les processus


stochastiques

Un processus stochastique (ou processus aléatoire) est une variable à une ou plusieurs
dimensions qui dépend du hasard et du temps. Il existe une infinité d’exemples de tels
processus. Pour s’en tenir au domaine de la finance citons le cours d’une action, un taux
d’intérêt, un indice boursier, ou un ensemble (vecteur) de variables comprenant
plusieurs taux, indices, taux de change,…

1.1 Notations générales

- Les variables et les processus aléatoires seront désignés par des lettres capitales et les
n
éléments non aléatoires de R ou de R seront en général représentés par des petites
lettres.
- Un tiret dénotera un vecteur (exemple : X est un vecteur (X1, ... Xn) de variables
n
aléatoires ; x est un élément non aléatoire de R ).
- Une matrice sera représentée par une lettre capitale, en gras, comme Σ.

1.2 Les processus stochastiques : définitions, notations, cadre général d’analyse

a) Cadre probabiliste (simplifié)


A l’instar d’une variable aléatoire, un processus stochastique dépend de l’état du monde
noté ω (l'ensemble des états du monde est noté Ω) ; il dépend en plus du temps. Une
notation complète indique cette double dépendance ; on notera donc X(t,ω) la valeur
prise par un processus X en t dans l’état du monde ω. On considérera le cas de
processus définis et observés à des instants particuliers 0, t1, t2,…, tn=T ainsi que le cas
de processus définis en tout t dans l’intervalle de temps (0, T)2 ; dans le premier cas on
dira que le processus est « en temps discret » et dans le second qu’il est représenté « en

2Formellement n
c'est une application X, mesurable, de [0, T] × Ω dans R où Ω est l'espace probabilisé
fondamental muni d'une σ-algèbre F et d'une mesure de probabilité. La σ-algèbre It est représentative du
système d'information disponible en t ; l'enrichissement du système d'information au cours du temps est
représenté par une suite It de σ-algèbres emboîtées (I0 ⊆ I1⊆...⊆It... ⊆ ΙΤ = F que l'on appelle une
filtration. On se bornera implicitement dans la suite à considérer les processus dits « adaptés » ou It-
mesurables, c'est-à-dire que, pour tout t, la variable aléatoire X(t, .) est connue en t c'est-à-dire mesurable
par rapport à It.
3

temps continu ». La date 0 désigne souvent (mais pas toujours) la date d’aujourd’hui.
L’état du monde ω doit être interprété comme « l’histoire exhaustive du système
étudié entre 0 et T ». Pour un état du monde ω donné toutes les réalisations du
processus X(t,ω) sont donc connues. Dès lors, pour un ω donné, X(t,ω) ≡ xω(t) est une
simple fonction du temps (sans caractère aléatoire) qui représente la réalisation
particulière du processus sous l’occurrence ω. Cette fonction du temps xω(t) pour un ω
donné s’appelle une trajectoire. Une trajectoire est donc une suite discrète ou continue
de réalisations de X ; dans le cas d’un processus en temps continu une trajectoire peut
être représentée par une simple courbe (sur un plan si le processus est unidimensionnel
ou dans un espace à n+1 dimensions s’il est n-dimensionnel).
Par ailleurs, pour un t donné, X(t,ω) ≡ Xt(ω) est une simple variable aléatoire dont la
valeur exacte n’est connue qu’en t.
Dans le vocabulaire probabiliste, une propriété concernant X(t,ω) sera dite « presque
sûrement » vraie (p.s.) si elle est vraie pour tout ω sauf éventuellement dans un sous-
ensemble de Ω de probabilité nulle. On pourra donc interpréter « p.s. » comme
synonyme de « certainement » ou « avec probabilité 1 ».
La notation X(t,ω) est la plus explicite pour désigner un processus aléatoire que l’on se
contente le plus souvent de noter X(t). L’ambiguïté est partiellement levée dans nos
notations car les lettres capitales sont réservées aux éléments aléatoires (les petites
lettres désignant en général des éléments déterministes).
En fait, les processus stochastiques que nous considérerons sont des variables
unidimensionnelles ou des vecteurs multidimensionnels, aléatoires et fonction du
n
temps, prenant leurs valeurs dans R . Un processus aléatoire vectoriel sera noté par
exemple X(t).
On considérera parfois deux instants s et t et on supposera toujours que X(s) est connu
pour s ≤ t. Cette dernière propriété caractérise les processus dits adaptés (leur valeur est
connue sans délai, « en temps réel »)3.
Au fur et à mesure que le temps s’écoule et que l’information s’enrichit, l’incertitude se
réduit. L’ensemble des informations disponibles en t est représenté par It.4 C’est à partir
de It que sont élaborées, en t, les probabilités concernant le futur et qualifiées de
« conditionnelles » car dépendantes des informations disponibles. On spécifiera par /It

3 Cf. note 1 supra.


4 Cf. note 1 supra.
4

un tel conditionnement ; par exemple E(X(T)/ It) désignera l’espérance de la valeur


terminale X(T) élaborée en t, avec le système d’information It disponible à cet instant.
De façon analogue nous noterons par exemple E(X(T)/ X(t) = x) « l’espérance de X(T)
sachant que X(t) = x ».

b) Processus sans mémoire


Commençons par considérer un processus unidimensionnel X(t), une suite arbitraire
d'instants successifs t0, t1, ..., tm-1 compris dans [0, T [, des nombres réels quelconques
x0, x1, ..., xm-1 et x, et la probabilité que X(tm) soit inférieur ou égal à x sachant que X(t0)
= x0, X(t1) = x1, ..., X(tm-1) = xm-1 ; nous écrivons cette probabilité conditionnelle :

Proba {X(tm) ≤ x / X(t0) = x0, X(t1) = x1,..., X(tm-1) = xm-1}

Un processus sans mémoire est, par définition, caractérisé par des probabilités
conditionnelles de X(tm) qui, quels que soient x et la suite (t0, ..., tm), ne dépendent que
de (xm-1, tm-1) caractérisant le dernier état connu; la probabilité conditionnelle
précédente se simplifie alors en : Proba {X (tm) ≤ x / X(tm-1) = xm-1} ≡ F(xm-1, tm-1 ; x, tm).
Cette probabilité de passage de l'état xm-1 en tm-1 à un état ≤ x en tm s'appelle la
probabilité de transition.
Pour résumer, un processus sans mémoire est tel que la réalisation la plus récente
contient toute l'information pertinente à l'élaboration des probabilités concernant le
futur : « le passé n’influence l’avenir que par l’intermédiaire du présent ».
Ainsi, supposer que le cours des actions suit un processus sans mémoire est en totale
contradiction avec les analyses techniques et chartistes mais en parfait accord avec
l’hypothèse d’efficience (cf. chapitre 1).
Les définitions que nous venons d'exposer se généralisent aisément au cas des
processus multivariés : X et x se transforment simplement en X et x qui représentent des
vecteurs.
Définition : Un processus de Markov est un processus sans mémoire dont les
probabilités de transition respectent certaines conditions5.

5 Les conditions pour qu’un processus sans mémoire soit markovien sont les deux suivantes :
n
• F(xs, s ; ., t) est une fonction mesurable par rapport à la σ-algèbre It et les boréliens de R .
• L'équation suivante, dite de Chapman-Kolmogorov, est satisfaite pour r < s < t:
5

c) Processus à trajectoires continues


Les définitions précédentes recouvrent deux cas que nous avons distingués : celui où le
processus X(t) n'est défini que pour des valeurs discrètes du temps ; celui où il peut être
caractérisé en temps continu, c'est-à-dire à tout instant dans l’intervalle de temps [0, T].
Les processus en temps continu peuvent être classés en deux catégories : les processus
continus et les processus à sauts.

Les processus continus, dits aussi processus à trajectoires continues, sont ceux pour
lesquels les trajectoires sont sûrement continues alors celles des processus à sauts sont
caractérisées par des discontinuités. Dès lors, un processus continu ne peut connaître
qu’une modification infinitésimale de sa valeur dans un intervalle de temps de durée dt.
Les processus continus ont été étudiés notamment par le mathématicien Japonais Itô.

Enfin, parmi les processus en temps continu ou discret on s'intéresse particulièrement


aux processus stationnaires, c'est-à-dire à ceux pour lesquels les probabilités de
transition Proba {X (t) ≤ xt / X(s) = xs } s'écrivent, pour tous s et t ∈ [0, T], comme des
fonctions de (xs, xt, t-s)6.

2 Le mouvement brownien

La notion de mouvement brownien a été introduite en 1828 par le botaniste Robert


Brown pour décrire les mouvements de particules de pollen en suspension dans l’eau.
Soixante-dix ans plus tard, le mathématicien français Louis Bachelier, dans sa thèse de
l'année 1900 intitulée « Théorie de la spéculation » portant sur le comportement des
prix cotés à la Bourse de Paris, développait et formalisait la théorie et utilisait le

F(x, r ; z, t) = ∫ F ( y, s ; z, t)dF(x, r ; y, s) (l’intégration s’opère sur y).


y
Cette équation signifie simplement que la probabilité que X passe de (r, x) à (t, ≤ z) est égale à la somme
des probabilités de toutes les trajectoires passant en s par tous les états intermédiaires y possibles et
aboutissant en t à une valeur ≤ z.

6Les processus stationnaires ne sont pas uniquement définis sur la classe particulière des processus
markoviens ; de manière générale un processus X(t) est stationnaire si sa fonction de distribution est telle
que :
∀h, Proba (X(tm) ≤ xm, X(tm-1) ≤ xm-1, ..., X(t0) ≤ x0) = Proba (X(tm+h) ≤ xm, ..., X(t0+h) ≤ x0)
c'est-à-dire qu'elle est invariante pour toute translation dans le temps. Cette définition générale implique
la définition particulière que nous avons donnée pour les processus markoviens.
6

mouvement brownien en temps continu pour représenter les variations des cours
boursiers. Le travail de Louis Bachelier précédait celui des physiciens et des
mathématiciens tels que A. Einstein, N. Wiener, P. Levy, et K. Itô, qui ont utilisé le
mouvement brownien pour décrire des phénomènes en Physique et développer la
théorie mathématique des processus stochastiques continus. Soixante-dix ans après le
travail de Bachelier, Robert Merton, dans une série d’articles fondamentaux, fondait un
pan essentiel de la théorie actuelle des marchés financiers en s’appuyant sur les
mathématiques des processus « dérivés du mouvement brownien ».

Nous commençons par l'étude du mouvement brownien unidimensionnel en 2.1, nous


présentons quelques règles de calcul utiles relatives à ce processus en 2.2, et le
mouvement brownien multidimensionnel en 2.3.

2.1 Le mouvement brownien unidimensionnel


Nous allons étudier dans ce paragraphe des mouvements browniens unidimensionnels,
c'est-à-dire qui prennent leurs valeurs dans R.

a) Introduction : le temps discret


Pour introduire plusieurs concepts essentiels pour la suite, nous considérons d’abord un
processus markovien unidimensionnel observé à des instants régulièrement espacés, de
valeur successives X(0), X(1), ..., X(t), ..., à accroissements X(t) − X(t-1)
indépendants, normalement et identiquement distribués dont l’espérance est notée
µ et l'écart type σ.
X (t + 1) − X (t ) − µ
Posons U(t+1) ≡
σ
D’après les caractéristique du processus X décrites plus haut, les U(t) sont des variables
normales, centrées réduites et indépendamment distribuées, et l'équation qui régit le
mouvement de X peut s'écrire :
(1) X(t+1) − X(t) = µ + σ U(t+1)
Par ailleurs, en écrivant X(t) comme la somme de X(0) et de ses t accroissements entre 0
t
et t, il vient : X(t) = ∑ X (i) −X (i − 1) ; les accroissements X(i) − X(i-1) étant gaussiens
i =1

et indépendants, nous avons : E(X(t)) = µ t ; var((X(t)) = σ2 t et X(t) est distribué selon


N(µ t, σ2 t).
7

Ce processus très simple, appelé auto-régressif du 1er ordre, est couramment utilisé en
économétrie. Le mouvement brownien peut être considéré comme une limite de ce
processus en temps continu.

b) Le temps continu
Nous allons généraliser l’approche en temps discret en considérant un processus X(t)
défini en temps continu, c'est-à-dire pour tout t ∈ (0, T) que nous définirons comme un
« mouvement brownien arithmétique7 non standardisé », ou plus simplement « un
brownien ».
Parmi les différentes définitions possibles du mouvement brownien, nous optons ici
pour la suivante :
Définition du mouvement brownien arithmétique
X(t) est un mouvement brownien arithmétique si :
(i) X(t) − X(0) est gaussien de moyenne µ t et de variance σ2 t (c'est-à-dire selon la loi
N(µ t, σ2 t)) ;
(ii) Ses accroissements sont indépendants (s’ils sont calculés sur des périodes
disjointes) ; dès lors, si t1, t2, t3, t4 désignent quatre instants successifs quelconques avec
0≤ t1 < t2 < t3 < t4 ≤ T : X(t4) − X(t3) est indépendant de X(t2) − X(t1).
Plus généralement, l’accroissement du brownien sur une période (s, t) quelconque est
indépendant de tous les évènements survenus jusqu’à la date s comprise.

Considérons deux dates successives s et t quelconques.


Si on écrit :
X(t) – X(s) = (X(t) – X(0)) – (X(s) – X(0)), on obtient : E(X(t) – X(s)) = µ (t − s).
Si on écrit : X(t) – X(0) = (X(t) – X(s)) + (X(s) – X(0)), on obtient :
Var(X(t) – X(0)) = Var(X(t) – X(s)) + Var(X(s) – X(0)), d’où:
Var(X(t) – X(s)) = = σ2 (t − s)
On peut aussi écrire :
Cov(X(s), X(t)) = Cov(X(s), X(s) + (X(t) – X(s))) = Var(X(s)) + Cov(X(s), X(t) – X(s))
= Var(X(s)) = σ2 s

7 C’est pour les distinguer des mouvements browniens géométriques (cf. 3.2, exemple 2) que les
browniens simples sont parfois qualifiés de « browniens arithmétiques ».
8

Par ailleurs, les accroissements X(t) – X(s) ne dépendant pas des évènements antérieurs
à s, le processus est markovien. En outre, X est stationnaire puisque les deux
premiers moments de X(t) − X(s) (qui définissent toutes les probabilités, puisque X est
gaussien) ne dépendent que de t − s.
Dès lors, si on considère deux instants t et t+ ∆t, X(t+ ∆t) − X(t) est distribué selon une
loi N (µ ∆t, σ2∆t) et on peut écrire :

(2) X(t+∆t) − X(t) ≡ ∆X = µ ∆t + σ ∆t U(t),

où U(t) représente une gaussienne standard.


L’équation (2) indique aussi que le processus est continu car en faisant tendre ∆t vers 0
∆X tend vers 0 (en un certain sens défini plus avant). En fait, le caractère normal et i.i.d.
des accroissements suffit à conférer au processus son caractère continu, comme on le
montrera dans ce qui suit.
Les propriétés du mouvement brownien mises en évidence dans ce qui précède sont
résumées sous la forme d’une proposition.
Proposition 1 (1ère série de propriétés du mouvement brownien arithmétique)
- Les accroissements d’un mouvement brownien ont une espérance et une variance
proportionnelles à la durée de l’intervalle sur lequel ils sont calculés : X(t) – X(s) est
donc distribué selon une loi N (µ (t − s), σ2 (t − s)). Deux accroissements calculés sur
des périodes de même durée sont donc identiquement distribués.
- Pour s < t : Cov(X(s), X(t)) = σ2s.
- Les trajectoires du mouvement brownien sont continues.
- Le mouvement brownien est markovien et stationnaire.

Parmi les mouvements browniens arithmétiques, on distingue ceux dont les


accroissements sont d’espérance nulle (µ = 0) et dont la variance par unité de temps est
égale à un (σ 2= 1).
Définition du mouvement brownien standard (ou processus de Wiener)
Un mouvement brownien arithmétique dont les accroissements ont une espérance µ = 0
et une variance par unité de temps σ2 = 1 s’appelle un mouvement brownien standard,
ou processus de Wiener (du nom du mathématicien qui, le premier, en a étudié les
propriétés) ; il sera noté dans la suite W(t). On posera en outre W(0) = 0 (par définition,
le processus de Wiener part de l’origine).
9

On en tire directement les propriétés suivantes :


Propriétés du processus de Wiener (brownien standard) :
- le processus de Wiener W(t) est distribué selon une loi N (0, t) ;
- son accroissement entre t et t + ∆t, ∆W ≡ W(t+∆t) − W(t), est N (0, ∆t)
- l'espérance conditionnelle Ε (W(t)/ W(s)) = W(s) ; on dit que W est une martingale8.

En matière de mouvement brownien, le brownien standard joue un rôle analogue à celui


de la variable normale centrée réduite à l’égard des variables normales d’espérance et
de variance quelconque. En particulier, il est possible d’exprimer un mouvement
brownien arithmétique X(t) de paramètres µ et σ en fonction d’un processus de
X (t ) − µ t
Wiener W(t). Il suffit de vérifier que W(t) = est un processus de Wiener (X(t)
σ
lui confère son caractère gaussien ainsi que l’indépendance de ses accroissements et,
par construction, sa moyenne est nulle et sa variance égale var(X(t)/σ2 = t). On écrit
alors :

(3) X(t) = µ t + σ W(t)

En termes d’accroissements, cette dernière relation implique :

(4) ∆X = µ ∆t + σ ∆W

Puisque ∆W = W(t+∆t) − W(t) est N(0, ∆t), cet accroissement s’exprime en fonction
d’une variable normale standard U :
(5) ∆W = √∆t U
On remarquera que (5) est un cas particulier de (2) (avec µ = 0 et σ = 1).

Nous avons déjà indiqué, sur la base d’une justification intuitive, que les trajectoires du
mouvement brownien sont continues en tout point. Reprenons ce point important avec

8 De façon plus générale l’accroissement W(t) − W(s) ne dépend d’aucun évènement antérieur à s et de ce
fait on peut écrire : E(W(t) − W(s)/ Is) = 0 donc E(W(t) / Is) = W(s), où Is désigne l’ensemble des
informations disponibles en s qui est représentée mathématiquement par une σ-algèbre.
10

plus de rigueur. Situons-nous en un point quelconque (t, W(t)) d’une trajectoire


quelconque d’un processus de Wiener et considérons l’accroissement ∆W aléatoire à
venir dans la période (t, t+∆t).
Var(∆W) = E [(∆W)2] = σ2 ∆t tend vers 0 quand ∆t tend vers 0 ce qui montre que la
trajectoire est continue au sens de la norme quadratique. Elle est aussi continue au sens
où : pour tout ε >0 lim Proba( |∆W| > ε) = 0, puisque ∆W est normale centrée sur 0 et
∆t →0

que sa variance tend vers 0 quand ∆t tend vers 0 ; ceci annule toute probabilité de saut.
En outre, la propriété de continuité des trajectoires que l’on vient de montrer dans le cas
d’un processus de Wiener W, est vérifiée également pour un brownien non standard X,
en vertu de (3).

Les processus X(t) et W(t) sont définis en temps continu, ce qui permet d’écrire
l'équation (4) sur un intervalle infinitésimal (t, t+dt), sous la forme différentielle :

(6) dX(t) = µ dt + σ dW
Non aléatoire aléa gaussien centré
= E(dX) de variance=σ2dt
(dW est normale d’espérance nulle et de variance égale à dt).

La relation (6) est une équation différentielle stochastique (EDS dans la suite). Elle
exprime le fait que la variation dX comprend une composante déterministe µ dt égale à
son espérance mathématique et une composante stochastique σ dW d'espérance nulle et
de variance σ2 dt ; µ est appelé le terme de dérive ou de tendance (« drift » en anglais),
σ le paramètre de diffusion et σ2 la variance instantanée.
Cette EDS (6) a pour forme intégrale (ou solution) :
t t
X(t) – X(0) = ∫ µ ds + ∫ σ dW ( s ) = µ t +σ W(t).
0 0

L’EDS (6) est la généralisation de l’équation différentielle ordinaire (EDO) (sans terme
t
stochastique) la plus simple : dX = µ dt X(t) – X(0) = ∫ µ ds = µ t
0

t t t
Remarquons que ∫ σ dW ( s ) = σ ∫ dW ( s ) = σ W(t) car σ est une constante et que ∫ dW ( s )
0 0 0

représente simplement la somme des accroissements de W entre 0 et t : ce résultat, et la


11

définition même de cette intégrale stochastique, seraient moins évidents si σ n’était pas
constant, comme dans le cas des processus plus généraux étudiés dans la suite.

Le processus brownien peut être utilisé quand le mouvement d'un système résulte d'une
force constante qui imprime une dérive (traduite par le terme µ dt) perturbée par des
chocs aléatoires successifs, continuels et indépendants dans le temps qui impriment des
mouvements erratiques (représentés par le terme σ dW). Il a notamment été utilisé pour
représenter, à la suite des observations de R. Brown, le mouvement d'une particule en
suspension dans un fluide9.

∆W σ
Reprenons maintenant l’équation (5) qui permet d’écrire : = U
∆t ∆t
Cette expression n’ayant pas de limite quand ∆t tend vers 0 le mouvement Brownien (W
et X) est non dérivable (bien qu’il soit continu).
Les trajectoires du mouvement brownien sont donc continues en tout point alors
qu’elles ne sont dérivables en aucun point (chaque point étant « anguleux », ce qui
est difficile à concevoir).
Cette double caractéristique de continuité et de non dérivabilité ne constitue qu’une des
propriétés du brownien qui peut paraître insolite. Citons, parmi d’autres :

3ème série de propriétés du mouvement brownien


- Un brownien atteindra sûrement une valeur réelle quelconque, aussi grande ou aussi
petite soit-elle. Cette valeur sera même atteinte un nombre infini de fois ;
- Quelle que soit l’échelle de temps (c'est-à-dire quel que soit le « niveau du zoom »)
adoptée pour observer un mouvement brownien, la trajectoire conserve une « similitude
de forme » caractéristique d’une structure fractale.

Expliquons de manière plus précise en quoi consiste cette structure fractale du


brownien. De façon générale « une fractale possède une forme spéciale d’invariance ou
de symétrie reliant le tout à ses parties: le tout peut être décomposé en parties plus
petites, chacune répétant le tout comme un écho »10. Elle est, dans ce sens, « invariante

9 X(t) est une des coordonnées de la position de la particule (un brownien tridimensionnel représenterait
sa position dans l’espace à trois dimensions). La particule subit une succession ininterrompue de chocs
avec les molécules du fluide qui sont en constante agitation ; ces chocs provoquent des mouvements
aléatoires de la particule représentés par l’aléa gaussien σ dw. En outre, une « dérive » µdt traduit
l’existence d’un « courant » qui traverse le fluide entraînant la particule dans une direction déterminée.
10 Benoît Mandelbrot : Une approche fractale des marchés, Odile Jacob, 2005.
12

d’échelle ». Considérons le cas d’un processus de Wiener. Sur une période de durée ∆t
ce brownien standard a une variation égale à √∆t U où U est une gaussienne standard ;
or ce même intervalle peut être décomposée en n sous intervalles de durée ∆t/n et la

∆t
variation du brownien est la somme de n variables normales Ui où les Ui sont des
n
gaussiennes standard. De même, sur un de ces sous-intervalle de durée ∆t/n, la variation
du brownien peut être décomposée à son tour en n sous intervalles de durée ∆t/n2 sur

∆t
chacun desquels la variation du brownien est Uj ; et ainsi de suite pour des
n2
décompositions de plus en plus fines comme l’indique le schéma ci dessous.

∆t / n 3 U 1''

∆t / n 2 U1'

∆t / n U1 ∆t / n3 U n''

√∆t U ∆t / n 2 U n'

∆t / n U n

La gaussienne standard U constitue donc le motif commun, le générateur de toute la


trame, quelle que soit l’échelle à laquelle cette trame est observée.
Cependant ces variables aléatoires Ui prennent des valeurs différentes les unes des
autres ce qui explique que des formes exactes ne se retrouvent pas à l’identique, sur des
images emboîtées correspondant à des zooms différents d’une même trajectoire.
La figure 1 ci-dessous représente, parmi une infinité de réalisations possibles, deux
trajectoires d’un brownien X(t).
13

Figure 1: 2 trajectoires possibles d'un brow nien

2,5

1,5

1
X(t)

0,5

0
1 275 549 823 1097 1371 1645 1919 2193 2467 2741 3015 3289 3563 3837
-0,5

-1
t

Zoom sur une trajectoire

1,8
1,6
1,4
1,2
1
X ( t)

0,8
0,6
0,4
0,2
0
t

La figure du haut présente deux trajectoires simulées d’un même brownien de dérive µ
= 0,04% (soit 0,004 × 252 # 10% sur une année de 252 jours ouvrés) et de paramètre de
diffusion σ = 0,02 par jour (soit 0,02 × √252 # 32% annualisé); le graphique retrace
l’évolution de X(t) sur 4000 jours. Comme nous le verrons plus loin X(t) pourrait
représenter le logarithme népérien du prix d’une action de volatilité égale à 32%.
On remarquera le caractère continu et partout « rugueux » des trajectoires (« qui
changent de direction en tout point ») et qui traduit leur non dérivabilité.
14

La figure du bas est un zoom sur une des trajectoires (agrandissement de 4 qui
« détaille » la trajectoire entre les jours 1200 et 2200) ; il fait apparaître la même
« structure rugueuse » que la trajectoire sur 4000 jours : sans précision sur l’échelle des
axes elle pourrait, a priori, représenter une trajectoire de brownien à une échelle
quelconque, conformément à la propriété « d’invariance à l’échelle » caractéristique
d’une structure fractale.

2.2 Règles de calcul sur les mouvements browniens


Nous allons maintenant établir un certain nombre de « règles heuristiques » de calcul
concernant le mouvement brownien arithmétique qui constituent la base du calcul
stochastique.

Le calcul différentiel sur des processus de Wiener obéit aux règles suivantes :
(7-a) (dW)2 = dt = var(dW)
(7-b) dW.dt = 0
(7-c) dW1(t).dW2(t) = ρ12 dt = cov (dW1, dW2) si W1 et W2 sont deux processus de

Wiener non indépendants et ρ12 est le coefficient de corrélation instantané entre W1et
W2.
(7-d) dW(t1).dW(t2) = 0 si t1 ≠ t2

Ces relations peuvent être justifiées à l’aide de l’équation (5) que l’on réécrit avec deux
de ses implications directes (U est une variable N(0,1)):
(5-a) ∆W = √∆t U ; (5-b) (∆W)2 = ∆t U2 ; (5-c) (dW)2 = dt U2

Justification de (7-a). La relation (7-a) peut paraître étonnante pour deux raisons.
- D'abord on peut être surpris que le carré d'un élément différentiel soit d'ordre un (et
non d’ordre deux), comme l’indique (5-c) et (7-a); la raison en est que W n'est pas
1
dérivable et que dW est d'ordre comme le montre l’équation (5-a).
2
Cette caractéristique particulière a des conséquences importantes sur la manière dont
est calculée la différentielle d'une fonction de processus de diffusion, comme on le
verra dans le paragraphe suivant.
15

- Une deuxième cause de surprise vient du fait que (7-a) indique que (dW)2 est non
aléatoire. En fait:
E [(dW)2 – dt ] = 0
et (5-c) implique : Var [(dW)2 – dt] = (dt)2 var U2 = (dt)2
La variable (dW)2 – dt a donc une espérance nulle et une variance égale à (dt)2, d'ordre
deux: la variance peut donc être considérée comme nulle11, donc (dW)2 peut être
assimilé à son espérance dt.

- Justification de (7-b) et (7-c). Les règles (7-b) et (7-c) ont des fondements analogues à
(7-a).
D'abord, var{dt.dW} = (dt)3/2, donc dt dW peut être assimilé à son espérance qui est
nulle, d'où dW dt = 0.
Ensuite dW1 dW2 = U1 U2 dt où U1 et U2 sont deux variables normales standardisées
dont on appellera ρ12 le coefficient de corrélation (égal à leur covariance). Dès lors :

E{dW1 dW2} = dt E{U1 U2} = ρ12dt ;


var{dW1 dW2} = (dt)2 var{U1 U2} qui est donc d'ordre deux ; ce produit peut donc être
assimilé à son espérance, donc dW1 dW2 = ρ12dt.

- Justification de (7-d). La règle (7-d) résulte directement du fait que W est un processus
à accroissements indépendants.

Ces règles s’adaptent au brownien arithmétique non standard X.

Règles « heuristiques » de calcul applicables au brownien non standard de paramètres µ


et σ :
(9-a) dX2 = σ2dt ; (9-b) dX dt = 0 ; (9-c) dX1(t) dX2(t) = cov (dX1, dX2) = σ12 dt =

ρ12σ1σ2dt.

Nous ne justifions que (9-a), les autres relations se démontrant de manière analogue.

11L'espace des variables aléatoires centrées à variance finie peut être muni d'un produit scalaire, la
covariance, et par conséquent d'une norme : la variance. Un élément de norme nulle est l'élément nul.
16

D’après (6) : (dX)2 = (µ dt + σ dW)2 = (µ dt)2+ σ2 (dW)2 + 2 µ σ dt dW et en appliquant


les règles (7), c'est-à-dire en ne retenant que les termes d’ordre 1 : dX2 = σ2dt.

2.3 Mouvement brownien arithmétique multidimensionnel


Le mouvement brownien étudié plus haut est unidimensionnel puisqu’il prend ses
valeurs dans R, mais il est possible de généraliser ce qui précède au cas
multidimensionnel.
On commence par définir un processus de Wiener multidimensionnel W(t) comme un
processus à m composantes browniennes standard et indépendantes entre elles : pour j ≠
k, Wj est un Wiener, indépendant de Wk, ce qui permet d’écrire, en vertu de (7-c) :
dWj dWk = 0.
On peut alors définir le mouvement brownien arithmétique non standard
multidimensionnel à partir de W comme un vecteur aléatoire à n dimensions, X(t)
satisfaisant à :
X(t) − X(0) = µ t + Σ W(t)
où Σ est une matrice de n×m constantes appelée matrice de diffusion. Cette dernière
équation est l’homologue de (3). X(t) obéit alors à l'EDS (10) suivante qui est
l'homologue de (6) :

(10) dX = µ dt + Σ dW

n
Rappelons que µ est un vecteur constant de R , W un Wiener multidimensionnel à m
composantes indépendantes12 et Σ une matrice de n×m constantes.
En s'attachant à la ième composante de (10), on écrit :
m
dXi = µi d t + ∑σ
j =1
ij dW j

Ceci implique notamment que :


⎛ m m ⎞ m m
Cov(dXi, dXk) = cov ⎜ ∑ σ ij dW j , ∑ σ kl dWl , ⎟ = ∑ σ ijσ kj var(dW j ) = ∑ σ ijσ kj dt
⎝ j =1 l =1 ⎠ j =1 j =1

c'est-à-dire que la matrice de variance-covariance instantanée des composantes du


vecteur dX est égale au produit matriciel Σ Σ’ (Σ’ est la matrice transposée de Σ).

12 Alternativement, on peut considérer un Wiener Z à composantes non indépendantes (dZidZj=ρijdt)


17

3. Processus plus généraux dérivés du brownien : processus d’Itô et de diffusions


unidimensionnels

Malgré l'intérêt des applications auxquelles il a donné lieu, le mouvement brownien est
en fait très particulier, notamment parce que les coefficients de dérive µ et de diffusion
σ sont supposés constants. Un souci de généralisation conduit à considérer des
processus dont la dérive et le coefficient de diffusion ne sont pas constants. Nous
présentons ici les processus univariés, les processus multivariés faisant l’objet du
paragraphe 5.

3.1 Processus d’Itô unidimensionnels


On souhaite représenter la dynamique d’un processus univarié, plus général que le
mouvement brownien, dont les coefficients de dérive µ(t) et de diffusion σ(t) sont eux-
mêmes stochastiques car ils dépendent de l’information acquise jusqu’à la date t.
La variation de X entre t et t + dt obéit alors à l’EDS :

(11-a) dX = µ(t) dt + σ(t) dW

Nous noterons que les notations de la dérive et de la diffusion aléatoires µ(t) et σ(t)
dérogent exceptionnellement à notre convention consistant à représenter les éléments
aléatoires par des capitales. Nous supposerons que les processus aléatoires µ(t) et σ(t)
sont connus en t : rappelons qu’ils sont de ce fait qualifiés de « processus adaptés ».
L’équation (11-a) s’interprète comme l’équation (6) qui régit le brownien : vue de
l’instant t, l’accroissement dX entre t et t+dt est la somme de son espérance µ(t) dt et
d’un aléa σ(t) dW de variance égale à (σ(t))2 dt.
La variation de X entre 0 et t, somme des variations infinitésimales entre 0 et t, s’écrit :
t t
(11-b) X(t) – X(0) = ∫ µ ( s ) ds + ∫ σ ( s ) dW ( s )
0 0

La définition de l’équation (11-b), solution de l’EDS (11-a), repose sur celle des deux
intégrales qui en constituent le membre de droite. Ces deux intégrales sont elles-mêmes

et écrire l'EDS relative à la ième composante sous la forme : dXi = µi + si dZi


18

des processus stochastiques adaptés ; leur définition, qui sera brièvement présentée dans
le paragraphe 3.3 ci-dessous, requiert que les processus µ(t) et σ(t) satisfassent
certaines conditions techniques (cf 3.3). Si ces conditions sont satisfaites, l'EDS (11-a)
admet la solution (11-b) qui, pour des conditions initiales données, est unique dans les
deux sens équivalents suivants :
- tous les processus obéissant à l'EDS (11-a) et satisfaisant la même condition initiale
ont la même réalisation (même trajectoire) : si deux processus X(t) et Y(t) obéissent à
(11-a) et X(0) = Y(0) alors X(t) = Y(t), p.s.13 et en toute date t ∈(0, T) ;
- A une valeur X(0) et à une trajectoire quelconque du brownien W(t)] t ∈(0, T)

correspond p.s. une seule trajectoire X(t)] t ∈(0, T) donnée par (11-b).

Définition. Un processus stochastique obéissant aux équations (11-a) et (11-b)


s’appelle un processus d’Itô14.

Tout comme les browniens dont ils sont dérivés, les processus d’Itô sont continus
partout et dérivables nulle part. Contrairement aux browniens, les processus d’Itô
ne sont pas nécessairement markoviens (bien que certains le soient), car les
coefficients µ(t) et σ(t) dépendent de façon générale de tout l’historique précédant la
date t et, de ce fait, ne sont pas nécessairement des processus sans mémoire.

Règles de calcul sur les processus d’Itô


Les règles de calcul relatives au brownien se généralisent aux processus d’Itô.
Règles heuristiques de calcul applicables au processus d’Itô de paramètres µ(t) et σ(t) :
(12) dX2 = σ(t)2dt ; dX dt = 0 ; dX1(t) dX2(t) = cov (dX1, dX2) = σ12(t) dt

La justification des règles (12) est analogue à celle des règles (9) relatives au brownien.

3.2 Processus de diffusion unidimensionnels


Parmi les processus d’Itô qui constituent une classe vaste de processus continus, nous
allons considérer ceux dont les coefficients de dérive et de diffusion s’expriment
comme des fonctions déterministes du temps et de la valeur courante du processus. En

13 Presque sûrement, c'est-à-dire pour tout ω sauf éventuellement dans un sous-ensemble de Ω de


probabilité nulle.
14 Du nom du mathématicien japonais qui a été le premier à les définir et à les étudier (juste après la 2ème
guerre mondiale).
19

notant respectivement µ(t, X(t)) et σ(t, X(t)) les valeurs prises par les coefficients de
dérive et de diffusion, un tel processus est donc régi par les équations :

(13-a) dX = µ(t, X(t)) dt + σ(t, X(t)) dW


t t
(13-b) X(t) – X(0) = ∫ µ ( s, X (s) ) ds + ∫ σ ( s, X (s) ) dW (s)
0 0

Comme dans le cas plus général des processus d’Itô, les deux intégrales du membre de
droite de (13-b) sont définies et donnent des trajectoires « uniques » si les fonctions µ(t,
X) et σ(t, X), satisfont des conditions techniques (cf. 3.3 infra).
En outre, il faut remarquer que les coefficients µ(t, X(t)) et σ(t, X(t)) suivent des
processus stochastiques, bien qu’ils soient calculés avec des fonctions déterministes
habituelles de R2 dans R appelées µ(.) et σ(.), parce que l’argument X(t) dont ils
dépendent est stochastique.

Définition. Les processus stochastiques obéissant aux équations (13-a) et (13-b)


s’appellent des processus de diffusion.

Tout comme les browniens dont ils sont dérivés et les processus d’Itô dont ils sont un
cas particulier, les processus de diffusion sont continus partout et dérivables nulle
part. A l’instar des browniens, et contrairement à certains processus d’Itô, les
processus de diffusion sont markoviens car les coefficients µ(t, X(t)) et σ(t, X(t)),
donc les accroissements de X après la date t, ne dépendent que du dernier état (t, X(t)).

Exemple 1: le mouvement brownien géométrique (MBG).


Un MBG unidimensionnel est un processus X obéissant à l'EDS : dX = µ.X dt + σ.X
dW.
Les coefficients µ et σ sont deux constantes. Cette EDS est un cas particulier de (13-a)
avec µ(t, X(t)) = µ. X(t) et σ(t, X(t)) = σ. X(t). Le MBG est donc un processus de
diffusion. Le MBG est souvent utilisé pour représenter l'évolution des cours de bourse.
Dans ce cas X(0), le cours initial, est positif et µ représente l’espérance de rentabilité
instantanée qui est typiquement positive.
A ce stade de l’exposé, nous ne disposons pas encore de l’outil mathématique adéquat
pour résoudre l’EDS régissant le MBG, c'est-à-dire pour exprimer analytiquement X(t)
20

– X(0). Remarquons simplement que, si X(t) = 0, l’EDS régissant X implique dX = 0 et


de proche en proche X(t’) = 0 pour tout t’ >t . Dès lors, si le processus atteint une valeur
nulle, il demeure « collé » à cette valeur et on dit que le processus possède une
« barrière absorbante » en X = 0. Par ailleurs, si X(0) >0, X(t) étant continu, sa valeur ne
peut « sauter » au-dessous de zéro et X(t) ≥ 0 pour tout t > 0. Nous reprendrons plus
avant l’étude du MBG qui est un processus très utilisé pour représenter l’évolution des
cours boursiers.

Exemple 2: le processus d’Orstein-Uhlenbeck.


Ce processus, qui est parfois utilisé pour représenter l'évolution du taux d'intérêt à court
terme, suit une EDS qui s'écrit : dX(t) = a [b −X(t)] dt + σ dW(t).
Les coefficients a, b et σ sont constants et a > 0.
Il s’agit donc d’une diffusion dont la dérive µ(t, X(t)) = a [b −X(t)] est proportionnelle à
l'écart entre une valeur b (valeur "normale") et la valeur courante X(t). Une force de
rappel vers b, plus ou moins forte selon la valeur de a, tend donc à rapprocher X(t) de sa
valeur normale ; à cette force de rappel se superpose le choc aléatoire σ dW dont
l'intensité dépend de la valeur de σ.
Nous reprendrons plus loin l’étude de ce processus, quand nous serons munis d’un outil
technique plus puissant.

* 3.3 L'intégrale stochastique (Ce paragraphe peut être omis en première lecture)
Nous allons donner quelques indications sur la signification des intégrales intervenant
dans les équations (11-b), (13-b), (14-b) et (15-b).

a) Le cas des processus d’Itô


t t
Rappelons l’équation (11-b) : X(t) – X(0) = ∫ µ ( s ) ds + ∫ σ ( s ) dW (s) .
0 0

Appelons I1 la première intégrale du membre de droite et réécrivons-la de manière plus


t
explicite afin de marquer son caractère aléatoire : I1(ω,t) = ∫ µ (ω , s ) ds .
0

Pour un ω donné µ(ω, s) est une fonction déterministe du temps représentative d’une
trajectoire particulière du processus µ, et Ι1 devient une intégrale standard qui peut être
définie au sens habituel de Riemann, par exemple. Dès lors, pour tout processus µ(s)
21

t
pour lequel toutes les trajectoires sont intégrables15, I1(ω,t) = ∫ µ (ω , s ) ds
0
peut ainsi

être simplement défini « point par point », c'est-à-dire pour chaque trajectoire (pour
chaque ω).
t
La deuxième intégrale intervenant dans (11-b), I2 ≡ ∫ σ ( s ) dW (s) , est plus délicate à
0

définir.
t
De façon générale, il s’agit de définir l’intégrale stochastique I ≡ ∫ Y ( s ) dW (s)
0

Y(t)]t∈(0,T) est un processus stochastique, et de spécifier les conditions à imposer à Y(t)


pour que cette définition ait un sens. On peut penser à définir I, dans l’esprit d’une
intégrale de Stieltjes, en suivant la méthode standard qui consiste, à partir d'une
partition [t0= 0, t1, ..., tk-1, tk, ..., tm= t ] de l'intervalle [0, t], à considérer les
sommes de Riemann :
m
Sm = ∑ Y (t )(W (t ) − W (t
k =1
*
k k k −1 ) où tk* ∈(tk-1, tk),

et à définir I comme la limite de Sm (presque sûre ou en moyenne quadratique16) quand


la partition devient de plus en plus fine (m tendant vers l’infini et sup (tk- tk-1) tendant
k

vers 0).
On peut montrer que les Sm convergent (presque sûrement et/ou en moyenne
quadratique) si le processus Y(t) satisfait certaines conditions17, mais que la limite
dépend de la position assignée à t*k dans l'intervalle [tk-1, tk] .

t
15 On supposera donc que | µ (ω , s ) | ds < ∞ presque sûrement.
∫ 0
16 Sm tend en moyenne quadratique vers I si lim E [(Sm−I )2 ] = 0.
m→∞

17 Une limite en moyenne quadratique des Sm peut être obtenue si Y(t) est de carré sommable, c'est-à-dire
⎡t ⎤ t
si : E ⎢ Y 2 ( s ) ds ⎥
∫ < ∞. Une limite p.s. peut être obtenue quand ∫ Y 2 ( s ) ds < ∞ p.s. Rappelons que la
⎣0 ⎦ 0

limite p.s. implique la limite en moyenne quadratique mais que l’inverse n’est pas toujours vrai. La
⎡t ⎤
condition d’intégrabilité en principe la plus facile à vérifier, est E ⎢ Y 2 ( s ) ds ⎥ < ∞. C’est celle qui est e

⎣0 ⎦
plus souvent retenue.
22

Il est d'usage de choisir la spécification de l’intégrale correspondant à tk = tk-1, donc de


m
définir I comme la limite des sommes Sm = ∑ Y (t ) [W (t ) − W (t )] .
k =1
k −1 k k −1

Ainsi définie, il s’agit de l’intégrale d’Itô qui est la seule utilisée en finance.

t t
Pour résumer, le processus d’Itô, X(t) – X(0) = ∫ µ ( s ) ds + ∫ σ ( s ) dW (s) , avec les
0 0

intégrales qu’il implique, peut être défini sans ambiguïté si µ(t) et σ(t) sont deux
processus adaptés satisfaisant des conditions d’intégrabilité portant sur des integrales
non stochastiques et que l’on écrit, le plus souvent :
⎛t ⎞ ⎛t ⎞
(CI) E ⎜ ∫ | µ ( s ) | ds ⎟ < ∞ et E ⎜ ∫ σ 2 ( s ) ds ⎟ < ∞.
⎝0 ⎠ ⎝0 ⎠

L’intégrale d’Itô possède des propriétés dont nous présentons les plus importantes sous
la forme d’une proposition.

Proposition 2 (quelques propriétés de l’intégrale stochastique d’Itô)


⎡t ⎤
(14-a) E ⎢ ∫ Y ( u ) dW (u ) / I s ⎥ = 0 ;
⎣s ⎦
⎡t ⎤
Posons I(t) = ⎢ ∫ Y ( u ) dW (u ) ⎥ pour t ∈(0, T) ; I(t) est une martingale, c’est à dire que :
⎣0 ⎦
(14-b) E [I(t) / I(s) ] = I(s)
Par ailleurs :
⎡⎛ t ⎞
2
⎤ ⎡t ⎤ ⎡t ⎤
(14-c) E ⎢⎜ ∫ Y ( u ) dW (u ) ⎟ / I s ⎥ = var ⎢ ∫ Y ( u ) dW (u ) / I s ⎥ = ⎢ ∫ E (Y 2 ( u ) ) du / I s ⎥ ;
⎢⎣⎝ s ⎠ ⎥⎦ ⎣s ⎦ ⎣s ⎦

⎡t t
⎤ ⎡t ⎤
(14-d) E ⎢ ∫ Y ( u ) dW (u ) ∫ Z ( v ) dW (v) / I s ⎥ = E ⎢ ∫ Y ( u ) Z ( u ) du / I s ⎥
⎣s s ⎦ ⎣s ⎦

Les justifications suivantes s’appuient sur les « règles heuristiques » du calcul


stochastique et ne constituent pas une démonstration rigoureuse de cette proposition.
- Justification de (14-a) :
23

⎡t ⎤ ⎡t ⎤ ⎡t ⎤
E ⎢ ∫ Y ( u ) dW (u ) / I s ⎥ = ⎢ ∫ E (Y ( u ) dW (u ) / I s ) ⎥ = ⎢ ∫ E (Y ( u ) / I s ) E ( dW (u ) / I s ) ⎥ = 0
⎣s ⎦ ⎣s ⎦ ⎣s ⎦
(On utilise le fait que dW(u) = W(u+du) – W(u) est indépendant de Y(u) et que
E(dW(u)/Is) = 0)
t s t
- Justification de (14-b) : I(t) = ∫ Y ( u ) dW (u ) = ∫ Y ( u ) dW (u ) + ∫ Y ( v ) dW (v) , d’où :
0 0 s

t
I(t) = I(s) + ∫ Y ( v ) dW (v) , et donc, d’après (14-a) : E [I(t) / I(s) ] = I(s).
s

- Justification de (14-c) :
⎡⎛ t ⎞
2
⎤ ⎡t ⎤ ⎛ ⎡t ⎤⎞
2

E ⎢⎜ ∫ Y ( u ) dW (u ) ⎟ / I s ⎥ = var ⎢ ∫ Y ( u ) dW (u ) / I s ⎥ + ⎜ E ⎢ ∫ Y ( u ) dW (u ) / I s ⎥ ⎟
⎢⎣⎝ s ⎥⎦ ⎜ ⎟
⎠ ⎣s ⎦ ⎝ ⎣s ⎦⎠

⎡t ⎤
= var ⎢ ∫ Y ( u ) dW (u ) / I s ⎥ en vertu de (14-a) ;
⎣s ⎦
⎡t ⎤ t t
Par ailleurs var ⎢ ∫ Y ( u ) dW (u ) / I s ⎥ = ∫ var (Y ( u ) dW (u ) / I s ) = ∫ E (Y 2 ( u ) / I s ) du
⎣s ⎦ s s

(on utilise le fait que l’intégrale est la « somme » de variables indépendantes


Y(u)dW(u))
- La justification de (14-d) est analogue à celle de (14-c).

b) Le cas des processus de diffusion


Tous les résultats relatifs aux processus d’Itô, en particulier ceux qui ont été présentés
dans le paragraphe précédent, s’appliquent au cas des diffusions qui en constituent un
cas particulier. Cependant, dans le cas des diffusions, les conditions d’intégrabilité
peuvent s’exprimer directement comme portant sur les fonctions de deux variables µ(t,
x) et σ(t, x) : celles ci doivent être Lipschitziennes, c'est-à-dire que deux constantes c et
k existent telles que pour tout x, y et t∈(0, T) :
|µ (t, x)| ≤ c(1+|x|) ; |σ (t, x)| ≤ c(1+|x|) ;
|µ (t, x) − µ (t, y)| ≤ k|x − y| ; |σ (t, x) − σ (t, y)| ≤ k|x − y|

4. La différentiation d'une fonction d’un processus d’Itô : le lemme d’Itô


24

Rappelons que, dans le cas d’une fonction différentiable ordinaire f(t, X) de deux
∂f ∂f
variables t et X déterministes, la différentielle de f s’écrit : df = dt + dX .
∂t ∂X
Cette règle « standard » n’est pas valide quand X est un processus stochastique. Nous
allons donc étudier la règle de différentiation qui s’applique quand X est un processus
d’Itô ou une diffusion. On commence par le cas d’un processus X unidimensionnel
avant de traiter celui d’un processus X vectoriel.

4.1 Le lemme d’Itô


Considérons :
- un processus d’Itô unidimensionnel X(t) obéissant à l'EDS :
dX = µ(t) dt + σ(t) dW
où µ(t) et σ(t) respectent les conditions d’intégrabilité et W est un Wiener.
- une fonction f de R2 dans R, dont on écrira les valeurs f(t, x), une fois continûment
différentiable par rapport à t et deux fois continûment différentiable par rapport à la
∂f ∂f ∂2 f
deuxième composante x. Les différentes dérivées partielles sont notées , et 2 .
∂t ∂x ∂x
On s’intéressera au processus f(t, X(t)) qui est stochastique parce que X(t) l’est. Par
exemple, f(t, X(t)) représentera la valeur d’une option et X(t) celle de son sous-jacent.
On considère l’intervalle (t, t+dt) au cours duquel X varie de dX = X(t+dt)) – X(t).
On note df = f(t+dt, X(t+dt)) – f(t, X(t)) la variation de f(t, X) induite par la double
variation infinitésimale (dt, dX). Pour simplifier l’écriture et faire tenir certaines
équations sur une ligne, (.) représentera (t, X(t)).
La proposition suivante caractérise le processus f(t, X(t)).

Proposition 3 (lemme d’Itô ; cas unidimensionnel)


Avec les notations et sous les hypothèses décrites plus haut :
(i) f(t, X(t)) est un processus d’Itô.
(ii) La différentielle df peut s’écrire sous les trois formes suivantes :
∂f ∂f 1 ∂2 f
(.) dt + (.) dX + 2 ( )(
. dX ) ;
2
(15-a) df =
∂t ∂x 2 ∂x
qui implique :
⎛ ∂f 1 ∂2 f ⎞ ∂f
(15-b) df = ⎜ (.) + 2 ( )
. σ 2 (t ) ⎟ dt + (.) dX ;
⎝ ∂t 2 ∂x ⎠ ∂x
25

qui implique :
⎛ ∂f ∂f 1 ∂2 f ⎞ ∂f
(15-c) df = ⎜ (.) + (.) µ (t ) + 2 ( )
. σ 2 (t ) ⎟ dt + (.) σ (t )dW
⎝ ∂t ∂x 2 ∂x ⎠ ∂x

Sous forme intégrale, (15-c) s’écrit :


t
⎛ ∂f ∂f 1 ∂2 f ⎞ t
∂f
f(t, X(t)) – f(0, X(0)) = ∫ ⎜ (.) + (.) µ ( s ) + 2 ( )
. σ 2
( s ) ⎟ds + ∫ (.) σ ( s)dW
0 ⎝ ∂s ∂x 2 ∂x ⎠ 0
∂x

Les équations (15) sont de la plus grande utilité et s’appliquent au calcul de la


différentielle d'une fonction d’un processus d’Itô ou de diffusion.

Justification des formules (15).


Notons d’abord que les règles (15) diffèrent de celles qui président au calcul des
différentielles classiques. Par exemple, (15-a) comprend le terme supplémentaire
1 ∂2 f
2 ( )
. (dX ) 2 qui est du premier ordre en calcul stochastique mais qui est absent, car
2 ∂x
du deuxième ordre, en calcul différentiel ordinaire.
Pour comprendre l’origine de ce terme supplémentaire, et en s’en tenant à des
justifications qui reposent sur les règles heuristiques de calcul, considérons la variation
∆f = f(t+∆t, X(t+∆t)) − f(t, X(t)) calculée sur un intervalle de durée ∆t faible mais non
infinitésimale. On posera ∆X ≡ X(t+∆t) − X(t) et on notera ε les termes d'ordre soit
supérieur à (∆t)2, soit supérieur à (∆X)2. Le développement en série à l'ordre deux de
f(t+∆t, X(t+∆t)) autour de (t, X(t)) implique:
∂f ∂f 1 ∂2 f 1 ∂2 f ∂2 f
(.) ∆t + (.) ∆X + ( )( ) ( )( ) ( .) ∆ X ∆ t + ε
2 2
∆f = . ∆ X + . ∆ t +
∂t ∂x 2 ∂x 2 2 ∂t 2 ∂x∂t
Etudions le comportement de ∆f quand ∆t tend vers zéro en remplaçant ∆t par l'élément
différentiel dt, ∆X par dX et en éliminant les termes d'ordre supérieur à un ; compte tenu
du fait que (dX)2 est d'ordre 1, l'on aboutit à l'équation (15-a).
(15-a) conduit directement à (15-b) car (dX)2 = σ2(t) dt en vertu de la règle de calcul 9-
a. (15-b) conduit directement à (15-c) car dX = µ(t) dt + σ(t) dW .

4.2 Exemples d’application


Pour illustrer les règles du calcul différentiel et intégral stochastique exposées
précédemment et du fait des applications auxquelles elles ont donné lieu dans la
26

technique financière, nous allons étudier deux processus particuliers déjà introduits : le
mouvement brownien géométrique d'une part, et le processus d'Orstein-Uhlenbeck
d'autre part.

a) Le mouvement brownien géométrique (MBG)


Nous avons déjà introduit le MBG qui est un processus X(t) obéissant à l'EDS :

(16-a) dX = µ.X dt + σ.X dW

où les coefficients µ et σ sont deux constantes.


Nous avons déjà remarqué que si X(0) est positif le MBG est nécessairement positif en
tout temps, ce qui permet d’écrire la variation relative de X sous la forme équivalente :
dX
(16-b) = µ dt + σ dW
X
Quand l’EDS est écrite sous cette forme, le paramètre de diffusion σ s’appelle la
volatilité.
Nous allons caractériser le MBG par la proposition suivante :
Proposition 4 : Si X(t) est un MBG obéissant à (16) (dérive µ et volatilité σ) :
σ2
(i) Ln(X(t)) obéit à un mouvement brownien simple dont la dérive est µ − et la
2
variance instantanée est σ2 ;
(ii) X(t) est une variable Log-normale qui s’écrit :
( 2/
(16-c) X(t) = X(0) e µ −σ 2)t + σ W(t)

(16-c) est la solution de l’EDS (16-a) ou (16-b)


(iii) L'espérance de X(t) croît exponentiellement au taux µ.

Pour démontrer la première partie de cette proposition, appliquons le lemme d’Itô à


dX 1 ( dX )
2

Ln(X) (équations (15) : d Ln(X) = − .


X 2 X2
2
dX ⎛ dX ⎞
Comme = µ dt + σ dW et ⎜ ⎟ = σ dt, on peut écrire :
2
X ⎝ X ⎠
σ2
d Ln(X) = (µ − ) dt + σ dW
2
L'on aboutit bien au premier résultat (i): Ln(X) est un brownien arithmétique et :
27

⎛ X (t ) ⎞ σ2
Ln(X(t)) − Ln(X(0)) = Ln ⎜ ⎟ = (µ − ) t + σ W(t)
⎝ X (0) ⎠ 2
( 2/
2)t + σ W(t)
X(t) est donc log-normal et X(t) = X(0) e µ −σ , ce qui démontre (ii).
( 2/
2)t + σ √t U
En écrivant W(t) = √t U (où U est N(0,1)) : E(X(t)) = X(0) E (e µ −σ ) = eµ t ,
ce qui démontre (iii)18.

Le MBG a été souvent utilisé pour représenter les variations du cours des actions. La
Log-normalité du cours est compatible avec une importante propriété de celui-ci : la
valeur d'une action ne peut être négative (responsabilité limitée des actionnaires). Cette
propriété n'est pas respectée par d'autres lois de distribution, notamment la loi Normale.

b) Le processus d'Orstein-Uhlenbeck
Rappelons que ce processus de diffusion, utilisé parfois pour représenter l'évolution du
taux d'intérêt à court terme, suit une EDS qui s'écrit :

(17) dX(t) = a [b −X(t)] dt + σ dW(t)

Pour intégrer cette EDS, posons :


Y(t) = [X(t) − b]eat
ce qui implique :
dY(t) = eat dX(t) + [ X(t) − b ] a eat dt
soit, en utilisant (17) :
dY(t) = σ eat dW(t).
D'où il vient, par intégration :
t
at
Y(t) − Y(s) = [X(t) − b]e − [X(s) − b]e as
= σ ∫ e au dW (u )
s

soit :
t
X(t) = e-a(t-s) [X(s) − b] + b + σ e-at ∫ e au dW (u )
s

En tant que « somme » des variables normales eaudW(u), X(t) est une variable
normale.

aµ+0,5aσ2)
18 Rappelons que si X a une distribution normale N(µ, σ2), alors : E(eaX)) = e( .
28

En notant xs la réalisation en s de X(s), on peut calculer les deux premiers moments qui
caractérisent entièrement sa distribution, puisqu’elle est normale :
E [X(t)/ X(s) = xs] = e-a(t-s) [xs − b] + b ≡ φ (xs,(t-s))
t
Var[X(t)/ X(s) = xs] = σ2 e-2at ∫ e 2 au du =σ2(1− e-2a(t-s))/2a ≡ ψ(t-s).
s

Ces derniers résultats découlent directement de la proposition 2 et montrent que le


processus d'Orstein-Uhlenbeck est stationnaire.

5. Processus d’Itô et de diffusion multidimensionnels

Nous avons présenté en 2.3 les browniens multivariés et nous conservons les notations
qui y ont été introduites pour décrire les processus d’Itô multivariés. Par ailleurs, nous
allons étendre au cas multidimensionnel les définitions et les résultats obtenus aux
paragraphes 3. et 4. concernant les processus d’Itô et les diffusions unidimensionnels.

5.1 Processus d’Itô et de diffusion multivariés


a) Un processus d’Itô n-dimensionnel, associé à un brownien standard W(t) comprenant
m composantes indépendantes, est un processus stochastique X(t) à n composantes régi
par les équations suivantes :
(18-a) dX = µ(t) dt + Σ(t) dW
t t
(18-b) X(t) – X(0) = ∫ µ ( s ) ds + ∫ Σ ( s ) dW ( s )
0 0

Le vecteur de dérive µ(t) est un processus stochastique adapté à n composantes


(satisfaisant certaines conditions techniques) et la matrice de diffusion (ou de co-
volatilité) Σ(t) est une matrice n×m dont chacune des nm composantes σij(t) est un
processus adapté, satisfaisant certaines conditions techniques pour assurer l’existence et
l’unicité de (18-b).
m
La ième composante de l’équation (18-a) s’écrit : dXi = µi(t) dt + ∑σ
j =1
ij (t ) dWj.

La matrice de variance-covariance du vecteur aléatoire dX(t) (de terme général cov(dXi,


dXj)) est, à l’instant t, égale à Σ(t) Σ'(t).
29

Le processus d’Itô multidimensionnel, comme son homologue à une dimension, est


continu, non dérivable et non nécessairement markovien.

b) Un processus de diffusion n-dimensionnel est un processus d’Itô particulier dont la


dynamique s’écrit :

(19-a) dX = µ(t, X(t)) dt + Σ(t, X(t)) dW


t t
(19-b) X(t) – X(0) = ∫ µ ( s, X ( s ) ) ds + ∫ Σ ( s, X ( s ) ) dW ( s )
0 0

n+1
Les composantes µi(t, X) et σij(t, X) sont des fonctions de R dans R qui doivent
satisfaire des conditions de Lipschitz pour assurer l’existence et l’unicité de la solution
(19-b).
Le processus de diffusion multidimensionnel, comme son homologue à une dimension,
est continu, non dérivable et markovien.

5.2 Lemme d’Itô (différentiation d'une fonction d’un processus d’Itô n-dimensionnel)

a) Lemme d’Itô dans le cas d’un processus X multivarié


Le lemme d’Itô formulé dans la proposition 3 et applicable aux fonctions d’un
processus univarié se généralise au cas de processus multivariés de la manière suivante :

Proposition 5 (Lemme d’Itô ; cas multidimensionnel)


Soient X(t) = (X1(t),…, Xn(t)) un processus d’Itô multivarié et f(t, x) une fonction de
n+1 ∂f ∂f ∂2 f
R dans R telle que les dérivées partielles , et existent et soient
∂t ∂xi ∂xi ∂x j

continus pour tous les (i,j).


En rappelant que (.) signifie (t, X(t)), on peut écrire :

∂f n
∂f n n
1 ∂2 f
(20) df = (.)dt + ∑ (.)dX i + ∑∑ (.)dX i dX j
∂t i =1 ∂xi i =1 j =1 2 ∂xi ∂x j

Ce qui implique :

⎡ ∂f 1 n n ∂2 f n
∂f ⎤ n m
∂f
(21) df = ⎢ (.) + ∑∑ υij (.) + ∑ µi (.) (.) ⎥ dt + ∑∑ (.)σ ij (.) dW j
⎢⎣ ∂t 2 i =1 j =1 ∂xi ∂x j i =1 ∂xi ⎥⎦ i =1 j =1 ∂xi
30

n
υ ij dénotant l’élément général de la matrice Σ Σ’, soit υij = ∑ σ ikσ jk .
k =1
Sous sa forme « intégrale », (21) s’écrit :
t
⎛ ∂f 1 n n ∂f 2 n
∂f ⎞
(22) f (t , X (t ) ) − f (s, X (s )) = ∫ ⎜ (.) + ∑∑ υ (.) + ∑ µ (.) (.) ⎟du
⎜ ∂u 2 i j ∂xi ∂x j
ij i
∂xi ⎟⎠
s ⎝ i

m t n
∂f
+ ∑∫ ∑ (.)σ ij (.)dW j
j =1 s i =1 ∂xi

La « justification » de ces équations peut-être conduite de manière analogue à celle des


équations (15), c’est à dire en procédant à un développement en série de
f (t + dt , X + d X ) autour de (t, X ) et en éliminant les termes d’ordre supérieur à un.

b) L’opérateur de Dynkin
L’écriture des équations différentielles stochastiques et du lemme d’Itô se simplifie
grandement en ayant recours à l’opérateur de Dynkin (ou plus simplement le Dynkin).
Pour simplifier, notons E (.) l’espérance conditionnelle E( . / It) et considérons
t

E df = E{ f (t + dt , X (t + dt )) − f (t , X (t ))}. Dans le cas unidimensionnel, cette espérance


t t

s’écrit d’après (15-c) :

⎡ ∂f ∂f 1 ∂2 f ⎤
(23-a) E df = ⎢ (.) + µ (.) (.) + σ 2 (.) 2 (.)⎥ dt
t
⎣ ∂t ∂x 2 ∂x ⎦

ou bien, dans le cas multidimensionnel, d’après (22) :

⎡ ∂f n
∂f 1 n n ∂2 f ⎤
(23-b) E df = ⎢ (.) + ∑ µi (.) (.) + ∑∑υij (.) (.)⎥ dt
⎣⎢ ∂t ∂xi 2 i =1 j =1 ∂xi ∂x j ⎥⎦
t
i =1

L’équation (23-a) s’applique aux processus unidimensionnels et (23-b) aux processus


multivariés.

On peut alors écrire l’espérance instantanée de la variation de f sous la forme :


31

E df ∂f n
∂f 1 n n ∂2
(24) t
≡ Dt f = (.) + ∑ µi (.) (.) + ∑∑ υij (.)
dt ∂t i =1 ∂xi 2 i =1 j =1 ∂xi ∂x j

L’opérateur Dt ainsi défini s’appelle le Dynkin ou opérateur différentiel et permet de


simplifier les notations. Par exemple, l’équation (22) se réécrit :

n m
∂f
df = D t f dt + ∑∑ (.)σ ij (.)dW j
i =1 j =1 ∂xi

t m t
⎡ n ∂f ⎤
f (t , X (t )) − f (s, X (s )) = ∫ D u f du + ∑ ∫ ⎢∑ (.)σ ij (.)dW j ⎥
s j =1 s ⎣ i =1 ∂xi ⎦

ce qui implique notamment quand X ( s ) = x :

⎧t ⎫
E { f (t , X (t )) / X ( s ) = x} = f ( s, x ) + E ⎨ ∫ D u f du ⎬ .
s s
⎩s ⎭

6. Les processus à sauts

Nous allons maintenant examiner brièvement le deuxième type de processus dont les
trajectoires sont caractérisées par des discontinuités à occurrence aléatoire.

Ces processus, bien que parfois utilisés, ont donné lieu à moins d'applications en
Finance que les processus de diffusion précédemment décrits. Nous nous limiterons à
une courte description et à une présentation de la modélisation des processus de
Poisson.

6.1 Description des processus à sauts

Contrairement aux processus d’Itô, pour lesquels uniquement des mouvements


infinitésimaux sont possibles dans des intervalles de temps infiniment petits17, les

17 Les trajectoires, on l’a vu, sont continues presque sûrement.


32

processus à sauts sont caractérisés par des changements discrets ayant lieu à des
instants aléatoires.
Pendant un intervalle de temps donné, la valeur de X(t) soit reste stable, soit subit une
modification finie et discrète ; dans le cas d’un processus de Poisson, la probabilité
d'occurrence d'un tel saut est proportionnelle à la durée de l'intervalle.
Dans un intervalle de temps de durée dt le processus à sauts X(t) subira donc une
modification finie avec une probabilité infinitésimale alors que le processus continu
subit dans ce même intervalle de durée dt une modification presque certaine mais
infinitésimale.

6.2 Modélisation des processus à sauts

a) Le processus de Poisson en temps continu constitue le "modèle de base" à partir


duquel on peut représenter un processus à sauts.

Rappelons qu'un processus de Poisson en temps continu, caractérisant l'occurrence d'un


certain événement (par exemple un saut) est défini par les deux propriétés suivantes :

. Propriété 1 - Dans un intervalle de temps quelconque de durée ∆t, la probabilité que


l'événement considéré ait lieu :

- zéro fois, est égale à 1−λ∆t + o1(∆t) ;

- une seule fois, est égale à λ∆t + o2(∆t) ;

- plus d'une fois, est égale à o3(∆t) ;

o(∆t )
o(∆t) dénote, comme d'habitude, un élément tel que lim = 0 et λ est une
∆t → 0 ∆t
constante positive qui représente le nombre moyen d'occurrences par unité de temps.

. Propriété 2 - Les événements ayant lieu dans deux intervalles de temps disjoints sont
indépendants.
33

Remarquons qu'une très grande latitude est permise quant à la définition de l'événement
auquel le processus de Poisson se réfère ; il s'agira par exemple de l'arrivée de revenus à
des instants aléatoires, d'un accident qui annule la valeur d'un actif (faillite, incendie,
...), d'une dévaluation, etc…

De manière assez générale, nous supposons dans la suite qu'il s'agit d'une variation
discrète d'amplitude Z aléatoire, affectant une variable X(t). L'EDS régissant le
processus de Poisson unidimensionnel X s'écrit alors :

(25) dX = µ(t, X) dt + υ(t, X) dQ

dQ étant égal à Z avec une probabilité λdt et à zéro avec une probabilité 1 − λdt.

Considérons maintenant une fonction réelle de deux variables réelles, f(t, x) et le


processus f(t, X(t)) où X(t) est un processus de Poisson qui obéit à (25). On peut montrer
que l'espérance instantanée de la variation, dans l’intervalle (t, t+dt), de f(t, X)
admettant des dérivées partielles continues s'écrit au point (t, X):

⎛ df ⎞ ∂f ∂f
E⎜ ⎟≡D f =
t
+ µ (t , X ) + E [λ( f(t, X +υ(t, X) Z) − f(t, X)/ It ]
⎝ dt ⎠ ∂t ∂x
Cette dernière relation est l'homologue de celle qui définit le Dynkin dans le cas de
processus continus.
Pour terminer, notons que la généralisation au cas des processus multidimensionnels
s'opère ici de la même façon que pour les processus de diffusion.