Vous êtes sur la page 1sur 65

Equations différentielles stochastiques

Notes de cours
Filière 4

Thierry Chonavel
thierry.chonavel@telecom-bretagne.eu

Septembre 2013
Table des matières

1 Introduction 5

2 Rappels et compléments de probabilités 8

2.1 Espérance conditionnelle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8

2.1.1 Tribus . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8

2.1.2 Espérance conditionnelle . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8

2.2 Processus aléatoires et espace L2 (Ω, A, P ) . . . . . . . . . . . . . . . . . . . . . . 9

2.3 Mouvement brownien . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10

2.3.1 Mouvement brownien . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11

2.3.2 Constructions du mouvement brownien . . . . . . . . . . . . . . . . . . . 13

2.4 Filtrations, Martingales et temps d’arrêt . . . . . . . . . . . . . . . . . . . . . . . 16

2.4.1 Filtrations . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16

2.4.2 Martingale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17

2.4.3 Temps d’arrêt . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18

3 L’intégrale d’Itô 19

3.1 Position du problème . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19

3.2 Construction de l’intégrale d’Itô . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20

3.2.1 Fonctions élémentaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20

1
TABLE DES MATIÈRES 2

3.2.2 Espace V([a, b]) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21

3.2.3 Représentation des martingales . . . . . . . . . . . . . . . . . . . . . . . . 23

3.3 Exemple . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23

4 Intégration des EDS. 25

4.1 Formule d’Itô . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25

4.1.1 Exemples . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26

4.1.2 Formule d’Itô vectorielle . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26

4.2 Intégration des EDS . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27

4.2.1 Exemples . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27

4.2.2 Existence de solutions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28

5 Intégration numérique des EDS 30

5.1 Rappels sur l’intégration numérique des EDO . . . . . . . . . . . . . . . . . . . . 30

5.2 Intégration numérique des EDS par la méthode d’Euler . . . . . . . . . . . . . . 31

5.2.1 Méthode d’Euler . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31

5.2.2 Interpolation des solutions discrètes . . . . . . . . . . . . . . . . . . . . . 31

5.2.3 Ordre . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32

5.3 Intégration numérique des EDS par la méthode de Milstein . . . . . . . . . . . . 32

5.4 Méthodes d’ordre supérieur à un . . . . . . . . . . . . . . . . . . . . . . . . . . . 33

5.4.1 Formules de Taylor . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33

5.4.2 Méthode de Runge-Kutta d’ordre 1,5 . . . . . . . . . . . . . . . . . . . . . 34

5.5 Exemples . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34

6 Estimation des paramètres des EDS 37


TABLE DES MATIÈRES 3

6.1 Compléments sur les processus de diffusion . . . . . . . . . . . . . . . . . . . . . 37

6.1.1 Equations directe et rétrograde de Kolmogorov . . . . . . . . . . . . . . . 37

6.1.2 Ergodicité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39

6.2 Estimation paramétrique des EDS . . . . . . . . . . . . . . . . . . . . . . . . . . 40

6.2.1 Maximum de vraisemblance . . . . . . . . . . . . . . . . . . . . . . . . . . 40

6.2.2 Vraisemblance approchée . . . . . . . . . . . . . . . . . . . . . . . . . . . 41

6.2.3 Maximisation de la vraisemblance approchée . . . . . . . . . . . . . . . . 41

6.2.4 Pont de diffusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42

6.3 Estimation non paramétrique des EDS . . . . . . . . . . . . . . . . . . . . . . . . 43

6.3.1 Estimateurs à noyau . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 44

6.3.2 Estimation non-paramétrique de b et de σ . . . . . . . . . . . . . . . . . . 44

7 EDS présentant des sauts 46

7.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46

7.2 Processus de Lévy . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46

7.2.1 Processus de Poisson . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46

7.2.2 Lois de probabilité indéfiniment divisibles . . . . . . . . . . . . . . . . . . 48

7.2.3 Processus de Lévy . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 50

7.3 Mesures aléatoires de Poisson . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51

7.3.1 Mesures aléatoires de Poisson . . . . . . . . . . . . . . . . . . . . . . . . . 51

7.3.2 Intégrales de Poisson . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52

7.4 Intégrales de Lévy et formule d’Itô . . . . . . . . . . . . . . . . . . . . . . . . . . 54

7.5 Exemples . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55

7.5.1 Modèle de Merton . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55


TABLE DES MATIÈRES 4

7.5.2 Utilisation de la formule d’Itô . . . . . . . . . . . . . . . . . . . . . . . . . 56

8 Exercices 57

A Mesures aléatoires 59

A.1 Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59

A.2 Mesure positive µZ associée à Z. . . . . . . . . . . . . . . . . . . . . . . . . . . . 59


R
A.2.1 Intégrale stochastique R φ(t)Z(dt). . . . . . . . . . . . . . . . . . . . . . . 60

A.3 Prolongement par continuité d’un opérateur linéaire [18]. . . . . . . . . . . . . . . 61


Chapitre 1

Introduction

Les équations différentielles servent à décrire des phénomènes physiques très variés. Cepen-
dant, dans de nombreuses situations les phénomènes observés ne suivent que grossièrement les
trajectoires des équations qui semblent devoir leur correspondre. Les causes possibles d’un tel
comportement peuvent être variées : erreur de modélisation, fluctuation au cours du temps des
paramètres de l’équation, présence de bruit d’observation, ... . Dans ces situations, les approches
probabilistes trouvent naturellement leur place et il peut alors être intéressant d’incorporer des
termes aléatoires dans les équations différentielles afin de prendre en compte les incertitudes
précédentes. Cependant, l’introduction de ces termes aléatoires conduit à une intégration des
équations qui ne correspond pas, en général, à une adaptation immédiate de la théorie classique
des équations différentielles.

L’objectif de ces notes de cours est d’introduire le calcul d’Itô qui permet d’aborder les
équations différentielles stochastiques. On commencera par quelques rappels et compléments de
théorie des probabilités (chapitre II) qui seront utiles pour cela. Après avoir présenté quelques
résultats importants relatifs au calcul d’Itô, on verra (chapitre III) comment il peut être mis en
oeuvre pour la résolution des équations différentielles stochastiques (EDS - chapitre IV)). Comme
pour les équations différentielles classiques, on ne sait pas en général intégrer de manière ex-
acte les EDS. Aussi, on présentera quelques techniques permettant d’obtenir des approximations
numériques des trajectoires des EDS (chapitre V) .

Dans de nombreux problèmes, les paramètres de l’EDS ne sont pas connus a priori et il importe
pour l’utilisateur de les estimer à partir de la donnée du modèle paramétrique et de la réalisation
d’une ou plusieurs trajectoires de l’EDS. On présentera une démarche générale pour traiter ce
genre de situation (chapitre VI). On verra également comment des approches non paramétriques
peuvent être utilisées dans le cas où on ne dispose pas de modèle paramétrique a priori pour
estimer les coefficients de l’EDS. On présente également une introduction aux processus de Lévy
qui permettent d’étendre les EDS au cas où l’entrée du modèle peut présenter des discontinuités
(chapitre VII).

Ces notes de cours s’appuient essentiellement sur le livre de de Bernt Oksendal intitulé Sochastic
differential equations [15] qui constitue une bonne référence pédagogique pour l’enseignement des

5
CHAPITRE 1. INTRODUCTION 6

EDS et sur la référence [9] pour ce qui concerne plus particulièrement la résolution numérique
des EDS. D’autres références sont également fournies dans la bibliographie. Pour les processus
de Lévy, on pourra consulter [1].

Remarques
- Le chapitre VI a été ajouté à l’édition 2012 du polycopié et le chapitre VII à l’édition 2013.
- Ces notes ont été rédigées avec LATEX 1 et les simulations réalisées avec le langage Python 2 .
- La figure en bas de page de garde représente une trajectoire d’une marche aléatoire sur la
sphère.

1. http ://fr.wikipedia.org/wiki/LaTeX
2. http ://fr.wikipedia.org/wiki/Python (langage)
CHAPITRE 1. INTRODUCTION 7

Notations et Abréviations

|M| déterminant de la matrice matrice M

vT , MT transposé d’un vecteur, d’une matrice

< x, y > produit scalaire de x et de y

T r(M) trace d’une matrice

sign(a) sign(x) = +1, −1, 0, selon que a est positif, négatif, nul

δa,b δa,b = 1 si a = b, et 0 sinon (symbole de Kronecker)

[v]i , [M]ij élément d’indices i, ou (i, j), d’un vecteur ou d’une matrice

kMk norme de M (la norme choisie est définie par le contexte)

N, Z, R, C ensembles des nombres entiers, entiers relatifs, réels, et complexes

B(Rn ) tribu borélienne de Rn

B = (Bt )t≥0 mouvement brownien standard

1IA fonction indicatrice de l’ensemble A

c.à.d. c’est à dire

p.s. presque sûrement

IID indépendantes et identiquement distribuées


Chapitre 2

Rappels et compléments de
probabilités

On suppose connues les bases de probabilités et la notion de processus stochastique. Les étudiants
sont invités à relire les notes de cours d’introduction aux probabilités et aux processus aléatoires.
Les variables aléatoires seront considérées ici sur un espace probabilisé noté (Ω, A, P ) et à valeurs
dans (R, B(R)) ou (Rn , B(Rn )), où B(.) représente la tribu borélienne. Le mouvement brown-
ien, qui joue un rôle central en calcul stochastique, sera présenté dans ce chapitre.

2.1 Espérance conditionnelle

2.1.1 Tribus

Rappelons maintenant quelques notions importantes sur les tribus.

Notons tout d’abord que la tribu borélienne d’un espace topologique est la tribu engendrée par la
topologie (les ouverts) de cet ensemble, la tribu engendrée par un ensemble de sous-ensembles
de Ω étant la plus petite tribu (au sens de l’inclusioin) contenant ces sous-ensembles, c.à.d.
l’intersection des tribus qui contiennent tous ces sous-ensembles.

La tribu engendrée par une variable aléatoire est définie comme la tribu engendrée par les
images réciproques des éléments de la tribu de l’ensemble d’arrivée de la variable. En fait, on
peut vérifier que l’ensemble de ces images réciproques constitue en lui même une tribu.

2.1.2 Espérance conditionnelle

Pour une variable aléatoire X de (Ω, A, P ) et une sous-tribu de A notée B, l’espérance condi-
tionnelle de X sachant B, notée E[X|B], représente l’unique variable aléatoire B-mesurable telle

8
CHAPITRE 2. RAPPELS ET COMPLÉMENTS DE PROBABILITÉS 9

que Z Z
E[X|B]dP = XdP (2.1)
B B
pour tout élément B de B. L’espérance conditionnelle est également caractérisée par le fait que
pour toute variable aléatoire Y bornée et B-mesurable, E[XY ] = E[E[X|B]Y ].

Comme pour A ∈ A, P (A) = E[1IA ], on définira la probabilité de A conditionnellement à B par


P (A|B) = E[1IA |B]. L’application A ∈ A → P (A|B) définit une loi probabilité.

En Notant σ(X) la tribu engendrée par la variable aléatoire X, on peut démontrer qu’une
variable aléatoire Y est mesurable pour la tribu σ(X), c’est à dire que les images réciproques
par Y des éléments de la tribu de l’espace d’arrivée sont dans σ(X), si et seulement si il existe
une fonction mesurable g telle que Y = g(X) ([8] p.8). Plus généralement, on notera σ({Xi }i∈I )
la tribu engendrée par les variables aléatoires de {Xi }i∈I . On définira l’espérance d’une variable
aléatoire X conditionnellement aux variables {Xi }i∈I et on notera E[X|{Xi }i∈I ] l’espérance
conditionnelle de X conditionnellement à la tribu σ({Xi }i∈I ). Compte tenu de ce qui précède,
on voit que E[X|σ({Xi }i∈I )] peut s’écrire comme une fonction des variables {Xi }i∈I .

Dans le cas où X ∈ L2 (ΩA, P ), c’est à dire, E[X 2 ] < ∞, E[X|B] représente la projection de
Xsur l’espace des variables élatoires B-mesurables :

E[X|B] = arg minY ; Y B-mesurable E[(X − Y )2 ]. (2.2)

En particulier, si B = σ(Y ), E[X|B] = arg minh(Y ); h mesurable E[(X − h(Y ))2 ].

Rappelons pour terminer quelques propriétés de l’espérance conditionnelle :


– E[aX + bY |B] = aE[X|B] + bE[Y |B]
– E[E[X|B]] = E[X]
– si B2 ⊂ B1 , E[E[X|B1 ]|B2 ] = E[X|B2 ]
– si X est indépendant de B, E[X|B] = X
– si Y est B-mesurable, E[XY |B] = Y E[X|B]
– si φ est convexe et mesurable, E[φ(X)|B] ≥ φ(E[X|B]).
La dernière relation provient de l’inégalité de Jensen qui indique que pour une fonction
convexe mesurable, E[φ(X)] ≥ φ(E[X]).

2.2 Processus aléatoires et espace L2 (Ω, A, P )

Les processus aléatoires considérés ici seront de la forme X = (Xt )t∈T , avec en général T = R+
ou T = N pour le cas scalaire et T = Rn+ ou T = Nn pour le cas vectoriel. Rappelons que la
loi du processus X est entièrement caractérisée par l’ensemble des lois des vecteurs de la forme
(Xt1 , . . . , Xtk ), avec k ∈ N∗ et t1 , . . . , tk ∈ T .

Le théorème de Kolmogorov permet de préciser dans quelles conditions pour un ensemble


de lois de probabilités P(t1 ,...,tk ) , définies pour tout k ∈ N∗ et t1 , . . . , tk ∈ T il existe un processus
aléatoire X = (Xt )t∈T dont la loi est caractérisée par ces probabilités :
CHAPITRE 2. RAPPELS ET COMPLÉMENTS DE PROBABILITÉS 10

Définition 1 Une famille (PI )I∈Π(T ) de lois de probabilité est dite cohérente ou consistante 1 ,
si pour tout élément I de Π(T ) et toute permutation σ(I) de I,
dPσ(I) ((xi )i∈σ(I) ) = dPI ((xi )i∈I ), (2.3)
et si pour tous I et J de Π(T ), avec J ⊂ I, la restriction de la loi PI à J est égale à PJ :
Z
dPI ((xi )i∈I ) = dPJ ((xi )i∈J ). (2.4)
(xi )i∈I−J

On peut maintenant énoncer le théorème suivant, de cohérence (ou de consistance) de Kol-


mogorov, qui précise l’existence d’un processus de lois finies données :

Théorème 1 (de cohérence de Kolmogorov) Soit T un ensemble d’indices, et une famille


(PI )I∈Π(T ) de lois définies sur les espaces probabilisables (E, E)I correspondants. Alors, on peut
définir un processus (Ω, A, P, (Xt )t∈T ) tel que la famille (PI )I∈Π(T ) caractérise la loi de ce pro-
cessus si et seulement si la famille (PI )I∈Π(T ) est cohérente. La loi de X = (Xt )t∈T est alors
définie de façon unique.

Soit (Ω, A, P ) un espace probabilisé. Rappelons que l’espace vectoriel L2 (Ω, A, dP ) des vari-
ables aléatoires définies sur (Ω, A, P ) et de variance finie est un espace de Hilbert : c’est un
espace vectoriel normé complet pour le produit scalaire défini par < X, Y >= E[XY ∗ ] (on
notera k X k=< X, X >1/2 la norme correspondante). L2 (Ω, A, P ) est donc un espace de
Hilbert, ce qui lui confère des propriétés importantes. En particulier, on peut mettre en oeu-
vre le théorème de projection qui permet de représenter des problèmes comme celui de la
régression linéaire comme un problème de géométrie euclidienne. Ainsi, dans L2 (Ω, A, P ) la
définition de l’espérance conditionnelle (2.1) prend la forme suivante : E[X|Y ] est la variable de
2 2
Z forme h(Y ) ∈ L (Ω, A, ZP ) telle que pour toute variable de la forme g(Y ) ∈ L (Ω, A, P ) on ait
la
g(y)h(y)dPXY (x, y) = g(y)xdPXY (x, y), soit E[g(Y )(E[X|Y ] − X)] = 0.

2.3 Mouvement brownien

Commençons par rappeler le résultat suivant concernant le calcul de l’espèrance conditionnelle


dans le cas gaussien et qui se ramène dans ce cas précis à une régression linéaire.

Théorème 2 (conditionnement gaussien) Si (X, Y ) est un couple de variables aléatoires


vectorielles réelles conjointement gaussien et notons mX , mY , ΓX , ΓY , ΓXY les moyennes, co-
variances et inter-covariance de ces vecteurs. Alors,
E[X|Y ] = mX + ΓXY Γ−1
Y (Y − mY ), (2.5)
et la loi conditionnelle de X sachant Y = y est de la forme
N (mX + ΓXY Γ−1 −1 T
Y (y − mY ), ΓX − ΓXY ΓY ΓXY ). (2.6)
1. mais il s’agit à mon sens d’une traduction un peu rapide de l’anglais consistent.
CHAPITRE 2. RAPPELS ET COMPLÉMENTS DE PROBABILITÉS 11

Preuve Notons Z = X − mX − ΓXY Γ−1


Y (Y − mY ). On peut vérifier que
TX TZ
E[eiu |Y = y] = E[eiu |Y ] exp[iuT (mX + ΓXY Γ−1
Y (y − mY ))]
(2.7)
= exp[iuT (m X + ΓXY Γ−1
Y (y − mY )) − 1 T
2 u (ΓX − ΓXY Γ−1 T
Y ΓXY )u],

qui est la fonction caractéristique d’une gaussienne dont il suffit d’identifier la moyenne et la
covariance. Donc la loi conditionnelle de X sachant Y = y prend bien la forme indiquée, ainsi
que E[X|Y = y] qui correspond à la moyenne de la loi conditionnelle.

Ex. Vérifier les équations (2.7).

2.3.1 Mouvement brownien

Définition 2 On dit qu’un processus X = (Xt )t∈R+ à valeurs réelles est un mouvement
brownien (ou processus de Wiener) issu de x si X0 = x et les accroissements de de X sont
gaussiens, centrés , stationnaires, et indépendants : c’est à dire que pour 0 ≤ ti ≤ tj ≤ tk ≤ tl ,
Xtj − Xti ∼ N (0, σ 2 (tj − ti )) et E[(Xtj − Xti )(Xtl − Xtk )] = 0.

Dans la suite on considérera, sauf indication contraire, des mouvements browniens standard
pour lesquels x = 0 et σ 2 = 1.

On pourra vérifier à titre d’exercice qu’avec la définition précédente, la loi de (Xt1 , . . . , Xtn ) est
de la forme N (0, C) où C est une matrice n × n de terme général [C]ij = min(ti , tj ). Avec cette
structure des probabilités des vecteurs finis de variables de X, on vérifie au moyen du théorème
de cohérence de Kolmogorov, que la donnée de cette famille de lois finies caractérise bien la loi
d’un processus aléatoire.

On peut montrer qu’avec la définition précédente on peut considérer des mouvements browniens
dont les trajectoires sont continues. Pour préciser cette idée, on introduit la notion de modifi-
cation d’un processus :

Définition 3 On dit que le processus Y est une modification du processus X si

∀t ∈ T, P ({ω; Xt (ω) = Yt (ω)}) = 1. (2.8)

Le théorème suivant, dit de continuité de Kolmogorov, indique une condition suffisante pour
qu’il existe une modification continue d’un processus aléatoire :

Théorème 3 (de continuité de Kolmogororov) Etant donné X = (Xt )t≥0 un processus


stochastique, s’il existe des constantes positives α, β et C telles que

∀t > 0 ∀t1 , t2 ∈ [0, t], E[|Xt2 − Xt1 |α ] ≤ C|t2 − t1 |β (2.9)

alors le processus X admet une modification continue.


CHAPITRE 2. RAPPELS ET COMPLÉMENTS DE PROBABILITÉS 12

Ex. Montrer que le mouvement brownien admet une modification continue. (Indication : rap-
pelons que si X ∼ N (0, σ 2 ), alors E[X 4 ] = 3σ 4 )

Dans la suite, on considérera des modifications continues du mouvement brownien. Notons


également qu’on pourra facilement construire des mouvements browniens vectoriels dont les
composantes sont des mouvements browniens indépendants. Les mouvements browniens seront
notés sous la forme B = (Bt )t∈R+ .

La figure 2.1 suivantes illustre quelques réalisations d’un mouvement brownien en dimension
1 (en fonction du temps). Les figures suivantes présentent des réalisations d’un mouvement
brownien en dimensions 2, et 3 (figure 2.2).

Figure 2.1 – Trajectoires d’un mouvement brownien.

Figure 2.2 – Trajectoires d’un mouvement brownien 2D (à gauche) et 3D (à droite).

Ex. Montrer que si B = (Bt )t≥0 est un mouvement brownien, le processus défini par X0 = 0 et
Xt = 1t B1/t pout t ∈]0, 1] est un mouvement brownien sur [0, 1].

Pour comprendre l’origine du mouvement brownien qui provient de la description du mouve-


ment d’une particule soumise à des chocs aléatoires, on peut montrer que les seuls processus à
accroissements orthogonaux et stationnaires dont les trajectoires sont continues sont gaussiens.
De plus, si les accroissements sont centrés on obtient un mouvement brownien. En effet, on a le
résultat suivant :

Théorème 4 Les seuls processus à accroissements orthogonaux et stationnaires dont les trajec-
CHAPITRE 2. RAPPELS ET COMPLÉMENTS DE PROBABILITÉS 13

toires sont continues vérifient Xt ∼ N (E[X0 ] + mt, σ 2 t). En particulier, si les accroissements
sont centrés, m = 0 et X est un mouvement brownien.

2.3.2 Constructions du mouvement brownien

Pont brownien

Lorsqu’on observe la réalisation d’un mouvement brownien, B = (Bt )t≥0 discrétisée il peut
être utile de compléter cette trajectoire entre les points de l’échantillonnage. La notion de pont
Brownien répond à cette question.

Supposons que B = (Bt )t≥0 ait été échantillonné en t1 < . . . < tn et cherchons à décrire la loi
de Bt |(Bt1 , . . . , Btn ). Supposons que t ∈ [ti , ti+1 ]. On peut déjà noter que

/ [ti , ti+1 ], ∀t ∈ [ti , ti+1 ], ∀A ∈ B(Rp ), P (Bt ∈ A|Bti , Bti+1 , Btj ) = P (Bt ∈ A|Bti , Bti+1 ).
si tj ∈
(2.10)
Ex.Vérifier la relation précédente.

On peut alors montrer, en utilisant le théorème 2 relatif au conditionnement gaussien et la


propriété donnée par la relation (2.10) pour le conditionnement brownien, que ∀t ∈ [ti , ti+1 ],
 
bi (ti+1 − t) + bi+1 (t − ti ) (ti+1 − t)(t − ti )
Bt |(Bti = bi , Bti+1 = bi+1 ) ∼ N , . (2.11)
ti+1 − ti ti+1 − ti

En particulier, pour t = (ti+1 + ti )/2 on obtient la méthode de construction du mouvement


brownien proposée par Paul Lévy en 1939 (méthode dite du point milieu).

Ex.Vérifier la relation (2.11)

La figure 2.3.2, montre un exemple de diverses trajectoires alternatives possibles pour divers
intervalles d’une trajectoire d’un mouvement brownien. les trajectoires alternatives sont des
réalisations du pont brownien sur les intervalles correspondants.

Figure 2.3 – Trajectoires de ponts browniens sur les intervalles [0.3, 0.8], [1.1, 1.5] et [1.8, 2.4].
CHAPITRE 2. RAPPELS ET COMPLÉMENTS DE PROBABILITÉS 14

Théorème de Donsker

On a vu qu’on peut interpoler un mouvement brownien entre deux points au moyen d’un pont
brownien. Notons que la valeur moyenne du pont brownien entre Bt et Bt+h est donnée par
θBt + (1 − θ)Bt+h en t + θh, pour θ ∈ [0, 1]. Il en résulte qu’il peut sembler raisonnable de
considérer une interpolation linéaire pour construire une trajectoire continue d’un mouvement
brownien à partir d’une trajectoire échantillonnée. En fait, le théorème suivant fournit une
méthode de construction des mouvements browniens qui justifie cette démarche d’interpolation
linéaire.

Théorème 5 (de Donsker) Si V1 , V2 , . . . définit une suite IID de variables aléatoires centrées
et réduites (E[Vk ] = 0 et E[Vk2 ] = 1) alors la suite de processus (Xn )n≥1 à trajectoires continues
définis par  
[nt]
1 X
Xn,t = √ Vk + (nt − [nt])V[nt]+1  (2.12)
n
k=1

où [.] représente la partie entière, converge en loi vers un mouvement brownien standard.

preuve Voir par exemple [2] p.68.

La figure 2.3.2

Figure 2.4 – Approximation de Donsker pour 10,100 et 1000 points sur [0, 1].

Remarques
i) Dans le théorème de Donsker les variables Vk n’ont pas besoin d’être gaussiennes. C’est le
théorème de la limite centrale qui assure la gaussianité du processus limite.
CHAPITRE 2. RAPPELS ET COMPLÉMENTS DE PROBABILITÉS 15

ii) Il n’est pas nécessaire de linéariser les trajectoires pour avoir des trajectoires limites continues.
Ainsi, si on considère la marche aléatoire X (δ,) avec X0 = 0 qui change de valeurs aux instants
(δ,) (δ,)
kδ, avec les variables Vn = Xkδ − X(k−1)δ indépendantes, centrées et de variance 2 , on voit
que pour n = [t/δ] on a
2
var[Xt ] = n2 = t (2.13)
δ
(δ,) P[t/δ]
car Xt = n=1 Vn . Il apparaı̂t donc que pour obtenir une limite finie et non nulle de var[Xt ]
√ (δ,)
lorsque δ tend vers 0 il faut choisir  de la forme  = σ δ. On a alors la convergence de Xt
vers un mouvement brownien d’après le théorème de la limite centrale.

iii) Dans les constructions précédentes on a considéré des processus associés à des évènements
se produisant à intervalles de temps réguliers. Or, du point de vue de l’interprétation physique
du mouvement brownien comme mouvement d’une particule soumise à des chocs aléatoires,
il serait plus raisonnable de supposer des chocs se produisant à des instants indépendants, ce
qui correspond à un mécanisme d’arrivées poisoniennes (voir le cours de files d’attente), c’est
à dire avec des durée d’inter-arrivée entre deux évènements qui suivent une exponentielle. En
considérant la remarque ii) précédente on pourra prendre un processus de poisson Nt d’intensité
1/δ associé à des évènements décrits par des variables centrées, d’amplitude Vn de variance
√ (δ,)
var[Vn ] = 2 = σ 2 δ (par exemple Vn = ±σ δ de façon équiprobable). Le processus Xt =
P Nt
n=1 Vn est centré, de variance
" N #
t
(δ,)
X t
var[Xt ] = E E[ Vn |Nt ] = E[Nt σ 2 δ] = σ 2 δ = σ 2 t.
2
(2.14)
δ
n=1
(δ,) PNt
La convergence en loi de Xt = n=1 Vn lorsque δ → ∞ est là encore liée au théorème de la
limite centrale. On voit donc que l’hypothèse d’intervalles réguliers entre évènements n’est pas
nécessaire pour construire le mouvement brownien.

”Randomisation” d’un espace de Hilbert

Pour un rappel sur les espaces de Hilbert, on pourra voir le chapitre 9 du polycopié d’analyse
numérique et optimisation [5]. Notons L2 ([0, 1]) l’espace de Hilbert des classes de fonctions égales
presque partout et de carré intégrable sur [0, 1] pour la mesure de Lebesgue. Etant donnée une
base orthonormée (φn )n≥0 de L2 ([0, 1]) et une suite de variables aléatoires gaussiennes centrées
réduites (Vn )n≥0 indépendantes, le processus aléatoire
X Z t  X Z 1 
Xt = φn (u)du Vn = 1I[0,t] φn (u)du Vn (2.15)
k≥0 0 k≥0 0

est gaussien centré et vérifie, d’après la formule de Parseval,


X Z t 2
2
E[Xt ] = φn (u)du = t. (2.16)
k≥0 0

De plus, pour s < t,


X Z 1 
Xt − Xs = 1I[s,t] φn (u)du Vn . (2.17)
n 0
CHAPITRE 2. RAPPELS ET COMPLÉMENTS DE PROBABILITÉS 16

Par suite, la relation de conservation du produit scalaire entre les variables de la forme Xt − Xs
et les vecteurs correspondants de coefficients de Fourier s’exprime par
! Z !
X Z
E[(Xt − Xs )(Xt0 − Xs0 )] = 1I[s,t] (u)φn (u)du 1I[s0 ,t0 ] φn (v)dv
n [0,1] [0,1]

!2
X Z
= 1I[s,t]∩[s0 ,t0 ] (u)φn (u)du (2.18)
n [0,1]

Z
= 1I[s,t]∩[s0 ,t0 ] (u)du
[0,1]

ce qui établit directement que le processus est à accroissements orthogonaux et permet de


conclure que X est un mouvement brownien standard sur [0, 1].

Historiquement, cette construction fût la première construction du mouvement brownien, pro-


posée par Wiener en 1923 avec une base de fonctions trigonométriques. En considérant la base
trigonométrique sur [0, 1] on obtient une décomposition du mouvement brownien de la forme
√ X sin(πnt)
Bt = tV0 + 2 Vn . (2.19)

n>0

Ex. Vérifier la formule précédente. Tracer une réalisation des approximations du mouvement
brownien sur [0, 1] fournies par le développement précédent.

En pratique, il peut être plus intéressant de considérer des bases localisées de L2 ([0, 1]) telles que
les fonctions de Haar pour réaliser cette construction ([7] pp.18-21). la figure ci-dessous donne
un exemple de cette construction.

2.4 Filtrations, Martingales et temps d’arrêt

Les notions de filtration, martingale et temps d’arrêt sont importantes pour la théorie des EDS.
En fait, dans ces notes introductives, nous omettrons la plupart des justifications de résultats
qui mettent en jeux les martingales et les temps d’arrêt (en particulier dans le dernier chapitre
pour les EDS avec sauts). En vue des approfondissements ultérieurs, il est cependant important
de commencer à se familiariser dès à présent avec ces notions.

2.4.1 Filtrations

Dans un espace probabilisé (Ω, A, P ), on dit qu’une famille de sous-tribus F = (Ft )t≥0 de A est
une filtration si Fs ⊂ Ft pour 0 ≤ s < t.

Un processus X = (Xt )t≥0 est dit adapté à F = (Ft )t≥0 (ou F-adapté) si, pour tout t ≥ 0,
Xt est Ft -mesurable. Souvent, on considère pour F la filtration naturelle, ou canonique
CHAPITRE 2. RAPPELS ET COMPLÉMENTS DE PROBABILITÉS 17

Figure 2.5 – Approximation Hilbertienne sur [0, 1] pour 2, 16 et 128 fonctions de la base de
Haar.

du processus X, définie par Ft = σ({Xu }u≤t ). On a alors E[Xt |Ft ] = Xt , c’est à dire que Ft
contient toute l’information de X jusqu’à l’instant t. Dans la suite, étant donné un mouvement
brownien B = (Bt )t≥0 , sauf indication contraire Ft représentera sa filtration canonique.

2.4.2 Martingale

On dit qu’un processus M = (Mt )t≥0 est une martingale relativement à la filtration F =
(Ft )t≥0 si, pour tout t ≥ 0,
1. Mt est Ft -mesurable (M est F-adapté)
2. E[|Mt | |Ft ] < ∞
3. E[Mt |Ms ] = Ms pour s ≤ t.
Ex. Vérifiez que pour la filtration canonique le mouvement brownien et le processus Ñ = (Ñt =
Nt − λt)t≥0 où N = (Nt )t≥0 est un procesus de Poisson d’intensité λ, sont des martingales pour
sa filtration canonique.

Exemple Si F est une filtration et Y une variable aléatoire, il apparaı̂t que Mt = E[Y |Ft ]
définit une martingale. Une martingale de cette forme est dite fermée.

L’inégalité de Doob permet d’étendre l’inégalité de Bienaymé-Tchebychev aux trajectoires


des martingales :
CHAPITRE 2. RAPPELS ET COMPLÉMENTS DE PROBABILITÉS 18

Théorème 6 (théorème de Doob) Pour une martingale M = (Mt )t≥0 dont les trajectoires
sont continues p.s., on a
" #
E [|Mt |p ]
∀T ≥ 0, ∀p ≥ 1, ∀λ > 0, P sup |Mt | ≥ λ ≤ . (2.20)
0≤t≤T λp

Notons maintenant que si M est une martingale et φ une fonction convexe, on a pour s ≤
t, φ(Ms ) = φ(E[Mt |Ms ]) ≤ E[φ(Mt )|Ms ]. On dit que le processus (φ(Mt ))t≥0 est une sous-
martingale. Plus généralement, on dira qu’un processus M est une sous-martingale (resp.
sur-martingale) si E[|Mt | |Ft ] < ∞ et E[Mt |Ms ] ≥ Ms (resp. E[Mt |Ms ] ≤ Ms ) pour s ≤ t.

2.4.3 Temps d’arrêt

Lorqu’on considère un processus aléatoire, on s’intéresse souvent à des instants particuliers tels
que celui pour lequel un certain seuil est atteint. Bien sûr, un tel instant dépend de chaque
trajectoire du processus et est aléatoire. On définit ainsi la notion de temps d’arrêt :

Définition Une variable aléatoire τ à valeurs dans R+ = R+ ∪ {∞} est un temps d’arrêt pour
la filtration F si, pour tout t ≥ 0, {τ ≤ t} ∈ Ft .

Exemple En notant inf(∅) = +∞, on peut montrer que pour un processus X à valeurs dans
R, à trajectoires continues et pour a ∈ R, Ta = inf{t > 0; Xt > a} est un temps d’arrêt pour la
filtration canonique F de X. En effet, Ta ∈ R+ et {Ta ≤ t} = ∪s∈Q∩]0,t] {Xs ∈]a, ∞[} ∈ Ft .

Ex. Montrez que


– un instant déterministe fixé t est un temps d’arrêt pour toute filtration F
– si τ est un temps d’arrêt, {τ > t} et {τ = t} appartiennent à Ft
– si τ1 et τ2 sont des temps d’arrêt, τ1 ∧ τ2 = min(τ1 , τ2 ) et τ1 ∨ τ2 = max(τ1 , τ2 ) sont des temps
d’arrêt.
– si les trajectoires de X sont continues, inf{t > 0; Xt ≥ a} est un temps d’arrêt

Certaines propriétés, valables pour des instants déterministes, restent valables lorsqu’on rem-
place ceux-ci par des temps d’arrêt. Ainsi, on peut par exemple démontrer que si M est une
F-martingale à trajectoires continues et τ1 et τ2 des temps d’arrêt pour F avec τ1 ≤ τ2 , alors
E[Mτ2 |Fτ1 ] = Mτ1 .

Certains processsus deviennent des martingales s’ils ont arrétés, c’est à dire lorsqu’on remplace
le processsus t → Xt par t → Xt∧τ , où τ est un temps d’arrêt. Lorsqu’il existe une suite (τk )k≥0
de temps d’arrêt, avec limk→∞ τk = +∞ (p.s.) tels que les processus t → Xt∧τk soient des
martingales, on dit que X est une martingale locale. Les martingales locales constituent un
outil utile pour certaines démonstrations.
Chapitre 3

L’intégrale d’Itô

3.1 Position du problème

Une équation différentielle classique est souvent donnée sous la forme explicite
dxt
= bt (xt ). (3.1)
dt
Notons que les équations d’ordre n > 1, c.à.d. qui font intervenir des dérivées de xt jusqu’à
l’ordre n, peuvent également en général se formuler à partir de l’équation (3.1) en intégrant
les dérivées jusqu’à l’ordre n − 1 dans un vecteur x(t) de taille augmentée. En effet, l’équation
(n) (1) (n−1) (1) (n−1) T
xt = ft (xt , xt , . . . , xt ) se réécrit sous la forme x0t = Ft (xt ), avec xt = [xt , xt , . . . , xt ]
(1) (n−1) (1) (n−1) T
et Ft (xt ) = [xt , . . . , xt , ft (xt , xt , . . . , xt )] .

Lorsque des phénomènes aléatoires viennent perturber l’équation (3.1), ils peuvent être pris en
compte par l’ajoût d’un terme supplémentaire de bruit, ce que l’on exprimera sous la forme
dXt
= bt (Xt ) + σt (Xt )Wt (3.2)
dt
où Wt est une grandeur aléatoire. Dans beaucoup de situations, le processus W = (Wt )t∈R+
est un bruit blanc, c’est à dire un processus aléatoire stationnaire centré dont les variables
aléatoires sont indépendantes. En fait, la construction d’un tel processus est délicate et utilise
la notion de processus généralisé qui fait intervenir une extension au cas aléatoire de la théorie
des distributions ([4] chap.6). Une façon plus simple de procéder consiste à reformuler l’équation
(3.2) sous la forme
dXt = bt (Xt )dt + σt (Xt )Wt dt (3.3)
puis à considèrer une version discrétisée de cette équation, de la forme

Xk+1 = Xk + bk (Xk )∆k + σk (Xk )Wk ∆k (3.4)

avec les notations suivantes, qui à défaut d’être très rigoureuses sont le mérite de simplifier
les écritures : Xk = Xtk , Wk = Wtk et ∆k = tk+1 − tk . Si on cherche à exprimer Wk ∆k

19
CHAPITRE 3. L’INTÉGRALE D’ITÔ 20

comme l’accroissement d’un certains processus V = (Vt )t∈R+ , c.à.d. Wk ∆k = Vtk+1 − Vtk , les
propriétés du bruit blanc W entraı̂nent que V devrait être à accroissements centrés, stationnaires
et indépendants. Or, on a indiqué au chapitre II que les seuls processus V de ce type qui possèdent
des trajectoires continues sont les mouvements browniens. On conviendra donc de prendre pour
V un mouvement brownien, que l’on notera B. On pourra ainsi écrire (3.4) sous la forme

Xk+1 = Xk + bk (Xk )∆k + σk (Xk )∆Bk , (3.5)

avec ∆Bk = Bk+1 − Bk . En propageant cette équation, on trouve alors


k
X k
X
Xk+1 = X0 + bj (Xj )∆j + σj (Xj )∆Bj . (3.6)
j=0 j=0

Lorsque maxj ∆j → 0, en supposant que l’on ait fixé tk+1 = t, la première somme du terme de
droite de (3.6) converge en moyenne quadratique vers
Z t
I1 = bu (Xu )du. (3.7)
0
Z
En fait, cette intégrale peut être définie dès lors que E[bu (Xu )bv (Xv )]dudv < ∞ ([4] p.15)
[0,t]2
comme la limite en moyenne quadratique de kj=0 bj (Xj )∆j .
P

De même, on voudrait pouvoir établir l’existence d’une limite, en moyenne quadratique, pour la
deuxième somme lorsque maxj ∆j → 0, cette limite étant notée
Z t
I2 = σu (Xu )dBu . (3.8)
0

Notons que si σu (Xu ) est une fonction déterministe indépendante de Xu , alors l’expression
(3.8) correspond à l’intégration d’une fonction déterministe par une mesure aléatoire dont la
construction est rappelée en annexe I. La construction de l’intégrale (3.8) dans le cas où σu (Xu )
dépend effectivement de Xu s’avère par contre plus délicate et va faire l’objet de la section
suivante.

3.2 Construction de l’intégrale d’Itô

3.2.1 Fonctions élémentaires

Comme pour l’intégration classique des fonctions continues, pour construire des intégrales sur
un intervalle [a, b] de la forme
Z b
Xt dBt (3.9)
a
(où X est un processus aléatoire) en un sens que l’on va préciser ci dessous, on commence par
(n)
définir des subdivisions (tk )k de [a, b] par
(n)
tk = a1Ik2−n <a + k2−n 1Ia≤k2−n ≤b + b1Ib<k2−n . (3.10)
CHAPITRE 3. L’INTÉGRALE D’ITÔ 21

Et comme pour l’intégrale de Riemmann, on va considérer les fonctions en escalier, mais ici
aléatoires de la forme
(n)
X (n)
φt (ω) = ek (ω)1I[t(n) ,t(n) [ (t) (3.11)
k k+1
k≥0
que l’on appelera fonctions, ou processus, élémentaires. Pour les fonctions élémentaires, on
On peut alors définir
Z b
(n)
X (n)
φt dBt = ek ∆Bk . (3.12)
a k

Pour construire l’intégration de processus plus généraux, il est raisonnable de voir les variables
(n) (n) (n)
aléatoires ek comme les valeurs dicrétisées sur les intervalles [tk , tk+1 [ d’un certain processus
aléatoire Xt .

Cependant, et c’est la grande différence avec l’intégrale de Riemann, le choix du point de


discrétisation dans cet intervale n’est pas neutre. Pour s’en convaincre, considérons le cas où
(n)
Xt = Bt et étudions la moyenne de l’expression (3.12) lorsqu’on prend respectivement ek = Bk
(n)
et ek = Bk+1 . Comme le processus Bt est à accroissements orthogonaux,
E[Bk (Bk+1 − Bk )] = 0 et E[Bk+1 (Bk+1 − Bk )] = E[(Bk+1 − Bk )2 ] = ∆k . (3.13)
Z b
Donc, pour ces deux choix, on obtient respectivement pour E[ φ(n) (t, ω)dBt ] les valeurs 0 et
a
b−a .

Les deux cas les plus intéressants sont ceux pour lesquels on choisit les valeurs de Xt échantillonnées
respectivement en tk et en (tk + tk+1 )/2. Les intégrales correspondantes obtenues par passage
à la limite sont connues sous le nom d’intégrale d’Itô et d’intégrale de Stratonovich. Les
deux intégrales peuvent être reliées assez simplement et on se limitera dans la suite à l’étude
de l’intégrale d’Itô qui, comme on le verra, présente l’avantage d’être une martingale (ce qui
permet de simplifier certains calculs).

3.2.2 Espace V([a, b])

On va donc construire l’intégrale d’Itô (3.9) pour une classe importante de processus Xt . On
note F = (Ft )t≥0 la filtration canonique de B et on se donne la famille suivante :

Définition 4 On définit la famille V([a, b]) des processus aléatoires X = (Xt )t≥0 qui vérifient
1. Les trajectoires de X sont p.s. mesurables sur la tribu borélienne B([a, b]) de [a, b].
2. X est F-adapté
Z b
3. E[ Xt2 dt] < ∞
a

On notera
P en particulier que la deuxième condition entraı̂ne que les fonctions élémentaires
φt = k≥0 ek 1I[tk ,tk+1 [ (t) qui appartiennent à V([a, b]) sont celles pour lesquelles les variables
ek appartiennent à Ftk .
CHAPITRE 3. L’INTÉGRALE D’ITÔ 22

La construction de l’intégrale d’Itô repose en partie sur le résultat suivant :

Théorème 7 (Isométrie d’Itô pour les fonctions élémentaires) Pour toute fonction
Z b
élémentaire φt de V([a, b]), on considère la relations φt → φt dBt . On a alors la relation
a
d’isométrie suivante Z b Z b
2
E[( φt dBt ) ] = E[ φ2t dt]. (3.14)
a a

Ex. Démontrer l’isométrie d’Itô pour les fonctions élémentaires.

On peut ensuite terminer la construction de l’intégrale d’Itô (3.9) pour les éléments de V([a, b]).
Notons qu’il est cependant possible de relâcher les hypothèses précédentes et construire l’intégrale
d’Itô pour des classes de fonctions plus larges que V([a, b]) ([15] p.34). La construction de
l’intégrale repose d’une part sur l’isométrie d’Itô (théorème 7) et sur le théorème d’approxi-
mation suivant :

Théorème 8 (Intégrale d’Itô) Pour tout processus X = (Xt )t≥0 de V([a, b]), il existe une
(n)
suite (φt )t≥0 de fonctions élémentaires de V([a, b]) pour laquelle
Z b 
(n) 2
lim E |Xt − φt | dt = 0. (3.15)
n→∞ a

Preuve (indications) A défaut d’une preuve plus détaillée qu’on pourra trouver dans [15] in-
diquons ici les étapes de la démarche qui conduit au résultat. On établit successivement que
1. tout processus borné Yt de V([a, b]) dont les trajectoires sont continues est limite d’une suite
Z b 
(n) 2
de fonctions élémentaires de V([a, b]) (dans le sens où limn→∞ E |Yt − φt | dt = 0) ;
a
2. tout processus borné de V([a, b]) est limite d’une suite de processus de V([a, b]) dont les
trajectoires sont continues ;
3. tout processus de V([a, b]) est limite d’une suite de processus bornés de V([a, b]).
Le second point est un peu plus délicat et met en oeuvre des approximants de l’identité dont le
support doit être choisi de sorte que les approximations continues soient F-adaptées.

Pour les éléments de V([a, b]) on définit alors l’intégrale d’Itô de Xt sur [a, b] comme limite d’une
(n)
suite d’intégrales d’Itô de fonctions élémentaires φt qui vérifient la relation (3.15) :
Z b Z b
(n)
Xt dBt = lim φt dBt (3.16)
a n→∞ a

où la limite est une limite en moyenne quadratique (limite dans L2 (ΩA, P )).

Ex. Vérifier que la limite précédente ne dépend pas du choix d’une suite particulière de fonctions
(n)
élémentaires φt qui vérifie la relation (3.15).

L’isométrie d’Itô du théorème 7 s’étend par passage à la limite à l’ensemble des fonctions de
V([a, b]) :
CHAPITRE 3. L’INTÉGRALE D’ITÔ 23

Théorème 9 (Isométrie d’Itô) Pour tout processus X = (Xt )t≥0 de V([a, b]), on a la relation
d’isométrie suivante Z b Z b
2
E[( Xt dBt ) ] = E[ Xt2 dt]. (3.17)
a a

Z b Z b Z b
(n) 2 (n)
Il en résulte en particulier que si lim |Xt − Xt | dt = 0, alors Xt dBt = lim Xt dBt
n→∞ a a n→∞ a
dans L2 (Ω, A, P ).

3.2.3 Représentation des martingales

On pourra laisser de côté ce paragraphe en première lecture.


T
Définissons maintenant V = t≥0 V([0, t]) et indiquons le résultat suivant relatif à la propriété
de martingale de l’intégrale d’Itô et à la représentation des martingales :

Théorème 10 (Théorème de représentation des martingales de Doob) Soit X = (Xt )t≥0


un processus de V. Alors, le processus M = (Mt )t≥0 défini par
Z t
Mt = Xu dBu (3.18)
0

admet une modification continue et est une martingale.


Inversement, toute martingale F-adaptée admet une unique représentation de la forme (3.18),
à une constante additive prés.

Ex. montrer que pour X ∈ V et T, λ > 0 :


Z t Z T
1
P [ sup | Xu dBu | ≥ λ] ≤ 2 E[ |Xt |2 dt]. (3.19)
0≤t≤T 0 λ 0

3.3 Exemple

De même que la méthode de construction de l’intégrale de Riemann à partir de fonctions en


escalier est généralement peu utile pour le calcul pratique des intégrales classiques, les résultats
ci dessus sont peu employés en pratique pour le calcul des intégrales stochastiques. On prśentera
pour cela dans le chapitre suivant la formule d’Itô dont on verra comment la mettre en oeu-
vre pour le calcul des intégrales stochasiques et pour la résolution des équations différentielles
stochastiques (EDS).

Indiquons quand même ici un exemple de calcul direct en cherchant à calculer


Z t
I= Bu dBu (3.20)
0
CHAPITRE 3. L’INTÉGRALE D’ITÔ 24

comme limite d’intégrales de fonctions élémentaires. On prendra les fonctions suivantes :


(n)
X
φt = Bi 1I[ti ,ti+1 [ (t). (3.21)

On a alors bien Z t XZ ti+1


(n) 2
E[ (φt − Bt ) dt] = E[(Bi − Bu )2 ]du
0 ti

XZ ti+1
= (u − ti )du (3.22)
ti

1X ∆i →0
= (ti+1 − ti )2 −→ 0
2

Z t
(n)
ce qui permet de calculer I comme la limite des intégrales (φt dt.
0

Rt (n) P
Pour calculer 0 φt dt = Bi ∆Bi , notons que

∆(Bi2 ) = Bi+1
2
− Bi2 = (Bi+1 − Bi )2 + 2Bi (Bi+1 − Bi ) = (∆Bi )2 + 2Bi ∆Bi . (3.23)

Donc, Z t
1X (n) 1X
∆(Bi2 ) −
φt dt = (∆Bi )2 . (3.24)
0 2 2
Pour préciser la première somme du terme de droite, notons que comme B0 = 0 on a finalement
∆(Bi2 ) = Bt2 . Pour calculer la seconde somme, remarquons que
P

E[( (∆Bi )2 − t)2 ] = E[( (∆Bi )2 )2 ] − t2


P P

2 − t2
P P
=2 i<j ∆ti ∆tj + 3 i (∆ti )
(3.25)
= ( ∆ti )2 + 2 i (∆ti )2 − t2
P P

∆ →0
= t2 + 2 2 − t2 −→
i
P
i (∆ti ) 0.

La deuxième égalité provient du fait que pour une variable centrée gaussienne Y on a E[Y 4 ] =
Z t
(n)
3(E[Y 2 ])2 . Donc (∆Bi )2 tend vers t dans L2 (Ω, A, P ) et φt dt tend donc vers (Bt2 − t)/2,
P
0
ce qui permet finalement de conclure que
Z t
1 1
Bu dBu = Bt2 − t (3.26)
0 2 2

On notera la différence entre l’intégrale de Riemann et l’intégrale d’Itô qui fait apparaı̂tre ici le
terme supplémentaire −t/2.

On a donc réussi à calculer l’intégrale d’Itô cherchée, mais comme indiqué auparavant cette
approche directe est laborieuse. Le chapitre suivant va nous fournir des outils plus efficaces pour
intégrer les EDS.
Chapitre 4

Intégration des EDS.

Comme pour les équations différentielles ordinaires (EDO, ou en anglais ODE pour Ordinary
Differential Equation), il n’est pas possible en général d’obtenir une forme analytique pour
une équation différentielle stochastique (EDS, ou en anglais SDE pour Sochastic Differential
Equation). Cependant, un certain nombre d’EDS de base admettent une solution analytique que
l’on peut souvent obtenir grâce à la formule d’Itô. Ce chapitre est consacré à sa présentation
et à sa manipulation à travers quelques exemples.

4.1 Formule d’Itô

L’exemple d’intégrale (3.26) se réécrit


Z t Z t
1 2 1
B = Bu dBu + du. (4.1)
2 t 0 0 2
Plus généralement, on définira un processus d’Itô comme un processus de la forme
Z t Z t
Xt = X0 + bs (Xs )ds + σs (Xs )dBs , (4.2)
0 0
Rt
où σ ∈ V et b est F-adapté, avec 0 |bs |ds < ∞ (p.s.). On réécrira encore la relation (4.2) sous
la forme différentielle équivalente
dXt = bt dt + σt dBt . (4.3)
Notons ici que les fonctions bt et σt sont appelées respectivement fonction de dérive ou de
drift et fonction de diffusion. On a ici omis d’indiquer la dépendance de bt et de σt vis à vis
de Xt à seule fin de simplifier les écritures.

Théorème 11 (formule d’Itô) Pour un processus d’Itô de la forme (4.2) et g ∈ C 2 (R+ × R),
le processus Y = (Yt )t≥0 défini par Yt = g(t, Xt ) est un processus d’Itô qui vérifie

∂g(t, Xt ) ∂g(t, Xt ) 1 ∂ 2 g(t, Xt )


dYt = dt + dXt + (dXt )2 (4.4)
∂t ∂Xt 2 ∂Xt2

25
CHAPITRE 4. INTÉGRATION DES EDS. 26

avec les conventions d’écriture

(dXt )2 = dXt .dXt , dt.dt = 0, dt.dBt = dBt .dt = 0, etdBt .dBt = dt. (4.5)

Pour compléter le théorème précédent, en appliquant les conventions d’écriture indiquée, notons
que pour dXt = bt dt + σt dBt on a simplement (dXt )2 = σt2 dt. Par suite on peut expliciter la
formule d’Itô (4.4) :

1 ∂ 2 g(t, Xt ) 2
 
∂g(t, Xt ) ∂g(t, Xt ) ∂g(t, Xt )
dYt = + bt + 2 σt dt + σt dBt (4.6)
∂t ∂Xt 2 ∂Xt ∂Xt

Tous les résultats présentés ici s’étendent directement au cas d’un processus vectoriel (voir
la section suivante), ce qu’il est important de souligner en particulier en vue de résoudre des
équations différentielles stochastiques d’ordre supérieur à un (voir le premier paragraphe de ce
chapitre).

On ne démontrera pas ici le théorème 11 (voir [15] pp. 46-48). On va plutôt s’intéresser ici à la
mise en oeuvre de ce résultat sur quelques exemples.

4.1.1 Exemples

Exemple 1 Pour Xt = Bt et g(t, x) = x2 /2 on a Yt = g(t, Xt ) = ( 21 Bt )2 , il vient daprès la


formule d’Itô que dXt = dBt , et (dXt )2 = dt. Donc,
1 1
d( Bt2 ) = Bt dBt + dt. (4.7)
2 2
On retrouve ainsi la formule (3.26) de façon directe.
Z t
Exemple 2 Pour calculer sBs posons Xt = Bt et g(t, Bt ) = tBt . D’après la formule d’Itô,
0
d(tBt ) = Bt dt + tdBt , soit
Z t Z t
udBu = tBt − Bu du. (4.8)
0 0
La formule précédente s’apparente à une intégration par partie. Plus généralement, pour une
fonction ft déterministe intégrable on a le résultat suivant :
Z t Z t
fu dBu = ft Bt − Bu dfu . (4.9)
0 0

4.1.2 Formule d’Itô vectorielle

La formule d’Itô s’étend au cas vectoriel comme suit :


CHAPITRE 4. INTÉGRATION DES EDS. 27

Théorème 12 (formule d’Itô vectorielle) Soient Bt = [B1,t , . . . , Bm,t ]T représente un mou-


vement brownien de dimension m (c’est à dire que ses composantes sont des mouvements brown-
iens indépendants) et Xt = [X1,t , . . . , Xn,t ]T représente un processus d’Itô de dimension n de la
forme     
b1,t σ11,t . . . σ1m,t dB1,t
dXt = bt dt + σt dBt =  ...  dt +  ..   .. 
(4.10)
  
.  . 
bn,t σn1,t . . . σnm,t dBm,t
et Yt = g(t, Xt ) = [g1 (t, Xt ), . . . , gp (t, Xt )]T = [Y1,t , . . . , Yp,t ]T avec g de classe C 2 (R+ × Rn ).
Alors, Y est un processus d’Itô donné par

∂gk (t, Xt ) 1
dYk,t = dt + [∇x gk (t, Xt )]T dXt + dXtT ∇2x gk (t, Xt ) dXt (4.11)
∂t 2
avec
∂gk (t, Xt ) ∂ 2 gk (t, Xt )
[∇x gk (t, Xt )]i = et [∇2x gk (t, Xt )]ij = (4.12)
∂xi ∂xi ∂xj
et en utilisant les conventions dBi,t .dt = dt.dBi,t = 0 et dBi,t .dBj,t = δij dt.

L’exemple suivant illustre l’emploi de la formule d’Itô vectorielle :

Exemple Pour Xt = Bt , on définit Yt = g(t, Xt ) = [cos Xt , sin Xt ]T . En utilisant la formule


d’Itô vectorielle on obtient alors
   
1 cos(Bt ) − sin(Bt )
dYt = − dt + dBt (4.13)
2 sin(Bt ) cos(Bt )

4.2 Intégration des EDS

Pour terminer ce chapitre, revenons maintenant à notre point de départ qui est le problème de
l’intégration des équations différentielles stochastiques de la forme dXt = bt dt + σt dBt .

4.2.1 Exemples

Exemple 1 Considérons pour commencer l’équation suivante,

dXt = rXt dt + αXt dBt . (4.14)

On peut voir ce modèle comme un modèle de croissance exponentielle d’une population, de la


d
forme Xt = at Xt dt pour lequel le coefficient at serait de la forme at = r + αWt , où W est
d
un bruit blanc. En mathématiques financières ce modèle est connu sous le nom de modèle de
Black-Scholes. Le modèle (4.14) se réécrit encore
Z t
dXt
= rt + αBt . (4.15)
0 Xt
CHAPITRE 4. INTÉGRATION DES EDS. 28

En appliquant la formule d’Itô à la fonction g(t, x) = ln(x), on obtient :


dXt 1 2
d(ln Xt ) = − α dt
Xt 2
(4.16)
1
= (r − α2 )dt + αdBt
2
d’où il vient que  
1 2
Xt = X0 exp (r − α )t + αBt . (4.17)
2
Pour α = 0, on retrouve bien la solution déterministe classique. La solution (4.17) est encore
appelée mouvement brownien géométrique.

On voit que la limite de la solution lorsque t → ∞ existe (et vaut 0) lorsque r − 21 α2 < 0.

Exemple 2 (équation de Langevin) On considère l’équation de Langevin définie par


dXt = −bXt dt + σdBt . (4.18)
avec b, σ > 0. En multipliant l’équation par ebt on trouve ebt dXt = −bebt Xt dt + σebt dBt . En
appliquant par ailleurs la formule d’Itô avec Yt = g(t, Xt ) = ebt Xt on trouve
d(ebt Xt ) = bebt Xt dt + ebt dXt = σebt dBt . (4.19)
Z t
Donc, Yt = Y0 + σebu dBu et
0
Z t
−bt
Xt = e X0 + σe−b(t−u) dBu . (4.20)
0
Ce processus est appelé processus d’Ornstein-Ulhenbeck.

Ex. Vérifier que pour le processus d’Ornstein-Ulhenbeck, si X0 est indépendant de B on a


E[Xt ] = E[X0 ]e−bt et
σ 2 −b|t−s|
cov(Xt , Xs ) = var(X0 )e−b(t+s) +
(e − e−b|t+s| ). (4.21)
2b
En déduire que si X0 ∼ N (0, σ 2 /2b) alors le processus est stationnaire.

Ex. Si B est un mouvement brownien, vérifier en utilisant les résultats de l’exercice précédent
que le processus défini par
σ
Xt = √ e−bt B(e2bt ) (4.22)
2b
est un processus d’Ornstein-Ulhenbeck stationnaire.

4.2.2 Existence de solutions

On a indiqué dans la section précédente comment on pouvait en pratique calculer la solution


de certaines EDS. En fait, concernant les conditions d’existence d’une solution sur un inter-
valle [0, T ] avec la condition initiale X0 = Z, une variable aléatoire fixée de variance finie et
indépendante de B, celles ci sont de même nature que ce qu’on rencontre dans le cas déterministe :
CHAPITRE 4. INTÉGRATION DES EDS. 29

Théorème 13 Pour l’équation dXt = bt (Xt )dt + σt (Xt )dBt avec X0 = Z, indépendant
S de B,
Z Z
on aura une unique solution continue en t, adaptée à F , avec Ft = σ ({Bs ; s ≤ t} {Z}) et
RT
telle que E[ 0 Xt2 dt] < ∞ dès lors qu’il existe des constantes C et D telles que

|bt (x)| + |σt (x)| < C(1 + |x|)


(4.23)
|bt (x) − bt (y)| + |σt (x) − σt (y)| < D|x − y|.

Preuve Voir [15] pp. 68-71.

Notons que la notion de solution d’une EDS considérée jusqu’ici était exprimée en fonction du
mouvement brownien B supposé fixé. On parle alors de solution forte. Par contre, la donnée
d’un certain couple (X, B) pour lequel l’EDS est vérifiée est qualifiée de solution faible.
Chapitre 5

Intégration numérique des EDS

On va voir que l’on peut adapter les méthodes d’intégration des EDO pour le calcul numérique
des EDS mais que l’ordre des méthodes (c’est à dire leur vitesse de convergence) pour un même
type d’approche est plus faible que pour les EDO. On commencera par considérer la méthode
d’Euler dont on comparera le comportement dans les cas déterministe et stochastique. On
s’intéressera ensuite à la méthode de Milstein et à la méthode de Runge-Kutta, plus
sophistiquées mais qui lui sont préférables.

5.1 Rappels sur l’intégration numérique des EDO

d
Pour intégrer des EDO de la forme xt = bt (xt ), avec x0 fixé, la méthode la plus simple est la
dt
méthode d’Euler qui est basée, pour un pas h fixé, sur les approximations successives de xt de
la forme
x̂t+h = x̂t + bt (x̂t ). (5.1)
P(i−1)h
Ainsi, x̂kh = x0 + i=0 bih (x̂ih ) et on définira l’erreur absolue à l’instant T par
ET,h = |xT − x̂T |. (5.2)
On peut montrer que pour h suffisament petit, dès lors qu’on a une solution unique sur [0, T ] pour
xt la méthode d’Euler vérifie ET,h ≤ Ch pour un certain C > 0 et tout h d’un certain intervalle
]0, h0 ]. On dit que la méthode d’Euler est d’odre 1. Plus génŕalement on définira l’ordre d’une
méthode d’intégration des EDO comme le plus grand réel γ > 0, s’il existe, tel que
ET,h ≤ Chγ (5.3)
pour un certain C > 0 et tout h d’un certain intervalle ]0, h0 ]. Bien entendu, plus l’ordre est
élevé et plus la technique d’intégration numérique considérée est performante.

Une méthode populaire et performante d’intégration numérique des EDO est la méthode de
Runge-Kutta d’ordre 4 (parfois notée RK4) dont le schéma prend la forme suivante :
h (1) (2) (3) (4)
x̂t+h = x̂t + [kt + 2kt + 2kt + kt ] (5.4)
6

30
CHAPITRE 5. INTÉGRATION NUMÉRIQUE DES EDS 31

avec  (1)

 kt = bt (x̂t )




(2) (1)
= bt+ h (x̂t + h2 kt )

 kt



2
(5.5)
(3) (2)
= bt+ h (x̂t + h2 kt )



 kt

 2




 (4) (3)
kt = bt+h (x̂t + hkt )

5.2 Intégration numérique des EDS par la méthode d’Euler

5.2.1 Méthode d’Euler

Le schéma d’Euler appliqué à l’intégration numérique de l’EDS

dXt = bt (Xt )dt + σt (Xt )dBt (5.6)

conduit à l’approximation

X̂t+h = X̂t + bt (X̂t )h + σt (X̂t )∆Bt (5.7)

avec ∆Bt = Bt+h − Bt .

Exemple Pour l’EDS de l’exemple (4.14) :

dXt = rXt dt + αXt dBt (5.8)

dont on a vu que la solution s’écrit


 
1 2
Xt = X0 exp (r − α )t + αBt (5.9)
2
la méthode d’Euler conduit à

X̂t+h = X̂t + rhX̂t + αX̂t ∆Bt . (5.10)

Pour la même trajectoire discrétisée de B la solution exacte aux points de discrétisation est
directement fournie par la relation (5.9).

5.2.2 Interpolation des solutions discrètes

On peut interpoler une trajectoire discrétisée (exacte ou approchée) calculée aux points (kh)k≥0
par une interpolation linéaire. Plus généralement, on pourra employer un pont brownien (voir
le paragraphe 2.3.2) : pour un point θh choisi entre les points t et t + h (θ ∈ [0, 1]), on pourra
prendre
X̂t+θh = X̂t + θhbt (X̂t ) + σt (X̂t )Vtθ (5.11)
CHAPITRE 5. INTÉGRATION NUMÉRIQUE DES EDS 32

où
Vtθ ∼ N ((1 − θ)Bt + θBt+h , hθ(1 − θ)). (5.12)
Notons que l’interpolation linéaire entre les points Pt = (t, X̂t ) et Pt+h = (t + h, X̂t+h ) revient à
prendre Vtθ = (1 − θ)Bt + θBt+h . L’interpolant linéaire représente donc la trajectoire moyenne
du pont brownien sur le segment [Pt , Pt+h ].

5.2.3 Ordre

Dans le cas stochastique, on décrit classiquement les performances d’une méthode au moyen de
l’erreur moyenne absolue définie par
ET,h = E[|XT − x̂T |]. (5.13)
Si limh→0 ET,h = 0 on dira que le schéma de discrétisation envisagé converge fortement. Cette
convergence forte sera dite d’ordre γ si ET,h ≤ Chγ pour un certain C > 0 et tout h d’un certain
intervalle ]0, h0 ].

On peut démontrer que la méthode d’Euler appliquée aux EDS est fortement convergente,
d’ordre γ = 1/2. On remarque ici que l’ordre γ de la méthode d’Euler est deux fois plus faible
dans le cas stochastique que dans le cas déterministe. On pourra vérifier ce résultat sur l’exemple
proposé dans l’exercice suivant.

5.3 Intégration numérique des EDS par la méthode de Milstein

L’approximation de Taylor fournie ci dessus n’est que d’ordre 1/2 du fait que le terme en
σ(Xt )∆Bt de l’équation (5.7) est d’ordre 1/2 car E[(∆Bt )2 ] = h. Il faut donc, pour obtenir
une méthode fortement convergente d’ordre γ = 1 pousser plus loin le développement du terme
σ(Xt )dBt de l’EDS en intégrant le terme d’ordre 1 en (∆Bt )2 . On obtient alors la méthode de
Milstein dont le schéma s’écrit comme suit :
1 dσt
(X̂t ) (∆Bt )2 − h

Xt+h = X̂t + hbt (X̂t ) + σt (X̂t )∆Bt + σt (X̂t ) (5.14)
2 dx

Cette formule provient des approximations successives suivantes


Z t+h
dσt
Xt+h ≈ Xt + hbt (Xt ) + [σt (Xt ) + (Xt )σt (Xt )(Bu − Bt )]dBu
t dx
(5.15)
1 dσt
≈ Xt + hbt (Xt ) + σt (Xt )∆Bt + (Xt )σt (Xt )[(∆Bt )2 − h]
2 dx
car, d’après la formule (4.7), on a d( 12 Bt2 ) = Bt dBt + 12 dt et donc
Z t+h
1 2 1
(Bu − Bt )dBu = [ (Bt+h − Bt2 ) − h] − Bt (Bt+h − Bt )
t 2 2
(5.16)
1
= [(Bt+h − Bt )2 − h].
2
CHAPITRE 5. INTÉGRATION NUMÉRIQUE DES EDS 33

5.4 Méthodes d’ordre supérieur à un

Comme on l’a vu dans le cas des EDO, il est également possible de construire des méthodes
d’ordre supérieur à 1 pour les EDS. On pourra se référer à [9] pour de telles méthodes. Notons
simplement que les schémas de discrétisation des EDS deviennent rapidement très complexes
avec l’augmentation de l’ordre de la méthode. Pour développer de telles méthodes, on peut
considèrer les versions stochastiques des formules de Taylor avec reste intégrale que l’on va
présenter rapidement, ou d’autres méthodes comme les méthodes de Runge-Kutta.

5.4.1 Formules de Taylor

Cas déterministe

Commençons par rappeler la forme des formules de Taylor avec reste intégrale dans le cas
d
déterministe et leur emploi pour approcher les EDO. Pour une EDO de la forme xt = bt (xt )
dt
d
et une fonction ft (xt ) dérivable on a ft (xt ) = ftt (xt ) + bt (xt )ftx (xt ) que l’on notera Lft (Xt ),
dt
∂ft
avec la notation ftu = . On a ainsi
∂u
Z t
ft (xt ) = ft0 (xt0 ) + Lfu (Xu )du. (5.17)
t0

Pour xt la formule de Taylor avec reste intégrale s’écrira, en exploitant la relation (5.17) pour
f = b, puis en itérant la formule :
Rt
xt = xt0 + t0 bu (xu )du
Z t Z u 
= xt0 + bt0 (xt0 ) + Lbv (xv )dv du
t0 t0

Z t Z tZ u Z tZ uZ v (5.18)
2
= xt0 + bt0 (xt0 )du + Lbt0 (xt0 ) dudv + L bw (xw )dudvdw
t0 t0 t0 t0 t0 t0

Z tZ uZ v
(t − t0 )2
= xt0 + (t − t0 )bt0 (xt0 ) + Lbt0 (xt0 ) + L2 bw (xw )dudvdw
2 t0 t0 t0

d
formule que l’on peut continuer à itérer. De même, qu’on vient d’exploiter la relation xt =
dt
d
bt (xt ), la relation ft (xt ) = Lft (xt ) conduira à un dévelopement de la forme
dt
r Z t Z uk+1
X (t − t0 )k k
f (xt ) = L ft0 (xt0 ) + ... Lk+1 f (xuk )du1 . . . duk+1 . (5.19)
k! 0 0
k=0
CHAPITRE 5. INTÉGRATION NUMÉRIQUE DES EDS 34

Cas stochastique

Les formules d’Itô-Taylor découlent de la formule d’Itô qui à partir de l’expression


Z t Z t
Xt = Xt0 + bu (Xu )du + σu (Xu )dBu (5.20)
t0 t0

conduit à
Z t Z t
1
ft (Xt ) = ft0 (Xt0 ) + [fut (Xu ) + bu (Xu )fux (Xu ) + fuxx (Xu )σu (Xu )]du + σu (Xu )fux (Xu )dBu
t0 2 t0

Z t Z t
= ft0 (Xt0 ) + L0 fu (Xu )du + L1 fu (Xu )dBu .
t0 t0
(5.21)
Comme dans le cas déterministe, on peut exploiter ces formules pour obtenir un développement
de Xt : Z Z t Z u u
Xt = Xt0 + [bt0 (Xt0 ) + L0 bv (Xv )dv + L1 bv (Xv )dBv ]du
t0 t0 t0
(5.22)
Z t Z u Z u
+ [σt0 (Xt0 ) + L0 σv (Xv )dv + L1 σv (Xv )dBv ]dBu .
t0 t0 t0
On peut itérer ces formules pour obtenir, en laissant de coté le reste intégrale, des approximations
d’ordre élevé.

5.4.2 Méthode de Runge-Kutta d’ordre 1,5

Un inconvénient des méthodes de Taylor et qu’elles mettent en oeuvre des dérivées des termes
de dérive et de diffusion bt et σt . En fait, il existe des méthodes de type Runge-Kutta, qui ne
nécessitent pas d’effectuer de telles dérivations. Indiquons ici sans justification la forme de la
méthode de Runge-Kutta d’ordre 1,5 :

1 [(∆Bt )2 − h]
Xt+h = Xt + bt (Xt )h + σt (Xt )∆Bt + (σt (Xt0 ) − σt (Xt )) √ (5.23)
2 h
avec √
Xt0 = Xt + bt (Xt )h + σt (Xt ) h. (5.24)

On pourra trouver d’autres méthodes d’ordres plus élevés dans [9].

5.5 Exemples

Considérons l’équation
1 1/3 2/3
dXt = Xt dt + Xt dBt , (5.25)
3
CHAPITRE 5. INTÉGRATION NUMÉRIQUE DES EDS 35

avec X0 fixé. Pour l’intégrer on applique la formule d’Itô à la transformation Yt = g(Xt ) = Xta :
1
dYt = aXta−1 dXt + a(a − 1)Xta−2 (dXt )2
2
(5.26)
1 a−1+1/3 1 a−2+4/3 a−1+2/3
= ( aXt + a(a − 1)Xt )dt + aXt dBt .
3 2
Pour a = 1/3, on obtient simplement

1/3 1
dXt = dBt (5.27)
3
et donc
1/3 1
Xt = (X0 + Bt )3 . (5.28)
3
La figure 5.1 montre un exemple de trajectoire obtenu par simulation de B ainsi que les ap-
proximations numériques d’Euler, de Milstein et de Runke-Kutta d’ordre 1.5. On observe pour
cette trajectoire que les méthodes d’Euler et de Milstein conduisent ici à des performances moins
bonnes que la méthode de Runke-Kutta qui suit bien la trajectoire réelle. L’exemple de la fig-
ure 5.2, illustre également l’intérêt de méthodes d’ordres plus élevés que celui de la méthode
d’Euler. Ces comparaisons seront approfondies sur ce dernier exemple dans le cadre de la séance
de travaux pratiques (décrite au chapitre VII).

1 1/3 2/3
Figure 5.1 – Méthodes d’Euler, Milstein et RK 1,5 pour dXt = Xt dt + Xt dBt .
3
CHAPITRE 5. INTÉGRATION NUMÉRIQUE DES EDS 36

Figure 5.2 – Méthodes d’Euler, Milstein et RK 1,5 pour dXt = −Xt dt + Xt dBt .
Chapitre 6

Estimation des paramètres des EDS

6.1 Compléments sur les processus de diffusion

On fournit ici quelques notions complémentaires sur les processus de diffusion qui sont intéressantes
dans de nombreuses situations et en particulier pour l’estimation non paramétrique des fonctions
de dérive et de diffusion.

6.1.1 Equations directe et rétrograde de Kolmogorov

Les équations de Kolmogorov directe et rétrograde décrivent l’évolution de la loi d’un pro-
cessus de diffusion X au cours du temps. Cette évolution est régie par une équation différentielle.
Notons que lorsqu’on note p(xt |xs ) on désigne la valeur de la densité de X à l’instant t au point
xt conditionnellement à la valeur xs prise par X à l’instant s. Afin d’utiliser une écriture plus
claire dans les équations qui suivent, on notera plutôt pst (y|x) la densité de Xt au point y
conditionnellement à Xs = x. On a alors le résultat suivant :

Théorème 14 Pour 0 ≤ s ≤ t, les équations directe et rétrograde de Kolmogorov du processus


de diffusion X, encore connues sous le nom d’équation de Fokker-Planck, sont données par
∂ ∂ 1 ∂2 2
pst (y|x) =− [bt (y)pst (y|x)] + [σ (y)pst (y|x)]
∂t ∂y 2 ∂y 2 t
(6.1)
∂ ∂ 1 ∂2
− pst (y|x) = bs (x) pst (y|x) + σs2 (x) 2 pst (y|x)
∂s ∂x 2 ∂x

Le reste de la section 6.1.1 est consacrée à la démonstration de ces équations et on pourra


l’omettre en première lecture.

Preuve Commençons par démontrer l’équation de Kolmogorov directe. Soit ht (x) = h(t, x) une
∞ (R2 ) des fonctions de classe C ∞ à support compact. On a
fonction quelconque de l’ensemble CK

37
CHAPITRE 6. ESTIMATION DES PARAMÈTRES DES EDS 38

alors, en utilisant la formule d’Itô et le fait que E[g(Xt )dBt ] = 0 puis des intégrations par partie,
les relations suivantes :
E[(hT (XT ) − hs (Xs ))|Xs = xs ] =
Z T
= E[dht (Xt )|Xs = xs ]
s

T
∂ 2 ht (Xt )
Z  
∂ht (Xt ) ∂ht (Xt ) 1 2
= E + bt (Xt ) + σt (Xt ) |Xs = xs dt
s ∂t ∂x 2 ∂x2

T
∂ 2 ht (x)
Z Z
∂ht (x) ∂ht (x) 1 2
= [ + bt (x) + σt (x) ]pst (x|xs )dxdt
s ∂t ∂x 2 ∂x2
Z Z T
∂pst (x|xs )
= ( [ht (x)pst (x|xs )]Ts − ht (x) dt )dx
s ∂t
T
1 ∂2 2
Z Z  

+ ht (x) − [bt (x)pst (x|xs )] + [σ (y)pst (x|xs )] dtdx
s ∂x 2 ∂x2 t
Z
= [hT (x)psT (x|xs ) − hs (x)pss (x|xs )] dx

T
1 ∂2 2
Z Z
∂pst (x|xs ) ∂
+ ht (x)( − − [bt (x)pst (x|xs )] + [σ (y)pst (x|xs )] )dtdx
s ∂t ∂x 2 ∂x2 t

= E[(hT (XT ) − hs (Xs ))|Xs = xs ]

T
1 ∂2 2
Z Z
∂pst (x|xs ) ∂
+ ht (x)( − − [bt (x)pst (x|xs )] + [σ (y)pst (x|xs )] )dtdx.
s ∂t ∂x 2 ∂x2 t
(6.2)
Donc, l’expression entre parenthèses dans la dernière intégrale doit être nulle puisque l’intégrale
double est nécessairement nulle et que la relation doit être vérifiée pour toute fonction h de
∞ (R2 ). On obtient finalement l’équation directe : pour tout x et s < t < T ,
CK
∂ ∂ 1 ∂2
pst (y|x) = − [bt (y)pst (y|x)] + [σt (y)2 pst (y|x)]. (6.3)
∂t ∂y 2 ∂y 2

Pour démontrer l’équation rétrograde, posons ut (x) = E[h(XT )|Xt = x]. Alors,
E[(uT (XT ) − ut (Xt ))|Xt = x] =
Z T
= E[dut (Xt ))|Xt = x]
t

T (6.4)
∂ 2 ut (Xt )
Z 
∂ut (Xt ) ∂ut (Xt ) 1 2
=E [ + bt (Xt ) + σt (Xt ) ]dt |Xt = x
t ∂t ∂x 2 ∂x2

T
∂ 2 ut (x)
Z
∂ut (x) ∂ut (x) 1 2
= [ + bt (x) + σt (x) ]dt.
t ∂t ∂x 2 ∂x2
CHAPITRE 6. ESTIMATION DES PARAMÈTRES DES EDS 39

Mais,

E[(uT (XT ) − ut (Xt ))|Xt = x] = E [E[h(XT )|XT ]|Xt = xt ] − E [E[h(XT )|Xt ]|Xt = xt ]
= E [h(XT )|Xt = xt ] − E [h(XT )|Xt = xt ] (6.5)
= 0.

La relation (6.4) étant de plus vérifiée pour tout (x, t, T ), avec t ≤ T , on obtient le résultat
suivant :

Théorème 15 ut (x) = E[h(XT )|Xt = x] est solution de l’équation

∂ut (x) ∂ut (x) 1 2 ∂ 2 ut (x)


+ bt (x) + σt (x) =0
∂t ∂x 2 ∂x2 (6.6)
avec uT (x) = h(x).

Il s’agit d’un résultat général dont l’équation rétrograde est un cas particulier. En effet, avec
le changement de notations (t, T ) → (s, t) et pour ut (x) = E[1I[xt ,xt +dx[ (Xt )|Xs = xs )] =
pst (xt |xs )dx, on obtient l’équation de Kolmogorov rétrograde :

∂ ∂ 1 ∂2
− pst (y|x) = bs (x) pst (y|x) + σs2 (x) 2 pst (y|x). (6.7)
∂s ∂x 2 ∂x

6.1.2 Ergodicité

Rappelons qu’une diffusion (et plus généralement un processus markovien) est ergodique, de
loi de probabilité stationnaire de densité π si pour toute fonction mesurable h on a presque
sûrement Z T Z
lim h(Xt )dt = h(x)π(x)dx = E[h(ξ)] (6.8)
T →∞ 0

avec ξ ∼ π. Notons alors que si pour une équation de diffusion homogène (bt (x) = b(x) et
σt (x) = σ(x)) on considère l’équation de Kolmogorov directe

∂ ∂ 1 ∂2
pst (y|x) = − [b(y)pst (y|x)] + [σ(y)2 pst (y|x)] (6.9)
∂t ∂y 2 ∂y 2
en faisant tendre t vers +∞, le terme de gauche s’annule et on obtient l’équation

∂ 1 ∂2
[b(y)pst (y|x)] = [σ(y)2 pst (y|x)] (6.10)
∂y 2 ∂y 2
qui par intégration conduit à

b(x) 1 1
2
dx = 2 d[σ 2 (x)π(x)] = d log[σ 2 (x)π(x)] (6.11)
σ (x) 2σ (x)π(x) 2
CHAPITRE 6. ESTIMATION DES PARAMÈTRES DES EDS 40

soit, à un facteur de normalisation près,


 Z x 
1 b(y)
π(x) ∝ 2 exp 2 2
dy . (6.12)
σ (x) x0 σ (y)

notons que l’on peut également exprimer b(x) en fonction de σ(x) et de π(x) ou σ(x) en fonction
de b(x) et de π(x) :
1 d 2
b(x) = [σ (x)π(x)]
2π(x) dx
Z x (6.13)
2
σ 2 (x) = b(u)π(u)du.
π(x) 0
Ces relations peuvent être utilisées pour estimer le coefficient de dérive ou de diffusion d’une
équation dont on connaı̂t déjà l’autre coefficient et la loi stationnaire, comme on le verra plus
loin.

6.2 Estimation paramétrique des EDS

On considère une EDS paramétrée par un vecteur de paramètres θ à estimer, de la forme

dXt = bt (Xt , θ)dt + σt (Xt , θ)dBt . (6.14)

On se placera dans le cas où le processus est homogène (bt (x, θ) = b(x, θ) et σt (x, θ) = σ(x, θ)),
ou du moins peut être considéré comme tel sur les horizons de temps étudiés. On notera
x0 , . . . , xn une séquence d’observations où xi représente en fait xti , avec ti = i∆ et ∆ le pas
d’échantillonnage supposé constant par commodité. Notons cependant qu’un des intérêts de la
modélisation continue lorsqu’on travaille avec une version échantillonnée du processus réside
dans la possibilité de traiter les problèmes d’estimation à partir d’échantillonnages irréguliers
en décrivant ces échantillons au moyen de l’EDS sous-jacente.

6.2.1 Maximum de vraisemblance

Il existe de nombreuses méthodes pour estimer les paramètres des EDS. On pourra par exemple
se référer à [14] pour un tour d’horizon plus général. Considérons ici l’approche classique du
maximum de vraisemblance qui consiste à maximiser la loi des Xi aux valeurs observées xi
vis à vis des paramètres : θ̂M V = arg maxθ pθ (x0 , . . . , xn ). La vraisemblance pθ (x0 , . . . , xn ) se
réécrit encore sous la forme L(θ) = Πn−1
i=0 pθ (xi+1 |xi )pθ (x0 ), ou encore en prenant le logarithme,
n−1
X
l(θ) = log pθ (xi+1 |xi ) + log pθ (x0 ) (6.15)
i=0

Souvent, pθ (x0 ) est inconnu et son influenceP


sur l(θ) tend à devenir faible lorsque n croı̂t. On se
limite alors à la recherche du maximum de n61 i=0 log pθ (xi+1 |xi ).

Même lorsque la loi de transition pθ (y|x) est connue on ne peut pas en général trouver directe-
ment le maximum de la vraisemblance par annulation du gradient ∇θ pθ (x0 , . . . , xn ). Il faut alors
CHAPITRE 6. ESTIMATION DES PARAMÈTRES DES EDS 41

employer des méthodes numériques d’optimisation. De nombreuses techniques existent pour


une telle optimisation. Pour une méthode populaire d’optimisation non linéaire déterministe on
pourra par exemple citer l’algorithme BFGS [19]. Pour prendre en compte l’existence possi-
ble d’optima locaux, on pourra également envisager des techniques d’optimisation stochastique
(recuit simulé [20], ...).

6.2.2 Vraisemblance approchée

Afin d’accéder simplement à une approximation de la loi de transition pθ (y|x), on peut se baser
sur un schéma de discrétisation de l’EDS. Ainsi, le schéma d’Euler conduit à l’approximation
Xi+1 = Xi + b(Xi , θ)∆ + σ(Xi , θ)(Wi+1 − Wi ) (6.16)
dont on tire pθ (xi+1 |xi ) ∼ N (xi + b(xi , θ)∆, σ 2 (xi , θ)∆) et une log-vraisemblance de la forme
(n−1 )
1 X (xi+1 − xi − b(xi , θ)∆)2
l(θ) = − + log(2π∆σ 2 (xi , θ)) (6.17)
2 σ 2 (xi , θ)∆
i=0

En particulier, on peut vérifierPque si σ est constante, la maximisation de la vraisemblance


n−1 2 (x , θ)∆ − 2(x

conduit à la minimisation de i=0 b i i+1 − x i )b(x i , θ) . Notons également que
2
dans ce cas un estimateur convergent de σ est donné par
n−1
1 X
σ̂ 2 = (xi+1 − xi )2 . (6.18)
n∆
i=0

Ce résultat provient du fait que (dXt )2 = σ 2 (Xt , θ)dt, ce qui conduit à l’approximation
Z n∆ n−1
X
σ 2 (Xt , θ)dt ≈ (Xi+1 − Xi )2 . (6.19)
0 i=0

6.2.3 Maximisation de la vraisemblance approchée

Comme on l’a vu dans la partie relative au schémas de discrétisation des EDS la méthode
d’Euler reste peu précise. L’estimation de θ ne sera satisfaisante que lorsque le pas ∆ est
faible. Une solution consiste alors à augmenter artificiellement le pas d’échantillonnage en con-
sidérant les variables cachées x̃i = (xi,1 , . . . , xi,N ), où xi,k représente la valeur prise par Xt à
l’instant t = ti−1 + k∆/(N + 1). La maximisation de la vraisemblance des données complétées
pθ (x0 , x̃1 , . . . , x̃n , xn ) permet alors d’améliorer la précision de la discrétisation pour le schéma de
discrétisation choisi. Encore faut-il estimer les données cachées (x̃i )i=1,n . Pour traiter ce type de
problème, on a recours aux méthodes MCMC (Monte Carlo Markov Chain) qui sont utilisées
pour simuler les variables aléatoires complexes (voir à ce sujet les notes de cours de MTS445 de
Télécom Bretagne ou la réference [17]).

Pour mettre en oeuvre l’approche MCMC, on se donnera une loi a priori pour θ, éventuellement
peu informative. Ici, on fera plus particulièrement appel à l’algorithme de Gibbs. L’algo-
rithme de Gibbs consiste à simuler itérativement chaque variable inconnue conditionnellement
CHAPITRE 6. ESTIMATION DES PARAMÈTRES DES EDS 42

aux autres, jusqu’à convergence des variables simulées. Une fois atteinte la distribution station-
naire de la séquence générée, on réalisera un nombre suffisant de simulation supplémentaires
pour estimer les grandeurs d’intérêt par une moyenne des grandeurs simulées. Ainsi, pour la
k ème itération, l’algorithme de Gibbs pendra la forme suivante :
(k) (k−1)
1. échantillonner x̃i ∼ p(x̃i |xi−1 , xi , θ(k−1) ), pour i = 1, . . . , n.
(k)
2. échantillonner θ(k) ∼ p(θ|{x̃i }i=1,n , {xi }i=0,n ).
(k−1)
En considérant l’approximation gaussienne d’Euler, il est facile de simuler pN (x̃i |xi , xi+1 , θ(k−1) ),
en notant .N l’approximation gaussienne. On pourra pour cela noter que

pN (x̃i |xi , xi+1 , θ) ∝ Πn+1 N


u=1 p (xi,u |xi,u−1 , θ), (6.20)

avec xi,0 = xi−1 et xi,n+1 = xi . Comme le facteur de proportionalité n’est pas connu, on peut
utiliser un algorithme de Metropolis-Hastings pour simuler les variables xi,u . On utilis-
(k)
era également en général un tel algorithme pour simuler θ(k) suivant p(θ|{x̃i }i=1,n , {xi }i=0,n ).
Comme indiqué précédemment, on pourra prendre une estimation de θ de la forme
K
1 X
θ̂ = θ(k) (6.21)
K − K0
k=K0 +1

où K représente le nombre total de simulations et K0 un nombre de simulations suffisant pour


que la convergence de la chaı̂ne vers sont état stationnaire puisse être considérée comme atteinte.

6.2.4 Pont de diffusion

Remarquons que dans le cas où X est un processus scalaire (à valeurs dans R), la simulation de
x̃i suivant p(x̃i |xi−1 , xi , θk−1 ) s’apparente à la simulation d’une trajectoire de l’EDS d’extrémités
((i − 1)∆, xi−1 ) et (i∆, xi ). De même qu’on avait défini la notion de pont brownien entre deux
points, on parlera ici de pont de diffusion. Plutôt que d’utiliser une approche MCMC pour
simuler une version discrétisée d’un tel pont, on peut utiliser une technique simple [3] que nous
présentons maintenant.

Si dXt = b(Xt )dt + σ(Xt )dWt et que l’on souhaite construire une trajectoire de X entre les
points (a, xa ) et (b, xb ), on commencera par construire au moyen d’une technique de simulation
de trajectoires (Euler, Milstein, ...) deux trajectoires indépendantes x(1) et x(2) sur [a, b] aux
(k)
points de discrétisation ti = a + i(b − a)/n pour i = 0, . . . , n des processus qui vérifient dXt =
(k) (k) (1) (2)
b(Xt )dt + σ(Xt )dWt (k = 1, 2) avec respectivement Xa = xa et Xa = xb . Soit
n o
(1) (2) (1) (2)
î = min i; (xa+iδ − xb−iδ ) × (xa+(i+1)δ − xb−(i+1)δ ) ≤ 0 (6.22)
i

où δ = (b − a)/n. On voit que î, s’il existe, définit sensiblement le point d’intersection a + îδ
(1)
de la trajectoire xa+t (t ∈ [0, b − a]) commençant au point xa et de la trajectoire retournée
(2)
xb−t qui se termine au point xb . Alors, sous quelques hypothèses techniques généralement peu
contraignantes, la séquence
(1) (2) (2)
(x(1) (2)
a = xa , . . . , xa+îδ , xb−(î+1)δ , . . . , xb−nδ = xa = xb ) (6.23)
CHAPITRE 6. ESTIMATION DES PARAMÈTRES DES EDS 43

représente une trajectoire discrétisée au pas δ du pont de diffusion joignant (a, xa ) et (b, xb )
pour la diffusion dXt = b(Xt )dt + σ(Xt )dWt . En pratique, on simule les trajectoires jusqu’à ce
que î existe.

6.3 Estimation non paramétrique des EDS

Pour construire des estimateurs non paramétriques de bt (x) et de σt2 (x), on va commencer par
décrire ces grandeurs comme des espérances mathématiques que l’on cherchera ensuite à calculer
au moyen d’estimateurs à noyau.

Partant de la relation
Z t+h Z t+h
Xt+h − Xt = bu (Xu )du + σu (Xu )dBu (6.24)
t t

on voit donc aisément que


1
bt (x) = lim E [(Xt+h − Xt )| Xt = x] . (6.25)
h→0 h

Par ailleurs,
"Z
t+h Z t+h 2 #
E (Xt+h − Xt )2 | Xt = x = E
 
bu (Xu )du + σu (Xu )dBu | Xt = x
t t (6.26)

= σt2 (x)h + o(h).

Donc,
1 
σt2 (x) = lim E (Xt+h − Xt )2 | Xt = x .

(6.27)
h→0 h

On va voir comment exploiter les relations précédentes pour estimer b(x) et σ 2 (x) dans le cas d’un
processus de diffusion homogène. Pour cela, on va fournir dans le paragraphe suivant quelques
informations sur la notion d’estimateur à noyau d’une densité de probabilité.

Remarque Une justification plus générale des équations (6.25) et (6.27) fait intervenir la notion
de générateur infinitésimal de la diffusion X. Celui-ci est défini comme l’opérateur L qui pour
f ∈ C 2 (R) s’écrit
1
(L(f )) (x) = σ 2 (x)f ”(x) + b(x)f 0 (x). (6.28)
2
La formule de Dynkin ([15] pp.121-123) permet d’utiliser la définition équivalente suivante
de L :
1
(L(f )) (x) = lim E[f (Xt+h ) − f (Xt )|Xt = x]. (6.29)
h→∞ h

En prenant f (x) = x, les équations (6.28) et (6.29) conduisent à la relation (6.25). De même,
en posant f (y) = (y − x)2 , on obtient la relation (6.27).
CHAPITRE 6. ESTIMATION DES PARAMÈTRES DES EDS 44

6.3.1 Estimateurs à noyau

On considère une fonction K(x) positive de C 2 (R) telle que


Z
K(x)dx = 1. (6.30)
R
On supposera de plus que K est paire, de sorte que xK(x)dx = 0. On définit également les
fonctions Kh (x) = h−1 K(x/h). Lorsque la ”bande passante” h tend vers 0, Kh tend vers la
distribution de dirac δ, et vers une densité constante lorsque h tend vers l’infini.

Etant donné une variable aléatoire X dont on observe des réalisations indépendantes x1 , . . . , xn ,
ont définit un estimateur à noyau de la densité p(x) de X sous la forme
n
1X
p̂h (x) = Kh (x − xi ). (6.31)
n
i=1

1
Classiquement, on choisit un noyau gaussien : K(x) = √ exp(−x2 /2h2 ). Le choix de la
2πh2
bande passante h du noyau en fonction de la taille h de l’échantillon permet d’obtenir des
propriétés de convergence satisfaisantes. Ainsi, en choisissant une bande passante h = hn telle
que limn→∞ nh4.5 n = 0 et une densité p(x) suffisamment régulière, on a un théorème de la limite
centrale pour l’estimateur à noyau :
 Z 
p L 2
nhn (p̂hn (x) − p(x)) → N 0, p(x) K (x)dx . (6.32)

On peut par exemple prendre hn = σ̂n n−1/5 , où σ̂n représente l’écart type des données x1 , . . . , xn .

Ex. Appliquez la méthode précédente pour construire un estimateur à noyau de de la densité


d’une loi uniforme sur [0, 1] puis d’une loi Γ de densité pα,β (x) = Γ(β)−1 αβ xβ−1 exp(−αx) pour
(α, β) = (0.1, 5). Vérifiez expérimentalement le théorème de la limite centrale (6.32) au point
moyenne de la distribution.

Ainsi, pour une diffusion ergodique de distribution stationnaire π on pourra estimer π sous la
forme
n
1X
π̂hn (x) = Khn (x − xi ) (6.33)
n
i=1
avec des échantillons xi obtenus après la convergence du processus vers sa distribution station-
naire.

6.3.2 Estimation non-paramétrique de b et de σ

A partir de l’estimation π̂hn (x) de la distribution stationnaire (6.33), la connaissance du coeffi-


cient de dérive ou de diffusion permet d’évaluer l’autre grandeur au moyen des relations (6.13) :
Z x
1 d 2 2
b̂(x) = [σ (x)π̂(x)] et σ̂ 2 (x) = b(u)π̂(u)du. (6.34)
2π̂(x) dx π̂(x) 0
CHAPITRE 6. ESTIMATION DES PARAMÈTRES DES EDS 45

Si aucun des deux coefficients n’est connu, on peut s’inspirer des relations (6.25), bt (x) =
limh→0 h1 E [(Xt+h − Xt )| Xt = x], et (6.27), σt2 (x) = limh→0 h1 E (Xt+h − Xt )2 | Xt = x , pour
construire les estimateurs en estimant ces espérances comme suit :
Pn−1
Kh (x − xi ) (xi+1 − xi )
b̂(x) = i=1 Pnn
∆n i=1 Khn (x − xi )
(6.35)
Pn 2
K hn (x − x i ) (x i+1 − x i )
σ̂ 2 (x) = i=1 P
∆n ni=1 Khn (x − xi )

où ∆n représente le pas d’échantillonnage temporel des n observations. En effet, on a par exemple
pour b(xi ) les approximations locales
1 1
b(xi ) = lim E [(Xt+h − Xt )| Xt = xi ] ≈ (xi+1 − xi ) (6.36)
h→0 h ∆n
et la pondération par les noyaux Khn (x − xi ) permet de lisser l’estimateur pour les diverses
valeurs de x. On adopte la même démarche pour l’estimation de σ 2 (x).

On pourra trouver dans [14] et les références associées des raffinements possibles de cette ap-
proche.
Chapitre 7

EDS présentant des sauts

7.1 Introduction

Le mouvement brownien peut être vu comme le modèle le plus élémentaire pour décrire un
phénomène aléatoire dont la valeur varie de façon continue. Des processus plus généraux peuvent
être obtenus comme la solution d’équations différentielles ayant un mouvement brownien en
entrée. Cependant, lorsqu’on décrit des phénomènes physiques ou dans le domaine de la finance
et des assurances, les processus observés peuvent présenter des discontinuités dont la localisation
et l’amplitude sont aléatoires. Le comptage des événements qui occasionnent ces discontinuités
est classiquement décrit par les processus de Poisson.

Dans un premier temps, on va s’intéresser aux processus de Lévy qui constituent des processus
à sauts qui généralisent les processus de Poisson. On envisagera ensuite la construction de
l’intégrale stochastique vis à vis de mesures aléatoires comportant des sauts. Enfin, on verra
comment la formule d’Itô sétend dans ce genre de situation. Les résultats sont ici fournis sans
les démonstrations et on s’attache ici surtout à une compréhension intuitive des résultats.

7.2 Processus de Lévy

7.2.1 Processus de Poisson

Un processus de Poisson N = (Nt )t∈R+ d’intensité λ est un processus dont les trajectoires sont
continues à droite et constantes par morceaux, avec des accroissements indépendants, N0 = 0
et pour t ≥ s ≥ 0, Nt − Ns vérifie Nt − Ns ∼ P(λ(t − s)) :

(λ(t − s))k
P (Nt − Ns = k) = exp(−λ(t − s)). (7.1)
k!

46
CHAPITRE 7. EDS PRÉSENTANT DES SAUTS 47

Ainsi, Nt − Ns représente le nombre de sauts du processus ans l’intervalle ]s, t]. On notera τk
l’instant du k ème saut du processus de Poisson :

τk = inf{t ≥ 0; Nt ≥ k}. (7.2)

Dans certains cas l’intensité λ du processus varie au cours du temps (λ = λt ) ; on obtient alors
un processus de Poisson transformé, dont les accroissements ne sont plus stationnaires :
R k
t
s uλ du Z t
P (Nt − Ns = k) = exp(− λu du). (7.3)
k! s

On peut aussi modifier le processus de Poisson afin qu’il ne compte plus seulement le nombre
de sauts du processus mais informe également sur leur amplitude, décrite par des variables
aléatoires (ξk )k>0 . Il en résulte un processus à saut de la forme
Nt
X
Yt = ξk . (7.4)
k=1

On suppose que le support des variables ξk appartient à R∗ . Un tel processus, pour Nt d’intensité
λ constante, est appelé processus de Poisson composé. La séquence (τk , ξk )k>0 correspon-
dante caractérise entièrement le processus. Les accroissements de ce processus sont stationnaires
dès lors que les variables ξk sont IID, ce que l’on supposera par la suite lorsqu’on parlera de
processus de Poisson composé.

Exemple La réserve financière d’une compagnie d’assurance est souvent décrite par le proces-
sus de Cramér-Lundberg qui prend la forme

Xt = X0 + ct − Yt , (7.5)

où c décrit le taux des primes d’assurance et Y est un processus de Poisson composé qui modélise
les remboursements de sinistres aux assurés.

Ex. Tracer la trajectoire du processus, avec X0 = 100, Nτk+1 − Nτk ∼ E(10) et ξk ∼ E(1).
Etudiez empiriquement le comportement des trajectoires en fonction de c.

Considérons maintenant un mouvement brownien présentant une dérive linéaire, modifié par
la présence de sauts indépendants entre eux et indépendants du mouvement brownien. Un tel
processus est obtenu en ajoutant au mouvement brownien un processus de Poisson composé. On
obtient alors un processus de la forme
X
Xt = bt + σBt + ξk (7.6)
k≤Nt

ou, sous forme différentielle, X


dXt = bdt + σdBt + ξk δτk , (7.7)
où les instants aléatoires τk sont les instants de transition du processus de Poisson N = (Nt )t≥0 .
X est encore un processus à accroissements indépendants et stationnaires, de trajectoires càdlàg,
c’est à dire continues à droite et admettant une limite à gauche en tout point.
CHAPITRE 7. EDS PRÉSENTANT DES SAUTS 48

La fonction caractéristique de Xt s’écrit


t N
1 X
ΦXt (u) = exp(iutb − tσ 2 u) × E[exp(iu ξk )] (7.8)
2
1

et comme PNt
E[exp(iu 1 ξk )] = E[Φξ (u)Nt ]
k
= ∞ k −λt (λt) (7.9)
P
k=0 Φξ (u) e
k!
= exp (λt(Φξ (u) − 1)) ,
on obtient finalement
  Z 
1 2 2 iuy
ΦXt (u) = exp t iub − σ u + (e − 1)λpξ (y)dy . (7.10)
2
Il s’agit d’un cas particulier d’une formule plus générale connue sous le nom de formule de
Lévy-Khintchine qui décrit la fonction caractéristique des processus de Lévy.

7.2.2 Lois de probabilité indéfiniment divisibles

La notion de processus de Lévy est étroitement liée à la notion de variable aléatoire de loi
indéfiniment divisible. On dit que la variable aléatoire X est de loi indéfiniment divisible si
pourP tout n ∈ N∗ , il existe n variables aléatoires IID (Xk,n )k=1,...,n telles que X ait la même loi
que nk=1 Xk,n . Il est alors clair que la fonction caractéristique ΦX (u) de X vérifie
n
ΦX (u) = ΦXk,n (u) . (7.11)
On définit l’exposant caractéristique de X par ηX (u) = log (ΦX (u)), soit ΦX (u) = exp[ηX (u)].
L’exposant ηX (u) est encore appelé symbole de Lévy dans la littérature. Parfois c’est Ψ(u) =
−ηX (u) qui est désigné comme l’exposant caractéristique. Ψ(u) est aussi parfois appelé ex-
posant de Laplace

La formule de Lévy-Khintchine permet de caractériser l’ensemble des lois indéfiniment di-


visibles via leur exposant caractéristique :

Théorème 16 (de Lévy-Khintchine) Une mesure de probabilité µ est indéfiniment divisible,


s’il existe un triplet (b, σ, ν), où b ∈ R,
R σ > 0 et ν une mesure, appelée mesure caractéristique
de Lévy, qui vérifie ν({0}) = 0 et R 1 ∧ x2 ν(dx) < ∞ telle que son exposant caractéristique η
vérifie Z
1 2 2
η(u) = ibu − σ u + (eiux − 1 − iux1I|x|<1 )ν(dx). (7.12)
2 R

Rappelons ici la notation a∧b = min(a, b). Les trois termes de η(u) s’interprètent respectivement
comme des termes de dérive, de diffusion et de saut. Notons que si la mesure ν est finie, alors
Z
ν(dx) < ∞ et on peut reformuler l’équation (7.12) sous la forme
R
Z
1
η(u) = ib0 u − σ 2 u2 + (eiux − 1)ν(dx). (7.13)
2 R
CHAPITRE 7. EDS PRÉSENTANT DES SAUTS 49
Z
0
avec b = b − xν(dx). On retrouve donc ici un exposant analogue à celui de l’équation
|x|<1
(7.10) et on peut interpréter le processus comme la superposition d’un mouvement brown-
ien avec dérive
Z et d’un processus Zde Poisson composé. L’interprétation précédente
Z reste pos-
sible lorsque ν(dx) = ∞ mais xν(dx) < ∞. Par contre lorsque xν(dx) = ∞ et
Z R |x|<1 |x|<1

x2 ν(dx) < ∞ (par hypothèse du théorème de Lévy-Khintchine), l’intégrale R (eiux − 1 −


R
|x|<1 Z
iux1I|x|<1 )ν(dx) est définie mais pas (eiux − 1)ν(dx). La formule de Lévy-Khintchine s’in-
R
terprète alors par la présence d’une forte intensité de sauts de faible amplitude qui se confondent
avec le terme de dérive. C’est la prise en compte de cette dernière situation qui complique l’étude
des processus de Lévy.

Notons également que le choix de l’intervalle [−1, 1] dans la fonction x1I|x|<1 est arbitraire :
n’importe quel autre intervalle de la forme [−ε, ε], avec ε > 0 pourraı̂t être utilisé pour l’énoncé
du théorème.

Les lois gaussienne et de Poisson composé sont des exemples simples de lois indéfiniment
PN di-
visibles. Rappelons que la loi de Poisson composée est celle d’une variable X = k=1 ξk , avec
N ∼ P(λ) et les ξk sont IID, de loi µ = ν/λ. En particulier la loi de Poisson classique est obtenue

pour µ = δ1 . Pour une loi N (m, v), on vérifie que (b, σ, ν(dx))
R = (m, v, 0) et pour une loi de
Poisson composée de paramètres λ et µ, (b, σ, ν(dx)) = (λ |x|<1 xµ(dx), 0, λµ(dx)).

Un certain nombre de lois indéfiniment divisibles classiques telles que la loi gaussienne ou la loi
de Cauchy font partie de la famille plus générale des lois stables, c’est à dire des lois P telles
que pour tout n il existe des réels an et bn tels que an X + bn à la même loi que la somme d’un
ensemble de variables aléatoires IID (Xk,n )k=1,...,n dont chacune a la même loi P que X :
n
L
X
Xk,n = an X + bn . (7.14)
k=1

On peut démontrer que nécessairement an est de la forme n1/α , avec α ∈]0, 2]. Par ailleurs,
lorsque bn = 0 on parle de stabilité stricte. Les loi de Cauchy sont obtenues pour α = 1, tandis
que le cas α = 2 correspond aux lois gaussiennes. Pour α ∈]0, 1[∪]1, 2[, l’exposant caractéristique
prend la forme
πα
η(u) = −c|u|α (1 − iβ tan( )sign(u)) + ium (7.15)
2
et pour α = 1, on obtient
2
η(u) = −c|u|(1 + iβ sign(u) log |t|) + ium (7.16)
π
avec β ∈ [−1, 1], c > 0 et m ∈ R.

Les lois de probabilité stables, sont notées S(c, α, β, m). Ces lois présentent une décroissance
lente de leur densité de probabilité, ce qui les rend particulièrement utiles dans bon nombre
d’applications où cette propriété est importante.
CHAPITRE 7. EDS PRÉSENTANT DES SAUTS 50

7.2.3 Processus de Lévy

Définition 5 Un processus X = (Xt )t≥0 avec X0 = 0 est un processus de Lévy s’il possède
des accroissements stationnaires et indépendants et si ses trajectoires sont continues à droite et
possèdent une limite à gauche en tout point, ce qu’on nomme la propriété càdlàg.

On peut de façon équivalente définir un processus de Lévy comme un processus issu de 0, à


accroissements stationnaires et indépendants et continu en probabilité, c’est à dire que pour
tous s, t et a positifs,
lim P (|Xt − Xs | > a) = 0. (7.17)
s→t
Avec cette définition, on peut montrer [1] que le processus admet une modification càdlàg. De
même qu’en général, lorsqu’on considère des mouvements browniens c’est à leurs modifications
continues qu’on s’intéresse, dans la suite on s’intéressera aux modifications càdlàg des processus
de Lévy.

Si X est un processus de Lévy, comme pour n > 0

Xt = Xt/n + (X2t/n − Xt/n ) + . . . + (Xt − Xt−t/n ), (7.18)

il est clair que Xt est indéfiniment divisible. Par suite, La formule de Lévy-Khintchine montre
que ΦXt (u) = eηXt (u) = etη(u) , où η(u) = ηX1 (u) est un exposant caractéristique de Lévy, appelé
exposant caractéristique de Lévy du processus X. Inversement, on peut montrer que

Théorème 17 Etant donné un exposant caractéristique de Lévy, donné par la formule de Lévy-
Khintchine (7.12), il existe un espace probabilisé sur lequel un certain processus de Lévy X aura
cet exposant caractéristique. Ainsi, ΦXt (u) = E[eiuXt ]etη(u) avec
Z
1 2 2
η(u) = ibu − σ u + (eiux − 1 − iux1I|x|<1 )ν(dx). (7.19)
2 R

Si on reprend les exemples de lois indéfiniment divisibles envisagées dans la section 7.2.2, on
peut donc associer des processus de Lévy aux exposants caractéristiques η(u). En particulier,
l’exposant gaussien conduira au mouvement Brownien (avec dérive si b 6= 0) et l’exposant de
la loi de Poisson au processus de Poisson. L’exposant de la loi stable S(c, α, β, m) conduira
au processus α-stable X pour lequel Xt ∼ S(ct, α, β, m). De même, on peut montrer que la
loi Γ(α, β), de densité pα,β (x) = Γ(β)−1 αβ xβ−1 exp(−αx)1IR+ (x) est indéfiniment divisible et
conduit à un processus de Lévy appelé processus gamma pour lequel Xt ∼ Γ(α, βt).

Dans le cas des processus α-stables, on se limite en général aux lois strictement stables pour
lesquelles la loi de Xλt est la même que celle de λ1/α Xt . Un processus pour lequel Xλt et λ1/α Xt
ont la même loi est dit auto-similaire et le coefficient H = 1/α est appelé exposant de Hurst.

Le comportement des sauts des processus de Lévy se comprend à travers le résultat d’anal-
yse suivant : sur tout intervalle borné, le nombre de sauts d’une fonction càlàg est au plus
dénombrable et le nombre de sauts supérieurs à ε > 0 reste fini. On montre également qu’une
telle fonction reste bornée sur tout intervalle borné [10].
CHAPITRE 7. EDS PRÉSENTANT DES SAUTS 51

7.3 Mesures aléatoires de Poisson

Pour un processus X, on définit le processus de sauts ∆X = (∆Xt = Xt − Xt− )t≥0 où Xt− =
lims→t− Xs .

Pour un processus de Lévy, on aura 0≤s≤t |∆Xt |2 < ∞, mais il peut se produire que 0≤s≤t |∆Xt |
P P
= ∞ du fait de la présence de nombreux sauts de faible amplitude. C’est cette particularité qui
complique certaines manipulations liées à ces processus.

Dans cette partie, on va décrire le comportement des sauts d’un processus de Lévy et l’intégration
stochastique vis à vis des mesures de sauts.

7.3.1 Mesures aléatoires de Poisson

La mesure aléatoire de Poisson d’un processus de Lévy X est la mesure de comptage du


nombre de sauts de X dans les intervalles de temps et d’amplitude du processus. On la définit
par X
N (dt, dx) = δs,∆Xs (dt, dx). (7.20)
s>0; ∆Xs 6=0

La nature aléatoire de N est liée à la présence des variables aléatoires de sauts ∆Xs .

Le lien entre la mesure aléatoire de poisson de X et la représentation de Lévy-Khintchine apparaı̂t


clairement dans la décomposition de Lévy-Itô :

Théorème 18 (Décomposition de Lévy Itô) Sur tout ensemble A ∈ B(R+ × R), la mesure
de Poisson
R N d’un processus de Lévy X de paramètres (b, σ, ν) suit une loi de Poisson : N (A) ∼
P A ν(dx)dt , et N (A1 ) et N (A2 ) sont indépendants lorsque A1 ∩ A2 = ∅. On définit une
version centrée de la mesure de Poisson, appelée mesure de Poisson compensée, par

Ñ (dt, dx) = N (dt, dx) − ν(dx)dt (7.21)

Xt peut alors se représenter sous la forme d’une somme de termes comme suit :

Xt = bt + σBt + Zt + Mt (7.22)

où B est un mouvement brownien, Z un processus de sauts


P
Zt = s∈]0,t]; |∆Xs |>1 ∆Xs
Z (7.23)
= x1I|x|>1 N (dt, dx)
]0,t]×R

et M une martingale de carré intégrable définie comme la limite, en moyenne quadratique


Z
Mt = lim x1Iε<|x|≤1 Ñ (dt, dx) (7.24)
ε→0+ ]0,t]×R
CHAPITRE 7. EDS PRÉSENTANT DES SAUTS 52

Notons que le processus de trajectoires t → Ñ (]0, t] × B), où B ∈ B(R) est une martingale.
De plus, le théorème montre clairement que N définit bien une mesure aléatoire au sens de la
définition de l’annexe A.

Dans le théorème, la construction de Zt ne pose pas de difficulté du fait que le nombre de sauts
du processus d’amplitude supérieur à 1 est fini et que leur amplitude reste finie. Par contre, on
doit passer à l’intégrale par rapport à la mesure compensée pour gérer l’accumulation potentielle
d’un nombre infini de sauts d’amplitudes proches de 0.

Pour construire l’intégrale (7.24) et comprendre le lien de la convergence des intégrales Mtε =
x1Iε<|x|≤1 Ñ (dt, dx) avec le fait que R 1 ∧ x2 ν(dx) < ∞, notons que comme N (A) ∼
R R
]0,t]×R
R 
P A ν(dx)dt et que la moyenne et la variance d’une loi de Poisson sont égales, E[N (A)] =
E[Ñ (A)2 ] = A ν(dx)dt. Anticipant sur la suite de l’exposé relatif à la construction des intégrales
R

de Poisson on peut construire l’intégrale Mt en considérant des approximations de la fonction


x2 par des fonctions en escalier puis en passant à la limite, vérifier que pour 0 < ε < ε0 < 1,
Z
ε ε0 2
E[(Mt − Mt ) ] = t x2 ν(dx), (7.25)
]ε,ε0 ]

0
Et donc, limε,ε0 →0 E[(Mtε − Mtε )2 ] = 0, d’où la convergence de Mtε lorsque ε → 0, d’après le
critère de Cauchy dans l’espace de hilbert L2 (Ω, A, P ).

7.3.2 Intégrales de Poisson

De la même façon que l’intégration par rapport au mouvement brownien sur un intervalle [0, T ]
est construite à partir de fonctions élémentaires, on introduit ici une nouvelle famille de fonctions
élémentaires qui permet de définir les intégrales de Poisson. Ces fonctions élémentaires prennent
la forme X
φt (x) = hk 1I]rk ,tk ]×Bk (t, x) (7.26)
k

où Bk ∈ B(R), 0 ≤ rk < tk ≤ T et les ensembles ]rk , tk ] × Bk sont disjoints et les variables
aléatoires hk mesurables par rapport à Frk , où F = (Ft )t≥0 est la filtration associée aux mesures
aléatoires dans la décomposition de Lévy-Itô du processus de Lévy X.

Les limites de suites des processus élémentaires précédents définissent les processus prévisibles.
Les trajectoires t → Ht (x) d’un processus prévisible H sont continues à gauche et pour t fixé la
fonction (ω, x) → Ht (x)(ω) est Ft × B(R)-mesurables.

On peut se demander pourquoi H est choisie continue à gauche alors que les trajectoires de X
sont continues à droite. D’un point de vue physique cela est en fait logique : si on considère par
exemple un système différentielle de la fome dXt = f (Xt )dNt , où N est un processus de poisson
composé, et si un saut se produit à l’instant t, il y a en pratique un léger retard dans la prise en
compte de la valeur f (Xt ) et c’est plutôt la limite gauche Xt− = lims→t− Xt qu’il faudrait prendre
en compte. Ainsi, le système devrait plutôt s’écrire dXt = f (Yt )dNt où Y = (Yt = Xt− )t≥0 est
càglàd dès lors que X est càdlàg.
CHAPITRE 7. EDS PRÉSENTANT DES SAUTS 53

Pour la fonction élémentaire φt donnée par (7.26), on définit


Z X
φu (x)N (dt, dx) = hk N (]rk , tk ∧ t] × Bk ), (7.27)
]0,t]×R k
R
avec a ∧ b = min(a, b) et ]a, b] = ∅ si b ≤ a, on définit ]0,t]×R Ht (x)N (dt, dx) comme la limite
dans L1 (Ω, A, P ) des intégrales d’une suite de fonctionsR élémentaires convergeant vers H. On
démontre que cette définition à un sens dès lors que E[ ]0,t]×R |Hs (x)|ν(dx)ds] < ∞. De plus, on
a la propriété d’isométrie suivante :

"Z #
Théorème 19 Si H est prévisible, avec E |Hs (x)| ν(dx)ds < ∞, alors
]0,t]×R

"Z # "Z #
E |Hs (x)| N (ds, dx) = E |Hs (x)| ν(dx)ds (7.28)
]0,t]×R ]0,t]×R

 R 
Les trajectoires du processus Y = Yt = ]0,t]×R Ht (x)N (dt, dx) sont càdlàg et, sous cer-
t∈[0,T ]
taines conditions, on peut exprimer les transformations f (Yt ) du processus Y :

Théorème 20 Si H est un processus prévisible tel que


Z !
P ∃ε > 0, |Hs (x)| ν(dx)ds < ∞ = 1, (7.29)
]0,t]×[−ε,ε]

et f une fonction de classe C 1 , alors


X
f (Yt ) = f (0) + f (Ys− + Hs (∆Xs )) − f (Ys− )
0<s≤t; ∆Xs 6=0

Z (7.30)
= f (0) + [f (Ys− + Hs (x)) − f (Ys− )]N (ds, dx).
]0,t]×R

hR i
Pour les fonctions prévisibles H pour lesquelles on a E ]0,t]×R |Hs (x)| ν(dx)ds = +∞ comme
R
celà peut se produire par exemple Rpour Hs (x) = x1I|x|≤1 , lorsque x1I|x|≤1 ν(dx) = +∞, on
ne pourra plus donner un sens à ]0,t]×R Hs (x)N (ds, dx), mais on pourra cependant définir
R 
2 ν(dx)ds < ∞ :
R
]0,t]×R Hs (x) Ñ (ds, dx) lorsque P ]0,t]×R |Hs (x)|

Z !
Théorème 21 Lorsque H est prévisible et P |Hs (x)|2 ν(dx)ds < ∞, on peut définir
]0,t]×R
Z !
le processus M = Mt = Hs (x)Ñ (ds, dx) qui est une martingale locale càdlàg,
]0,t]×R
t∈[0,T ]
CHAPITRE 7. EDS PRÉSENTANT DES SAUTS 54

avec ∆Mt = Ht (∆X hR t )1I∆Xt 6=0 . i


Lorsque de plus E ]0,t]×R |Hs (x)|2 ν(dx)ds < ∞, M est de carré intégrable et on a la propriété
d’isométrie suivante : "Z #
E[Mt2 ] = E |Hs (x)|2 ν(dx)ds . (7.31)
]0,t]×R

Pour toute fonction f de classe C 2 , le processus M précédent vérifie la formule d’Itô suivante :

Théorème 22 Sous les conditions du théorème 21,

f (Mt ) = f (0) + ]0,t]×R f 0 (Ms− )Hs (x)Ñ (ds, dx)


R

(7.32)
0
R
+ ]0,t]×R [f (Ms− + Hs (x)) − f (Ms− ) − f (Ms− )Hs (x)]N (ds, dx).

Pour comprendre cette formule, notons que le processus Mtε = ]0,t]×R 1I|x|ε Hs (x)Ñ (ds, dx) a un
R

nombre fini de sauts et que les variations de sa partie continue est dMtε = − ]0,t]×R 1I|x|ε Hs (x)ν(dx)dt.
R

Par suite, en prenant en compte les sauts, on obtient


Z t X
ε
f (Mt ) − f (0) = f 0 (Msε )dMsε + [f (Msε ) − f (Msε− )]∆Xs
0 0≤s≤t

(7.33)
Z
= 1I|x|>ε f 0 (Msε− )Hs (x)Ñ (ds, dx)
]0,t]×R
Z
+ 1I|x|>ε [f (Msε ) − f (Msε− ) − f 0 (Msε− )Hs (x)]N (ds, dx).
]0,t]×R

La démonstration procède ensuite d’un passage à la limite.

7.4 Intégrales de Lévy et formule d’Itô

Considérons maintenant des formules intégrales mettant en jeux les différentes intégrales stochas-
tiques vues dans le cours. On obtient ainsi des expressions de la forme
Z t Z t Z Z
Yt = Y0 + φs dBs + ψs ds + H(s, x)N (ds, dx) + K(s, x)Ñ (ds, dx) (7.34)
0 0 ]0,t]×R ]0,t]×R

où les processus φ et ψ sont adaptés et les processus H et K prévisibles et dont les trajec-
toires satisfont presque sûrement φ ∈ L2 (1I[0,T ] dt), ψ ∈ L1 (1I[0,T ] dt), H ∈ L1 (ν(dx)1I[0,T ] dt),
K ∈ L2 (ν(dx)1I[0,T ] dt). De tels processus sont appelés intégrales stochastiques de Lévy. Le
théorème de représentation de Lévy-Itô montre que le processus de Lévy constituent des cas
particuliers d’intégrales stochastiques de Lévy.

Les formules d’Itô vues précédemment peuvent alors être résumées dans le résultat suivant :
CHAPITRE 7. EDS PRÉSENTANT DES SAUTS 55

Théorème 23 Si Y est une intégrale stochastique de Lévy, et f une fonction de classe C 2 , alors
Z t
1 t
Z
0
f (Yt ) = f (Y0 ) + f (Ys− )dYs + f ”(Ys− )φ(s)2 ds
Z 0 2 0
f (Ys− + Hs (x) + Ks (x)) − f (Ys− ) − f 0 (Ys− )(Hs (x) + Ks (x)) N (ds, dx)
 
+
]0,t]×R

Z t Z t
1 X
= f (Y0 ) + f 0 (Ys− )dYs + f ”(Ys− )φ(s)2 ds + [f (Ys ) − f (Ys− ) − f 0 (Ys− )∆Ys ]
0 2 0 0<s≤t
(7.35)

Notons qu’on peut généraliser ce résultat à une classe de processus plus larges, appelés semi-
martingales et que la formule d’Itô admet également une extension au cas vectoriel.

7.5 Exemples

R
En pratique, on se trouve souvent dans des situations où R ν(dx) < ∞. Dans ces condi-
tions, il n’est pas nécessaire de faire intervenir la mesure de Poisson compensée dans les calculs
d’intégrales stochastiques. Les EDS étudiées prennent alors la forme
Z
dXt = bt (Xt ) + σt (Xt )dBt + ct (Xt− , x)N (dt, dx) (7.36)
R

ou, sous forme intégrale,


Z t Z t Nt
X
Xt = X0 + bt (Xt )dt + σt (Xt )dBt + cτk (Xτ − , ξk ), (7.37)
k
0 0 k=1
P
avec N (dt, dx) = δ(τk ,ξk ) (dt, dx) où les τk sont les instants des sauts et les ξk leurs amplitudes.

7.5.1 Modèle de Merton

Le modèle de Merton constitue une extension du modèle de Black-Sholes au cas où des sauts
peuvent être présents. Il est décrit par l’EDS suivante :

dXt = Xt− (bdt + σdBt + dYt ) (7.38)

où Y est un processus de Poisson composé : Yt = N


P t
k=1 ξk avec Nt ∼ P(λt) et les ξk sont IID,
de moyenne finie ξ. Les sauts de Y ont lieu aux instants τk : ∆Yτk = ξk . Pour étudier l’évolution
de X au niveau des sauts, notons que

∆Xτk = Xτk − Xτ − = Xτ − ξk . (7.39)


k k

Donc,
Xτk = Xτ − (1 + ξk ) (7.40)
k
CHAPITRE 7. EDS PRÉSENTANT DES SAUTS 56

Pour que le processus X reste positif, on doit avoir ξk > −1. En particulier, Merton a considéré
le cas où 1 + ξk suit une loi log-normale, c’est à dire où log(1 + ξk ) est gaussien. En considérant la
résolution de l’équation de Black-Sholes (section 4.2.1) et l’évolution de X au niveau des sauts,
il apparaı̂t finalement que la solution de l’équation de Merton est
Nt
σ2
 Y
Xt = X0 exp (b − )t + σBt (1 + ξk ). (7.41)
2
k=1

7.5.2 Utilisation de la formule d’Itô

On considère le processus X tel que dXt = bt dt+σt dWt +ct dNt , où N est un processus de Poisson
d’intensité λ. L’équation différentielle satisfaite par le processus Zt = exp(Xt ) est obtenue par
la formule d’Itô :
Z t Z t
σs2 X
Zt = Z0 + Zs− [(bs ds + σs dBs + cs− dNs + ds] + Zs− λ(ecs− − 1 − cs− ) δs , (7.42)
0 2 0 ∆Ns =1

avec dNs = 1I∆Ns 6=0 δs , soit


 
σs2 X
dZt = Zt− (bt + )t + σt dBt + λ (ecs− − 1)∆Ns  (7.43)
2
0≤s≤t

et, en se référant à l’exemple précédent du modèle de Merton,


Z t Z t Nt
Y
cτ −
Zt = Z0 exp bs ds + σs dBs e k . (7.44)
0 0 k=1
Chapitre 8

Exercices

Dans les exercices B désigne un mouvement brownien standard.

1) Trouvez l’EDS satisfaite par Xt = eBt .

2) vérifiez que Xt = a−1 Ba2 t (a 6= 0) est un mouvement brownien standard.

3) Si B
q1 , . . . , Bn sont des mouvements browniens indépendants, indiquez l’EDS dont le processus
Xt = 2 + . . . + B 2 est la solution.
B1,t n,t

4) Résolvez dXt = Xt dt + e−t dBt avec X0 = x.

5) En utilisant la formule d’Itô vectorielle calculez d(Xt Yt ), où X et Y sont des processus d’Itô
définis à partir du même mouvement brownien.

6) Pour intégrer l’équation


dXt = ft (Xt )dt + ct Xt dBt , (8.1)
avec X0 = x et ct une fonction déterministe continue, on multiplie chaque terme par la fonction
 Z t
1 t 2
Z 
Ft = exp − cu dBu + cu du . (8.2)
0 2 0

On pose Yt = Ft Xt . Exprimez l’EDS satisfaite par Yt . En adoptant cette approche, intégrez


l’équation
dXt = Xt−1 dt + αXt dBt . (8.3)

7) Intégrez l’équation
b − Yt
dYt = dt + dBt (8.4)
1−t
avec Y0 = a et 0 ≤ t < 1 (Indication : divisez les deux membres par 1-t). Vérifiez que Yt est un
pont brownien sur [0, 1] dont on précisera les paramètres.

57
CHAPITRE 8. EXERCICES 58

8) Donnez l’expression du courant dans un circuit RLC série lorsqu’on place à ses bornes une
source de tension variable donnée ft que l’on suppose perturbée par un bruit de la forme αBt .

9) Résoudre
dXt = λ(b − log Xt )Xt dt + σXt dBt (8.5)
avec X0 > 0 fixé, en considérant la transformation Yt = log Xt .
Annexe A

Mesures aléatoires

A.1 Définition

Définition 6 Une fonction Z définie sur la tribu des boréliens, notée B(R), et à valeurs dans
L2 (Ω, A, dP ) est appelée mesure aléatoire si elle vérifie les propriétés suivantes :
P
∀(∆n )n∈N ∈ B(R)N , Z(∪n∈N ∆n ) = n∈N Z(∆n ), si ∆n ∩ ∆m = ∅ pour m 6= n
(A.1)
∀∆1 , ∆2 ∈ B(R), E[Z(∆1 )Z(∆2 )∗ ] = 0, si ∆1 ∩ ∆2 = ∅.

Il est clair que Z(∅) = 0.

A.2 Mesure positive µZ associée à Z.

On définit sur B(R) la mesure positive µZ associée à la mesure aléatoire Z par

µZ (∆) =k Z(∆) k2 . (A.2)

La propriété de σ-additivité sur µZ provient directement du fait que si ∆n ∩ ∆m = ∅ pour


m 6= n,

µZ ( n ∆n ) = E[|Z(∪n ∆n )|2 ]
S

= E[ m,n Z(∆m )Z ∗ (∆n )]


P

(A.3)
= E[ n |Z(∆n )|2 ]
P

P
= n µZ (∆n ).

59
ANNEXE A. MESURES ALÉATOIRES 60

Quand à la positivité de µZ , elle est immédiate.

On utilise souvent les notations différentielles


Z(dt) = Z([t, t + dt[)
(A.4)
et µZ (dt) =k Z(dt) k2 .

R
A.2.1 Intégrale stochastique R
φ(t)Z(dt).

On va commencer par définir l’intégrale stochastique pour les fonctions mesurables étagées à
support compact, avant d’étendre la définition à une classe plus large de fonctions.

Définition 7 Une fonction mesurable étagée à support compact est une fonction φ dont le
support est un ensemble compact K et pour laquelle
P il existe une partition (∆k )k=1,p de K, avec
∆k ∈ B(R) et a1 , . . . , ap ∈ R, tels que φ(t) = k=1,p ak 1I∆k (t).

Notons E l’algèbre des fonctions étagées à support compact, et considérons l’application


T : E → L2 (Ω, A, dP )
P P (A.5)
k=1,p ak 1I∆k (t) → k=1,p ak Z(∆k ).

On notera Z
X
ak Z(∆k ) = φ(t)Z(dt). (A.6)
k=1,p R

Il est clair quePT définit un homorphisme de E ⊂ L2 (R, B(R), dµZ ) dans L2 (Ω, A, dP ) puisque
pour φk (t) = l=1,nk akl 1I∆k (t) (k = 1, 2),
l

1 2∗
RP
< φ1 , φ2 > = k,l ak al 1I∆k ∩∆l (t)dµZ (t)

a1k a2∗
P
= k,l l µZ (∆k ∩ ∆l )

a1k a2∗ 2
P
= k,l l k Z(∆k ∩ ∆l ) k (A.7)

a1k Z(∆k ), a2l Z(∆l ) >


P P
=< k l

=< T (φ1 ), T (φ2 ) > .


De plus, E est dense dans L2 (R, B(R), dµZ ) et T est continue. Donc, d’après le théorème de
prolongement par continuité d’un opérateur linéaire borné, présenté dans la section suivante (voir
aussi [18]), T est prolongeable en un homomorphisme de L2 (R, B(R), dµZ ) dans L2 (Ω, A, dP ).

Plus précisément, pour φ ∈ L2 (R, B(R), dµZ ), il existe une suite de fonctions (φn )n∈N de E qui
converge vers φ, et on définit
Z Z
φ(t)Z(dt) = lim φn (t)Z(dt). (A.8)
R n→∞ R
ANNEXE A. MESURES ALÉATOIRES 61

De plus, la propriété de conservation de la norme s’exprime par


Z Z
2
k φ(f )dZ(f ) k = |φ(t)|2 µZ (dt). (A.9)
R R

On a donc défini les intégrales stochastique associées à une mesure aléatoire Z, et on a vérifié
que l’intgration stochastique établit un homomorphisme de L2 (R, B(R), dµZ ) dans L2 (Ω, A, dP )
pour les produits scalaires définis sur ces espaces.

A.3 Prolongement par continuité d’un opérateur linéaire [18].

Le résultat technique général suivant intervient dans la justification l’existence de l’intégrale


stochastiwue discutée dans la section précédente.

Théorème 24 (prolongement par continuité d’un op{erateur) Soit T : D → B un


opérateur linéaire borné, où D est un sous ensemble dense d’un espace normé A, et B un espace
de Banach (espace vectoriel normé complet). Il existe un opérateur linéaire borné T̃ défini sur
A et tel que ∀x ∈ D, T̃ x = T x, et k T̃ k=k T k.

Démonstration. Pour x ∈ D, on pose T̃ x = T x. Pour x ∈ A, mais x ∈ / D, on pose T̃ x =


limn T xn , o (xn )n∈N est une suite d’éléments de D qui converge vers x.

La limite de la suite (T xn )n∈N existe bien car k T xn − T xm k≤k T k × k xn − xm k, et (xn )n∈N


est une suite de Cauchy, donc la suite (T xn )n∈N aussi ; mais comme B est complet, la suite
(T xn )n∈N converge.

De plus, la limite de la suite (T xn )n∈N ne dépend pas de la suite (xn )n∈N convergeant vers x
choisie. En effet, si (xn )n∈N et (x0n )n∈N convergent vers x, les limites a et a0 de T xn et T x0n
vérifient :

k a − a0 k≤k a − T xn k + k T k ×(k xn − x k + k x − x0n k)+ k T x0n − a0 k (A.10)

et les termes de droite convergent vers 0 quand n → ∞. Donc a = a0 .

Pour montrer que k T k=k T̃ k, remarquons que k T xn kk xn k−1 ≤k T k, et donc k T̃ k≤k T k.


On a de plus
k T̃ k= sup k T̃ (x) k≥ sup k T̃ (x) k=k T k . (A.11)
x∈A,kxk=1 x∈D,kxk=1

Donc k T k=k T̃ k.

Remarquons de plus que si T conserve la norme, il en est de même de T̃ . En effet, ∀x ∈ A, x est


la limite d’une suite (xn )n∈N de D et d’après la continuité de la norme,

k T̃ (x) k= lim k T̃ (xn ) k= lim k T (xn ) k= lim k xn k=k x k . (A.12)


n→∞ n→∞ n→∞
Bibliographie

[1] D. Applebaum, Lévy processes and stochastic calculus, Cambridge University Press, 2009.
[2] P. Billingsley, Convergence of probability measures, Wiley, 1968.
[3] M. Bladt, M. Sørensen, Simple simulation of diffusion bridges with ap-
plication to likelihood inference for diffusions, unpublished paper, 2009.
http ://www.math.ku.dk/ michael/#papers
[4] T. Chonavel, Statistical Signal Processing, Springer, 2002.
[5] T. Chonavel, Notes de cours d’analyse numérique et optimisation continue, poly-
copié Télécom Bretagne, 2011. http ://perso.telecom-bretagne.eu/thierrychonavel/cours-
enseignements/
[6] T. Chonavel, Linear and non linear filtering for state space models, polycopié Télécom Bre-
tagne, 2010. http ://perso.telecom-bretagne.eu/thierrychonavel/cours-enseignements/
[7] T. Comets et T. Meyre, Calcul stochastique et modèles de diffusion, Dunod 2006.
[8] D. Foata et A. Fuchs, Processus stochastiques, Dunod 2004.
[9] P.E. Kloeden, E. Platen, H. Schurz, Numerical solution of SDE through computer experi-
ments, Springer, 2003.
[10] B. Jourdain, processus avec sauts et applications au marché de l’énergie, polycopié ENPC,
2011. http ://cermics.enpc.fr/ delmas/Enseig/levy.html
[11] A.E. Kyprianou, Introductory lectures on fluctuations of Levy processes with applications,
Springer, 2006.
[12] M. Lefebvre, Applied stochastic processes, Springer, 2000.
[13] B. Lapeyre, E. Pardoux, R. Sentis, Méthodes de Monte-Carlo pour les équations de transport
et de diffusion, Springer, 1998.
[14] S.M. Lacus, Simulation and inference for stochastic differential eqiuations
[15] B. Oksendal, Stochastic Differential Equations, Springer, 2005.
[16] E. Platen, N. Bruti-Liberati, Numerical Solution of Stochastic Differential Equations with
Jumps in Finance Springer, 2010.
[17] C. Robert, G. Casella, Monte Carlo statistical methods, Springer, 2004.
[18] V. Trenoguine, Analyse fonctionnelle, éditions Mir, Moscou, trad. française, 1985.
[19] Wikipedia, BFGS method, http ://en.wikipedia.org/wiki/BFGS
[20] Wikipedia, Recuit simulé, http ://fr.wikipedia.org/wiki/Recuit simulé

62
Index

équation formule
de Fokker-Planck, 38 d’Itô, 26
de Kolmogorov d’Itô vectorielle, 28
directe, 38 d’Itô-Taylor, 35
rétrograde, 38 de Dynkin, 44
de Lévy-Khintchine, 49
processus de Levy-Khintchine, 49
gamma, 51 de Parseval, 16
processus de Wiener, 12 de Taylor, 34
algorithme générateur infinitésimal, 44
de Gibbs, 42
de Metropolis-Hastings, 43 inégalité
de Doob, 18
calcul d’Itô, 6 inégalité
continuité de jensen, 10
en probabilité, 51 intégrale
convergence d’Itô, 22
forte, 33 de Stratonovich, 22
stochastique, 61
drift, 26
intégrale stochastique
equation de Lévy, 55
de Langevin, 29 interpolation, 32
erreur absolue, 31 isométrie
erreur moyenne absolue, 33 d’Itô, 23, 24
espérance conditionnelle, 9
loi
espaces de Hilbert, 16
indéfiniment divisible, 49
exposant
stable, 50
caractéristique, 49
de Hurst, 51 méthode
de Laplace, 49 d’Euler, 31, 32
de Milstein, 31, 33
famille
de Runge-Kutta, 31
cohérente, 11
du point milieu, 14
filtration, 17
méthode
naturelle, canonique, 17
MCMC, 42
fonction
martingale locale, 19
étagée, 61
martingales, 18
élémentaire, 22
maximum de vraisemblance, 41
de dérive, 26
mesure
de diffusion, 26

63
INDEX 64

aléatoire de Poisson, 52
de Poisson compensée, 52
mesure caractéristique de Lévy, 49
modèle
de Black-Scholes, 28
modification d’un processus, 12
mouvement brownien, 11, 12
géométrique, 29
standard, 12

ordre d’une méthode, 31, 33

pont de diffusion, 43
processus
α-stable, 51
élémentaire, 22
adapté, 17
autosimilaire, 51
d’Itô, 26
d’Ornstein-Ulhenbeck, 29
de Cramér-Lundberg, 48
de Levy, 49
de Poisson, 47
composé, 48
transformé, 48
prévisible, 53
prolongement d’un opérateur, 62
propriété càdlàg, 51

semimartingales, 56
solution
faible, 30
forte, 30
sous-martingale, 19
sur-martingale, 19
symbole
de Lévy, 49

temps d’arrêt, 19
théorème
de cohérence de Kolmogorov, 11
de continuité de Kolmogorov, 12
de Donsker, 15
de Doob, 19, 24
de Kolmogorov, 10
tribu
borélienne, 9
engendrée par des ensembles, 9
engendrée par des variables, 9

Vous aimerez peut-être aussi