Vous êtes sur la page 1sur 103

Mthodes de Monte Carlo en Finance Notes de cours

Bruno Bouchard
Universit Paris VI, LPMA, et CREST bouchard@ccr.jussieu.fr

Cette version : Septembre 20071

1 Premire

version: 2002

Table des matires


1 Gnralits et nombres alatoires
1.1 1.2 1.3

1.4

Notions gnrales . . . . . . . . . . . . . . . . . . . . . . . . Loi uniforme . . . . . . . . . . . . . . . . . . . . . . . . . . . Autres lois . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.3.1 Mthode d'inversion . . . . . . . . . . . . . . . . . . 1.3.2 Mthode du rejet . . . . . . . . . . . . . . . . . . . . 1.3.3 Mthode par transformation . . . . . . . . . . . . . . 1.3.4 Variables corrles et techniques par conditionnement Notion de discrpance . . . . . . . . . . . . . . . . . . . . . 1.4.1 Gnralits . . . . . . . . . . . . . . . . . . . . . . . 1.4.2 Cas des suites uniformment distribues . . . . . . . 1.4.3 Suites discrpance faible . . . . . . . . . . . . . . . Modle de Black-Scholes . . . . . . . . . . Schma de discrtisation . . . . . . . . . . 2.2.1 Discrtisation d'Euler . . . . . . . . 2.2.2 Schma de Milshtein . . . . . . . . Options Asiatiques . . . . . . . . . . . . . 2.3.1 Schmas simples . . . . . . . . . . 2.3.2 Schma avec dveloppement dans le Options barrire . . . . . . . . . . . . . . 2.4.1 Approche naive . . . . . . . . . . . 2.4.2 Approche par les ponts de diusion Options Lookback . . . . . . . . . . . . . . Options Amricaines . . . . . . . . . . . . Contrle antithtique . . . . . Rgularisation du payo . . . Variable de contrle . . . . . . 3.3.1 Motivation et exemples . . . . . . . . . . . . 3 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . modle de . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

. . . . . . . . . . .

. . . . . . . . . . .

. . . . . . . . . . .

. . . . . . . . . . .

. . . . . . . . . . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . . . . . . . . . .

7 9 10 10 11 14 17 18 18 20 21

2 Mthodes de discrtisation
2.1 2.2

2.3

2.4

2.5 2.6 3.1 3.2 3.3

. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Black-Scholes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

23

23 24 24 30 31 31 34 35 35 36 40 41 43 45 46 46

3 Rduction de la variance

43

TABLE DES MATIRES


3.3.2 Approche systmatique . . . . . . . . . . . . . . . . . . . . . . . . 3.3.3 Mthode adaptative . . . . . . . . . . . . . . . . . . . . . . . . . Fonction d'importance . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.4.1 Un exemple . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.4.2 Approche systmatique . . . . . . . . . . . . . . . . . . . . . . . . 3.4.3 Fonction d'importance optimale et algorithme de Robbins Monro Approche par dirences nies . . . . . . . . Grecques dans le modle de Black et Scholes Processus tangent . . . . . . . . . . . . . . . 4.3.1 Notions de processus tangent . . . . 4.3.2 Processus tangent et delta . . . . . . 4.3.3 Processus tangent et vga (exercice) . Calcul de Malliavin . . . . . . . . . . . . . . 4.4.1 Introduction au calcul de Malliavin . 4.4.2 Calcul de Malliavin et sensibilits . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49 50 50 50 52 52

3.4

4 Calcul des sensibilits


4.1 4.2 4.3

57

4.4

57 58 60 60 61 62 63 63 67 71 71 77 79 81 83 84 87 90 91 92 94 96 97

5 Esprances conditionnelles et options amricaines


5.1

5.2 6.1 6.2 6.3 6.4 6.5 6.6 6.7 6.8 6.9

Approche par calcul de Malliavin . . . . . . . . . . . . 5.1.1 Esprances conditionnelles et densits . . . . . . 5.1.2 Application l'valuation d'options amricaines Mthodes de quantication . . . . . . . . . . . . . . . .

71

6 Complments (exercices)

Simulation d'un CIR : schma exact . . . . . . . . . . . . . . . . . . . . . Simulation d'un CIR : schma d'Euler implicite . . . . . . . . . . . . . . Discrtisation d'EDSR . . . . . . . . . . . . . . . . . . . . . . . . . . . . Approximation du temps de sortie d'une diusion . . . . . . . . . . . . . Algorithme de Robbins Monro . . . . . . . . . . . . . . . . . . . . . . . . Mthode de rejet avec recyclage . . . . . . . . . . . . . . . . . . . . . . . Estimation d'esprances conditionnelles . . . . . . . . . . . . . . . . . . . Variables antithtiques . . . . . . . . . . . . . . . . . . . . . . . . . . . . Un exemple de rduction de variance par intgration par parties et conditionnement . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6.10 Suites uniformes randomises . . . . . . . . . . . . . . . . . . . . . . . .

81

Introduction
Dans les modles sans friction ni contrainte, le prix d'une option europenne, sur un sous-jacent X = (Xt )t0 , de payo actualis g (X ), s'crit comme l'esprance sous une probabilit risque neutre, unique si le march est complet, de sa valeur liquidative : p(0, x) = E [g (X ) | X0 = x]. Il existe de multiples manires d'valuer cette esprance : approche par arbres, par quations aux drives partielles (EDP), . . . Ici, nous nous concentrons sur l'approche Monte-Carlo. Elle consiste simuler un grand nombre de ralisations de g (X ) puis en prendre la moyenne p (0, x), la loi des grands nombres assurant la convergence de p (0, x) vers p(0, x). Le Chapitre 1 est consacr des gnralits sur les mthodes de Monte-Carlo et aux principaux modes de gnration de nombres "alatoires". Si g dpend de toute la trajectoire de X , ou si X est solution d'une quation diffrentielle stochastique (EDS) dont on ne connat pas explicitement la solution, il est gnralement impossible de simuler parfaitement g (X ). Il faut alors recourir une approximation qui correspond une discrtisation en temps. Ces techniques seront tudies dans le Chapitre 2. Mme lorsqu'on sait simuler g (X ), il arrive que la variance de l'estimateur soit trop grande pour que celui-ci soit able. Le Chapitre 3 est consacr aux techniques de rduction de variance. Connatre le prix auquel on peut vendre une option est important, mais il faut ensuite pouvoir se couvrir. La couverture tant dnie partir du delta, la drive de p(0, x) par rapport x, il faut pouvoir l'estimer. Le Chapitre 4 est consacr ce sujet. Il sera l'occasion d'introduire les notions de processus tangent et de drive de Malliavin. Enn, lorsque l'option est de type amricaine, les mthodes de Monte-Carlo standard conduisent estimer un trs grand nombre d'esprances conditionnelles. Nous verrons dans le dernier Chapitre comment la formule d'intgration par parties du calcul de Malliavin permet de les r-crire sous une forme exploitable numriquement. Nous renvoyons [41], [47] et [54] pour une prsentation thorique des techniques d'valuation et de gestion de portefeuille en nance.

Notations
On commence par introduire quelques notations. On indentiera un lment x de Rd au vecteur colonne associ de coordonnes xj , j = 1, . . . , d. On notera Md , l'ensemble des matrices carres de dimension d, de coordonnes aij . On notera Id la matrice identit de Md et ed le vecteur unit de Rd . La norme euclidienne sur Rd ou Md sera note . Pour un lment a de Md , on notera ai le vecteur ligne correspondant sa ime ligne et aj le vecteur colonne correspondant sa j -me colonne. La transpose i d de a Md sera note a . Pour un ensemble de point (xi )d i=1 , on notera Vect[(x )i=1 ] le vecteur colonne de componsantes xi . Pour x Rd , on notera diag [x] la matrice diagonale de Md dont les lments diagonaux sont les xi . Pour une fonction f : Rd Rn , on notera f sa matrice Jacobienne, i.e. (f )ij = f i /xj . Si f : (Rd )k Rn , on notera f , la matrice Jacobienne obtenue en drivant par rapport sa -me composante vectorielle, i.e. ( f (x1 , . . . , xk ))ij = f i (x1 , . . . , xk )/xj . On crira parfois k k simplement x f . On notera Cp (resp. Cb ) l'ensemble des fonctions C k croissance polynomiale (resp. bornes) dont les drives sont galement croissance polynomiale k (resp. bornes). Lorsque la fonction est seulement dnie sur A, on notera C k (A), Cp (A) k et Cb (A). N (m, ) dsignera la loi normale de moyenne m et de matrice de variancecovariance . On notera souvent par C > 0 une constante gnrique qui peut changer de valeur d'une ligne l'autre.

Chapitre 1 Gnralits et nombres alatoires

1.1 Notions gnrales


Les mthodes de Monte-Carlo sont bases sur la loi des grands nombres : on simule un grand nombre de variables alatoires (v.a.) indpendantes et de mme loi, (Yn )n de mme loi que Y , on prend ensuite la moyenne des valeurs prises, N 1 N n=1 Yn , et on obtient une approximation de E [Y ]. La convergence est assure par le thorme classique suivant.

grables i.i.d.1 Alors,

Thorme 1.1.1 (Loi des grands nombres) Soit (Yn )n1 une suite de v.a. relles int1 N
N

Yn E [Y1 ]
n=1

p.s. et dans L1 .

Si en plus les (Yn ) sont de carr intgrable, on peut montrer que la convergence a lieu dans L2 et on obtient un contrle de l'erreur p.s. et de l'erreur L2 .

Thorme 1.1.2 Soit (Yn )n1 une suite de v.a. relles i.i.d. de carr intgrable. On pose
m N := 1 N
N

Yn .
n=1

Alors ,
E |m N E [Y1 ]|2 =

et
1 = lim sup
N

Var (Y1 ) , N

N (m N E [Y1 ]) Var (Y1 ) 2 ln ln N N (m N E [Y1 ]) Var (Y1 ) 2 ln ln N

= lim inf
N
1 Identiquement

p.s.

Indpendemment distribues, i.e. de mme loi et indpendantes

CHAPITRE 1. GNRALITS ET NOMBRES ALATOIRES

Preuve. La premire galit s'obtient en dveloppant le terme de gauche et en utilisant

le fait que les Yn E [Y1 ] sont indpendants et centrs. La seconde est connue sous le nom de Loi du Logarithme itr.

Remarque 1.1.3

Il est facile de vrier que, si Y1 L2 ,


2 N :=

1 N 1

(Yn m N )2
n=1

2 est un estimateur sans biais de Var (Y1 ). D'aprs le Thorme prcdent, N /N est donc un estimateur sans biais de Var (m N ).

Enn, le thorme de la limite centrale permet de contruire des intervalles de conance asymptotiques.

i.i.d. de carr intgrable. On suppose que Var (Y1 ) > 0 et on pose


1 m N := N
N

Thorme 1.1.4 (Thorme de la limite centrale) Soit (Yn )n1 une suite de v.a. relles
1 N 1
N

Yn
n=1

et N :=

(Yn m N )2 .
n=1

Alors,
N m N E [Y 1 ] N 1 N >0 N (0, 1)

en loi .

En particulier, pour tout rel c > 0,


P N m N E [Y 1 ] <c N 1 c

o c = P [|X | > c] pour X N (0, 1).


On en dduit que, pour N susamment grand, la probabilit d'avoir E [Y1 ] [m N c N / N ] est proche de 1 c .

Remarque 1.1.5

Une estimation seule ne veut rien dire. L'estimateur est une variable alatoire qui a sa propre variance. Deux estimations direntes peuvent conduire deux valeurs trs direntes. Il est donc important de connatre la variance de l'estimateur ou, et c'est encore mieux, de fournir un intervalle de conance. En particulier, lorsque l'on voudra donner un prix d'option calcul par simulation, il faudra toujours le mettre en perspective avec la variance de l'estimateur ou avec un intervalle de conance, de manire pouvoir juger de la prcision du rsultat obtenu.

1.2. LOI UNIFORME

1.2 Loi uniforme


En pratique un ordinateur ne sait engendrer que des suites de nombres dterministes : il est incapable de gnrer une suite "rellement" alatoire. Par contre, il est possible de constuire des suites de nombres qui se comportent (statistiquement) comme des suites alatoires. Les suites les plus courantes produites par les ordinateurs sont calcules partir d'un nombre ni d'entiers {0, . . . , M 1}. En divisant par M , on obtient ainsi une suite sur [0, 1[. Elles sont construites sur la base de rcurrences de la forme

un+1 = g (un ) n N
o g est une fonction de {0, . . . , M 1} dans lui-mme et u0 , appel graine, est initialiser dans {0, . . . , M 1}. On pose alors

xn =

un [0, 1[ M

nN.

L'exemple le plus simple est celui de la congruence mixte :

g (u) = (Au + C ) mod M


o A et C sont des rels positifs choisir (dans le cas C = 0, on parle de congruence multiplicative).

Remarque 1.2.1

1. Il est clair que de telles suites ne permettent pas de gnrer tout les rels entre 0 et 1. 2. Par construction, les suites ainsi contruites sont priodiques de priode au plus gale M . Il faut donc s'assurer que la priode est susamment longue par rapport l'utilisation que l'on compte en faire. On peut choisir A, C et M de manire avoir une priode maximale, voir [25]. 3. Il est ncessaire d'initialiser la graine u0 . Pour obtenir des "tirages" dirents, il faut bien videmment partir d'une graine dirente. On peut par exemple initialiser la graine en utilisant l'horloge de l'ordinateur. Ceci doit se faire en tout dbut de programme. 4. La plupart des gnrateurs pr-programms dans les languages de type C sont de ce type. Il faut toujours vrier que la priode est susemment grande par rapport l'utilisation que l'on veut en faire (RAND MAX en C). Nous ne rentrerons pas plus ici dans la description de ces gnrateurs (voir par exemple [25] pour plus de dtails). Vous pouvez trouver de bons gnrateurs sur internet, en consultant par exemple la version en ligne du livre Numerical Recipes2 .

Remarque 1.2.2
2 http

1. Si U U[0,1] alors (b a)U + a U[a,b] . On passe ainsi d'un gnrateur de U[0,1] un gnrateur de U[a,b] . 2. Si U1 ,. . ., Ud sont indpendantes de mme loi U[0,1] alors (U1 , . . . , Ud ) U[0,1]d .
: //www.library.cornell.edu/nr/nr index.cgi

10

CHAPITRE 1. GNRALITS ET NOMBRES ALATOIRES

Voici un exemple de programme utilisant le gnrateur rand() du C++. #include<iostream.h> / pour cout / #include <stdlib.h> / pour rand(),..../ #include <time.h> / pour time() / void main( ) { int i ; srand((unsigned)time( NULL )) ; /initialisation de la graine par l'horloge /

/ Ache 100 simulations d'une uniforme sur [0,1] / for( i = 0 ; i < 100 ;i ++ ) cout << (oat) rand()/(RAND MAX ) << "\n" ; / rand() renvoie un nombre entier entre 0 et RAND MAX / }

1.3 Autres lois


Cette section est consacre l'tude de direntes mthodes permettant de ramener la simulation d'une variable alatoire quelconque celle d'une variable alatoire uniformment distribue sur [0, 1]. On suppose ici que l'on sait parfaitement simuler une suite de v.a. uniformment distribues sur [0, 1]d (ou sur ]0, 1[d , voir Section 1.3.2).

1.3.1 Mthode d'inversion


La mthode d'inversion (de la fonction de rpartition) est base sur le rsultat lmentaire suivant :

rpartition FY . On pose

Proposition 1.3.1 Soit Y une variable alatoire relle valeurs dans R de fonction de
1 FY (u) := inf {y R : FY (y ) u} u [0, 1] .

1 Si U Udom(FY 1 alors FY (U ) et Y ont la mme loi. )

Preuve. Il sut de remarquer que


1 P FY (U ) y

= P [U FY (y )] = FY (y )

pour tout y R.

1.3. AUTRES LOIS

11

Remarque 1.3.2

Si Y a pour loi P[Y = yk ] = pk , k N, alors, si U U[0,1]

y0 1U p0 +
i1

yi 1{Pi1 pj <U Pn
j =0

j =0

pj }

a mme loi que Y . Pour simuler Y , on simule donc U U[0,1] et on utilise la boucle

p = p0 ; j = 0 ; Tant que( p < U ) faire { j = j + 1 ; p = p + pj ; } Y = yj ;


Evidemment cela peut tre trs coteux si la loi de Y est trs disperse.

Remarque 1.3.3

Certains gnrateurs de nombres pseudo-alatoire peuvent renvoyer la valeur 0. C'est par exemple le cas de la fonction ran() en C . Si on n'y prend pas garde, 1 on est alors amen calculer FY (0) ce qui peut poser un problme l'ordinateur et gnrer une erreur si cette quantit n'est pas dnie (comme dans l'exemple ci-dessous). On verra dans la sous-section suivante comment grer ce problme.

Exemple 1.3.4 (Variable support continu) Si Y suit une loi exponentielle E (), >
0, on a : FY (y ) = 1 ey .

Si U U]0,1[ , 1 ln(1 U ) et Y on donc la mme loi. Comme 1 U suit galement une loi U]0,1[ , 1 ln(U ) suit galement une E (). Pour simuler une loi E (), il sut donc de simuler une variable U U]0,1[ et de poser Y = 1 ln(U ). Pour simuler une suite (Yn )nN de variables indpendantes de loi E (), on simule une suite (Un )n1 de variables indpendantes de loi U]0,1[ et on pose Yn = 1 ln(Un ), n 1.

Exemple 1.3.5 (Variable support discret) Si Y suit une loi de Bernouilli de paramtre p, on tire U U[0,1] et on pose Y = 1U p . Si Y suit une loi Binomiale de paramtre (n, p), c'est la somme de n variables de Bernouilli indpendantes de paramtre p. On pose donc
n

=
k=0

1Uk p

o les Uk sont i.i.d. de loi U[0,1] .

1.3.2 Mthode du rejet


a- Lois conditionnelles et lois uniformes sur un domaine Proposition 1.3.6 Soit (Zn )n1 une suite de v.a. i.i.d. valeurs dans Rd et soit D Rd
tel que P [Z1 D] > 0. On pose
1 := inf {k 1 : Zk D} n+1 := inf {k > n : Zk D} Yn := Zn n1.

12

CHAPITRE 1. GNRALITS ET NOMBRES ALATOIRES

Alors, (Yn )n1 est une suite de v.a. i.i.d. de loi donne par
(A) = P [Z1 A | Z1 D] , A Rd .
On vrie facilement (voir preuve ci-dessous) que E [1 ] = E [n+1 n ] = 1/ o := P [Z1 D]. Donc, plus est petit et plus il y a de rejet, i.e. plus la simulation est coteuse.

Preuve. Les (Zn ) tant indpendants et de mme loi que Z1 , on a


P [1 = k ] = P [Z1 / D, . . . , Zk1 / D, Zk D] = (1 )k1
o := P [Z1 D]. On calcule alors

P [ Z 1 A] =
k 1

P [1 = k , Zk A D] (1 )k1 P [Zk A D]
k 1

= P [Z1 A D] /P [Z1 D] .
On suppose maintenant que
n1

P [Zi Ai , i = 1, . . . , n 1] =
i=1

P [Z1 Ai D] /P [Z1 D] .

Etant donn le rsultat prcdent, il sut de montrer que cette proprit implique que
n

P [Zi Ai , i = 1, . . . , n] =
i=1

P [Z1 Ai D] /P [Z1 D] .

Or,

P [Zi Ai , i = 1, . . . , n] =
j 1,kn1

P Z1 A1 , . . . , Zn1 An1 , n1 = k, n = k + j, Zk+j An P Z1 A1 , . . . , Zn1 An1 , n1 = k


kn1 j 1

(1 )j 1 P [Z1 An D]

= P Z1 A1 , . . . , Zn1 An1 P [Z1 An D] /P [Z1 D] .

Corollaire 1.3.7 Soit

(Zn )n1 une suite de variables alatoires indpendantes suivant d une loi uniforme sur = d i=1 [ai , bi ] R et D tel que P [Z1 D ] > 0. On pose 1 := inf {k 1 : Zk D} n+1 := inf {k > n : Zk D} Yn := Zn n1.

1.3. AUTRES LOIS

13

Alors, (Yn )n1 est une suite de variables alatoires indpendantes de mme loi uniforme sur D.

Preuve. D'aprs la proposition prcdente, (Yn )n1 est une suite de variables alatoires
indpendantes de mme loi donne par

(A) = P [Z1 A D] /P [Z1 D] =


Il en dcoule que Y1 a pour densit 1D /(
Rd

1 1 (z )dz Rd D

1A (z )1D (z )dz .
Rd

1D (z )dz ) sur Rd .

formments distribues sur D = {y Rd : 0 < y < 1}, il sut de simuler une suite de v.a indpendantes (Un )n1 U[1,1]d et de poser
1 := inf {k 1 : 0 < Uk < 1} n+1 := inf {k > n : 0 < Uk < 1} Yn := Un n1.

Exemple 1.3.8 Lorsque l'on veut simuler une suite (Yn )n1 de v.a. indpendantes uni-

b- Lois densit
La mthode de rejet est galement utilise lorsque l'on ne connat pas l'inverse de la fonction de rpartition de Y mais seulement sa densit fY . La proposition suivante est l'origine d'une premire mthode. Une seconde, plus simple mettre en oeuvre, sera prsente dans la section suivante, voir Proposition 1.3.18.

Proposition 1.3.9 Soit f une densit sur Rd , (Zn )n1 une suite de variables alatoires
indpendantes de densit g sur Rd , et soit (Un )n1 une suite de variables alatoires indpendantes suivant une loi uniforme sur [0, 1], indpendantes de la suite (Zn )n1 . On pose
1 := inf {k 1 : f (Zk ) > aUk g (Zk )} n+1 := inf {k > n : f (Zk ) > aUk g (Zk )} Yn := Zn n1,

o a est un rel x vriant f (z ) ag(z ) pour tout z Rd . Alors, la suite (Yn )n1 est une suite de variables alatoires indpendantes de mme densit f .

Preuve. Utiliser la Proposition 1.3.6. Remarque 1.3.10


D'aprs l'exercice prcdent, on a P [1 = k ] = (1 )k1 d'o E [1 ] = 1 = a. Etant clair que n+1 n a la mme loi que 1 pour n 1, on en dduit que E [n+1 n ] = a. Ceci montre que plus a est grand et plus le temps de simulation est grand (en moyenne). Il faut donc choisir a le plus petit possible.

14

CHAPITRE 1. GNRALITS ET NOMBRES ALATOIRES

Exemple 1.3.11 Soit la densit dnie par


f (y ) = 2 1 y 2 1[1,1] (y ) .

On peut alors prendre g dnie par


g (z ) = 1 1[1,1] (z ) 2

(loi uniforme sur [1, 1]) et a = 4/.

1.3.3 Mthode par transformation


Cette mthode consiste crire une v.a. Y comme une fonction g d'une autre v.a. X facilement simulable. Elle repose sur la formule de changement de variables suivante :

Lemme 1.3.12 (Formule de changement de variables) Soit un diomorphisme d'un


ouvert D Rd sur un ouvert Rd , et soit g une fonction borlienne borne de dans R, alors
g (v )dv =
D

g ((u)) |det(()(u))| du .

Preuve. Voir par exemple [53].


Comme Corollaire immdiat on obtient

D p.s. o D est un ouvert de Rd . Soit un diomorphisme de D sur un ouvert . Alors Y := (X ) a pour densit f ( 1 ()) det(( 1 )()) 1 () .

Corollaire 1.3.13 Soit X un vecteur alatoire de densit f sur Rd . On suppose que X

Preuve. Soit h une fonction borlienne borne de Rd dans R. On calcule


E [h(Y )] = E [h( (X ))] =
D

h( (x))f (x)dx .

En applicant le Lemme 1.3.12 := 1 et g := h , on obtient :

E [h(Y )] =

h( ( 1 (y )))f ( 1 (y )) det(( 1 )(y )) dy h(y )f ( 1 (y )) det(( 1 )(y )) dy .

La fonction h tant quelconque, ceci conclut la preuve.

1.3. AUTRES LOIS

15

a. Cas Gaussien
En utilisant cette formule et le fait que ( 1 )() = {( )( 1 ())}1 , on obtient directement le rsultat suivant sur lequel repose les deux principales mthodes de simulation de la loi normale : la mthodes de Box-Mller et l'algorithme polaire.

Proposition 1.3.14 (Box-Mller) Soit (U, V ) U]0,1[ et


2

X :=

2 ln(U ) cos(2V ) , Y :=

2 ln(U ) sin(2V ) .

Alors (X, Y ) N (0, I2 ).


Cette formule permet donc de simuler deux v.a. gaussiennes centres rduites indpendantes partir de deux v.a. indpendantes uniformment distribues sur ]0, 1[. Encore une fois, il faut faire attention aux valeurs retournes par le gnrateur de U]0,1[ utilis. En gnral, les gnrateurs pr-programms en C renvoient des valeurs dans [0, 1[ et non ]0, 1[. Il faut donc contrler qu'il ne renvoit pas 0 (sinon ln(0) provoque un bug). Ceci revient utiliser la mthode du rejet, Exemple 1.3.8. L'algorithme polaire est construit sur le mme principe mais vite de faire appel aux fonctions trigonomtriques qui peuvent tre coteuses en temps de calcul. Il ncessite par contre de mettre en oeuvre la mthode du rejet pour simuler une v.a. uniformment distribue sur D = {(u, v ) R2 : 0 < u2 + v 2 < 1}, voir Exemple 1.3.8.

Remarque 1.3.15

Proposition 1.3.16 (Algorithme polaire) Soit (U, V ) uniformment distribue sur {(u, v)
R2 : 0 < u2 + v 2 < 1}, soit R2 := U 2 + V 2 et X := U 2 ln(R2 )/R2 , Y := V 2 ln(R2 )/R2 .

Alors (X, Y ) N (0, I2 ).


On vrie tout d'abord facilement que (R2 , /2 ) U]0,1[2 si (R, ) sont les coordonnes polaires de U + iV (utiliser le Corollaire 1.3.13). D'aprs la Proposition 1.3.14, le couple

Preuve.

2 ln(R2 ) cos(),

2 ln(R2 ) sin()

suit une gaussienne N (0, I2 ). Or, (cos(), sin()) = (U/R, V /R) par construction. Il est facile partir de ces deux mthodes de simuler une suite de vecteurs gaussiens indpendants de mme loi N (0, Id ) puisque Y = (Y 1 , . . . , Y d ) N (0, Id ) si et seulement si (Y i )d i=1 est une suite de variables alatoires indpendantes de mme loi N (0, 1). Etant donn une matrice dnie positive Md et un vecteur de Rd , on simule galement facilement un vecteur de loi N (, ) en utilisant la procdure de factorisation de Cholesky.

16

CHAPITRE 1. GNRALITS ET NOMBRES ALATOIRES


un vecteur de Rd et une matrice carre d d dnie

Proposition 1.3.17 Soit

positive. (1) Il existe A Md telle que AA = . (2) Si Y N (0, Id ), alors X = + AY N (, ).

Pour simuler un vecteur gaussien de loi N (, ) on procde donc ainsi. On commence par calculer la matrice A en utilisant l'algorithme de dcomposition de Cholesky (voir par exemple [18]). On simule ensuite un vecteur Y N (0, Id ) en utilisant la formule de Box-Mller ou l'algorithme polaire, puis, on calcule + AY .

b. Loi de Poisson
Si (Tk )k1 est une suite i.i.d. de loi exponentielle E (), > 0, alors

:=
n=1

n1{Pn

k=1

Tk 1

Pn+1
k=1

Tk }

suit une loi de Poisson P (), i.e.

P [Y = k ] =

k e , k0. k!

On dduit de l'Exemple 1.3.4 que, si (Uk )k1 est une suite i.i.d de loi U[0,1] , alors

Y
admet comme loi P ().

:=
n=1

n1{Qn+1 Uk e1/ Qn
k=1

k=1

Uk }

c. Autres lois densit : mthode du ratio de lois uniformes


On peut galement utiliser cette approche pour crire un algorithme proche de celui considr dans la Section 1.3.2 pour les lois densit mais plus simple mettre en oeuvre dans la mesure o il ne ncessite pas de trouver une densit g et un rel a telle que f ag , voir Proposition 1.3.9.

suppose que l'ensemble

Proposition 1.3.18 Soit


Df :=

f une densit sur R et deux rels a1 R et a2 > 0. On v u

(u, v ) R2 : 0 < u2 f a1 + a2

est born. Alors, si (U, V ) est uniformment distribue sur Df , Z := a1 + a2 V /U a pour densit f .

1.3. AUTRES LOIS

17
f

Preuve. (U, V ) ayant pour densit 1D

/|Df |, on dduit du Corollaire 1.3.13 que (U 2 , Z ) a pour densit fU 2 ,Z (w, z ) = 10<wf (z) /(2a2 |Df |). La densit de Z est donc f /(2a2 |Df |). Comme f est dj une densit, on a forcment 2a2 |Df | = 1.
On peux utiliser la mthode du rejet pour simuler le couple (U, V ) uniformment distribu sur D, en partant d'une suite i.i.d. de couples uniformment distribus sur [0, u ] [v , v ] D o u = sup f (x)1/2 , v = inf [(x a1 )f (x)1/2 /a2 ], v = sup[(x

a1 )f (x) /a2 ]. On peut remarquer que si x f (x) et f (x) sont borns alors u , v et v sont bien nis et donc Df est born.
1 /2 2

x R

x R

x R

1.3.4 Variables corrles et techniques par conditionnement


Variables corrles
Si (X, Y ) sont corrles, on peut rcrire leur densit f sous la forme

f (x, y ) = fX (x)f (y | X = x)
o fX est la loi de X et f ( | X = x) est la loi de Y sachant X = x. Pour simuler (X, Y ), on commence donc par simuler X selon fX puis on simule Y (indpendemment) selon la loi f ( | X = x ) o x est la valeur prise par la simulation de X . Lorsque X et Y sont indpendantes, on a simplement f ( | X = x ) = fY et cela revient a simuler X et Y indpendemment, chacun selon sa loi marginale.

Techniques par conditionnement 1er cas.


On suppose que la loi de Y s'crit

fY (y ) =
i0

pi fi (y ) ,

o les fi sont des densits et les pi sont positifs (et donc ont une somme gale 1 car fY est aussi une densit). On peut voir fY (y ) comme la densit marginale du couple (X, Y ) o X a pour loi P[X = i] = pi et Y a pour loi fi conditionnellement {X = i}. On peut donc procder comme ci-dessus. Cela n'a videmment d'intrt que si l'on sait simuler les fi . Par exemple, si Y a pour densit

fY (y ) = f (y ) + (1 )f (y )
o ]0, 1[ et f (resp. f ) est la densit de la loi N (0, 2 ) (resp. N (0, 2 )), on commence par tirer une loi uniforme U sur [0, 1]. Si U , on tire ensuite Y selon la loi N (0, 2 ). Si U > , on tire Y selon la loi N (0, 2 ). Ceci revient poser p1 = , p0

18

CHAPITRE 1. GNRALITS ET NOMBRES ALATOIRES

= (1 ), f1 = f et f0 = f . X suit alors une loi de Bernouilli de paramtre , i.e. P[X = 1] = . On parle de mlange de gaussiennes.

2me cas.

On peut crire la loi de Y sous la forme

fY (y ) =

g (y, x)dx ,

o g est une fonction positive. L encore, g est la densit d'un couple (X, Y ) o Y a pour loi marginale fY . On peut donc commencer par simuler X selon sa loi marginale fX (x) = g (y, x)dy puis on simule Y selon g (y, x )/fX ( x) o x est la valeur prise par la simulation de X .

1.4 Notion de discrpance


1.4.1 Gnralits
Si (Un )n1 est une suite de variables alatoires indpendantes de loi uniforme sur [0, 1], U[0,1] , on a alors d'aprs la loi des grands nombres

1 lim N N
pour tout rectangles

N 1

1D ((Ukn , Ukn+1 , . . . , Ukn+k1 )) =


n=0 j =1

(bj aj )

D := ]a1 , b1 ]]a2 , b2 ] ]ak , bk ] , 0 aj < bj 1 j = 1, . . . , k


de [0, 1]k . Il est donc naturel de chercher gnrer des suites de nombres qui ont le mme comportement. Ceci conduit dnir la notion de suite (relle) uniforme.

Dnition 1.4.1 Une suite (un )n1 dans [0, 1]d est dite uniforme sur [0, 1]d si pour tout
x [0, 1]d on a 1 lim N N
N d
i 1ui = n x

xi .
i=1

n=1 i=1

Il est important de ne pas confondre suite de v.a. uniformment distribues sur [0, 1]d et suite uniforme sur [0, 1]d . Une suite uniforme sur [0, 1]d n'est pas forcment une suite de v.a. uniformment distribues sur [0, 1]d . Par contre, il est clair, d'aprs la loi des grands nombres, qu'une suite de v.a. uniformment distribues sur [0, 1]d est presque surement uniforme. Etant donne une suite u = (un )n1 uniforme sur [0, 1]d , on dnit les discrpances
Dp (u, N ) := u F (x) FN (x) Lp (Rd ,dx)

p N {+} ,

1.4. NOTION DE DISCRPANCE


o pour x Rd on a pos
d

19

F (x) :=
i=1

et

u FN (x)

1 = N

1yi xi .
n=1 i=1

u A x Rd x, le terme F (x) FN (x) correspond la dirence entre le volume d i thorique du rectangle i=1 [0, x ] et le volume "empiriquement" estim par la suite u. Si u est uniforme sur [0, 1]d , alors cette dirence doit tendre vers 0. La discrpance Dp (u, N ) mesure en quelque sorte la bonne rpartition des points de la suite u dans l'espace [0, 1]d .

(i) u est uniforme sur [0, 1]d (ii) lim Dp (u, N ) = 0 pour tout p N {+} N N 1 4 (iii) La mesure3 u N := N n=1 un converge troitement vers la mesure de Lebesgue sur [0, 1]d .

Thorme 1.4.2 Il y a equivalence entre

Preuve. Voir par exemple [14]


L'intrt de la notion de discrpance rside dans l'ingalit de Koksma-Hlawka. Avant d'noncer ce rsultat, on a besoin d'introduire la notion de fonction variation nie. On note 1d le vecteur de Rd dont toutes les composantes valent 1.

Dnition 1.4.3 On dit que f

: [0, 1]d R est variation nie si il existe une mesure (signe) sur [0, 1]d (muni de la tribu borlienne associe) telle que ({1d }) = 0 et
d d

f (x) = f (1)
i=1

[x , 1]

= f (0)

[0, 1]
i=1

[xi , 1]

On note alors V (f ) = | | [0, 1]d la variation totale de f .


Pour I {1, . . . , d} et x Rd , on note xI le vecteur de i-me composante xi si i I , 1 sinon. Si f : [0, 1]d R vrie5

Remarque 1.4.4

[0,1]|I |

f dxI < xi1 . . . xi|I |

pour tout I = {i1 , . . . , i|I | } {1, . . . , d}, alors f est variation nie.
denote la mesure de Dirac en x N 1 signie que [0,1]d f du N = N n=1 f (un ) tend vers borne. 5 les drives tant prises au sens des distributions.
4 Ceci
x

[0,1]d

f dd pour toute fonction f continue

20

CHAPITRE 1. GNRALITS ET NOMBRES ALATOIRES


: [0, 1]d R variation nie.

Thorme 1.4.5 (Ingalit de Koksma-Hlawka) Soit f


Pour toute suite u = (un )n1 dans [0, 1]d on a
1 f (x)dx N [0,1]d
N

f (un )
n=1

V (f )D (u, N ) .

Pour calculer E [f (U )], U U[0,1]d , on peut donc utiliser une suite (un )n1 uniforme N 1 sur [0, 1]d et calculer N n=1 f (un ). Plus la discrpance de la suite sera faible et meilleur sera l'approximation de E [f (U )]. C'est une alternative aux mthodes de Monte-Carlo prsentes ci-dessus. Lorsque la suite (un )n1 est purement dterministe, comme c'est le cas pour les suites discrpance faible prsentes ci-dessous, on parle de Quasi-nombres alatoires.

1.4.2 Cas des suites uniformment distribues


Si (Un )n1 est une suite de v.a. i.i.d. uniformment distribues sur [0, 1]d , elle est p.s. uniforme sur [0, 1]d . On peut donc calculer sa discrpance Dp (U, N ) qui est alors une quantit alatoire. D'aprs la loi du logarithme itr, voir Theorem 1.1.2, on peut dj calculer que

lim sup
N

N D (U, N ) 2 ln ln N = =

sup lim sup


x[0,1]d N

N F U (x) F (x) 2 ln ln N N

sup
x[0,1]d

F (x)(1 F (x))

1 . 2

On a en fait

[0, 1] , alors
d

Thorme 1.4.6 Si

(Un )n1 est une suite de v.a. i.i.d. uniformment distribues sur 1 N (U, N ) = D . 2 ln ln N 2

lim sup
N

Par ailleurs,
cd E [D (U, N )] = , N

o cd lorsque d .
Ce rsultat montre en particulier que
D (U, N ) O

ln ln N N

p.s.

1.4. NOTION DE DISCRPANCE

21

1.4.3 Suites discrpance faible


On peut contruire des suites dans [0, 1]d dont la discrpance est plus faible que celle obtenue pour les suites de v.a. uniformment distribues sur [0, 1]d . Il existe une vaste litrature sur ce sujet et nous n'allons prsent ici que les plus simples mettre en oeuvre. Il faut bien garder en mmoire que si ces suites ont une discrpances plus faible asymtotiquement lorsque N tend vers l'inni, celle-ci dpend gnralement de la dimension de manire non-triviale et peut devenir trs grande, N x, lorsque la dimension augmente. En grande dimension, il est gnralement prfrable d'utiliser des suites i.i.d. uniformment distribues sur [0, 1]d pour lesquelles le comportement asymptotique (p.s.) ne dpend pas de la dimension (voir Thorme 1.4.6). On pourra consulter [61] pour une tude comparative de direntes suites et pour plus de rfrence. Voir galement [14].

a- Suite de Halton
Etant donn un nombre premier p 2 et un entier n, il existe une unique dcomposition (dcomposition p-adique) de n sous la forme :
n,p n,p kn,p n = an,p 0 + a1 p + . . . + akn,p p n,p n,p o kn,p est un entier et les an,p k sont des entiers vriant 0 ak p 1 avec akn,p = 0. Cette dcomposition s'obtient facilement en utilisant la rcurrence n,p r0 = n n,p n,p n,p n,p an,p = rk mod p , rk = (rk k 1 ak1 )/p 1 k kn,p n,p avec kn,p = min{k 1 : rk +1 = 0} .

On note ensuite

an,p an,p kn,p 0 + . . . + kn,p . p (n) := p p +1


On construit la suite de Halton u = (un )n1 de la manire suivante. Soit p1 , . . . , pd les d premiers nombres premiers. Pour chaque n 1 et 1 i d, on pose :

ui n = pi (n) .
Pour cette suite, on a :
D (u, N )

ln(N )d N

voir par exemple [61]. C'est videmment mieux que ce que l'on obtient avec une suite de v.a. uniformment distribues sur [0, 1]d mais la majoration dpend de la dimension, ce qui n'est pas le cas pour les suites de v.a. uniformment distribues sur [0, 1]d (sauf en moyenne). En pratique, c'est beaucoup moins ecace en grande dimension. Pour d = 1, on parle de suite de Van der Corput.

22

CHAPITRE 1. GNRALITS ET NOMBRES ALATOIRES

b- Suite SQRT
Pour tout rel x, on pose Ent[x] sa partie entire. Soit p1 , . . . , pd les d premiers nombres entiers. Pour tout n 1 et 1 i d, on pose ui n = n pi Ent[n pi ]. On a alors
(u, N ) = O D

1 N 1

pour tout > 0 .

c- Suite de Faure
Soit p,d le plus petit nombre premier impair plus grand que d. On dnit l'application Q qui a un rationel x de la forme

x =
i0

xi +1 pi ,d

associe

Q(x) =
i0

j j i (i )xj mod +1 pi ,d

p,d

et on note Qk l'application obtenue en composant k fois Q avec la convention que Q0 est l'identit. On dnit alors la suite par

ui n = Qi1 (n 1)
On a
D (u, N )

1 n et 1 i d.

1 N

1 d!

p,d 1 2

ln(2N ) +d+1 ln(p,d )

(voir [69]).

Chapitre 2 Mthodes de discrtisation


La base des mthodes de Monte-Carlo en nance est la capacit simuler l'volution des processus de prix. On commence donc par s'intresser aux mthodes de simulation d'une diusion de la forme :

dXt = b(Xt )dt + a(Xt )dWt , X0 = x Rd .

(2.0.1)

Ici, X modlise l'volution de d sous-jacents sur le march (actions par exemples) et W est un mouvement brownien standard d-dimensionnel sur un espace de probabilit ltr complet (, F, P). On suppose que F = {Ft , t [0, T ]} est la ltration naturelle complte de W . En gnral, on supposera que a et b sont lipschitziennes, i.e. qu'il existe K > 0 tel que

a(x) a(y ) + b(x) b(y )

K xy

pour tout x, y Rd . (2.0.2)

Cette hypothse garantit l'existence d'une solution forte (2.0.1).

2.1 Modle de Black-Scholes


Dans le modle de Black-Scholes, la dynamique du prix sous la probabilit risque neutre s'crit

dXt = rXt dt + diag [Xt ] dWt , X0 Rd ,

(2.1.1)

o r R+ est le taux sans risque et Md est la matrice de volatilit (suppose inversible pour assurer la compltude du march). Ce systme se r-crit sous la forme :
i R , i = 1, . . . , d , dXti = rXti + Xti i. dWt , X0

(2.1.2)

dont la solution est


i Xti = X0 exp

1 i. 2

t + i. Wt

, i = 1, . . . , d .

(2.1.3)

Pour simuler Xt , il sut donc de simuler la valeur de W en t. Les Wti , i = 1, . . . , d, tant indpendants et de mme loi N (0, t), il sut donc de simuler d variables alatoires indpendantes de loi N (0, t). 23

24

CHAPITRE 2. MTHODES DE DISCRTISATION

2.2 Schma de discrtisation


2.2.1 Discrtisation d'Euler
2.2.1.1 Construction
La simulation du processus X dans le modle de Black-Scholes est "exacte" dans la mesure o, t donn, on peut simuler exactement dans la loi de Xt . Cela est possible grce la forme particulirement simple de (2.1.2). En gnral, la solution de (2.0.1) n'a pas une forme aussi simple et l'on est oblig de recourir une approximation de X qui correspond une discrtisation en temps de l'quation (2.0.1). On se donne une grille de [0, T ]

n := (t0 , . . . , ti , . . . , tn )

avec

ti = iT /n .

On notera n t = T /n et n Wi+1 = Wti+1 Wti . L'ide de la discrtisation d'Euler est trs simple. Pour tout i = 1, . . . , n, on a :
ti ti

Xti = Xti1 +
ti1

b(Xs )ds +
ti1

a(Xs )dWs

Xti1 + b(Xti1 )n t + a(Xti1 )n Wi


ce qui conduit la construction du schma

n = X0 X 0 n = X n + b(X n )n t + a(X n )n Wi , i = 1, . . . , n . X ti ti1 ti1 ti1

(2.2.1) (2.2.2)

C'est l'quivalent stochastique du schma d'Euler utilis pour les quations direntielles ordinaires. n se ramne la simulation des accroissements de W , o n Wi La simulation de X N (0, n tId ) pour tout i = 1, . . . , n. On introduit maintenant un schma d'Euler "continu". Pour cela on dnit la fonction

n t := max {ti , i = 0, . . . , n, tel que ti t} sur [0, T ] ,


et, t [0, T ], on associe

nn )(t n ) + a(X nn ) Wt Wn , n = X nn + b(X X t t t t t t


ce que l'on peut rcrire sous forme intgrale
t t

(2.2.3)

n = X0 + X t
0

nn )ds + b(X s

nn )dWs . a(X s

(2.2.4)

2.2. SCHMA DE DISCRTISATION

25

2.2.1.2 Convergence Lp
n Lp pour A n x, une simple rcurrence montre que, sous l'hypothse (2.0.2), X ti tout i {1, . . . , n} et p 1. On vrie maintenant que ceci est vrai uniformment en n.

Lemme 2.2.1 Sous l'hypothse (2.0.2), pour tout p 1


1/p

sup E
n1

sup
t[0,T ]

tn X

< .

Preuve.

On peut toujours supposer que p est pair et plus grand que 4 en utilisant l'ingalit des normes Lp L2p . On commence par utiliser l'ingalit de Jensen applique l'application convexe x x p pour crire que, pour tout t [0, T ],
n s sup X s t p

1 = 3 sup st 3
p

s n b(X n )dr + r s 0 p n a(X n )dWr ) r s

X0 +
0 p

3p1

X0

+ sup
st 0

nn )dr b(X r

+ sup
s t 0

nn )dWr a(X r

En utilisant de nouveau l'ingalit de Jensen applique l'application convexe x x p , on obtient


s 0 n b(X n )dr r p s

= s

p 0

1 n b(Xn )dr r s

p1 0

nn ) b(X r

dr .

En utilisant ensuite (2.0.2), on dduit que


s 0 n b(X n )dr r p s

p1 0

n b(X0 ) + K X + K X0 n r s n X n r p

dr

C 1+
0

dr

nn )dWr )tT n Lp pour tout i, on vrie en utilisant (2.0.2) que ( t a(X Comme, n x, X ti r 0 est une martingale continue de carr intgrable. En utilisant l'ingalit de BurkholderDavis-Gundy (Lemme 2.2.2 ci-aprs), l'ingalit de Jensen et (2.0.2), on obtient alors que
s p n a(X n )dWr r t p/2 n a(X n) s t 2

E sup
s t 0

E
0

ds
2 p/2

E tp/21
0 t

n a(X n) s

ds

C 1+
0

nn X s

ds

On dduit des ingalits prcdentes que


n s E sup X s t p t

C 1+
0

n X n s

ds

C 1+
0

n r E sup X r s

ds

26

CHAPITRE 2. MTHODES DE DISCRTISATION

Il sut maintenant d'appliquer le Lemme de Gronwall (Lemme 2.2.3 ci-aprs) s n p pour conclure. E suprs X r On donne maintenant les deux Lemmes techniques que nous avons utiliss (voir par exemple [40]).

(Mt )t[u,v] une martingale continue sur [u, v ] de carr intgrable. Alors, pour tout m > 0, il existe km et Km > 0, ne dpendant que de m, tels que km E [( M v )m ] E sup Mt
utv 2m

Lemme 2.2.2 (Ingalits de Burkholder-Davis-Gundy) Soit

Km E [( M v )m ] .

Lemme 2.2.3 (Lemme de Gronwall) Soit g une fonction continue positive vriant
t

g (t) (t) +
0

g (s)ds t [0, T ],

avec 0 et : [0, T ] R intgrable. Alors,


t

g (t) (t) +
0

(s)e (ts) ds t [0, T ].

n entre deux dates de On tudie maintenant le comportement des incrments de X discrtisation.

Lemme 2.2.4 Sous (2.0.2), pour tout p 1


1/p 0in1

max E

sup
t[ti ,ti+1 )

n tn X X n t

C/ n .

Preuve.

On pose p 4 et pair sans perte de gnralit. En argumentant comme dans le lemme prcdent, on montre que, pour tout i {0, . . . , n 1},

sup
t[ti ,ti+1 )

n tn X X n t

C E np/2+1

ti+1 ti

n b(X n) s

n + a(X n) s

ds

Ceci implique, d'aprs (2.0.2) et le Lemme 2.2.1 que

sup
t[ti ,ti+1 )

n tn X X n t

C np/2+1 Cnp/2 ,

ti+1

C 1+E
ti

n X n s

ds

ce qui conclut la preuve.

2.2. SCHMA DE DISCRTISATION

27

Remarque 2.2.5

Les mmes arguments que ceux de la preuve prcdente montrent que, sous (2.0.2), pour tout p 1
1/p 0in1

max E

sup
t[ti ,ti+1 )

Xt Xn t

C/ n .

On peut maintenant tudier la vitesse de convergence Lp du schma d'Euler.

Thorme 2.2.6 Sous l'hypothse (2.0.2), pour tout p 1


1/p

sup
t[0,T ]

n X t

Xt

C/ n .

Preuve.

On pose p 4 et pair sans perte de gnralit. En argumentant comme dans le lemme prcdent, on montre que

s[0,t]

n s sup X Xs

CE
0

n X n Xs s

ds .

On utilise maintenant le Lemme 2.2.4

s[0,t]

n Xs sup X s

CE
0

n Xs X s
t

nn X n + X s s
p

ds

C np/2 +
0

n Xr E sup X r
r s

ds

et on conclut en utilisant le Lemme de Gronwall.

Remarque 2.2.7

On considre un payo qui dpend de la trajectoire de X en un nombre ni de dates (s1 , . . . , sk ), k 1. Si g est lipschitzienne, on obtient comme corollaire du Thorme 2.2.6 p 1/p n n g (Xs1 , . . . , Xs ) E g X C/ n . n , . . . , Xn k s s
1 k

proximer correctement une moyenne discrte


A( s i ) k i=1 1 := k
k

Exemple 2.2.8 La remarque prcdente montre que le schma d'Euler permet d'apXsi
i=1

par

n k A (si )

i=1

1 := k

nn . X s
i

i=1

pour valuer les options sur moyenne du type [A(si )k K ]+ (call sur moyenne de strike i=1 K ), [XT A(si )k ]+ (call avec strike ottant), et les puts correspondants. Le Thorme i=1 2.2.6 nous assure une convergence Lp en 1/ n. De la mme manire, on peut approximer correctement le maximum discret
M ( si )k := max {Xsi , i {1, . . . , k }} i=1
n n k := max X par M . n , i {1, . . . , k } (si )i=1 si

28

CHAPITRE 2. MTHODES DE DISCRTISATION

2.2.1.3 Convergence faible


En pratique, ce qui intresse surtout les praticiens c'est la convergence du prix "discr n ) Eg (XT ) vers 0. C'est la convergence tis" vers le vrai prix, i.e. la convergence de Eg (X T faible.
4 Thorme 2.2.9 Si b, a Cb4 et g Cp , alors

n ) g (XT ) E g (X T

C/n .

Ce rsultat est du [66]. On va le dmontrer dans un cadre simpli. Pour cela, on va partiellement utiliser le Thorme de Feynman-Kac que l'on commence par rappeler, voir [40] et [46].

1,2 lution u Cp l'quation parabolique

Thorme 2.2.10 (i) Supposons que b et a sont lipschitziennes et qu'il existe une sou 0 = + t
2 1 u ij u b + , (aa ) xj 2 i,j =1 xi xj j =1 j d d

sur [0, T ] Rd
(2.2.5)

g = u(T, )

sur Rd ,

alors
u(t, x) = E [g (XT ) | Xt = x] et g (XT ) = E [g (XT )] +
0 4 4 (ii) Si a Cb4 , b Cb2 et g Cp , alors la rciproque est vraie et u Cp . T

x u(t, Xt )a(Xt )dWt .(2.2.6)

Pour simplier, on suppose que b et a sont bornes, que d = 1 et que la solution u de (2.2.5) est Cb . On a alors par It sur le schma d'Euler continu
n T E g (X ) g (XT ) n T = E u(T, X ) u(0, X0 ) T

Elments de preuve du Thorme 2.2.9.

= E
0

n ) + b(X nn )ux (s, X n ) + 1 a2 (X nn )uxx (s, X n )ds . ut (s, X s s s s s 2

Puisque u est solution de (2.2.5), on a galement


T

n ) g (XT ) E g (X T

= E
0

nn ) ux (s, X n ) ux (s, X nn ) ds n ) ut (s, X nn ) + b(X ut (s, X s s s s s


T

+E
0

1 2 n nn ) ds . n ) uxx (s, X a (Xn ) uxx (s, X s s s 2

2.2. SCHMA DE DISCRTISATION

29

, a et b sont bornes et On considre maintenant le premier terme. Comme u Cb n E Xt est uniformment born en t [0, T ] et n (Lemme 2.2.1), on obtient, en utilisant le Lemme d'It, que pour tout s [0, T ]

n ) ut (s, X nn ) E ut (s, X s s

nn )utx (s, X n ) + 1 a2 (X nn )utxx (s, X n )dr b(X r r r r 2 n s

C/n .
On obtient le mme type de majoration pour les autres termes, ce qui implique que

n ) g (XT ) E g (X T
et conclut la preuve.

C/n ,

On obtient donc une vitesse de convergence faible en 1/n. Evidemment, l'hypothse 4 n'est pas trs satisfaisante car gnralement non vrie en nance. Le rsultat g Cp prcdent peut tre amlior de la manire suivante.

Thorme 2.2.11 Si b, a Cb et si l'une des deux conditions suivantes est vrie :


(i) g Cp , (ii) g est croissance

polynomiale et il existe > 0 tel que,


, x Rd , (aa )(x) ,
(2.2.7)

alors
n T Eg (X ) Eg (XT ) =

Ck C1 + . . . + k + O(nk1 ) , k N . n n

Ce rsultat est trs important en pratique car il permet de ramener la vitesse de convergence en 1/n2 . En eet, d'aprs le thorme prcdent, on a

Remarque 2.2.12

2n ) g (X n ) Eg (XT ) = 2C1 C1 + 2C2 C2 + O(1/n3 ) = O(1/n2 ) . E 2g (X T T 2n n 4n2 n2


En utilisant 3n pas, on obtient une erreur en O(1/n2 ). Cette technique est connue sous le nom d'extrapolation de Romberg. On peut remarquer que l'hypothse (ii) du thorme est souvent satisfaite en nance. Dans le modle de Black-Scholes, on pourra par exemple considrer le ln de la diusion pour se ramener au cas o a(x) est constante et satisfait l'hypothse d'uniforme ellipticit (2.2.7). Il faut cependant faire attention l'accroissement possible de la variance de l'estimateur associ une mthode de Romberg. L'article [60] traite se problme et propose des algorithmes ecaces vitant une explosion de la variance.

30

CHAPITRE 2. MTHODES DE DISCRTISATION

2.2.2 Schma de Milshtein


Dans la prsentation du schma d'Euler, on a utilis l'approximation
ti

a(Xs )dWs a(Xti1 ) Wti Wti1


ti1

mais on aurait p utiliser une approximation d'ordre suprieur. Pour xer les ides, on se place en dimension 1 et on suppose que b = 0. Alors, pour s (ti1 , ti ]
s

a (Xs ) = a Xti1 +
ti1

a(Xt )dWt

a Xti1 + a(Xti1 ) Ws Wti1 a Xti1 + a Xti1 a(Xti1 ) Ws Wti1 .


On utilise maintenant l'galit
ti

Ws Wti1 dWs =
ti1

1 2

Wti Wti1

n t

ce qui conduit l'approximation

1 a(Xs )dWs a(Xti1 ) Wti Wti1 + a Xti1 a(Xti1 ) 2 ti1

ti

Wti Wti1

n t

Le terme de drive b ayant une contribution infrieure dans l'erreur d'approximation par rapport au terme de diusion, il n'est pas ncessaire de le corriger. Pour d = 1, on obtient donc le schma d'approximation suivant :
n 0 X = X0 n = X n + b(X n )n t + a(X n ) Wt Wt X ti ti1 ti1 ti1 i i1 1 2 n Wti Wti1 n t + a X ti1 a(Xti1 ) 2

(2.2.8)

, i = 1, . . . , n .

Exemple 2.2.13 Dans le modle de Black-Scholes en dimension 1, la solution de (2.1.1)


est approche par
n 0 = X0 X

n = X n X ti ti1

1 1 + r 2 /2 n t + Wti Wti1 + 2 Wti Wti1 2

En dimension d quelconque, le mme raisonnement conduit consider l'approximation suivante :

n = X0 X 0 n + b(X n )n t + a(X n ) Wt Wt n = X X ti1 ti ti1 ti1 i i1


d

(2.2.9)

+
j,l=1

n ) (a.j a.l )(X ti1

ti ti1

(Wsj Wtji1 )dWsl , i = 1, . . . , n .

2.3. OPTIONS ASIATIQUES

31

Le thorme suivant justie l'introduction de ce schma dans le sens o il permet d'obtenir une vitesse de convergence Lp en 1/n au lieu de 1/ n pour le schma d'Euler.

Thorme 2.2.14 Si b, a Cb2 , alors pour tout p 1


0in

max E

n Xt X ti i

p 1/p

C/n .

La mise en oeuvre numrique du schma (2.2.9) suppose de savoir simuler correctement t l'intgrale d'It tii1 (Wsj Wtji1 )dWsl ce qui est trs dicile en pratique pour d = 1. En gnral, on n'utilise ce schma pour d 2 que lorsque l'hyposse de commutativit

a.j a.l = a.l a.j j, l {1, . . . , d}

(2.2.10)

est vrie. Dans ce cas, la formule d'intgration par parties du calcul d'It permet de r-crire (2.2.9) sous la forme :

n = X0 X 0 1 tn = X tn + b(X n )n t + a(X n ) Wt Wt X t t i i 1 i i1 i1 i1 2
d d

tn )n t (a.j a.j )(X i1


j =1

1 n )(Wtj Wtj )(W l W l ) , i = 1, . . . , n . (a.j a.l )(X ti1 ti ti1 i i1 2 j,l=1

Il sut alors de simuler les accroissements de W . On peut dnir des schmas d'ordre suprieur, voir par exemple [43] et [44]. Mais en gnral, ils sont trs diciles mettre en oeuvre numriquement surtout en dimension d > 1. On peut se rfrer [19] pour une discussion sur le sujet. Voir galement [24] pour un expos complet sur le schma d'Euler et le schma de Milshtein.

Remarque 2.2.15

2.3 Options Asiatiques


On s'intresse ici aux options sur moyenne g (AT , XT ) avec AT :=
T 0

Xs ds .

2.3.1 Schmas simples


Une premire solution pour approcher AT consiste introduire le schma d'Euler de
t

At :=
0

Xs ds

dont la dynamique est donne par

A0 = 0 , dAt = Xt dt .

32

CHAPITRE 2. MTHODES DE DISCRTISATION

n dni par l'quation de rcurrence stochastique On approche donc AT par A T n A 0 = X0 n n t = A n n A ti1 + Xti1 t , i {1, . . . , n}. i
Cela revient utiliser l'approximation
T 0

1 Xs ds n

n1

tn . X i
i=0

On dduit du Thorme 2.2.6 la vitesse de convergence Lp de ce schma.

Corollaire 2.3.1 Sous (2.0.2), si g est lipschitzienne, alors, pour tout p 1,


n , X n) g (AT , XT ) g (A T T
Lp

C/ n .

Dans le modle de Black-Scholes , on peut simuler parfaitement X en un nombre ni de dates. On obtient alors un rsultat plus prcis.

Proposition 2.3.2 Si b(x) = rx, a(x) = diag [x] , et si g est lipschitzienne, alors, pour
tout p 1,
n , XT ) g (AT , XT ) g (A T
Lp

C/n

o
n = 1 A T n
n1

Xti .
i=0

Preuve. Il sut de dmontrer le rsultat pour p pair. Pour t [ti , ti+1 ], on a :


t

n n = Ati A At A t ti +

(Xs Xti ) ds
ti

n o (A t )tT est le schma d'Euler continu de A. Par ailleurs, en utilisant la version stochastique du thorme de Fubini (voir par exemple [62])
t t s s

(Xs Xti ) ds =
ti ti t ti

rXu du +
ti t

diag [Xu ] dWu ds


t t

=
ti t

rXu (
u

ds)du +
ti t ti

(
u

ds)diag [Xu ] dWu

=
ti

(t u)rXu du +

(t u)diag [Xu ] dWu .

On utilise maintenant le rsultat suivant dont la preuve sera donne la n de la section.

2.3. OPTIONS ASIATIQUES

33

Lemme 2.3.3 Soit z

Rd et
t t

Zt = z +
0

bs ds +
0

as dWs

o a, b sont adapts et satisfont


T

E
0

bs

+E

as

ds <

pour tout k 1. Alors, pour tout q 1, il existe C > 0 tel que


t

Zt

2q

2q

+C
0

Zs

2q

+ bs

2q

+ as

2q

ds .
Lp

En appliquant ce Lemme aux galits prcdentes et en utilisant le fait que Xs uniformment borne sur [0, T ], on obtient que pour tout t [ti , ti+1 ]

est

n At A t

n Ati A ti

+C
ti

n As A s

+ (t s)p ds

ce qui implique en utilisant le Lemme de Gronwall que

n At A t

n Ati A ti

(1 +

C 1 ) + C p+1 n n C 1 ) + C p+1 n n

eC/n ,

d'o, pour tout i {0, . . . , n 1},

n Ati+1 A ti+1

n Ati A ti

(1 +

eC/n .

n = 0, cette rcurrence montre le rsultat. Comme A0 A 0

L'approche prcdente consiste utiliser une mthode de rectangles pour discrtiser l'intgrale. Mme si d'un point de vue thorique, on obtient la mme convergence Lp que pour le schma d'Euler, il est en gnral nettement prfrable d'utiliser une mthode de trapzes en considrant

n = 1 A T n

n1

n + X n X ti ti+1 /2 .
i=0

mtres r = 0.1, = 0.2, T = 1, X0 = K = 100 avec n = 50. Le tableau ci-dessous donne les intervalles de conance simuls pour les deux mthodes, le prix rel tant d'environ 7.04. Nombre de simulations Euler Trapzes
10 000 20 000 50 000 100 000 [6.93 , [6.88 , [6.85 , [6.86 , 7.26] 7.11] 6.99] 6.96] [6.96 , [6.97 , [6.97 , [6.98 , 7.30] 7.21] 7.12] 7.09]

Exemple 2.3.4 On value un call asiatique dans le modle de Black-Scholes de para-

La sous-estimation du schma d'Euler est agrante.

34

CHAPITRE 2. MTHODES DE DISCRTISATION


Pour simplier, on suppose que d = 1. Par le Lemme d'It,
t

on obtient sur [0, T ] :

Preuve du Lemme 2.3.3.


t

(Zt )2q = z 2q +
0

2q (Zs )2q1 bs + q (2q 1)(Zs )2q2 a2 s ds +


0

2q (Zs )2q1 as dWs .

En utilisant les hypothses sur a et b, on vrie facilement que


T

E
0

as (Zs )2q1

ds < ,

de sorte que
t

E (Zt )2q

= z 2q +
0

2q E (Zs )2q1 bs + q (2q 1)E (Zs )2q2 a2 s ds , t [0, T ] .

Il sut maintenant d'utiliser les ingalits

(Zs )2q1 bs (Zs )2q2 a2 s


pour conclure.

Zs

2q

Zs bs 2q Zs + as 2 q

+ bs

2q

Zs < bs

Zs

2q

+ bs

2q

2.3.2 Schma avec dveloppement dans le modle de Black-Scholes


Dans le modle de Black-Scholes, on peut amliorer la vitesse de convergence en utilisant un dveloppement de Taylor l'ordre 1 du type, pour d = 1,
2 /2)(tt )+ (W W ) t ti i

e(r
pour obtenir

1 + (r(t ti ) + (Wt Wti ))

n1

ti+1

AT =
i=0

Xti
ti n1

e(r

2 /2)(tt )+ (W W ) t ti i

dt (Wt Wti )dt .

An T :=
i=0

Xti

T rT 2 + 2 + n 2n

ti+1 ti

On procde alors de la manire suivante : on commence par simuler (Wti )n i=1 puis on n n simule AT conditionnellement (Wti )i=1 . Pour cela, on utilise le rsultat suivant qui sera dmontr dans un cadre plus gnral par la suite (Lemme 2.4.3) :

Corollaire 2.3.5 Soit


(Wt )utv

u < v . Conditionnellement (Wu = x, Wv = y ), le processus est un processus gaussien vriant pour u s t v vt tu x+ y, vu vu (v t)(s u) Cov (Wt , Ws | Wu = x, Wv = y ) = . vu E [Wt | Wu = x, Wv = y ] =
(2.3.1) (2.3.2)

2.4. OPTIONS BARRIRE


On en dduit que, conditionnellement (Wti , Wti+1 ) = (x, y ), normale avec pour moments
ti+1 ti+1 ti+1 ti

35

Wt dt suit une loi

E
ti

Wt dt | Wti = x, Wti+1 = y

=
ti

E Wt | Wti = x, Wti+1 = y dt

et
ti+1 2

E
ti ti+1

Wt dt
t

| Wti = x, Wti+1 = y

=2
ti ti

E Wt Wu | Wti = x, Wti+1 = y dudt ,

la seconde galit tant obtenue en utilisant le Lemme d'It. On en dduit une formule explicite en utilisant (2.3.1) et (2.3.2). En utilisant ce schma, on amliore la vitesse de convergence.

Proposition 2.3.6 Si g est lipschitzienne, alors, pour tout p 1,


g (AT , XT ) g (An T , XT )
Lp

C/n3/2 .

Nous renvoyons [49] et [68] pour les preuves de ces rsultats ainsi que l'tude d'autres approximations.

2.4 Options barrire


Dans cette section, on s'intresse l'valuation d'esprance de la forme :

E [1 >T g (XT )]

:= inf {t [0, T ] : Xt / D}

(2.4.1)

est le temps de sortie de X d'un borlien D de Rd , avec pour convention inf = +.

2.4.1 Approche nave


On commence par l'approche la plus simple qui consiste approximer (2.4.1) par son quivalent discret

n E 1 n >T g (XT )

tn n := inf {ti , i {0, . . . , n} : X / D} i

(2.4.2)

est l'quivalent discret de . Cette quantit est facilement simulable et on a le rsultat de convergence suivant dmontr dans [34].

36

CHAPITRE 2. MTHODES DE DISCRTISATION

tement uniformment elliptique2 sur D, alors, pour toute fonction mesurable g borne qui s'annule sur un voisinage de D, on a
n E 1 n >T g (XT ) E [1 >T g (XT )] = O 1 n .

Thorme 2.4.1 Si D est born de frontire D de classe1 C 3 , b et a C 3 avec a stric-

Il s'agit d'un rsultat assez ngatif dans la mesure o l'on perd la vitesse de convergence faible obtenue pour les options vanilla. Nous renvoyons la Section 6.4 pour une tude de la vitesse de convergence de n vers , voir galement [12] pour le cas o la diusion n'est pas uniformment elliptique.

2.4.2 Approche par les ponts de diusion


Dans cette partie, nous prsentons une autre approche qui permet d'amliorer la vitesse de convergence faible du Thorme 2.4.1. Cette fois-ci on approche (2.4.1) par

n) E 1 n >T g (X T

n n := inf {t [0, T ] : X t / D}

(2.4.3)

c'est--dire que l'on crit le problme sur le schma d'Euler continu. On a alors le rsultat de convergence suivant dmontr dans [35].

D est un demi-espace, b et a C 5 avec a strictement uniformment elliptique sur D, alors, pour toute fonction mesurable g borne qui s'annule sur un voisinage de D, on a n ) E [1 >T g (XT )] = C1 + o E 1 n >T g (X T n 1 n .

Thorme 2.4.2 Si

On retrouve ainsi une vitesse de convergence faible en 1/n. Par ailleurs, le premier terme dans le dveloppement suggre de mettre en place une mthode de type Romberg an d'obtenir une vitesse en o (1/n) au lieu de 1/n

2.4.2.1 Sur les ponts de diusions


An d'implmenter cette approximation, on aura besoin du rsultat suivant sur la loi du schma d'Euler continu condition.
tels que d (i) (V (y ) D) Rd : x1 0 + := x R d (ii) (V (y ) D) R+ (iii) C 3 (V (y )) et 1 C 3 (B ). 2 i.e. satisfait (2.2.7) pour tout x D .
1 i.e.

pour tout y D, il existe un voisinage V (y ) de y et un diomorphisme de V (y ) B Rd

2.4. OPTIONS BARRIRE

37

Lemme 2.4.3 On suppose que (x) = (a(x)a (x))1/2 est inversible pour tout x Rd .
n = xi , X n = xi+1 ), le processus (X n )t tt a la loi Alors, conditionnellement (X ti ti+1 t i i+1 de tt xi + (xi )W i
ti tti+1

t t = (xi )1 (xi+1 xi ) conditionnellement W i+1 i

est un mouvement brownien. C'est un processus gaussien d'esprance xi ti+1 t + o W ti+1 ti (sti )(ti+1 t) tti 2 et de matrice de variance-convariance ( x ) pour tout t xi+1 ti+1 i i s ti ti+1 ti t ti+1 . tn Elments de preuve. Conditionnellement X
i

tn )t tt est un processus = xi , (X i i+1 de diusion homogne qui admet pour densit de transition ph (x, z ) = 1 (2h)d det[ 2 (xi )] exp 1 (z x b(xi )h) ( 2 (xi )) (z x b(xi )h) 2h .

Pour ti s t ti+1

n dx , X n dy , X n dxi+1 | X n = xi P X s t ti+1 ti = psti (xi , x)pts (x, y )pti+1 t (y, xi+1 )dxdydxi+1
n s tn dxi+1 | X tn = xi P X dx, X i+1 i

= psti (xi , x)pti+1 s (x, xi+1 )dxdxi+1 .


En divisant le premier terme par le second, on obtient :

n dy | X n = x, X n = xi , X n = xi+1 P X t s ti ti+1
Ceci montre que
i+1 pti ,xi

pts (x, y )pti+1 t (y, xi+1 ) dy . pti+1 s (x, xi+1 )

,xi+1

(s, x, t, y ) :=

pts (x, y )pti+1 t (y, xi+1 ) pti+1 s (x, xi+1 )

tn )t tt tn = est la densit de transition du processus (X conditionnellement (X i i+1 i n = xi+1 ). Le reste en dcoule par des calculs directs. xi , X ti+1

Remarque 2.4.4

n , on vrie facilement que En utilisant la proprit de Markov de X n )t tt pour i allant de 0 n 1 sont indpendants conditionnellement les processus (X t i i+1 n, . . . , X n }. {X t0 tn

2.4.2.2 Implmentation
On peut maintenant dcrire la mthode. On commence par simuler le schma d'Euler tn )n (X et on crit i i=1
n T E 1 n >T g (X )

tn )n n) = E E 1 n >T | (X g (X T i i=1

38

CHAPITRE 2. MTHODES DE DISCRTISATION

n n ce qui signie qu'il faut calculer E 1 n >T | (Xti )i=1 , une fois la trajectoire discrte n )n simule. Evidemment si un des X n n'est pas dans D, il n'y a rien faire et le (X ti i=1 ti tn simuls payo de l'option donne 0. On ne calcule donc cette probabilit que si les X i sont tous dans D. Pour cela, on va utiliser les rsultats de la section prcdente. Tout d'abord, la Remarque 2.4.4 implique que
n1

tn )n E 1 n >T | (X i i=1

=
i=0

tn , X tn tn D | X P t [ti , ti+1 ], X i i+1

Nous allons maintenant montrer que, dans le cas o D est un demi-espace, le calcul est explicite. On crit D sous la forme

D = {y Rd : (y ) > 0} est l'hyperplan passant par Rd othogonal Rd . i.e. D

(2.4.4)

Exemple 2.4.5 Pour une barrire haute U en dimension 1, on a D = (, U ), ce qui


donne = U et = 1.
On xe i {0, . . . , n 1}. D'aprs le Lemme 2.4.3, on a

n n n P t [ti , ti+1 ], X t / D | Xti = xi , Xti+1 = xi+1 tt ( xi ) | W t t = (xi )1 (xi+1 xi ) = P t [ti , ti+1 ], (xi )W i i+1 i
On choisit maintenant une matrice P orthogonale3 telle que P 1 = t = (P W tt )t[t ,t ] a la mme loi que W . Par ailleurs processus W i i i i+1
1 ( xi )

(xi ). Le

tt = (xi )P W tt = (xi )W i i

t1 (xi ) W ti

car le vecteur ligne (xi )P a seulement sa premire composante non nulle, gale (xi ) . En r-injectant ce rsultat dans les galits prcdentes, on obtient

tn tn = xi , X tn = xi+1 P t [ti , ti+1 ], X /D|X i i+1


t1 t = (xi+1 xi ) 1 ( xi ) | W = P t [ti , ti+1 ], W tti i+1 i (xi ) (xi ) ( xi ) 1 (xi+1 xi ) t1 =P min W | Wti+1 ti = . ti t[ti ,ti+1 ] (xi ) (xi )

Cette probabilit se calcule facilement en utilisant le principe de rexion du brownien (voir Lemme 2.4.8)

t[ti ,ti+1 ]

t1 1 min W ti a | Wti+1 ti = b

= e2 T a(ab) a 0 et b a

(2.4.5)

xi+1 xi ) xi ) que l'on applique b = ( et a = (( . Puisque l'on ne fait ce calcul que si xi ( xi ) xi ) D, on vrie bien que a 0 et b a. Finalement, on a montr que
3 i.e.

P P = P P = Id .

2.4. OPTIONS BARRIRE

39

Proposition 2.4.6 Si

(x)2 est inversible pour tout x Rd et si D est donn par (2.4.4), alors pour tout xi , xi+1 D, on a n D | X n = xi , X n = xi+1 P t [ti , ti+1 ], X t ti ti+1 n ( ( xi )) ( ( xi+1 )) = 1 exp 2 T (xi ) 2 .
(2.4.6)

Lorsque D n'est pas un demi-espace, on n'a en gnral plus de forme explicite pour (2.4.6). On peut toutefois essayer d'approcher D par son hyperplan tangent en D (xi ), le projet de xi sur la frontire de D. Si D est de classe C 5 , on retrouve la vitesse en 1/n du Thorme 2.4.2, voir [35].

Exemple 2.4.7 On value un call up-and-out


E 1
t[0,T ]

max Xt <U [XT

K ]+

dans le modle de Black-Scholes de paramtres r = 0, = 0.15, T = 1, X0 = 100, K = 90, U = 130. Le tableau ci-dessous donne les intervalles de conance simuls pour les deux mthodes (nave et par pont), le prix rel tant d'environ 9.21. On eectue chaque fois 30.000 simulations. Nombre de pas de temps
10 50 100

Mthode Nave
[9.84 , 9.97] [9.46 , 9.60] [9.40 , 9.54]

Mthode par pont


[9.18 , 9.31] [9.14 , 9.27] [9.16 , 9.30]

La sur-estimation de la mthode nave est agrante : il est absolument ncessaire d'utiliser la mthode tenant compte de la probabilit de sortie de D entre deux dates de discrtisation.
On conclut cette section par le Lemme que l'on a utilis pour obtenir (2.4.5).

W un mouvement brownien unidimensionelle et {FtW , t 0} sa ltration naturelle. Alors pour tout a 0, b a et h > 0 P min Wt a | Wh = b = e h a(ab) .
2

Lemme 2.4.8 Soit

t[0,h]

Preuve. Soit a := inf {t 0


P
t[0,h]

: Wt = a} , le temps d'atteinte de a par W . On a alors, = P (a h , Wh b) = P (a h , Wh Wa b a) .

min Wt a , Wh b

40

CHAPITRE 2. MTHODES DE DISCRTISATION

W W par la proprit mesurable et que Wh Wa est indpendant de F Comme a est F a a de Markov forte du mouvement brownien, on obtient

t[0,h]

min Wt a , Wh b

= P (a h , Wh Wa a b) = P (a h , Wh 2a b)

car Wh Wa et Wa Wh ont la mme loi (proprit de symtrie). Comme 2a b a, on a donc

P
Finalement, comme

t[0,h]

min Wt a , Wh b

= P (Wh 2a b) .

t[0,h]

min Wt a | Wh = b

P b

mint[0,h] Wt a , Wh b , P (Wh b) b

un calcul direct donne le rsultat.

2.5 Options Lookback


On s'intresse maintenant aux payos de la forme g XT , max Xt en dimension 1. Pour de telles options, on considre l'approximation
t[0,T ]

dans un modle

E g XT , max Xt
t[0,T ]

n , max X n E g X T t
t[0,T ]

n , le maximum du schma d'Euler continu. On Pour cela, il faut pouvoir simuler max X t
t[0,T ]

tn )n puis on simule commence par simuler les (X i i=1


t[0,T ]

tn = max X

0in1 t[ti ,ti+1 ]

max

tn max X

(2.5.1)

tn )n sachant (X . D'aprs la Remarque 2.4.4, i i=1


Loi
t[ti ,ti+1 ]

n | (X n )n max X t ti i=1

= Loi

t[ti ,ti+1 ]

n | X n, X n max X t ti ti+1

dont la fonction de rpartition est donne par la Proposition 2.4.6 avec D = (, M ) (i.e = 1 et = M )

t[ti ,ti+1 ]

n M | X n = xi , X n = xi+1 max X t ti ti+1 n (M xi ) (M xi+1 ) T a2 (xi ) =: Fn (M ; xi , xi+1 )


pour M max{xi , xi+1 } .

= 1 exp 2

2.6. OPTIONS AMRICAINES


Son inverse est
1 Fn (U ; xi , xi+1 ) =

41

1 2

xi + xi+1 +

(xi+1 xi )2 2

a2 (xi )T ln(1 U ) n

On en dduit que
n1 t[ti ,ti+1 ]

tn max X
i=0

n = xi , 0 i n) = sachant (X ti

loi

1 Fn (Ui ; xi , xi+1 )

n1 i=0

1 o (Ui )n i=0 est une suite de variables alatoires indpendantes uniformes sur [0, 1]. D'aprs tn , 0 i tn conditionnellement (X (2.5.1) cela permet de simuler parfaitement max X i t[0,T ]

n). On peut procder de la mme manire pour d 1, en considrant les maxima des direntes composantes de X .

2.6 Options Amricaines


Dans un march complet sans friction, le prix d'une option amricaine de payo g admet la reprsentation

p(0, x) =

T[0,T ]

sup E er g (X ) | X0 = x

o X est la solution de (2.0.1) avec b = rX , r > 0 est le taux sans risque et T[0,T ] est l'ensemble des temps d'arrts valeurs dans [0, T ] (voir par exemple [47]). On discrtise n valeurs cette quation naturellement en considrant l'ensemble des temps d'arrts T [0,T ] n . On obtient dans {0 = t0 , t1 , . . . , tn = T } et en remplaant X par son schma d'Euler X alors l'approximation

p n (0, x) =

n T [0,T ]

n) | X n = x . sup E er g (X 0

On peut alors vrier que p n satisfait l'quation de la programmation dynamique

n ) = g (X n ) p n (tn , X tn tn tn ) = max g (X tn ) , e rT tn ) | X tn n E p p n (ti , X n (ti+1 , X i i i+1 i


La preuve du rsultat suivant peut tre trouve dans [5].

, i {0, . . . , n 1} .

Thorme 2.6.1 Si g et a sont lipschitziennes, pour tout p 1,


sup
i{0,...,n}

n ) p(ti , Xt ) p n (ti , X ti i

Lp

C/ n .

On pourra se rfrer [4], [5], [9], [11], [13] et [70] pour une approche similaire applique la discrtisation d'quations forward-backward plus gnrales.

42

CHAPITRE 2. MTHODES DE DISCRTISATION

Chapitre 3 Rduction de la variance


n ) o On s'intresse ici l'valuation d'option dont le payo est de la forme F = g (X n est le schma d'Euler de la solution X de (2.0.1). L'impact de la discrtisation est X donn par les thormes du Chapitre 2. On rappelle que dans certains modles comme celui de Black-Scholes, (2.1.1), on peut simuler de manire exacte X , il n'y a donc pas n ou X pour dsigner d'erreur de discrtisation. Dans ce cas on crira indiremment X le processus X . Une autre source d'erreur est l'erreur de Monte-Carlo : mme s'il est convergent, un estimateur reste une variable alatoire avec sa propre variance. On a dj vu dans le Chapitre 1 comment la mesurer. En pratique, celle-ci peut tre trs grande, rendant le rsultat obtenu peu prcis. Dans les sections suivantes, nous allons tudier direntes mthodes permettant de la rduire.

3.1 Contrle antithtique


L'ide du contrle antithtique est trs simple. Nous la prsentons dans le cadre du modle de Black-Scholes en dimension 1, i.e. X est solution de (2.1.1). Elle est base sur la proprit de symtrie du mouvement brownien : W = W . On en dduit que XT = XT o
loi loi

XT = X0 exp (r 2 /2)T WT

Ceci implique que

E
Si

g (XT ) + g (XT ) 2

= E [g (XT )] .

Var
ce qui revient dire que

g (XT ) + g (XT ) 2

<

Var (g (XT )) 2 < 0,

Cov g (XT ) , g (XT )

43

44

CHAPITRE 3. RDUCTION DE LA VARIANCE

on peut obtenir une meilleure prcision en simulant deux fois moins d'accroissement du brownien. En eet, si N est le nombre de simulations par la mthode sans contrle antithtique, alors sous la condition prcdente

Var

g (XT )+g (XT ) 2

N/2

<

Var (g (XT )) , N
g (X )+g (X )

T T avec N/2 trajectoires est ce qui signie que l'estimateur obtenu en simulant 2 plus prcis que celui qui consiste simuler g (XT ) avec N trajectoires. On peut montrer qu'il y a un gain de variance ds que WT g (XT ) est monotone.

Lemme 3.1.1 Si g est monotone et > 0, alors


Cov g (XT ) , g (XT )

avec ingalit stricte si g est strictement monotone sur un domaine de mesure non nulle.

Preuve. Soit f la densit de la loi normale centre de variance T . On note m = E [g(XT )]


et g (WT ) = g (XT ). Sans perte de gnralit, on peut supposer que g est croissante. Soit c := inf {y R : g (y ) m}. On a alors

( g (w) m) ( g (w) m) f (w)dw =

( g (w) m) ( g (w) g (c)) f (w)dw + ( g (c) m) ( g (w) m) f (w)dw .

Par dnition de m, on a ( g (w) m) f (w)dw = 0 . On utilise ensuite la monotonie de g pour montrer que pour tout w

( g (w) m) ( g (w) g (c)) 0 ,


avec ingalit stricte sur un domaine de mesure non nulle g est strictement monotone sur un domaine de mesure non nulle.

modle de Black-Scholes. On prend r = 0, = 0.3, T = 1, X0 = 100, et un strike K = 105. Le tableau suivant rsume les cart-types et les intervalles de conance estims avec et sans contrle antithtique. Le nombre de trajectoires correspond au N ci-dessus. Le prix exact est de 14.88. Nombre de trajectoires
20 000 200 000 1 000 000

Exemple 3.1.2 On applique cette mthode l'valuation d'un put europen dans le

Avec

Sans

0.0256 , [14.83 , 14.93] 0.1163 , [14.62 , 15.08] 0.0181 , [14.85 , 14.92] 0.03684 , [14.77 , 14.91] 0.0080 , [14.87 , 14.90] 0.0165 , [14.85 , 14.91]

3.2. RGULARISATION DU PAYOFF

45

Le gain est vident, surtout pour un petit nombre de trajectoires. On refait maintenant la mme tude pour le payo (non monotone) [K XT ]+ +[XT K ]+ : Nombre de trajectoires
20 000 200 000 1 000 000

Avec

Sans

0.1723 , [24.40 , 25.08] 0.1349 , [24.57 , 25.10] 0.0554 , [24.72 , 24.93] 0.0421 , [24.66 , 24.83] 0.0247 , [24.71 , 24.80] 0.0188 , [24.72 , 24.79]

3.2 Rgularisation du payo


tn ). Si la fonction tn , . . . , X On se place en dimension d = 1 et on considre F = g (X n 1 g est trop irrgulire, on risque d'avoir une mauvaise approximation de l'esprance. La proposition suivante montre comment on peut la rgulariser.

tions croissance polynomiale telles que g = n G/x1 xn au sens des distributions, alors :
n

Proposition 3.2.1 On suppose que a sur R pour un > 0. Soient g et G deux fonc-

tn , . . . , X tn E [F ] = E G X n 1
i=1

n Wti Wti1 tn ) T a(X i1

Preuve.

n ) pour simplier les arguments. Le cas On se restreint au cas o F = g (X T gnral est obtenu de la mme manire. Par construction du schma d'Euler, on a n) E g (X T = E n + b(X n )n t + a(X n ) T g X tn1 tn1 tn1 n 1 /2 R
1/ 2

f ( )d

o f est la densit de la loi N (0, 1). En intgrant par parties, on obtient alors

E [F ] = E

n + b(X n )n t + a(X n ) T G X tn1 tn1 tn1 n 1/ 2 R

1/2

n1/2 f ( )d tn ) T 1/2 a(X n1

ce qui donne le rsultat. Ceci permet de rgulariser le payo g en passant une primitive. Le prix payer est n(Wti Wti1 ) l'apparition du poids alatoire n n ) , dont la variance est trs leve si les ti i=1 T a (X sont proches.
ti1

Exemple 3.2.2 Soit g(x) = 1[a,b] (x) avec d = 1. On introduit la fonction G(x) = (x
a)1[a,b] (x) + (b a)1x>b . Alors, G = g et on obtient : n) E g (X T n) = E G(X T n WT Wtn1 tn ) T a(X n1 .

46

CHAPITRE 3. RDUCTION DE LA VARIANCE

= ln(X ) est le log du prix, on obtient Dans le modle de Black-Scholes , si X T ) E g (X T ) WT = E G(X T .


(3.2.1)

On teste cette mthode pour E 1{XT [a,b]} dans le modle de Black-Scholes de paramtres r = 0, = 0.25, T = 1, X0 = 100. On prend a = 95 et b = 105. On passe au ln pour utiliser la formule (3.2.1). Le tableau ci-dessous donne les cart-types et les intervalles de conance simuls avec et sans rgularisation, le prix rel tant d'environ 15.7. Nombre de simulations
10 000 20 000 50 000

Sans

Avec

0.43 , [15.6 , 17.3] 0.18 , [15.3 , 16.0] 0.30 , [15.5 , 16.7] 0.12 , [15.4 , 15.9] 0.24 , [15.6 , 16.5] 0.10 , [15.5 , 15.9]

Exercice 3.2.3 Soit


n) E 1[a,b] (X T

sens des distributions) sont croissance polynomiale, alors :

telle que = 1 sur [a, b]. Montrer que si et sa drive (au

n 1/2 n ) (X n ) n WT Wtn1 (X n) = E G(X T T T tn ) tn ) T a(X T 1/2 a(X n1 n1

o G(x) = (x a)1[a,b] (x) + (b a)1x>b .

3.3 Variable de contrle


3.3.1 Motivation et exemples
L'ide du Control Variate est d'introduire une variable Y d'esprance nulle telle que Var (F + Y ) << Var (F ). Puisque Y est d'esprance nulle, on peut estimer E [F ] = E [F + Y ] par

p N Y

1 := N

F (j ) + Y (j ) .
j =1

Evidemment cet estimateur a les mmes proprits de convergence que p N , mais est plus prcis N x.

Exemple 3.3.1 (Option Vanilla) On considre le payo F

est solution de (2.2.1) avec b = 0, i.e. on considre par exemple les prix dans R et X n ] = X0 . La actualiss des actifs sous-jacents au taux sans risque. Dans ce cas, E[X T n est donc un candidat naturel pour servir de variable de contrle. variable (vectorielle) X T On peut alors chercher minimiser sur Rd
n T n Var g (X ) + X T

n ) o g est valeurs = g (X T

n ), X n + Var X n , n ) + 2 Cov g (X = Var g (X T T T T

3.3. VARIABLE DE CONTRLE


n ), X n = Cov g (X n ), X nj o Cov g(X T T T T timum est atteint pour n := Var X T
j

47

n = Cov X ni , X nj et Var X T T T n ), X n . Cov g (X T T

i,j

. L'op-

En gnral, on ne connat pas explicitement mais on peut essayer de l'approcher numriquement par Monte-Carlo. Dans l'exemple suivant on se place dans le modle de Black-Scholes en dimension 1. On prend r = 0, = 0.3, X0 = 100, T = 1, et on veut valuer un call europen de strike K = 80. Comme le strike est faible par rapport au prix du sous-jacent, on peut s'attendre un forte corrlation entre le payo de l'option et XT . On estime le = 0.825. Le tableau ci-dessous rsume les cart-types et les intervalles de conance estims avec et sans variable de contrle, le prix exact tant de 23.53. Nombre de simulations
5 000 10 000 100 000 500 000 0.0938 , 0.0664 , 0.0208 , 0.0093 ,

Avec
[23.29 , [23.39 , [23.51 , [23.52 , 23.66] 23.65] 23.60] 23.55] 0.3887 , 0.2739 , 0.0851 , 0.0379 ,

Sans
[23.42 , [23.50 , [23.47 , [23.48 , 24.95] 24.57] 23.80] 23.63]

On observe que l'utilisation de la variable de contrle amliore largement la prcision de l'estimateur. Bien entendu, il s'agit d'un cas favorable puisque la corrlation est trs forte. On refait maintenant la mme tude avec un strike K = 150. Dans ce cas, la corrlation n'est plus que de 0.148, le gain de variance est beaucoup plus faible. On obtient les rsultats suivants, le prix exact tant de 1.49, Nombre de simulations
5 000 10 000 100 000 500 000

Avec

Sans

0.06842 , [1.496 , 1.764] 0.0828 , [1.445 , 1.770]] 0.0296 , [1.466 , 1.582] 0.0360 , [1.4592 , 1.600] 0.0210 , [1.470 , 1.552] 0.02567 , [1.468 , 1.568] 0.0092 , [1.477 , 1.513] 0.0113 , [1.475 , 1.519]

Black-Scholes (2.1.1) en dimension 1. Si est faible, on peut suivre l'approche de [42] qui consiste utiliser l'approximation
1 T
T

Exemple 3.3.2 (Option asiatique) On suppose que

X est solution de l'quation de

Xt dt exp
0

1 T

ln(Xt )dt
0

=: ZT ,

o
1 T
T

ln(Xt )dt = (r 2 /2)


0

T + 2 T

Wt dt .
0

(3.3.1)

48

CHAPITRE 3. RDUCTION DE LA VARIANCE

Comme Loi
1 T
T

ln(Xt )dt
0

= N T (r/2 2 /4) , 2 T /3 ,

il est souvent possible de calculer facilement E [g(ZT )]. Par exemple, si g(x) = [x K ]+ , il sut d'utiliser la formule de Black-Scholes avec les paramtres r = r/2 2 /12 et = / 3, en faisant attention corriger le rsultat du facteur d'actualisation. On peut alors se servir de g(ZT ) comme variable de contrle. On teste cette mthode pour valuer un call asiatique de paramtres r = 0.1, = 0.2, T T = 1, X0 = K = 100. On utilise la discrtisation par trapzes pour approcher 0 Xt dt avec n = 50. La formule de Black-Scholes permet de calculer erT E [g(ZT )] = 6.77 et on prend pour variable de contrle
Y = erT E [g (ZT )] e(r
2 /2) T 2 +2 n

Pn1
i=0

(Wti +Wti+1 ) K

Le tableau ci-dessous donne les intervalles de conance simuls avec et sans cette variable de contrle, le prix rel tant d'environ 7.04. Nombre de simulations
10 000 20 000 50 000 100 000

Avec
[7.034 , [7.034 , [7.039 , [7.037 , 7.049] 7.046] 7.045] 7.042]

Sans
[6.957 , [6.970 , [6.974 , [6.980 , 7.296] 7.207] 7.124] 7.086]

Exemple 3.3.3 (Option amricaine) Dans la Section 2.6, on a propos un schma

de discrtisation de l'quation backward rchie associe au problme d'valuation de l'option amricaine. On donnera dans la Section 5.1.2 une mthode pour estimer par Monte-Carlo les esprances conditionnelles qui apparaissent dans ce schma. Comme le prix de l'option amricaine est fortement corrl celui de l'option europenne, on peut l'utiliser comme variable de contrle dans les modles de type Black-Scholes pour lesquelles on connat le prix exacte de l'europenne. Pour un put amricain de strike K , le schma devient
tn ) = p n (tn , X n tn K X n
+ +

n ) K X n n ) = max g (X n ) , e rT n E p p n (ti , X n (ti+1 , X ti+1 ti+1 ti ti tn , ti+1 ) +BS (X i , i {0, . . . , n 1} .

n |X ti

tn , ti+1 ) est le prix de Black-Scholes du put de maturit ti+1 si le sous-jacent vaut o BS (X i n la date ti . On peut galement utiliser le prix de l'option europenne comme variable X ti tn ]+ par BS (X tn , T ) de contrle la place du payo. Ceci revient remplacer [K X i+1 i+1 n , ti+1 ) par BS (X n , T ). et BS (X ti ti

3.3. VARIABLE DE CONTRLE

49

3.3.2 Approche systmatique


Dans les exemples prcdents, on choisit une classe de variables de contrle que l'on suppose tre "bonne" a priori. Le thorme de reprsentation des martingales (voir par exemple [40]) permet d'obtenir une variable de contrle permettant d'liminer en thorie (de rduire en pratique) la variance de l'estimateur.

Thorme 3.3.4 (Reprsentation des martingales) Soit F


T

toire FT mesurable, alors il existe F L2 ([0, T ] , dt dP ) adapt tel que


F = E[F ] +
0

L2 une variable ala-

F s dWs .

n ), il est donc optimal d'utiliser Y := T F dWs comme variable de Pour F = g (X s T 0 contrle. Evidemment, ceci est compltement thorique puisqu'en gnral on ne connat pas F . Si F = g (XT ), on peut estimer F en utilisant le Thorme 2.2.10 : 1/ On calcule numriquement une approximation u de la solution de (2.2.5) par une mthode de dirences nies. On obtient ainsi une approximation x u du gradient de u par rapport x. 2/ On utilise l'approximation
T n

x u(s, Xs )a(Xs )dWs


0 i=1

n )a(X n )(Wt Wt ) . x u (ti1 , X ti1 ti1 i1 i

3/ On pose

Y =
i=1

n )a(X n )(Wt Wt ) . x u (ti1 , X ti1 ti1 i i1

Comme E[Y ] = 0, on peut s'en servir comme variable de contrle. Evidemment, si l'on pouvait calculer une approximation susamment ne de la solution de (2.2.5), on n'aurait pas besoin d'utiliser de mthode de Monte-Carlo, cf (2.2.6). Toutefois, on peut se restreindre une rsolution grossire de (2.2.5) qui soit susante pour tre utilise dans la mthode de rduction de variance. On peut galement approcher le gradient par celui correspondant un payo/modle proche pour lequel on a une formule explicite. Par exemple, dans un modle volatilit stochastique, on peut approcher le delta en ti par le delta de Black-Scholes correspondant la valeur de la volatilit en ti . Cette approche par EDP s'tend aux options asiatiques, lookback ou barrire. Le cas des options asiatiques est trait simplement en augmentant la taille du processus X , le rsultat est similaire celui du Thorme 2.2.10 pour le processus augment, voir galement [48] Proposition 5.2.11. On pourra consulter [65] pour les options lookback et [35] pour les options barrire.

Remarque 3.3.5

Remarque 3.3.6

50

CHAPITRE 3. RDUCTION DE LA VARIANCE

3.3.3 Mthode adaptative


On se place dans le cadre du modle de Balck-Scholes, i.e. b(x) = rx et a(x) = diag [x] , avec d = 1 et un payo de la forme

G = Wt1 , Wt2 Wt1 , . . . , Wt Wt1 .


On cherche un processus h dterministe et constant, gal hi , sur les intervalles [ti1 , ti ]. On note Z = (Wt1 , Wt2 Wt1 , . . . , Wt Wt1 ) et, par abus de notation, h = (h1 , . . . , h ). Le problme est donc de minimiser sur R la fonctionnelle

H (h) := E ( (Z ) h Z )2 .
En crivant les conditions du premier ordre sur ce problme de minimisation strictement dni par convexe et coercif, on dduit que la solution est donne par h

i = E[Z i (Z )]/(ti ti1 ) . h


On considre alors la suite (n )n dnie par
i n = n i (Zn (Zn ))/(ti ti1 ) k=1

1 n

p.s. Si est au o (Zn )n est une suite i.i.d. de mme loi que Z . Il est clair que n h plus croissance exponentielle, on dduit alors des rsultats gnraux obtenus par [2] que m c N N
2 N

1 := N (m c N

( (Zn+1 ) h n Zn+1 ) E[Z ] p.s.


n=1

E[Z ]) N (0, v 2 )
N 2 2 2 ( (Zn+1 ) h c n Zn+1 ) (m N ) v p.s. n=1

1 := N

Z ). o v 2 := Var( (Z ) h

3.4 Fonction d'importance


3.4.1 Un exemple
Supposons que l'on veuille valuer E[XT K ]+ . Si K est proche de, ou infrieur , (j ) X0 , on aura beaucoup de simulations XT suprieures K . Mais si K est beaucoup plus grand que X0 , il y en aura peu et l'estimateur de Monte-Carlo risque d'avoir une variance trs forte. Une faon de remdier ce problme est de forcer XT " aller au dessus de K " en lui ajoutant un drift positif. Ceci peut tre fait sans changer la valeur de l'esprance grce au thorme de Girsanov, voir par exemple Thorme 5.1 dans [40].

3.4. FONCTION D'IMPORTANCE

51

Thorme 3.4.1 (Girsanov) Soit h un processus adpat valeurs dans Rd tel que
T

hs
0

ds < P p.s.

Soit
h HT := exp

1 2

hs
0

ds +
0

h s dWs

h h Si E[HT ] = 1 alors Ph = HT P est quivalente P et

Wh

:= W
0

hs ds

est un Ph -mouvement brownien.


Si h vrie les hypothses du thorme prcdent, et si on note Eh l'esprance sous Ph , on a :
h 1 E [g (XT )] = Eh (HT ) g (XT ) .

Dans le cas prsent en introduction, on peut choisir h positif de telle sorte que Ph [XT K ] soit grande. On simule XT sous Ph en utilisant l'quation
t t

Xt = X0 +
0

(b(Xs ) + a(Xs )hs ) ds +


0

a(Xs )dWsh , 0 t T ,

o W h est un Ph -mouvement brownien. Il faut galement simuler


h HT

:= exp

1 2

hs
0

ds +
0

h h s dWs

sous Ph .

r = 0, = 0.25, X0 = 100, T = 1, et on veut valuer un call europen de strike K = 150. Le prix exact est d'environ 0.672. On utilise la mthode avec h = 2.

Exemple 3.4.2 On se place dans le modle de Black-Scholes en dimension 1. On prend

Nombre de simulations
10 000 100 000

Sans Importance Sampling


0.0484 , [0.584 , 0.774] 0.0149 , [0.658 , 0.716]

Avec h=2
0.0046 , [0.668 , 0.686] 0.0015 , [0.669 , 0.675]

52

CHAPITRE 3. RDUCTION DE LA VARIANCE

3.4.2 Approche systmatique


Comme dans la Section 3.3, on peut trouver un h optimal. On suppose que F > 0. Si le payo est borne infrieurement, ce qui est en gnral le cas dans les applications en nance, on peut toujours supposer qu'il est uniformment strictement positif en lui ajoutant une constante (ce qui ne fait qu'ajouter une constante l'esprance que l'on veut calculer). On suppose galement que F L2 . Dans ce cas, on peut dnir

ht =

1 F , t [0, T ] , E[F | Ft ] t

avec F dni comme dans le Thorme 3.3.4. On vrie que h L2 ([0, T ] , dt dP ) h et que E[HT ] = 1. On est donc sous les conditions du Thorme 3.4.1. Soit

t = E[F | Ft ]/E[F ] , t [0, T ] .


On a d'aprs la dnition de h et F

t = 1 +
d'o

1 E[F ]

t (F s ) dWs = 1 0 0

s h s dWs

1 = exp 2

hs
0

ds
0

h s dWs

h = HT .

h 1 h 1 On en dduit que (HT ) F = E[F ] de sorte que la variance de (HT ) F est nulle. Comme dans la Section 3.3.2, on peut chercher utiliser les techniques d'EDP pour 1 approcher h et donc HT . Par exemple, pour les options vanilla, si la solution u(t, x) de l'EDP associe (voir Thorme 2.2.10) est susamment rgulire, on aura :

ht =

1 x u(t, Xt )a(Xt ) . u(t, Xt )

On peut galement l'approcher par celui d'un payo/modle proche de celui considr, pour lequel la formule est explicite, voir Remarque 3.3.5. C'est par exemple l'approche suivie par [29].

3.4.3 Fonction d'importance optimale et algorithme de Robbins Monro


R-criture du problme
On se place dans le cadre du modle de Balck-Scholes, i.e. b(x) = rx et a(x) = diag [x] , avec d = 1 et un payo de la forme

G = Wt1 , Wt2 Wt1 , . . . , Wt Wt1 .

3.4. FONCTION D'IMPORTANCE

53

On cherche un changement de mesure optimal avec h dterministe et constant, gal hi , sur les intervalles [ti1 , ti ]. On note Z = (Wt1 , Wt2 Wt1 , . . . , Wt Wt1 ) et, par abus de notation, h = (h1 , . . . , h ). Le problme est donc de minimiser sur R la fonctionnelle

H (h) := E

e 2

2 h Z

(Z + h)

En utilisant le thorme de Girsanov, on observe que

H (h) = E e = E e2
1

h h

2 2h Z

(Z + h)2

= E e 2

2 +h Z

2 2h Z

(Z )2

2 h Z

(Z )2 .

Si E[ (Z )2+ ] < pour un > 0, on vrie facilement en utilisant l'ingalit de Holder que H est deux fois continument drivable. En particulier

H (h) = E (h Z )e 2

2 h Z

(Z )2 .

Comme il s'agit d'un problme strictement convexe (calculer la Hessienne) et coercif ds que 0 et = 0 (minorer le log en utilisant l'ingalit de Jensen), il existe un qui en outre est la solution de optimum h

) = E (h Z )e 1 2 H (h

2 h Z

(Z )2 = 0 .

(3.4.1)

Algorithme de Robbins-Monro
D'aprs l'quation (3.4.1), on doit rsoudre un problme du type

f (h) := E [F (h, Z )] = 0
o F est une fonction de R Rd dans R et Z une variable alatoire sur Rd . L'algorithme de Robbins-Monro consiste simuler une suite (Zn )n1 de copies indpendantes de Z et dnir la suite (n )n1 de variables alatoires par

n+1 = n n+1 F (n , Zn+1 ) ,


la condition initale 0 tant donne. Sous des hypothses classiques on obtient le rsultat de convergence suivant.

Thorme 3.4.3 Soit

Fn := (k , Yk ; k n) o Yn+1 := F (n , Zn+1 ). On suppose ) = 0 tel que (h h ) f (h) > 0 pour tout h R \ {h }. On qu'il existe h vriant f (h suppose galement que la suite (n )n vrie n =
n1

et
n1

2 n <.

(3.4.2)

S'il existe C > 0 tel que E[ Yn+1 p.s. n h

| Fn ] C (1 + n 2 ) p.s. pour tout n 1, alors

54

CHAPITRE 3. RDUCTION DE LA VARIANCE

sont vries dans notre problme 3.4.1. Par Il est clair que les deux conditions sur h ailleurs, on peut toujours choisir (n )n vriant (3.4.2). Par contre la dernire condition E[ Yn+1 2 | Fn ] C (1 + n 2 ) p.s. n'a aucune raison d'tre vrie cause de l'exponentielle intervenant dans la formule. Pour palier ce problme, [3] a propos une version tronque de cet algorithme qui vite l'explosion de la suite n quand la condition d'intgrabilit n'est pas vrie. L'algorithme consiste se donner x1 = x2 et M > 0 tels que max{f (x1 ), f (x2 )} < min{M, inf f (x)} ,
x M

puis une suite de rels (un )n strictment croissante et tendant vers l'inni, avec u0 > M . On dnit ensuite la suite (n )n par

n+1 =

n n+1 Yn+1 xn

si sinon

n n+1 Yn+1 u(n) ,

n1 avec xn = x1 si (n) est pair et x2 sinon, et (n) = k =0 1 k k+1 Yk+1 >u(k) avec (0) = 0. Le rsultat de convergence suivant est dmontr dans [3]. Il discute galement le choix de la suite (un )n .

Thorme 3.4.4 On suppose qu'il existe > 0 tel que E[

] < et on dnit l'algorithme prcdent avec F associe au problme (3.4.1). Alors, on peut choisir (un )n et (n )n telles que (3.4.2) soit vrie et (Z )
4+ 2 n E[ Yn+1 n1 2

| Fn ] < p.s.

p.s. Par ailleurs, si Dans ce cas, n h m r N 1 := N


N

e 2
n=1

n1

2 (

n1 )

Z n

(Zn + n1 )

et m := E[(Z )] ,

alors
m r N m p.s.

et

2 N (m r N m) N (0, v )

o v 2 =Var e 2
supplmentaires.

2 h Z

) . (Z + h

Preuve. Voir la section 6.5 pour une preuve de la convergence p.s. sous des conditions

Ce rsultat est en fait un cas une application du cas gnral trait dans [2]. En particulier, le thorme de la limite centrale nonc reste vrai si on remplace v 2 par l'estimation
2 N :=

1 N

e 2
n=1

n1

2 (X n1 ) Zn

2 (Zn + n1 )2 (m r N)

3.4. FONCTION D'IMPORTANCE


dans le sens o
2 2 1 N ( N ) (m r N v 2 p.s. N m) N (0, 1). On a en fait

55

On conclut cette section par la preuve du Thorme 3.4.3.

Preuve du Thorme 3.4.3.


|2 | Fn E |n+1 h

Pour simplier, on suppose que = 1 et que f (x) = E[F (x, Z )] est borne uniformment par C . On commence par calculer

|2 2n+1 E (n h )Yn+1 | Fn = |n h
2 2 + E n +1 Yn+1 | Fn .

)Yn+1 | Fn = (n h )f (n ) 0, on en dduit que Comme E (n h |2 | Fn E |n+1 h |2 + E 2 Y 2 | Fn . |n h n+1 n+1


(3.4.3)

L'quation prcdente implique galement

0 2E
n0

)Yn+1 h 2 + n+1 (n h
n0

2 2 E n +1 Yn+1 <

(3.4.4)

puisque |f | C par hypothse. En particulier la suite (Sn )n dnie par


n

Sn :=
k=0

2 2 E n +1 Yn+1 | Fn

est borne p.s. par C et donc converge presque surement en tant que suite croissante. Comme (Zn )n dnie par

|2 + C Sn Zn := |n h
est une sur-martingale par (3.4.3) et qu'une surmartingale borne infrieurement admet |2 )n admet p.s. une limite. On dduit alors de une limite p.s., on en dduit que (|n h )Yn+1 = E )f (n ) , de la condition (3.4.4), de l'identit E (n h (n h
n0 n0

| ] = 0 pour tout de monotonie sur f et des hypothses sur (n )n que P[limn |n h p.s. > 0. Il s'en suit que n h

56

CHAPITRE 3. RDUCTION DE LA VARIANCE

Chapitre 4 Calcul des sensibilits


Connatre la sensibilit d'un portefeuille par rapport aux variations des sous-jacents est tout aussi important que de connatre sa valeur. En eet, ce sont ces sensibilits qui vont permettre de se couvrir. Par ailleurs, on a vu que la connaissance du delta permet de mettre en oeuvre des techniques de rduction de variance.

4.1 Approche par dirences nies


On note X x la solution de (2.0.1). Une premire approche pour calculer le delta et le gamma de

u(0, x) = E [g (X x )] ,
consiste utiliser une mthode de dirences nies, i.e.

u 1 i i (0, x) (0 , x ) u(0, x + ei =: d ) u(0, x ed ) i x 2 2 u 1 i j i ij (0, x) ij (0, x) := (0, x) (0, x + ej =: d ) (0, x ed ) i j x x 2 i (0, x) :=


o ed = Vect[1]. L'algorithme consiste estimer par Monte-Carlo la fonction u en partant des direntes et . conditions initiales puis utiliser les approximations Il y a essentiellement deux possibilits que nous exposons pour le calcul du delta d'une option vanilla en dimension d = 1 (on suppose videmment que l'on peut simuler g (X x )) : 1/ On utilise N simulations pour estimer une approximation u (0, x + ) de u(0, x + ) et N (autres et indpendantes des premires) simulations pour estimer une approximation 57

58

CHAPITRE 4. CALCUL DES SENSIBILITS

u (0, x ) de u(0, x ). Dans ce cas, on a : Var u (0, x + ) u (0, x ) 2 1 (Var ( u(0, x + )) + Var ( u(0, x ))) 42 x x Var (g (XT 1 )) Var (g (XT )) + 2 4 N N 1 x = Var (g (XT )) . 2N 2 =

2/ On simule N trajectoires du brownien et on construit X x+ et X x avec les mmes trajectoires. Dans ce cas
x+ x 1 g (XT ) g (XT ) Var N 2 1 x Var (g (XT )) . N Si est petit et g rgulire, la seconde mthode sera en gnral prfrable la premire.

Var

u (0, x + ) u (0, x ) 2

Cette mthode est trs simple mettre en oeuvre mais le choix du n'est pas vident. Si est trop petit, la variance de l'estimateur peut tre trs grande, c'est le cas si le payo est trs irrgulier. Si est trop grand, l'approximation des drives est mauvaise, voir l'Exemple 4.2.4 ci-dessous. Les vitesses de convergence de ces mthodes ont t tudies par [31], [32] et [50]. Typiquement, en utilisant l'approche 2/, on obtient une vitesse de convergence en loi 1 en N si N 4 0 lorsque u est C 3 . Si on utilise un schma de type forward, i.e. 1 ( u(0, x + ) u (0, x))/, on obtient une vitesse en loi en N si N 2 0 lorsque u est C 2. On peut galement consulter [23] pour des rsultats sur les vitesses lorsque l'on remplace X par son schma d'Euler. L'objet des sections suivantes est de donner une interprtation probabiliste de ces sensibilits qui ne fasse par intervenir d'approximation.

4.2 Grecques dans le modle de Black et Scholes


On note X x la solution de (2.1.1) avec d = 1 et la condition initiale X0 = x. On x considre le payo g (XT ) et on cherche donner une reprsentation probabiliste des drives de
x u(0, x) = E [g (XT )] .

Proposition 4.2.1 Supposons que g est croissance polynomiale. Alors,


1 u x ) WT ] . (0, x) = E [g (XT x xT

4.2. GRECQUES DANS LE MODLE DE BLACK ET SCHOLES

59

Preuve.

1 , le rsultat gnral tant obtenu par densit. Tout On suppose que g est Cb d'abord, on remarque que x XT 1 x 2 = e(b /2)T +WT = XT P p.s. x x

On en dduit que

1 g x x x (XT ) = g (XT ) XT P p.s. x x


Par ailleurs,

1 x+ x g XT g (XT )

x+ x XT XT

2 e(b /2)T +WT

L2 .

Par convergence domine, on a donc :

1 u x x (0, x) = E [g (XT ) XT ] . x x
Soit f la densite de la loi normale centre rduite. L'quation prcdente se r-crit :

u (0, x) = x =

g
R

xe(b

2 /2

)T +

Tw

2 e(b /2)T +

Tw

f (w)dw

=
R

1 g 2 xe(b /2)T + T w f (w)dw x T w 1 2 g xe(b /2)T + T w wf (w)dw x T

en intgrant par parties, ce qui donne le rsultat.

Exercice 4.2.2 Montrer que si g est croissance polynomiale :


2u 1 x (0, x) = 2 E g (XT ) 2 x x T
2 WT 1 WT T u (0, x)

(4.2.1)

Donner une reprsentation similaire pour le vga : tiques.

Exercice 4.2.3 Touver une formulation du delta et du gamma pour les options asiaExemple 4.2.4 On utilise le rsultat de (4.2.1) pour estimer
2 x [a,b]} E 1{XT . x2

60

CHAPITRE 4. CALCUL DES SENSIBILITS

On prend comme paramtres x = 1, = 0.25, r = 0, a = 0.95 et b = 1.05. On donne les intervalles de conance obtenus par l'approche par dirences nies avec direntes valeurs de et par (4.2.1). On fait chaque fois 50.000 simulations. La valeur exacte est d'environ 2.53. Mthode Intervalle estim Par (4.2.1) [2.61 , 2.51] Di. nies = 0.5 [0.32 , 0.31] Di. nies = 0.1 [2.47 , 2.06] Di. nies = 0.05 [3.34 , 1.68] Di. nies = 0.005 [20.31 , 23.91] On observe que le rsultat est extrmement biais pour = 0.5 et = 0.1. Pour = 0.005, il est trop volatil. Mme pour = 0.05, le rsultat est bien moins prcis que celui obtenu par (4.2.1).
direntiation : x x par rapport sa condition initiale x. Le processus Y = X (i) On a driv XT s'appelle x x le processus tangent X . 2 (ii) On a utilis la drive de g xe(b /2)T + T w par rapport w. A une normalisation
x ) par rapport WT . On a ensuite utiliser une intgration prs, cela revient driver g (XT par parties par rapport w, c'est--dire "par rapport " W .

Remarque 4.2.5

Dans la preuve de la Proposition 4.2.1, on a utilis deux notions de

Au vu de la remarque prcdente, on a besoin de deux notions : celle de processus tangent, et celle de drivation par rapport au mouvement Brownien. L'objet des sections suivantes est de dnir ces deux notions. On les utilisera ensuite pour gnraliser les rsultats obtenus dans le modle de Black et Scholes.

4.3 Processus tangent


4.3.1 Notions de processus tangent
x On note X x la solution de (2.0.1) avec pour condition initiale X0 = x.

Thorme 4.3.1 Si a, b Cb1 , alors, pour tout t [0, T ], l'application x Xtx est
) } est solution de l'EDS : p.s. C 1 . Le processus (matriciel) gradient x X x = {( X xj i,j
x,i

d x x b(Xs )x Xs ds + 0

t x x a.j (Xs )x Xs dWsj .

x Xtx = Id +
0

(4.3.1)

j =1

(voir Thorme 39 dans [62].) Le processus x X x est appel processus tangent ou de drive premire.

4.3. PROCESSUS TANGENT

61

Exemple 4.3.2 Pour d = 1, l'quation (4.3.1) s'crit


t t x b (Xs )x Xtx ds + 0 0 x a (Xs )x Xtx dWs

x Xtx = 1 +

dont la solution est


t x x 2 x Xtx = e 0 (b (Xs )|a (Xs )| /2)ds+

Rt
0

x )dW . a (Xs s

Exemple 4.3.3 Si
Scholes, on obtient

b(x) = rx et a(x) = diag [x] comme dans le modle de Black2

x Xtx = diag

e(r

j.

/2)t+ j. Wt

d j =1

= diag [x]1 Xtx = Xted .

Remarque 4.3.4 Remarque 4.3.5


x,n d'Euler X
x,n 0 x X = Id

En imposant plus de rgularit sur a et b, on peut dnir des processus drive d'ordre suprieur. On considre alors le processus tangent du processus tangent, etc...

x,n , du schma On peut galement dnir le processus drive, x X de X x . Il est obtenu par rcurrence

tx,n = x X tx,n + b(X tx,n )x X tx,n n t + x X i i1 i1 i1


j =1

tx,n )x X tx,n n W j (4.3.2) . a.j (X i i1 i1

L'quation (4.3.1) peut tre vue comme limite de (4.3.2) quand le pas de temps tend x,n coincinde avec le schma d'Euler de x X x . vers 0, x X

4.3.2 Processus tangent et delta


On peut maintenant reprendre les arguments de la Section 4.2 pour calculer u. On 1 suppose tout d'abord que g est Cb de sorte que par convergence domine :
x x u(0, x) = E [g (XT )x XT ] .

Par passage par densit, on obtient le rsultat pour toute fonction g dont les drives premires sont croissance polynomiale. On peut galement l'obtenir pour des payos dpendant de la trajectoire de X x aux dates ti .
1 Proposition 4.3.6 Soit g une fonction Cp de Rdn dans R. Alors, n

, . . . , Xtx ) g (Xtx n 1

=
i=1

E i g (Xtx , . . . , Xtx )x Xtx , n 1 i

(4.3.3)

o i g denote le gradient de g par rapport son i-me argument (vectoriel).

62

CHAPITRE 4. CALCUL DES SENSIBILITS


On obtient le mme rsultat si on remplace X x par son schma d'Eun

ler

Remarque 4.3.7

tx,n , . . . , X tx,n ) E g (X n 1

=
i=1

tx,n , . . . , X tx,n )x X tx,n . E i g (X n 1 i

Au vu de la Remarque 4.3.5, cela revient en fait discrtiser l'Equation (4.3.3).

Scholes en dimension 1. La maturit est 1 et la moyenne est calcule intervalles rguliers de longueur 1/24, i.e. tous les 15 jours. On prend comme paramtre K = 100, X0 = 100, = 0.35 et r = 0.1. On considre n = 24 pas de temps, et on estime le delta par la formule
24

Exemple 4.3.8 On considre un call sur moyenne discrte dans le modle de Black-

E 1A1 K
i=1

i 1 24 (r 2 /2)+Wi 24 e 24

1 E [A1 1A1 K ] 100

avec
A1 1 := 24
24
i

X0 e 24
i=1

(r 2 /2)+Wi

24

Les rsultats suivants ont t obtenus en utilisant le contrle antithtique. Nombre de simulations
5 000 10 000 50 000

Intervalle de conance du delta


[0.598, 0.605] [0.601, 0.606] [0.601, 0.604]

Exercice 4.3.9 Donner une reprsentation du gamma sur le modle de la Proposition


4.3.6.

4.3.3 Processus tangent et vga (exercice)


On peut facilement tendre l'approche prcdente pour estimer le , i.e. la sensibilit du prix de l'option par rapport une pertubation sur la matrice de volatilit a. On se donne une fonction a de Rd dans Md , > 0 et on note X a la solution de (2.0.1) avec la matrice de volatilit a + a la place de a. On cherche estimer

( a) :=
1 On suppose que a, b et a Cp

a E g (XT )

.
=0

4.4. CALCUL DE MALLIAVIN

63

1/ En considrant comme un processus dterministe, dduire du Thorme 4.3.1 que Za := X a est bien dni et est solution de =0
t Zta = 0 a b(Xs )Zs ds + 0 t d t a a.j (Xs )Zs dWsj , t [0, T ] . j =1 0

a (Xs )dWs +

2/ En dduire une formulation de la drive directionnelle ( a) sur le modle de la Proposition 4.3.6.

4.4 Calcul de Malliavin


Les deux derniers rsultats donnent une reprsentation prcieuse du gradient, puisqu'elle fournissent des estimateurs de Monte-Carlo trs naturels. Evidemment, elles sont utiles des ns de couverture mais peuvent galement tre employes dans le cadre des techniques de rduction de variance prsentes dans le Chapitre 3. Toutefois, ces formulations imposent la drivabilit du payo (au moins dans un sens faible) et surtout la connaissance de cette drive. Ceci n'est pas si vident. Si l'on veut calculer le delta d'un book d'options, on ne connat pas forcment dans le dtail la forme exacte de tout les payos (ils sont gnralement fournis par un ordinateur qui agit comme une bote noire). Dans la Proposition 4.2.1, on a vu que, dans le cadre particulier du modle de Black-Scholes, on pouvait obtenir une formulation ne faisant pas intervenir le gradient de g . Pour cela, on avait utilis une ide d'intgration par parties par rapport la densit gaussienne. Dans cette section, on va introduire une notion de calcul direntiel par rapport la trajectoire du mouvement brownien, et une formule d'intgration par parties associe. Nous renvoyons [57] et [58] pour une prsentation complte du calcul de Malliavin.

4.4.1 Introduction au calcul de Malliavin


Dnition 4.4.1 On dira qu'une variable alatoire
F entier kF , une suite 0 sF 1 . . . < s kF continue, C 1 par morceaux, tels que :

F de L2 est simple s'il existe un T et une fonction F de (Rd )kF dans R,

F =

W sF , . . . , W sF 1 k

avec

kF

2 j F (W ) 1[t,T ] (sF pour tout t [0, T ] . j ) L

j =1

On note S l'espace de telles fonctions.


Bien qu'il soit dni sur un espace beaucoup plus gros que S , voir [57] et [59], on n'introduira ici le calcul de Malliavin que pour des fonctions simples. Il y a deux raisons cela : 1/ En gnral, si on sait simuler parfaitement F , c'est que F S .

64

CHAPITRE 4. CALCUL DES SENSIBILITS

2/ C'est beaucoup plus simple, et nous pourrons mener les preuves jusqu'au bout. 3/ Discrtiser des formules obtenues en travaillant sur X ou travailler directement sur n revient gnralement au mme, voir Remarque 4.4.18. le problme discrtis associ X On ne perd donc rien en se plaant tout de suite dans un cadre plus simple grer.

Dnition 4.4.2 Soit F

S , pour tout t [0, T ], on dnit


kF

F W + 1[t,T ] F (W ) Dt F := lim = 0

j F (W ) 1[t,T ] (sF j ) P-p.s.

j =1

Cette dnition peut tre comprise comme ceci : on choque lgrement la trajectoire du brownien W en la remplaant par une trajectoire W 1[t,T ] = W + 1[t,T ] , i.e. on "shifte" le brownien de aprs t. On regarde ensuite l'impact de ce choc sur F . On appelle DF le processus drive de Malliavin.

Exemple 4.4.3 On xe s, t [0, T ].

1/ s est indpendant de W et donc Dt s = 0. 2/ Si F = Ws on a


Dt F = lim Ws + 1[t,T ] (s) Ws = 1[t,T ] (s) . 0

3/ Dans le modle de Black-Scholes , on a simplement


Dt xe(r
2 /2)s+W s

= xe(r

2 /2)s+W

1[t,T ] (s) .

Remarque 4.4.4

Dt F n'est en gnral pas adapt, voir l'exemple 3/ ci-dessus.

Les proprits suivantes dcoulent immdiatement de la dnition.


1 Proprit 4.4.5 Soient F et G S et Cp . Alors,

(i) F G et (F ) S , (ii) D(F ) = (F )DF , (iii) D(F G) = (DF )G + F (DG).

Remarque 4.4.6
tx,n j i), et X i

1 tx,n est une fonction dterministe de (Wt , 0 Si b et a Cb , alors X j i S . Sa drive de Malliavin en t peut tre calcule rcursivement :

tx,n = 0 si ti < t Dt X i x,n tx,n ) si ti1 < t ti Dt Xti = a(X i1


d

(4.4.1)

tx,n = Dt X tx,n + b(X tx,n )Dt X tx,n n t + Dt X i i1 i1 i1


j =1

tx,n )Dt X tx,n n W j si t < ti1 . a.j (X i i1 i1

4.4. CALCUL DE MALLIAVIN

65

On peut observer que le gradient et la drive de Malliavin en t de n X suivent la mme quation, voir Remarque 4.3.5, la condition en n t prs

Remarque 4.4.7

x,n x,n . = 0 = x X Dt X n n t t
Si a(x) est inversible pour tout x Rd , un calcul direct montre que

x,n tx,n = Dt X tx,n a(X x,n pour tout t ti T . )1 x X x X n i i n,+ t


t

n,+

(t) = inf {ti , i {0, . . . , n} : t ti }.

L'intrt de cette notion rside dans le fait que la stratgie de couverture d'une option peut s'crire en fonction de la drive de Malliavin du payo.

Thorme 4.4.8 (Formule de Clark-Ocone) Soit F


T

S , alors

F = E [F ] +
0

E [Dt F | Ft ] dWt .

Pour simplier, on se place dans le cas o d = 1. On suppose galement que F Le cas gnral est obtenu par densit. A sF i1 < t si x, E [F | Ft ] est une )j i1 ). On note sa drive par rapport au deuxime argument. fonction (t, Wt , (WsF j F On a alors pour si1 < t sF i
F 2 Cb .

Preuve.

(t, w, z ) = lim 1 E F z, i + w + , . . . , n + w + F z, i + w, . . . , n + w
0

o est une variable alatoire valeurs dans Rni+1 distribue selon une loi normale N (0, ) avec
F lk = min{sF l t , sk t} .

On a donc par convergence domine


kF

(t, w, z ) = E
j =i F d'o pour t (sF i1 , si ] kF

j F z, i + w, . . . , n + w

t, Wt , (WsF )j i1 j

= E
j =i

j F (W ) | Ft

= E Dt F (W ) | Ft .

1 ,2 2 Comme F Cb , on peut vrier par des arguments similaires que est Cb par rapport ces deux premiers arguments. En appliquant le Lemme d'It la martingale F (t, Wt , (WsF )j i1 ) sur (sF i1 , si ], on obtient alors j sF i

E F | FsF i

+ = E F | FsF i1 + = E F | FsF i1

sF i1 sF i sF i1

t, Wt , (WsF )j i1 dWt j

E Dt F (W ) | Ft dWt .

66

CHAPITRE 4. CALCUL DES SENSIBILITS

Cette relation tant vrie pour tout i {1, . . . , k }, en sommant le systme d'quations obtenu, on en dduit que
sF k

F = E F | FsF k

= E [F | F0 ] +
0 T

E Dt F (W ) | Ft dWt .

= E [F ] +
0

E Dt F (W ) | Ft dWt .

On peut maintenant noncer le thorme d'intgration par parties du calcul de Malliavin.

Thorme 4.4.9 (Formule d'intgration par parties) Soit F


cessus adapt h L ([0, T ] , dt dP ), alors
2 T T

S et soit un pro-

E F
0

h t dWt

= E
0

Dt F ht dt .

Preuve. On pose Xt = E [F
T

| Ft ] et Ht = 0 h s dWs . On remarque que H0 = 0. D'aprs le Thorme 4.4.8, on a donc par le Lemme d'It :
T T

F
0

h t dWt

= XT HT =
0

(Xt h t

+ Ht E [Dt F | Ft ]) dWt +
0

E [Dt F | Ft ] ht dt .

On obtient donc
T T T

E F
0

h t dWt

= E
0

E [Dt F | Ft ] ht dt

= E
0

Dt F ht dt

o l'on a utilis le Lemme de Fubini et le fait que h est adapt.

Remarque 4.4.10

Le Thorme 4.4.9 reste vrai, dans une certaine mesure, mme si T h n'est pas adapt. Dans ce cas, l'intgrale 0 h t dWt est dnie en tant qu'intgrale de Skorohod, voir [57]. Lorsque h = F u o F est une variable alatoire FT -mesurable et u est un processus adapt, on obtient, sous certaines hypothses de rgularit et d'intgrabilit, un lien entre l'intgrale d'It et de Skorohod :
T T T

F u t dWt = F
0 0

u t dWt
0

Dt F ut dt .

4.4. CALCUL DE MALLIAVIN

67

4.4.2 Calcul de Malliavin et sensibilits


4.4.2.1 Delta pour les variables simples
On commence par utiliser les rsultats de la section prcdente pour donner une reprsentation probabiliste du delta. Soit F S . Alors, d'aprs le Thorme 4.4.8
T

F = E [F ] +
0

E [Dt F | Ft ] dWt .

F On xe maintenant t et i tels que sF i1 < t si , on a alors kF kF

Dt F =
j =1

(W ) 1[t,T ] (sF j )

=
j =i

j F (W )

F qui est indpendant de t (sF i1 , si ]. On a donc sF i

Dt F =
t

Ds F ds sF i t

d'o, en utilisant le Thorme 4.4.9


sF i

E [Dt F | Ft ] = E
t

Ds F ds | Ft sF i t

= E F

Wt W sF i sF i t

| Ft

On obtient nalement le rsultat suivant

Proposition 4.4.11 Soit F

S , alors
kF sF i sF i1

F = E [F ] +
i=1

E F

Wt W sF i sF i t

| Ft dWt .

F A sF i1 < t si x, la stratgie de couverture est donc donne par la quantit

E F

W sF W t
i

sF i t

| Ft , aprs renormalisation, qui peut tre approche par Monte-Carlo.

march complet, en fonction du delta. Retrouver le rsultat de la Proposition 4.2.1 en utilisant la Proposition 4.4.11.

Exercice 4.4.12 Ecrire la stratgie de couverture d'une option europenne dans un

4.4.2.2 Delta et Gamma pour les fonctions du schma d'Euler


1 x,n ). On suppose galement que g Cp On suppose maintenant que F = g (X , que a T d est inversible sur R et on pose

x,n ) . u(0, x) := E g (X T

68 D'aprs la Proposition 4.3.6, on a

CHAPITRE 4. CALCUL DES SENSIBILITS

x,n )x X x,n , u(0, x) = E g (X T T


ce qui peut se rcrire, en utilisant la Remarque 4.4.7 et la Proprit 4.4.5
T 0 T 0

1 u(0, x) = E T 1 = E T

x,n x,n )Dt X x,n a(X x,n dt )1 x X g (X T T n n,+ t


t

x,n )a(X x,n x,n Dt g (X )1 x X dt . T n n,+ t


t

En utilisant le Thorme 4.4.9, on obtient

1 x,n E g (XT ) u(0, x) = T


En passant par densit, on obtient

T 0

x,n x,n a(X )1 x X n n,+ t


t

dWt

polynomiale, a et b sont Cb1 , alors


x,n ) E g (X T

Proposition 4.4.13 Si a(x) est inversible pour tout x Rd , a1 et g sont croissance


1 x,n E g (XT ) = T
T 0

x,n x,n a(X )1 x X n n,+ t


t

dWt

On retrouve en particulier le rsultat de la Proposition 4.2.1 en utilisant l'Exemple 4.3.3.

Exercice 4.4.14 Montrer que sous les conditions de la Proposition 4.4.13


T

E g

Xtx,n , . . . , Xtx,n n 1

= E g

Xtx,n , . . . , Xtx,n n 1
0

ht

x,n x,n a(X )1 x X n n,+ t


t

dWt

o h L2 ([0, T ], dt) vrie


ti

ht dt = 1
0

pour tout i {1, . . . , n} .

x,n ) . Si on suppose g , a, a1 et b On s'intresse maintenant au gamma de E g (X T susamment rgulires, on obtient en argumentant comme dans la Proposition 4.3.6 et en utilisant la Proposition 4.4.13 que :
T 2u 1 x,n x,n 1 x,n i dWt (0 , x ) = E g ( X ) a ( X ) X n n, + x T t t xi xj T xj 0 T 1 x,n x,n x,n x,n = E g (XT )xj X a(X )1 xi X + T n n, t t T 0

dWt

1 x,n + E g (XT ) T + 1 x,n E g (XT ) T

T 0 T 0

k=1

x,n a(X )1 n t

.k

x,n xj X n t

x,n xi X + n, t ,

dWt

x,n x,n a(X )1 xj xi X n n,+ t


t

dWt

4.4. CALCUL DE MALLIAVIN


.

69

x,n x,n o x est la drive par rapport x , i.e. x X x X . On s'intresse + + = n, n, t t uniquement au premier terme qui fait intervenir g . Pour une processus adapt h de carr intgrable, on note maintenant
T

(ht ) :=
0

h t dWt .

En utilisant la Remarque 4.4.7 et la Proprit 4.4.5, on obtient


x,n x,n a(X x,n x,n A := E g (XT )xj X )1 xi X T n n,+ t
t

1 E T 1 = E T 1 E T =

T 0 T 0

x,n x,n x,n x,n )Dt X x,n a(X x,n )1 xj X dt a(X )1 xi X g (X T T n n n,+ n,+ t t
t t

x,n ) a(X x,n x,n Dt g (X )1 xi X T n n,+ t


t

x,n x,n a(X )1 xj X dt n n,+ t


t

T 0

x,n )Dt a(X x,n x,n x,n x,n g (X )1 xi X a(X )1 xj X dt . T n n n,+ n,+ t t
t t

D'aprs le Thorme 4.4.9, ceci implique que

A =

1 x,n ) a(X x,n x,n x,n x,n E g (X )1 xi X a(X )1 xj X n,+ + T n n n, t t t t T T 1 x,n )Dt a(X x,n x,n x,n x,n g (X )1 xi X a(X )1 xj X E . + + dt T n n n, n, t t t t T 0
1 a est inversible sur Rd , a1 Cp , g est croissance polyno-

En regroupant les termes et en passant par densit, on obtient

miale, a et b sont Cb2 , alors o


ij :=

Proposition 4.4.15 Si

xi xj

x,n ) E g (X T

x,n = E g (XT )ij ,

1 x,n x,n x,n x,n a(X )1 xj X a(X )1 xi X + + n n n, n, t t t t T2 T 1 x,n x,n x,n x,n Dt a(X )1 xi X a(X )1 xj X 2 n,+ + dt n n n, t t t t T 0 1 + T
d

x,n )1 a(X n t
k=1

.k

x,n x,n xj X xi X n,+ n,+


t t

x,n x,n + a(X )1 xj xi X n n,+ t


t

Exercice 4.4.16 Vrier que dans le modle de Black-Scholes


trouver ainsi la formule (4.2.1).

xi xj X x = 0 et re-

Exercice 4.4.17 Etendre la formule de la Proposition 4.4.15 des payos de la forme


tx,n , . . . , X tx,n g X n 1

sur le modle de l'Exercice 4.4.14.

70

CHAPITRE 4. CALCUL DES SENSIBILITS

4.4.2.3 Vga pour les fonctions du schma d'Euler (exercice)


On reprend l'exercice de la Section 4.3.3. On se donne une fonction a de Rd dans Md , ,n a > 0 et on note X la solution de 2.2.3 avec la matrice de volatilit a + a la place de a. On veut estimer

( a) :=

,n a E g (X ) T

.
=0

1 . On suppose que a, b et a Cp ,n a 1/ Donner l'quation satisfaite par Z := 2/ Vrier que pour tout t (tn1 , T ] d ,n a Dt Z = T j =1

a X ,n =0 .

,n n )Z ta n ) . a.j (X +a (X tn1 tn1 n1

3/ En supposant que a1 et g sont croissance polynomiale, dduire de 2/, de la fomulation obtenue dans la Section 4.3.3 pour ( a), du Thorme 4.4.9 et de la Proprit 4.4.5 que

n )a(X n )1 ( a) = E g (X T tn1

n a Z ,n n Wn T T

d ,n n )Z ta n ) a.j (X a (X tn1 tn1 n1 j =1

tn , . . . , X tn . 4/ Etendre cette formulation aux payos de la forme g X n 1 5/ On suppose maintenant que X est solution de (2.1.1) pour d = 1 et + la place X =0 . Faire le lien avec Dt XT et montrer, en utilisant le Thorme de . Calculer 4.4.9 et la Proprit 4.4.5, que (1) = E g (XT )
2 WT 1 WT T

Etendre cette formule au cas d > 1. (On peut galement obtenir cette formule en considrant le "schma d'Euler" de ln(X ). Dans ce cas, il faut faire attention car intervient 1,n " par rapport celle dans le coecient de drift de ln(X ) ce qui modie la forme de "Z obtenue dans 1/). Cette approche a t initie par [27]. Les formules que nous dmontrons ici correspondent la discrtisation des formules obtenues en considrant un payo n . L'tude de ces mthodes a t poursuivie dans [26], voir dpendant de X au lieu de X galement [21]. Des extensions au cas des options barrire et lookback on t obtenues par [36]. On pourra galement consulter [7] qui traite notamment le cas des options asiatiques et [38] qui dveloppe des approches alternatives.

Remarque 4.4.18

Chapitre 5 Esprances conditionnelles et options amricaines


Dans la Section 2.6, on a montr que le prix d'une option amricaine peut tre approche par un schma discret de la forme

n ) = g (X n ) p n (tn , X tn tn tn ) = max g (X tn ) , erT /n E p tn ) | X tn p n (ti , X n (ti+1 , X i i i+1 i , i {0, . . . , n 1} .

Le problme de ce schma est qu' chaque date de discrtisation, il ncessite le calcul d'une esprance conditionnelle. Il faut donc trouver un moyen de les estimer de manire ecace.

5.1 Approche par calcul de Malliavin


On montre dans cette section comment le calcul de Malliavin permet d'obtenir des estimateurs d'esprances conditionnelles qui sont rapidement calculables en pratique.

5.1.1 Esprances conditionnelles et densits


Par souci de simplication, on va se limiter au cas d = 1, le cas gnral est obtenu de la mme manire (voir [10]).

n le schma d'Euler de (2.0.1). Soit croissance polynomiale Thorme 5.1.1 Soit X


1 1 et , Cp (R+ ) telles que (0) = (0) = 1. On suppose que a, b Cb avec a > 0. On a :

n ) | X n = x E (X ti+1 ti

tn )i (X tn x) E 1xX n (X i+1 i t
i

tn x) E 1xX (X n i i t
i

71

72CHAPITRE 5. ESPRANCES CONDITIONNELLES ET OPTIONS AMRICAINES


1 (R+ ) o pour une fonction f Cp

n x) i f (X ti

n x) + = f (X ti tn )1 a(X i

n n x) a(X n )1 n Wi f (X ti ti1 T T T tn ))n Wi+1 + a (X tn )(n Wi2 (1 + b (X ) +1 i i n n

Remarque 5.1.2
la forme
i

tn sous On obtient en particulier une formulation de la densit de X i = E 1xX n t n n x)a(X n )1 n Wi n x) (X (X ti ti1 ti T ,

n x) E 1xX (X n i ti t

cette galit tant obtenue en observant que

E (1 +
Si on note

T T tn ))n Wi+1 + a (X tn )(n Wi2 b (X ) | Fti +1 i i n n

= 0.

i ( n x)) := n n x)a(X n )1 n Wi n x) (X (X (X ti ti ti1 ti T


on obtient donc

n ) (X ti+1

n X ti

=x

tn )i (X tn x) E 1xX n (X i+1 i t
i

i tn x) E 1xX (X n i t
i

Remarque 5.1.3 Remarque 5.1.4

Cette formulation de la densit a t largement utilise par [57] pour tudier la rgularit des densits de variables alatoires. Une tude sur les mthodes de rduction de variance de l'estimateur ainsi obtenu a t mene par [45] en dimension 1. Les fonctions et agissent comme des fonctions de localisation : on slectionne les trajectoires qui ne sont pas trop loignes de x. Typiquement, elles atteignent leur maximum en 0 et dcroissent ensuite rapidement. On peut choisir les fonctions et de manire minimiser la variance intgre des estimateurs du numrateur et dnominateur. Il est montr dans [10] que les fonctions et optimales sont y y de type exponentielle (y ) = e , (y ) = e , o

tn )2 i (1)2 /E (X tn )2 2 = E (X i+1 i+1 i (1)2 . 2 = E


On peut vrier que et ont une volution avec n de l'ordre de

n.

Si X est le log des prix dans le modle de Black-Scholes, i.e. b(x) = r /2 et a(x) = , on obtient
2

Remarque 5.1.5

i (f (Xti x)) = f (Xti x) +

n f (Xti x) {n Wi n Wi+1 } . T

5.1. APPROCHE PAR CALCUL DE MALLIAVIN


que

73

Preuve du Thorme 5.1.1 On commence par xer [a, b] tel que x [a, b] et on crit
tn ) (X i+1 tn X i tn ) (X tn ) E 1[a,b] (X i i+1 tn ) E 1[a,b] (X i
(5.1.1)

[a, b]

On se concentre sur le numrateur, le dnominateur tant obtenu de la mme manire 1 en remplaant par 1. On suppose que Cb , le rsultat gnral tant obtenu par passage la limite. On pose
n X t

n )(X n )d . 1[a,b] ( ) (X ti+1 ti

Par la Proprit 4.4.5, la Remarque 4.3.5 et le fait que (0) = 1, on a, pour tout t [0, T ],

tn ) (X tn )Dt X tn Dt = 1[a,b] (X i i+1 i


n X t

tn )Dt X tn (X tn ) + (X tn ) (X tn )Dt X tn d . 1[a,b] ( ) (X i+1 i+1 i i+1 i i

On pose

hi,t :=

n T

n ) + a (X n )n Wi+1 )1[t ,t )(t) n )1 1[t ,t ) (t) a(X n )1 (1 + T b (X a(X ti ti ti1 ti i i+1 i1 i n

On remarque que, par construction de hi et (4.4.1),


ti+1 ti1

tn hi,t dt = 0 Dt X i+1

et

ti+1 ti1

n hi,t dt = 1 Dt X ti

(5.1.2)

de sorte que
ti+1 ti1

n ) (X n) + Dt hi,t dt = 1[a,b] (X ti1 ti n ) (X n) + = 1[a,b] (X ti1 ti

n X t

n ) (X n ) d 1[a,b] ( ) (X ti ti1

[a,b]

n ) (X n )d . 1X (5.1.3) n (X ti ti1 t
i1

On calcule maintenant
ti+1

Dt hi,t dt =
ti1

n T n T

ti

ti1 ti+1 ti

tn )1 dt Dt a(X i1 tn )1 1 + T b (X tn ) + a (X tn )n Wi+1 dt . Dt a(X i i i n

D'aprs le Thorme 4.4.9 conditionnellement Fti1 ,

n T

ti ti1

n )1 dt Dt a(X ti1

= E

n n )1 n Wi a(X ti1 T

74CHAPITRE 5. ESPRANCES CONDITIONNELLES ET OPTIONS AMRICAINES et

n E T =E

ti+1 ti

n T ti+1 n tn )1 a (X tn )n Wi+1 dt +E Dt a(X i i T ti n tn )1 1 + T b (X tn ) n Wi+1 + E n a(X =E i i T n T ti+1 n tn )1 a (X tn )dt Dt (n Wi+1 )a(X E i i T ti

tn ) + a (X tn )1 1 + T b (X tn )n Wi+1 dt Dt a(X i i i n ti+1 tn ) dt tn )1 1 + T b (X Dt a(X i i n ti

ti+1 ti

tn )1 a (X tn )dt Dt (n Wi+1 )a(X i i

comme Dt n Wi+1 = 1 sur (ti , ti+1 ], on a donc par le Thorme 4.4.9 conditionnellement Fti

n ) + a (X n )n Wi+1 dt tn )1 1 + T b (X Dt a(X ti ti i n ti n tn )1 1 + T b (X tn ) n Wi+1 + E n a(X tn )1 a (X tn )(n Wi+1 )2 =E a(X i i i i T n T n )1 a (X n) . E a(X ti ti n T

ti+1

On a montr que
ti+1

E
ti1

Dt hi,t dt

n n )1 n Wi a(X n )1 1 + T b (X n ) n Wi+1 E a(X ti1 ti ti T n n )1 n a (X n )(n Wi+1 )2 a (X n) E a(X . ti ti ti T

En combinant cette quation avec (5.1.3), on obtient

n n )1 n Wi E a(X ti1 T T n )1 n ) n Wi+1 + a (X n )(n Wi+1 )2 a (X n) T a(X 1 + b (X ti ti ti ti n n =


[a,b]

n ) (X n) + E 1[a,b] (X ti1 ti

[a,b]

n ) (X n ) d , 1X n (X ti ti1 t
i1

ce qui implique, par dnition de ,

tn ) (X tn ) E 1[a,b] (X i i+1
En utilisant (5.1.1), on obtient

=
[a,b]

tn )i (X tn ) E 1X n (X i+1 i1 t
i

d .

n ) | X n [a, b] E (X ti+1 ti

[a,b]

tn )i (X tn ) E 1X n (X i+1 i t
i

d ,

tn ) E 1X n i (X i [a,b] t
i

5.1. APPROCHE PAR CALCUL DE MALLIAVIN


tn n'a pas d'atome, on en dduit le rsultat. et comme la loi de X i

75

La formulation du Thorme 5.1.1 fournit un estimateur naturel pour l'esprance condi n(j) )N de X n et dnir tionnelle. On peut ainsi considrer N copies indpendantes (X j =1 un estimateur de l'esprance conditionnelle par

n (X tn ) | X E ti i+1

N j =1

n 1X n X n(j ) (Xti+1 )i
(j ) ti ti ti ti

(j )

tn (X i

(j )

tn ) X i

(j ) (X tn(j) X tn ) 1X n X n(j ) i i i

(j ) (j ) sont les oprateurs correspondant la j -me trajectoire simule. En prao i et i tique ces estimateurs risquent d'tre instables cause de la division (ils n'ont d'ailleurs aucune raison d'tre dans L1 !). Il faut donc les corriger lgrement. Si est croissance polynomiale, il est assez facile de construire des polynmes et tels que

n ) E (X n ) | X n (X ti ti+1 ti

n) . (X ti

On dnit alors l'estimateur de l'esprance conditionnelle par

(X tn ) | X tn E i+1 i

tn ) E (X tn ) | X tn tn ) . (X := (X i i+1 i i

tn est dans tous les Lp , p 1, on obtient ainsi un Comme, d'aprs le Lemme 2.2.1, X i estimateur avec de bonnes proprits d'intgrabilit. On a le rsultat de convergence suivant.

Thorme 5.1.6 Sous les hypothses du Thorme 5.1.1, si on prend et de la forme


en |x| avec n n quand n , alors, pour tout p 1, tn (X tn ) | X tn E (X tn ) | X E i i i+1 i+1 C n 4p N 2p
1 1

Lp

o C ne dpend pas de n et N .
La preuve de ce rsultat n'est pas trs dicile mais un peu longue. Nous renvoyons [13] pour les dtails et pour l'tude du cas gnral.

Remarque 5.1.7
de

tn , X i

D'aprs la Remarque 5.1.2, si on connat explicitement la densit fX n ti on peut galement utiliser comme estimateur
1 N N j =1

(X n ) | X n = x E ti+1 ti

n(j) (j ) (X n(j) X n) 1X ti ti n X n(j ) (Xti+1 )i


ti ti

fX n (x) t
i

76CHAPITRE 5. ESPRANCES CONDITIONNELLES ET OPTIONS AMRICAINES Lorsque d 2, un rsultat similaire celui des Thormes 5.1.1 et 5.1.6 peut tre obtenu mais l'criture de l'estimateur est plus complique. Dans [10], vous trouverez une criture en terme d'intgrales de Skorohod itres. Le cas du modle de Black-Scholes a t tudi par [51], la formulation est alors plus simple. On peut n = X = W . A un nanmoins obtenir une forme lgante de ce rsultat dans le cas o X changement de variable prs, il est souvent possible de se ramener ce cas. On a alors sous des conditions analogues celles du Thorme 5.1.1

Remarque 5.1.8

E (Wti+1 ) | Wti = x

E (Wti+1 )

Qd 

=
Wt i (Wt x) i e n {T (n Wi n Wi+1 )+ }

 
n n Wi + } {T

=1 1x

Qd
=1

1x

Wt i

(Wt x) i

La convergence de l'estimateur Lp est alors en n 4p /N 2p . Dans ce cas particulier, on peut simplier la formulation de l'estimateur puisque l'on connat explicitement la densit des Wti , voir Remarque 5.1.7.

Exemple 5.1.9 On considre le processus suivant


1 2 3 dXt = diag [Xt ] dWt , X0 = X0 = X0 =1.

avec

0.2 0 0 = 0.08 0.4 0 . 0.03 0.15 0.32

On estime la densit du processus et l'esprance conditionnelle


r(x) = 100 E
1 2 X2 + X2 3 X2 2 +

| X1 = x

en dirents points. On donne le rsultat moyen obtenu ainsi que l'cart-type de l'estimateur avec ou sans fonction de localisation.
x \x 0.7
3 2

Densit Valeur exacte Avec localisation Sans localisation Valeur exacte Avec localisation Sans localisation Valeur exacte Avec localisation Sans localisation

1.0

1.3

x1 = 1.3 0.7 1.0 0.29 0.56 0.30[0.03] 0.56[0.02] 0.30[0.41] 0.57[0.43] 0.59 0.70 0.59[0.02] 0.70[0.01] 0.60[0.47] 0.72[0.48] 0.44 0.38 0.44[0.01] 0.38[0.00] 0.45[0.48] 0.40[0.49]

1.3 0.48 0.48[0.01] 0.51[0.44] 0.43 0.45[0.27] 0.47[0.49] 0.18 0.18[0.00] 0.22[0.51]

5.1. APPROCHE PAR CALCUL DE MALLIAVIN

77

x3 \x2 0.9

Esprance conditionnelle Valeur exacte Avec localisation Sans localisation Valeur exacte Avec localisation Sans localisation Valeur exacte Avec localisation Sans localisation

1.0

1.1

x1 = 0.9 0.9 1.0 17.26 20.56 17.28[1.12] 20.49[1.19] 16.88[5.01] 20.62[7.14] 13.70 16.59 13.72[0.82] 16.59[0.92] 12.97[6.20] 16.08[10.41] 10.88 13.39 10.94[0.85] 13.48[0.90] 10.58[17.54] 13.81[28.01]

1.1 24.05 24.06[1.17] 25.04[11.52] 19.61 19.73[1.00] 21.35[25.48] 16.11 16.32[1.05] 13.19[166.22]

On observe une trs forte volatilit de l'estimateur en l'absence de fonction de localisation. Il est donc absolument ncessaire de l'utiliser. Mme avec celle-ci, la variance reste forte. Cette approche doit donc tre combine avec d'autres techniques de rduction de variance ds que cela est possible.

5.1.2 Application l'valuation d'options amricaines


On revient maintenant au problme d'valuation d'options amricaines prsent dans la Section 2.6. On considre le problme discrtis

tn ) = g (X tn ) p n (tn , X n n n ) = max g (X n ) , erT /n E p n ) | X n p n (ti , X n (ti+1 , X ti ti ti+1 ti , i {0, . . . , n 1} .

Si g est lipschitzienne, il est facile de construire une suite de polynmes i (x) = i + 2 i x tels que les (i , i ) sont uniformment borns en i et n et tels que

n ) | X n E g (X tn tn1
et i

n ) n1 (X tn1 tn ) . i1 (X i1

tn ) erT /n tn ) | X tn E g (X i (X i i i1

On peut donc utiliser l'estimateur du Thorme 5.1.6 pour calculer les esprances conditionnelles. L'argorithme utilis est le suivant :

n(1) , . . . , X n(nN ) ) de X n =: X n(0) , et on pose Ni := {(i On considre nN copies (X 1)N + 1, . . . , iN }.

Initialisation :

n(j) . n(j) ) = g X Pour j {0} Nn , on pose : p n (tn , X tn tn


Pour i = n, . . . , 1, on pose, pour j {0} Ni1 :

Rcurrence rtrograde :

tn(j) ) = max g (Xtn(j) ) , erT /n E p tn(j) ) | X tn(j) p n (ti1 , X n (ti , X i1 i1 i i1

78CHAPITRE 5. ESPRANCES CONDITIONNELLES ET OPTIONS AMRICAINES o

p tn(j) ) | X tn(j) E n (ti , X i i1 p tn(j) ) | X tn(j) E n (ti , X i i1


pour i 1 et pour i = 1

tn(j) ) tn(j) ) E p tn(j) ) | X tn(j) i1 (X = i1 (X n (ti , X i1 i i1 i1 :=


Ni

tn( ) X tn(j) ) tn( ) ) ( ) (X n (ti , X 1X i1 n( ) p n(j ) X i1 i1 i


ti1 ti1

Ni

( ) (X tn( ) X tn(j) ) 1X n(j ) X n( ) i1 i1 i1


ti1 ti1

p n(j) ) E n (t1 , X t1

:=

1 N

n( ) ) . p n (t1 , X t1
N1

Comme on fait n approximations de l'esprance conditionnelle, l'erreur est de l'ordre de n fois celle donne par le Thorme 5.1.6, i.e.
0in

n) p n) n (ti , X n (ti , X max p ti ti

Lp

Cn n1/4p /N 1/2p .

Remarque 5.1.10 Remarque 5.1.11

On pourra bien videmment, et c'est mme fortement recommand, coupler cet algorithme avec une mthode de rduction de variance de type control variate comme celle propose dans l'Exemple 3.3.3. Tout ceci se gnralise une large classe d'quations forward-backward. La prsentation gnrale de la mthode et les vitesses de convergence sont dues n est de dimension d, la vitesse de convergence devient [13]. Lorsque le processus X n nd/4p /N 1/2p . Cette approche a t initie par [17] et [52] mais en utilisant des outils dirents pour le calcul des esprances conditionnelles, voir aussi [20], [37] et les rfrences de la section 2.6.
1 2 dans le modle de Black-Scholes en dimension 2. On prend X0 = X0 = K = 100, r = 11 12 21 22 0.05, T = 1, = 0.15, = 0, = 0.05 et = 0.10. On s'intresse deux types de moyenne, gomtrique et arithmtique, i.e. aux deux payos : +

Exemple 5.1.12 On utilise cette approche pour valuer un put amricain sur moyenne

geo

1 2 XT XT

et G

arith

2 X 1 + XT K T 2

On crit le prix en fonction du brownien, p(ti , Wti ). Le prix de l'option europenne gomtrique est donn par la formule de Black-Scholes avec dividende valant 6.25%, une volatilit de 7, 07% et un sousjacent correspondant la moyenne gomtrique de X 1 et 1 2 X 2 ( vrier en exercice en considrant la loi de XT XT ). On appelle BS geo (Wti , T ) le prix de l'option europenne sur moyenne gomtrique de maturit T la date ti pour une valeur Wti du Brownien. On considre l'estimateur suivant :
E p(ti+1 , Wti+1 ) | Wti = x = E p(ti+1 , Wti+1 ) 1 BS geo (Wti+1 , T ) 2 Wti+1 Qti (x, Wti ) fWti (x)

+1 er(ti+1 ti ) BS geo (Wti , T ) + 2 Wti

5.2. MTHODES DE QUANTIFICATION

79

o
Qti (x, Wti ) :=
1 2 1 2 Hx (Wti )i (Wt1 x1 ) i (Wt2 x2 ) ci (1) i (1) i i

1 et 2 correspondent aux du premier et du second Brownien, fWti est la densit de Wti , voir Remarque 5.1.7, et Hx (y ) = 1 si x1 y 1 et x2 y 2 , 0 sinon. La fonction de localisation est de type exponentielle avec un paramtre estim selon la formule de la Remarque 5.1.4. Le paramtre est le paramtre de corrlation estim, voir l'Exemple 3.3.1. En ce qui concerne le c, on utilise la proprit ( vrier en exercice en utilisant

la formule d'intgration par parties)


E

2 1 (1) (1) i p(ti+1 , Wti+1 ) 1 BS geo (Wti+1 , T ) 2 Wti+1 i

= 0

et on choisit le c de manire minimiser la variance de l'estimateur. Le prix de l'option amricaine sur moyenne gomtrique vaut environ 1.54. On donne les prix moyens estims et leur cart-type entre [ ]. n n N Gomtrique
5 2 048 1.48 [0.007] 10 2 048 1.52 [0.013] 20 4 096 1.54 [0.014]

Arithmtique

5 2 048 1.38 [0.017] 10 2 048 1.44 [0.029] 20 2 048 1.50 [0.143] 5 8 192 1.37 [0.007] 10 8 192 1.43 [0.009] 20 8 192 1.46 [0.033]

5.2 Mthodes de quantication


Les mthodes de quantication appliques l'valuation des options amricaines ont t introduites dans [4]. L'ide de la quantication est la suivante : Etant donne une variable alatoire Y dans L2 (Rd ), quantier Y revient se donner une grille = {x1 , . . . , xN } (Rd )N et dnie comme Y = Proj (Y ) o Proj dsigne approcher Y par la variable alatoire Y = minx Y x . la projection sur au sens du plus proche voisin, i.e. Y De manire plus prcise, an d'viter toute ambigut sur la nature du projet, on dnit une partition en cellules de Vorono, i.e. une partition C1 , . . . , CN de Rd telle que

Ci
et on pose

y Rd :

y xi = min y xj
j N

:= Y
i=1

xi 1Ci (Y ) .

80CHAPITRE 5. ESPRANCES CONDITIONNELLES ET OPTIONS AMRICAINES L'erreur de quantication L2 est alors dnie comme

Y Y

= E min Y xi
iN

On dit qu'une grille de quantication N points est optimale si elle minimise l'erreur de quantication sur l'ensemble de toutes les grilles N points.

par un processus L'ide est maintenant d'appliquer cette approche an d'approcher X valeurs sur un espace ni pour lequel les esprances conditionnelles de l'algorithme discret de la Section 2.6 peuvent tre calcules facilement.
Pour chaque k n, on se donne une grille k = (xk,1 , . . . , xk,Nk ) de quantication de t le quanticateur de X t . Si on connat les probabilits de Xtk Nk points. On note X k k transition k t = xk+1,j | X t = xk,j ij := P X k+1 k on peut alors calculer la suite p n = ( pn tk )kn dnie par

tn ) = g (X tn ) p n (tn , X t ) = max g (X t ) , E p t ) | X t p n (tk , X n (tk+1 , X k k k+1 k

k<n.

C'est la contre-partie du schma de discrtisation thorique de la Section 2.6. L'erreur d'approximation de p n est alors contrle par l'erreur de quantication.

Thorme 5.2.1 ([4]) Si g est Lipschitz, alors il existe C > 0 tel que, pour tout k n,
n

t ) p t )|2 E |p (tk , X n (tk , X k k


n

C
i=k

t X t X i i

On peut montrer que si la grille est optimale pour chaque k , alors l'erreur de quan2 t X t 2 est de l'ordre de O(N d ). Le problme est videmment de tication E X k k k construire les grilles de quantication optimales et d'estimer les probabilits de transik tion (ij ). Ceci peut-tre fait par des mthodes de gradient stochastique, voir la section 2.5 dans [4]. La page http ://www.proba.jussieu.fr/pageperso/pages/ propose un lien vers des grilles de quantication.

Chapitre 6 Complments (exercices)

6.1 Simulation d'un CIR : schma exact


On considre le processus de Cox Ingersoll Ross (CIR) X x dni sur [0, T ] par
t t x (a bXs )ds + 0 0 x dW Xs s

Xtx = x +

o x, a, b, > 0 et W est un mouvement brownien sur l'espace (, F , P) muni de la ltration naturelle F = (Ft )tT engendre par W complte. On suppose que a 2 /2 ce qui implique que X x > 0 P p.s. Par la suite on se donne := {0 = t0 < t1 < . . . < ti < . . . < tn = T } une partition de [0, T ].

1. Peut-on approcher X x par un schma d'Euler classique ? Justiez. 2. Soit 0. On suppose qu'il existe une fonction F Cb1,2 ([0, T ] R+ ; R+ ) vriant
F (t, x) t = (a bx) x F (t, x) + 1 2 x x sur [0, T ] R+ 2 F (t, x) 2 x F (0, x) = e sur R+ ,
2

(6.1.1)

x 2.1. Montrer que supk>0 suptT E Xtx k < o k := inf {t 0 : Xt k } T . x 2.2. Soit t (0, T ], montrer que le processus M dni par Ms := F (t s, Xs ) est une martingale sur [0, t].

2.3. En dduire que F (t, x) = E eXt .

3. On suppose maintenant que la solution de (6.1.1) est de la forme F (t, x) = ea(t)x(t) .


Quelles quations doivent vrier et ?

e 2L(t)+1 avec L(t) = ( 2 /4b)(1 ebt ) et (t, x) = 4xbebt /( 2 (1 ebt )). Quelle est la transforme de Laplace Ytx de Ytx := Xtx /L(t) ?
2

4. On admet que F (t, x) = (2L(t) + 1)2a/

L(t) (t,x)

5. On suppose que 4a/2 =: k N.


81

82

CHAPITRE 6. COMPLMENTS (EXERCICES)

5.1. Soit N une gaussienne de variance 1 et de moyenne m. Calculer la densit fN 2 de N 2 et sa transforme de Laplace N 2 . 5.2. En dduire une mthode de simulation des accroissements (Xtx Xtx ) lorsque i+1 i i<n 2 4a/ est un entier.

6. On considre maintenant le cas o 4a/2 est un rel strictement positif quelconque.


6.1. Soient > 0, > 0 et

f, (x) =

1 x x e 1x>0 , ()

la densit de la loi Gamma G(, ), o est la fonction Gamma. Comment simuler une variable alatoire (U, V ) de loi uniforme sur D := {(u, v ) (0, )2 : 0 u f, (v/u)} quand > 1 ? On commencera par montrer que D est contenu dans un rectangle . 6.2. On suppose > 1. Soit (U, V ) une variable alatoire uniformment distribue sur D. Quelle est la loi de V /U ? 6.3. Dduire des questions prcdentes une mthode de simulation de copies i.i.d. de loi G(, ) quand > 1. Donner le cot moyen d'un tirage en fonction du volume |D| de D. 6.4. Que faire quand = 1 ? 6.5. On rappelle que, pour tout > 0 et > 0, la transforme de Laplace de la loi G(, ) est donne par

, (y ) = (1 + y/ ) y 0 .
Soit > 0, M une variables alatoire de loi de Poisson de paramtre p > 0 et ( +i )i0 une suite de variables alatoires indpendantes (et indpendantes de M ) telle que +i G(( + i)/2, 1/2) pour chaque i 0. Calculer la transforme de Laplace +2M de +2M := i0 +2i 1i=M . 6.6. Comment simuler des copies i.i.d. de +2M ? 6.7. Dduire des questions prcdentes un mode de simulation des accroissements (Xtx i+1 x Xti )i<n . En pratique cette mthode est assez coteuse numriquement. Lorsque le pas de temps est petit, on prfrera discrtiser l'EDS associe X x en adaptant l'approche par schma d'Euler (voir ce sujet les travaux rcents de [1]).

Remarque :

6.2. SIMULATION D'UN CIR : SCHMA D'EULER IMPLICITE

83

6.2 Simulation d'un CIR : schma d'Euler implicite


On s'intresse l'quation direntielle stochastique

dXt = a(b Xt )dt + Xt dWt X0 = x0

(6.2.1)

o a, b, , x > 0 et (Wt )t0 est un mouvement brownien rel. Soit T > 0 et N N . On pose t = T /N et pour 0 k N , on note tk = kT /N = k t. 1. Quel rsultat assure l'existence d'une unique solution l'quation

Y dt + dYt = a 2 t Y0i = x0

dBt

o (Bt )t0 est un mouvement brownien standard. Que peut-on dire du processus Wt = t 1{Ys 0} 1{Ys <0} dBs ? Vrier que Xt = (Yt )2 est solution de l'quation (6.2.1) pour 0 2 . b= 4a 2. On se donne maintenant (Wt1 , . . . , Wtd )t0 un mouvement brownien valeurs Rd et pour 1 i d on note Yti la solution de

dYti = a Y i dt + 2 t Y0i = 1{i=1} x0 .


3. On pose Xt =
d i 2 i=1 (Yt ) . t

dWti

Que peut-on dire du processus


d t

Wt =
0

1 1{Xs >0} Xs

Ysi dWsi
i=1

+
0

1{Xs =0} dWs1 ?


d 2 . 4a

En dduire que Xt est solution de l'quation (6.2.1) pour b =

A partir de maintenant, on admet que l'quation (6.2.1) possde une unique solution (Xt )t0 telle que P(t 0, Xt 0) = 1.
df 4. On pose =
2ab 2

> 1 et
x

x > 0, s(x) =
1

y ey/b dy.

Pour k, n N tels que 1/n x0 k , on pose


k n = inf {t 0, Xt / ]1/n, k [} , k = inf {t 0, Xt k } . k < +) = 1. On admet que P(n

5. Vrier que x > 0, s (x) =

(b x) s (x). bx

84

CHAPITRE 6. COMPLMENTS (EXERCICES)

= s(x0 ). 6. Appliquer It s(X ). En dduire que E s Xn k 7. On suppose que > 1. Donner limn+ s(1/n). En dduire limn+ P Xn puis que P(t k , Xt > 0) = 1 en utilisant le k = 1/n lemme de Borel Cantelli (on utilisera une minoration adquate de s(1/n)). Conclure que P(t 0, Xt > 0) = 1.

On se place dsormais dans le cas > 1.


8. Calculer < X, W >t . 9. En remarquant que pour 0 k N 1, Xtk+1 Xtk Xtk+1 Wtk+1 Wtk est gal Xtk Wtk+1 Wtk ,

Wtk+1 Wtk +
N 1 k=0

donner la limite en probabilit de 10. Conclure que


N 1

Xtk+1 Wtk+1 Wtk lorsque N +.

x0 +
k=0

a(b Xtk+1 )

2 2

t +

Xtk+1 Wtk+1 Wtk

converge vers XT lorsque N +.

Ce rsultat suggre l'utilisation du schma implicite suivant X 0 = x0 et pour 0 k N 1,

t = X t + a(b X t ) X k+1 k k+1

2 2

t +

t X Wtk+1 Wtk k+1

(6.2.2)

pour l'quation (6.2.1). En raison du caractre implicite, il faut vrier que l'quation de rcurrence qui prcde a bien une solution. 11. Vrier que pour x > 0 et w R, l'quation

(1 + at)y 2 wy (ab( 1) + x) = 0
portant sur la variable y admet une unique racine strictement positive f (x, w). t )0kN v12. En dduire l'existence d'une suite de variables strictement positives (X k riant (6.2.2).

6.3 Discrtisation d'EDSR


On considre un march nancier form d'un actif risqu S de dynamique
t

St = S0 +
0

(Su )dWu , t T ,

6.3. DISCRTISATION D'EDSR

85

o est borne, uniformment lipschitzienne et vrie pour un > 0. On suppose que le taux sans risque est nul.

1. On note H2 l'ensemble des processus prvisibles vriant


T
1 2

H2

:= E
0

|t | dt

< .

On note le processus de H2 correspondant au nombre d'units de S dtenues dans le portefeuille. 1.1. Ecrire la dynamique de la richesse X x, associe une dotation initiale x et une stratgie de portefeuille sous la contrainte d'autonancement. 1.2. On suppose partir de maintenant que la gestion du portefeuille entraine un cot continu f , fonction uniformment lipschitzienne de constante de Lipschitz L, qui dpend de la valeur du portefeuille et de celle du sous-jacent S . La dynamique de la richesse s'crit alors
t t x, f (Xu , Su )du + 0 0

Xtx, = x

u dSu .

Montrer que pour tout (x, ) R H2 , X x, appartient l'ensemble S 2 des processus prvisibles vriant

S2

:= E sup |t |
tT

1 2

< .

2. On veut couvrir l'option g(ST ), i.e. trouver (x, ) R H2 tels que


x, XT = g (ST ) .

(6.3.1)

2.1. Montrer que cela revient trouver (Y0 , Z ) o (Y, Z ) S 2 H2 est solution de

Yt = Y0 0 f (Yu , Su )du + YT = g (ST ) .

t 0

Zu dWu t T

(6.3.2)

On supposera par la suite qu'un tel couple (Y, Z ) existe. 2.2. Montrer que pour tout 0 s t T
t

Ys = E Y t +
s

f (Yu , Su )du | Fs

(6.3.3)

Dans la suite de l'exercice, on tudie une mthode de discrtisation de l'quation (6.3.2). On xe un entier n > 0 et on considre la grille := {ti = ih, i = 0, . . . , n} de [0, T ], o h = T /n. A partir de maintenant, on suppose que g est uniformment lipschitzienne, de constante de Lipschitz L.

3.

86

CHAPITRE 6. COMPLMENTS (EXERCICES)

de S . 3.1. Rappeler la dnition du schma d'Euler S t )0in de manire rtrograde par 3.2. On dnit la suite (Y i tn = g (S tn ) Y t = E Y t + hf (Y t , S t ) | Ft Y i i+1 i+1 i+1 i , i = n 1, . . . , 0 .
(6.3.4)

t L2 pour tout i n. En utilisant une rcurrence, montrer que Y i


3.3. Montrer que pour tout a, b R et > 0 : (a + b)2 (1 + )a2 + (1 + 4/)b2 . 3.4. Dduire de (6.3.3) et (6.3.4) que, pour tout i {0, . . . , n 1} et > 0,

t Yt |2 (1 + + 3L2 (1 + 4/)h2 )E |Y t Yt |2 | Ft |Y i i i+1 i+1 i


ti+1 2

+ 3L2 (1 + 4/)E
ti

t Ss | + |Yt Ys |ds |S i+1 i+1

| Fti

3.5. On suppose partir de maintenant que Z S 2 . Montrer que, pour tout i {0, . . . , n 1},

sup
s[ti ,ti+1 ]

|Yti+1 Ys |2

C0 (ti+1 ti ) ,

o C0 est une constante qui ne dpend ni de i ni de (Rem : on peut en fait vrier cette proprit mme si Z / S 2 ). 3.6. En utilisant l'ingalit de Jensen, dduire des questions prcdentes que, pour tout i {0, . . . , n 1},

t Yt |2 | Ft + C (1 + 1/) h3 , t Yt |2 (1 + + 3L2 (1 + 4/)h2 )E |Y |Y i i+1 i+1 i i


o C > 0 est une constante indpendante de i et . 3.7. En choisissant > 0 correctement, en dduire que
0in

t Yt |2 max E |Y i i

tn Ytn |2 + h C2 h , C1 E |Y

o C1 et C2 sont deux constantes indpendantes de h.


1 2

3.8. Que peut-on dire de Errn := max E


0in

sup
s[ti ,ti+1 ]

t Ys |2 |Y i+1

? Justier.

H2 tel que 4.1. Montrer qu'il existe un processus Z t hE f (Y t , S t ) | Ft Y i i+1 i+1 i t = Y i+1
ti+1 ti

s dWs . Z

2 2 Ch o C ne dpend pas de h (Rem : on 4.2. Montrer que si f 0, alors Z Z H peut le montrer galement quand f 0).

6.4. APPROXIMATION DU TEMPS DE SORTIE D'UNE DIFFUSION

87

t (Wt Wt ) | Ft . Que proposez4.3. Dans le cas gnrale, i.e. f 0, calculez E Y i+1 i+1 i i vous pour estimer Z et ? dni sur chaque intervalle [ti , ti+1 ) par Z t = (ti+1 ti )1 E ti+1 Zs ds | Ft . 4.4. Soit Z i ti 2 2 En admettant qu'il existe C3 indpendant de h tel que Z Z H2 + Z Z H2 C3 h, t t |2 C4 h , o C4 est indpendant de h. montrer que n1 i+1 E |Zt Z
i=0 ti
i

Remarque :

t )i0 , on simule S et on utilise des esPour simuler les trajectoires (Y i timations de type Monte-Carlo pour approcher les esprances conditionnelles (voir le Chapitre 5).

6.4 Approximation du temps de sortie d'une diusion


Soit W un mouvement brownien unidimensionnel et F = (Ft )t0 sa ltration naturelle complte. Soient b une fonction lipschitzienne de R dans R, X0 R, > 0, T > 0 et X la solution de
t

Xt = X0 +
0

b(Xs )ds + Wt , t [0, T ] .

On se donne un maillage := {ti := ih , i n} o n N \ {0} et h := T /n. On note le schma d'Euler (continu) (t) := sup{s : s t} pour t T . Enn, on note X de X associ .

1. a. Rappeler la dnition du schma d'Euler (version continue). b. Donner la dnition du schma de Milschtein de X . c. Le fait que soit constante permet-il d'avoir une majoration du type :
(t) Xt |2 sup E |X
tT
1 2

Ch ,

pour une constante C > 0 indpendante de h ? (justiez brivement). Soit U un rel vriant U > X0 . On note

t U } , := inf {t [0, T ] : Xt U } et := inf {t [0, T ] : X


avec la convention usuelle inf = +.

2. Soit i {0, . . . , n 1} et xi , xi+1 deux rels appartenant (, U ). a. Donner la forme explicite de


p(xi , xi+1 ) = P t U | X t = xi , X t = xi+1 sup X i i+1
t[ti ,ti+1 ]

b. Proposer un mode de simulation de ( ).

88

CHAPITRE 6. COMPLMENTS (EXERCICES)

A partir de maintenant, on s'intresse l'cart entre T et ( ) T . On note d la distance signe U :

d(x) = (x U ) .
Etant donn > 0, on note

F (x) = d(x)2 / .
Dans tout le reste de l'exercice, C > 0 dsigne une constante gnrique qui peut changer de ligne en ligne mais qui ne dpend pas de h. On note C si elle dpend d'un autre paramtre .

3. Caculer les limites de F

et F (la drive premire et seconde de F ) quand x U . En dduire que l'on peut choisir r > 0 et susamment petit (l'un dpendant de l'autre) de sorte que :

1 b(x)F (x) + 2 F (x) 1 , x (U r, U ) . 2


A partir de maintenant, on supposera toujours que r et sont tels que l'ingalit prcdente est vrie.

4. a. Appliquer le lemme d'It F (X ) sur [ , T ] sur l'vnement A B avec


A := { < T } , B := {Xs (U r, U ) , s [ , T ]}
et en dduire que

E [( T )1AB ] E [|F (X T ) F (X )|1AB ]


T

E 1AB c

F (Xs )dWs

b. Montrer que pour tout p 1, il existe une constante Cp > 0 telle que
E
p sup |Xt |p | F 1 T Cp (1 + |X | )1 T . t[ ,T ]

(0, 1), il existe une variable alatoire admettant des moments de tous ordres tel que
T

c. En utilisant l'ingalit de Hlder conditionnellement F , montrer que, pour tout

E 1AB c

F (Xs )dWs | F

1 (T ) 2 P [A B c | F 1 ] T .

d. En utilisant le fait que F (X T ) = 0 si

et F (X ) = 0 si T , montrer que

1 E [|F (X T ) F (X E |d2 (X )|1AB 1 T ] )|1AB 1 T 1 2 E |d(X ) d(X )| 1AB 1 T

6.4. APPROXIMATION DU TEMPS DE SORTIE D'UNE DIFFUSION


Montrer ensuite que
2 E |d(X ) d(X )| 1AB 1 T

89

Ch.

En appliquant le Lemme d'It et des arguments dj utiliss en b., montrer que, pour tout (0, 1), il existe une variable alatoire admettant des moments de tous ordres tel que
1 E [|F (X T ) F (X ) 2 P [ > T | F 1A . )|1AB 1 >T ] (T ]
1

e.

f. Soit (0, 1/4) et


E := {X }. U h2
1

Montrer en utilisant la dnition de et l'ingalit de Tchebychev que, pour tout p 1, il existe Cp > 0 tel que
p t |p Cp hp . P [E c A] Cp hp 2 E sup |Xt X

tT

En dduire que pour tout (0, 1), il existe C, > 0 indpendant de n tel que

P [E c A] C, h1 . (0, 1), il existe une variable alatoire admettant des moments de tous ordres telle que
( )(1) P [ > T | F (T ) 2 1A ] 1E 1A h 2
1 1

g. En supposant (seulement pour cette question) que b = 0, montrer que, pour tout

(utiliser la loi du max d'un mouvement brownien). Donner une indication sur comment traiter le cas b = 0. Par la suite on admettra que ceci est vrai mme si b = 0. admettant des moments de tous ordres telle que

h. On admet maintenant que, pour tout (0, 1), il existe une variable alatoire
( )(1) P [B c | F ] 1E 1A h 2
1

Dduire de cette estimation et des questions prcdentes que, pour tout (0, 1), il existe C > 0 tel que

E [( T )1A ] C h 2 .

5. On admet que, pour tout (0, 1), il existe C > 0 tel que
E [( T )1 < . T ] C h 2
1

90

CHAPITRE 6. COMPLMENTS (EXERCICES)

Donner une majoration de E [|( ) T T |]. mation de T et donner une borne sur l'erreur eectue tenant compte de l'erreur d'approximation de T ainsi que de l'erreur statistique due l'approche par MonteCarlo.

6. En reprenant l'algorithme propos dans la question 2.b., proposer un mode d'esti-

Remarque 6.4.1

Nous renvoyons [12] pour l'tude de la vitesse de convergence du temps de sortie dans un cadre plus gnral. Voir galement [33].

6.5 Algorithme de Robbins Monro


Soit une fonction continue, borne, strictement croissante f : R R. On suppose qu'il existe x R tel que f (x ) = 0. Etant donne une suite (Un )n1 de variables alatoires indpendantes de mme loi uniforme sur [1, 1], on considre la suite (Xn , Yn )n0 dnie par X0 = 0 et

Yn+1 = f (Xn ) + Un+1 1 Xn+1 = Xn Yn+1 , n 0 . n+1


On note Fn = (Xi , 0 i n). 1. Ecrire E [Yn+1 | Fn ] en fonction de Xn . Calculer |Xn+1 x |2 |Xn x |2 et en dduire, en utilisant les hypothses faites sur f , que, pour tout n 0,

E |Xn+1 x |2 | Fn

|Xn x |2 +

1 E |Yn+1 |2 | Fn . (n + 1)2

2. Montrer qu'il existe une constante C > 0 telle que, pour tout n 1,
n1

Sn :=
k=0

1 E |Yk+1 |2 | Fk (k + 1)2

C P p.s.

En dduire que (Sn )n0 converge presque srement. 3. Dduire de 1. que le processus (Zn )n1 dni par

Zn := |Xn x |2 + C Sn
est une (Fn )n0 -sur-martingale. 4. En utilisant le fait que pour une sur-martingale positive (Wn )n1 , il existe une variable alatoire W telle que limn Wn = W P-p.s., dduire des questions prcdentes que la suite (|Xn x |)n0 admet une limite presque sre. 5. Montrer que pour tout n 1
n

0
k=0

2 E [f (Xk )(Xk x )] |x |2 + C . k+1

6.6. MTHODE DE REJET AVEC RECYCLAGE


6. Dduire de 5. que

91

E
k=0

2 f (Xk )(Xk x ) k+1

|x |2 + C .

7. En utilisant les hypothses faites sur f , montrer que, pour tout > 0,
|xx |>

inf (x x )f (x) > 0 .

8. Dduire de 6. et 7. que, pour Q ]0, [, P[A ] = 0 o

A :=

lim |Xn x |

Que peut-on dire de limn Xn ? Justiez. 9. On reprend le modle prcdent mais maintenant on dnit (Xn )n0 par X0 = 0 et

Xn+1 = Xn n Yn+1 , n 0 ,
o (n )n0 est une suite relle positive. Quelles conditions doit-on imposer sur la suite (n )n0 pour que Xn converge vers x presque surement ? Justiez brivement. 10. Proposer une mthode base sur des simulations permettant de rsoudre

g (x) = ,
o g est une fonction continue, borne, strictement croissante et g (R).

6.6 Mthode de rejet avec recyclage


On veut estimer par Monte-Carlo E [g (X )] o X est une variable alatoire de densit fX strictement positive sur R et g une fonction relle borne. On considre un couple (U, Z ) de densit f(U,Z ) (u, z ) = 1{u[0,1]} fZ (z ) o fZ est une densit strictement positive sur R. On suppose qu'il existe a > 0 tel que fX (z ) < afZ (z ) pour tout z R. On considre maintenant une suite (Uk , Zk )k1 de variables alatoires indpendantes de mme loi que (U, Z ). On pose 0 = 0 = 0 et on dnit de manire rcursive

i+1 := inf {k > i : fX (Zk ) > aUk fZ (Zk )} i+1 := inf {k > i : fX (Zk ) aUk fZ (Zk )} .
1- Donner (sans justication) la loi de (Z1 , . . . , Zn ) ? 2- Dcrire une mthode de rejet permettant d'estimer E [g (X )] .

92 3- Calculer := P [(U1 , Z1 ) D] o

CHAPITRE 6. COMPLMENTS (EXERCICES)

D := {(u, z ) [0, 1] R : fX (z ) > aufZ (z )} .


4- En dduire E [1 ] en fonction de a (on commencera par calculer la loi de 1 ). 5- En admettant que E [i+1 i ] = E [1 ] i 1 calculer E [n ]. Quelle interprtation donner ce nombre ? 6- Calculer la loi de n , i.e. P[n = k ] pour k 1. 7- Montrer que pour toute suite (Ai )i1 de Borliens de R
n

P [Zi Ai , i = 1, . . . , n | n = n + p] =
i=1 Ai

fX (z )dz

et que
p

P [Zi Ai , i = 1, . . . , p | n = n + p] = (a 1)
8- En dduire

p i=1 Ai

(afZ (z ) fX (z ))dz .

E
et

(a 1)fX (Zi ) g (Zi ) | n = n + p (afZ fX )(Zi )

, 1ip,

1 E n

g (Zi ) | n = n + p
i=1

9- En utilisant les rsultats de la question 8., proposer une mthode d'estimation de n E [g (X )] tenant compte de tous les lments de la suite (Zi ) i=1 . Justier.

6.7 Estimation d'esprances conditionnelles


Soit U une variable alatoire uniforme sur [0, 1] et X une variable alatoire de fonction de rpartition continue et strictement croissante sur R. 1. Soit I un intervalle de [0, 1] et (Un )n1 une suite i.i.d.1 de mme loi que U . On dnit la suite (Tn )n1 par

Tn+1 := inf {k > Tn : Uk I } , n 1 ,


avec comme convention T0 = 0. Soient m < M tels que P [X [m, M ]] > 0. Dterminer I tel que (1 (UTn ))n1 soit une suite i.i.d. de loi gale celle de X sachant X := [m, M ] (on admettra que la suite (UTn )n1 est i.i.d.).
1 i.e.

dont les lments sont indpendants et de mme loi.

6.7. ESTIMATION D'ESPRANCES CONDITIONNELLES

93

2. On pose n = Tn Tn1 pour n 1. Montrer que les n sont i.i.d. de loi gomtrique de paramtre > 0 prciser. 3. Soit I dni comme en 1. Montrer que, pour toute fonction borne f ,

m N :=

N n=1

f (1 (Un ))1I (Un )


N n=1

1I (Un )

11 N E[f (X ) | X ] P p.s.

(avec la convention 0/0 = 0). 4. On veut estimer la vitesse de convergence L2 de l'estimateur m N . On suppose que |f | fm o fm est une constante relle. On note

AN :=

1 N

f (1 (Un ))1I (Un ) , BN :=


n=1

1 N

1I (Un )
n=1

A := E[f (X )1X ] , B := P[X ] et r =


4.1. Montrer que

A . B

E[|m N r|2 ] 2 E
4.2. Montrer que

A AN BN B

1 2

11 N

+ rE[11 >N ] 2 .

|m N r|11 N =
et en dduire que

AN A B BN 11 N , +r BN BN

|m N r|2 11 N

4 2 |AN A + r(B BN )|2 + 4fm 1 c , 2 B

:= {|BN B | 21 B }. o 4.3. Dduire de la question prcdente que


1 C E[|m N r|2 11 N ] 2 , N

o C > 0 est une constante indpendante de N . 4.4. Dduire que

E[|m N r|2 ] 2 C N 2 + (1 )N/2

o C > 0 est une constante indpendante de N . Conclure sur la vitesse de convergence L2 de l'estimateur m N. 5. On se propose maintenant d'utiliser une autre mthode. 5.1. Calculer la loi de la suite (Yn )n1 dnie par

Yn := 1 ((m) + Un ((M ) (m))) , n 1 .

94

CHAPITRE 6. COMPLMENTS (EXERCICES)

5.2. Construire partir de (Yn )n1 un estimateur de E[f (X ) | X ]. Quel est son biais ? Quelle est sa vitesse de convergence L2 ? Comparer avec la mthode prcdente. 6. On suppose maintenant que f est continue. Soit (n )n1 une suite (dterministe) qui-rpartie sur [0, 1], i.e. telle que

1 N

g (n )
n=1 [0,1]

g (x)dx g continue borne de [0, 1] dans R .

En utilisant l'approche des points 3. et 5. proposer deux modes d'estimation de E[f (X ) | X ] partir de (n )n1 . Justier la convergence des deux mthodes.

6.8 Variables antithtiques


On se donne (Gi )i1 une suite de variables alatoires indpendantes et identiquement distribues suivant la loi gaussienne centre rduite. On dit qu'une fonction f : Rn R est monotone (resp. croissante) en chacune de ses variables si pour tout k {1, . . . , n}, l'application qui (x1 , . . . , xk1 , xk+1 , . . . , xn , x, y ) Rn+1 associe

(y x) (f (x1 , . . . , xk1 , y, xk+1 , . . . , xn ) f (x1 , . . . , xk1 , x, xk+1 , . . . , xn ))


est de signe constant (resp. positive) sur Rn+1 . 1. Quelle est la loi de Gi ? 2. Soit f, g : R R croissantes et bornes. (a) Quel est le signe de (f (G1 ) f (G2 ))(g (G1 ) g (G2 )) ? En dduire que Cov ((, f ) (G1 ), g (G1 )) 0.
I (b) Pour l'estimation de E [(] f (G1 )), quelle variable faut-il prfrer entre 21I 2 i=1 f (Gi ) et 21I I i=1 (f (Gi ) + f (Gi )) ? (comparer la fois la prcision et l'eort de calcul).

3. Nous allons voir que la technique de rduction de variance prcdente s'tend la dimension n 2 et mme la dimension innie. On admet que pour et : Rn1 R croissantes en chacune de leurs variables et bornes, on a

Cov ((, ) (G1 , . . . , Gn1 ), (G1 , . . . , Gn1 )) 0 .


On se donne f et g : Rn R croissantes en chacune de leurs variables et bornes. (a) Pour x R, quel est le signe de

E [(] f (G1 , . . . , Gn1 , x)g (G1 , . . . , Gn1 , x)) (x)(x)

(6.8.1)

o (x) = E [(] f (G1 , . . . , Gn1 , x)) et (x) = E [(] g (G1 , . . . , Gn1 , x)) ?

6.8. VARIABLES ANTITHTIQUES


(b) Que peut-on dire des fonctions (x) et (x) ? En dduire le signe de

95

E [(] (Gn )(Gn ))E [(] f (G1 , . . . , Gn1 , Gn ))E [(] g (G1 , . . . , Gn1 , Gn )).
(c) En intgrant l'ingalit (6.8.1) contre une densit bien choisie, vrier que

Cov ((, f ) (G1 , . . . , Gn ), g (G1 , . . . , Gn )) 0.


(d) Conclure que pour tout n N , pour toute fonction f : Rn R monotone en chacune de ses variables et borne,

Cov ((, f ) (G1 , . . . , Gn ), f (G1 , . . . , Gn )) 0.


(Remarquer que si = (1 , . . . , n ) {1, 1}n , le vecteur (1 G1 , . . . , n Gn ) a mme loi que (G1 , . . . , Gn ).) Qu'indique ce rsultat pour l'estimation de E [(] f (G1 , . . . , Gn )) par la mthode de Monte-Carlo ? 4. On se place maintenant dans le modle de Black-Scholes

St (W ) = S0 eWt +(r

2 /2)t

o S0 R + et W = (Wt )t0 est un mouvement brownien standard. On xe une maturit T > 0 et f : R R une fonction de payo monotone, continue et borne. Pour N N , on pose t = T /N et tk = kT /N = k t, k {0, . . . , N }. (a) Quel est le signe de Cov ((, f ) (ST (W )), f (ST (W ))) ?
N (b) On note MT (W ) = 1 N N 1 k=0

Stk (W ).

N i. Donner, en la justiant, la limite presque sre de MT (W ) lorsque N tend vers +.

ii. Montrer que


N MT (W ) =

S0 N 1 N

Wt 1 WtN 2 W 2 Wt1 W t1 , t , . . . , N t t t

o pour n N ,
n

n : (z1 , . . . , zn ) R
k=0

Pk

j =1 zj +k (r

2 /2)t

N N iii. En dduire le signe de Cov f (MT (W )), f (MT (W )) .

iv. Conclure que Cov f

1 T

T 0

St (W )dt , f

1 T

T 0

St (W )dt

0.

(c) Montrer de mme que Cov f maxt[0,T ] St (W ) , f maxt[0,T ] St (W ) 0.

96

CHAPITRE 6. COMPLMENTS (EXERCICES)

6.9 Un exemple de rduction de variance par intgration par parties et conditionnement


Soient X une variable alatoire de loi normale N (0, 1) et a < b deux rels. Soit Z une variable alatoire gale en loi X | X [a, b]. de rpartition de la loi N (0, 1). Lequel vous semble le plus ecace ?

1. Proposer deux modes de simulation dirents de Z bass sur l'inverse de la fonction


Soit une variable alatoire indpendante de Z de loi exponentielle de paramtre > 0. On note Y := Z 1 1 .

2.

Comment simuler Y ?

Etant donne une suite (Y i )i1 de copies i.i.d. de Y , on pose

m N :=

1 N

g (x + Y i ) , N 1 ,
i=1

o g est une fonction mesurable borne sur R et x R. On note m := E [g (x + Y )] et m := E [g (x + Z )].

3. a. Montrer qu'il existe p (0, 1) tel que


N Var [m N ] = (1 p) Var [g (x + Z )] + (m m)2 + p (g (x) m)2

b. Construire un estimateur m N de m dont la variance vaut N 1 (1 p)2 Var [g (x + Z )]. c. Quel estimateur de m est-il prfrable d'utiliser ? Donner deux raisons direntes.
A partir de maintenant, on insiste sur la dpendence de m en x en notant m(x), et on suppose g continuement drivable drive borne.

4. a. Montrer que la drive de m par rapport x est donne par


m (x) = E [g (x + Y )] .

b. Montrer que Y n'a pas de densit. c. Soit f la densit de Z . Peut-on avoir


m (x) = E [g (x + Z 1 1 )(f /f )(Z )] ?

d. Trouver des constantes et p telles que


m (x) = (1 p)E [g (x + Z )(f /f )(Z )] .

tits des questions a. et d..

e. Discuter les avantages relatifs des estimateurs naturels de m (x) associs aux iden-

6.10. SUITES UNIFORMES RANDOMISES

97

6.10 Suites uniformes randomises


Pour une fonction relle f sur [0, 1], on note f f = supx[0,1] |f (x)|.
p

=(

1 0

|f (x)|p dx)1/p pour p > 0 et

On considre une suite (n )n1 valeurs dans [0, 1] et on lui associe la fonction

FN (x) :=

1 N

1n x , x [0, 1] .
n=1

1. On dnit la discrpance Lp l'origine de la suite par


DN
(p)

:=

FN F

, p N {}

o F (x) := x sur [0, 1]. (1) a. Montrer que si x ]0, 1[ vrie |FN (x) x| b, b R+ , alors DN b2 /2. (1) () b. Dduire de a. que DN 0 implique DN 0. (p) (q ) c. En dduire que s'il existe p N {} tel que DN 0, alors DN 0 pour tout q N {}. d. Rappeler la dnition d'une suite uniforme sur [0, 1] et montrer qu'une suite est (p) uniforme si et seulement si DN 0 pour tout p N {}. e. En dduire que si (n )n1 est une suite de v.a. indpendantes uniformment distribues N 1 sur [0, 1] alors N n=1 1n x tend vers x uniformment sur [0, 1] p.s. 2. Soit f une fonction relle drive borne sur [0, 1] et U une loi uniforme sur [0, 1]. Montrer que pour p N

1 E[f (U )] N

f (n )
n=1

DN

(p)

1 o q vrie p +1 = 1 (on pensera a utiliser l'galit f (x) = f (0) + 0 f (z )dz ). q 3. En utilisant la loi du log itr2 , montrer que si (n )n est une suite de v.a. indpendantes uniformment distribues sur [0, 1] alors

lim sup
N

N (p) DN 2 ln ln N

, p N

o (x) := x(1 x) sur [0, 1]. 4. a. Montrer que

(DN )2 =
2 Soit

(2)

1 N2

(1 max(i , j ))
i,j N

1 N

(1 i2 ) +
i=1

1 . 3

(Xn )n est une suite de v.a. indpendantes de mme loi, d'esprance nulle et de variance gale N 1. On pose SN = ( n=1 Xn )/ N . Alors lim supN SN / 2 ln ln N = 1 p.s.

98

CHAPITRE 6. COMPLMENTS (EXERCICES)


(2)

b. On suppose que (n )n1 est une suite de v.a. indpendantes uniformment distribues sur [0, 1]. Montrer que E (DN )2 = 1/(6N ). Que peut-on dire sur E[|E[f (U )]
2 N 1 N n=1 f (n )| ] si f et U sont comme dans la question 2. ? 5. On revient au cas o la suite (n )n1 est dterministe. Etant donne une v.a V n )n par n := {n + V } o {y } uniformment distribue sur [0, 1], on dnit la suite ( dsigne la partie fractionnaire de y . On note

() := D N

N F F

N (x) := 1 F N

1 n x .
n=1

n est de loi uniforme sur [0, 1]. a. Montrer que pour tout n, b. On xe N 1. En dcomposant {1, . . . , N } en J1 := {j N : 0 j + V 1 x} et J2 := {j N : 0 j + V x}, montrer que N (x) x| |F
et en dduire que

sup
0 y1 y 2 1

1 N

1y1 n y2 (y2 y1 ) , x [0, 1]


n=1

() 2D() . D N N N (x) 4(D() )2 pour tout x [0, 1], et que, si f et U c. Montrer que N (x) := Var F N sont comme dans la question 2., alors E |E[f (U )] m N |2 4( f
() 2 1 DN )

N 1 o m N := N n=1 f (n ). d. Calculer E[m N ] et proposer une mthode pour estimer Var [m N ].

Touzi pour leurs conseils et leur aide lors de l'criture de la premire version de ces notes.

Remerciements : Je tiens remercier sincrement Fabian Astic, Laure Elie et Nizar

Bibliographie
[1] Alfonsi A., On the discretization schemes for the CIR (and Bessel squared) processes, rapport CERMICS [2005-279], 2005. [2] Arouna B., Adaptative Monte Carlo method, a variance reduction technique, prpublication. [3] Arouna B., Robbins-Monro algorithms and variance reduction in nance, The Journal of Computational Finance, 7 (2), 2003. [4] Bally V. et G. Pags, A quantization algorithm for solving multi-dimensional optimal stopping problems, Bernoulli, 9(6), 1003-1049, 2003. [5] Bally V. et G. Pags, Error analysis of the quantization algorithm for obstacle problems, Stochastic Processes and Their Applications, 106(1), 1-40, 2003. [6] Bally V. et D. Talay, The law of the Euler scheme for stochastic dierential equations (I) : convergence rate of the distribution function, Probability Theory and Related Fields, 104, 43-60, 1996. [7] BenHamou E., Application of Malliavin calculus and Wiener chaos to option pricing theory, Phd thesis, The London School of Economics and Political Science, 2000. [8] BenHamou E., An Application of Malliavin Calculus to Continuous Time Asian Options Greeks, preprint, 2000. [9] Bouchard B. et J.-F. Chassagneux, Discrete time approximation for continuously and discretely reected BSDE's, prpublication PMA, 2006. [10] Bouchard B., I. Ekeland et N. Touzi, On the Malliavin approach to Monte Carlo approximation of conditional expectations, Finance and Stochastics, 8 (1), 45-71, 2004. [11] Bouchard B. et R. Elie, Discrete time approximation of decoupled ForwardBackward SDE with jumps, Stochastic Processes and Their Applications, paratre, 2005. [12] Bouchard B. et S. Mnozzi, Strong Approximations of BSDEs in a domain, prpublication Ceremade, 2007. [13] Bouchard B. et N. Touzi, Discrete Time Approximation and Monte-Carlo Simulation of Backward Stochastic Dierential Equations, Stochastic Processes and their Applications, 111 (2), 175-206, 2004. 99

100

BIBLIOGRAPHIE

[14] Bouleau N. et D. Lpingle, Numerical methods for stochastic processes, Wiley series in probability and mathematical statistics, New-York, 1994. [15] Boyle P., M. Broadie et P. Glasserman, Monte-Carlo Methods for security pricing, Journal of Economic Dynamics and Control, 21, 1267-1321, 1997. [16] Broadie M. et J. Detemple, Recent advances in numerical methods for pricing derivative securities, in Numerical Methods in Finance, edt L.G.G. Rogers et D. Talay, Cambridge University Press, Cambridge, U.K, 43-66, 1998. [17] Carriere E., Valuation of the Early-Exercise Price for Options using Simulations and Nonparametric Regression, Insurance : mathematics and Economics, 19, 1930, 1996. [18] Ciarlet P.G., Introduction l'analyse numrique matricielle et l'optimisation, Collection Mathmatiques Appliques pour la Matrise, Masson. [19] Clark J.M.C. et R.J. Cameron, The maximum rate of convergence of discrete approximation for stochastic dierential equations, in Lecture Notes in Control and Information Sciences, Stochastic Dierential Systems, 25, Edt B. Grigelionis, Springer Verlag, Berlin, 1980. [20] Clment E., D. Lamberton, et P. Protter, An analysis of a least squares regression method for American option pricing, Finance and Stochastics, 6, 449-472, 2002. [21] Cvitani c J., J. Ma et J. Zhang, Ecient Computation of Hedging Portfolios for Options with Discontinuous Payos, to appear in Mathematical Finance, 2001. [22] Detemple J., R. Garcia et M. Rindisbacher, Representation formulas for Malliavin derivatives of diusion processes, preprint, 2002. [23] Detemple J., R. Garcia et M. Rindisbacher, Asymptotic Properties of Monte Carlo Estimators of Derivatives, preprint, 2005. [24] Faure O., Simulation du mouvement brownien et des diusions, thse de l'Ecole Nationale des Ponts et Chausses, 1992. [25] Fishman G. S., Monte Carlo. Concepts, Algorithms, and Applications, Springer Series in Operation Research, Springer, 1995. [26] Fourni E. , J.-M. Lasry, J. Lebuchoux et P.-L. Lions, Applications of Malliavin calculus to Monte Carlo methods in nance II, Finance and Stochastics, 5, 201236, 2001. [27] Fourni E. , J.-M. Lasry, J. Lebuchoux, P.-L. Lions et N. Touzi, Applications of Malliavin calculus to Monte Carlo methods in nance, Finance and Stochastics, 3, 391-412, 1999. [28] Fourni E. , J.-M. Lasry et P.-L. Lions, Some nonlinear methods for studying farfrom-the-money contingent claims, in Numerical Methods in Finance, edt L.G.G. Rogers et D. Talay, Cambridge University Press, Cambridge, U.K, 115-145, 1998.

BIBLIOGRAPHIE

101

[29] Fourni E. , J. Lebuchoux et N. Touzi, Small Noise Expansion and Importance Sampling, Asymptotic Analysis, 14, 361-376, 1997. [30] Glasserman P., Monte Carlo methods in nancial engineering, Springer, 2004. [31] Glasserman P. et D.D. Yao, Some guidelines and guarantees for common random numbers, Manag. Sci., 38, 884-908, 1992. [32] Glynn P.W., Optimization of stochastic systems via simulation, in Proceedings of the 1989 Winter simulation Conference, San Diego, Society for Computer Simulation, 90-105, 1989. [33] Gobet E., Schma d'Euler pour diusions tues. Application aux options barrire, thse de l'University Paris VII, 1998. [34] Gobet E., Weak approximation of killed diusion using Euler schemes, Stochastic Processes and their Applications, 87, 167-197, 2000. [35] Gobet E., Euler schemes and half-space approximation for the simulation of diffusion in a domain, ESAIM Probability and Statistics, 5, 261-297, 2001. [36] Gobet E. et A. Kohatsu-Higa, Computation of Greeks for barrier and lookback options using Malliavin calculus, Electronic Communications in Probability, 8, 51-62, 2003. [37] Gobet E., J.P. Lemor et X. Warin, Rate of convergence of empirical regression method for solving generalized BSDE. preprint Ecole Polytechnique, R.I.574, 2005. [38] Gobet E. et R. Munos, Sensitivity analysis using It-Malliavin calculus and martingales. Application to stochastic optimal, SIAM Journal on Control and Optimization, 43(5), 1676-1713, 2005. [39] Jckel P., Monte-Carlo methods in nance, Wiley Finance Series, Wiley, 2002. [40] Karatzas I. et S.E. Shreve, Brownian Motion and Stochastic Calculus. Graduate Texts in Mathematics, 113, Springer-Verlag, New York, 1998. [41] Karatzas I. et S.E. Shreve, Methods of mathematical nance, Applications of Mathematics, Stochastic Modelling and Applied Probability, 39, Springer-Verlag, New York, 1999. [42] Kemna A.G.Z. et A.C.F Vorst, A pricing method for options based on average asset values, J. Banking Finan., 14 (1), 1990. [43] Kloeden P.E. et E. Platen, Numerical solution of stochastic dierential equations, Applications of Mathematics, 23, Springer-Verlag, New York, 1992. [44] Kloeden P.E., E. Platen et H. Schurz, Numerical solution of SDE through computer experiments, Universititext, Springer-Verlag, New York, 1992. [45] Kohatsu-Higa A. et R. Pettersson, Variance reduction methods for simulation of densities on Wiener space, SIAM Journal on Numerical Analysis, to appear, 2001.

102

BIBLIOGRAPHIE

[46] Kunita H., Stochastic dierential equations and stochastic ows of dieomorphisms, Cours de l'cole d't de Saint-Flour, Lec. Notes in Math., 1097, SpringerVerlag, 1982. [47] Lamberton D. et B. Lapeyre, Une introduction au calcul stochastique appliqu la nance, Collection Mathmatiques et Applications, Ellipse, 1991. [48] Lapeyre B., E. Pardoux et R. Sentis, Mthodes de Monte-Carlo pour les quations de transport et de diusion, Mathmatiques et Applications, 29, Springer, 1998. [49] Lapeyre B., E. Temam, Competitive Monte Carlo methods for the pricing of Asian Options, Journal of Computational Finance, 5 (1), 2001. [50] L'Ecuyer P. et G. Perron, On the convergence rates of IPA and FDC derivatives estimators, Operation Research, 42, 643-656, 1994. [51] Lions P.-L. et H. Regnier, Calcul du prix et des sensibilits d'une option amricaine par une mthode de Monte Carlo, preprint, 2001. [52] Longsta F.A. et R.S. Schwartz, Valuing American Options By Simulation : A simple Least-Square Approach, Review of Financial Studies, 14, 113-147, 2001. [53] Malliavin P. et H. Airault, Intgration, analyse de Fourier, Probabilits, analyse gaussienne, Collection Matrise de Mathmatiques pures, Masson. [54] Musiela M. et M. Rutkowski, Martingale methods in nancial modelling, Applications of Mathematics, Stochastic Modelling and Applied Probability, 36, Springer-Verlag, New York, 1997. [55] Newton N. J., Variance reduction for simulated diusions, SIAM Journal on Applied Mathematics, 54 (6), 1780-1805, 1994. [56] Newton N. J., Continuous-time Monte-Carlo methods and variance reduction, in Numerical Methods in Finance, edt L.G.G. Rogers et D. Talay, Cambridge University Press, Cambridge, U.K, 22-42, 1998. [57] Nualart D., The Malliavin Calculus and Related Topics Springer Verlag, Berlin, 1995. [58] Nualart D., Analysis on Wiener space and anticipating stochastic calculus, Lect. Notes Math. 1690, Springer, Berlin, 1998. [59] ksendal B., An Introduction to Malliavin Calculus with Applications to Economics, Lecture Notes from a course given 1996 at the Norwegian School of Economics and Business Administration (NHH), NHH Preprint Series, 1996. [60] Pags G., Multi-step Richardson-Romberg Extrapolation : Remarks on Variance Control and Complexity, prpublication PMA, 2006. [61] Pags G. et Y. J. Xiao, Sequences with low discrepancy and pseudo-random numbers : theoretical remarks and numerical tests, Journal of Statistical Computation and Simulation, 56, pp.163-183, 1997.

BIBLIOGRAPHIE

103

[62] Protter P., Stochastic Integration and Dierential Equations, Applications of Mathematics, Stochastic Modelling and Applied Probability, 21, Springer-Verlag, New York, 1990. [63] Revuz D. et M. Yor, Continuous martingales and Brownian motion, 2nd Ed. Grundlehren der Mathematischen Wissenschaften, 293, Springer, 1994. [64] Rogers L.C.G., Monte Carlo valuation of American options, Mathematical Finance, 12, 271-286, 2002. [65] Seumen-Tonou P., Mthodes numriques probabilistes pour la rsolution d'quations du transport et pour l'valuation d'options exotiques. Thse de doctorat, Universit Provence-Aix-Marseille I, 1997. [66] Talay D., Discrtisation d'une quation direntielle stochastique et calcul approch d'esprances de fonctionnelles de la solution, Mathematical Modelling and Numerical Analysis, 20, 141-179, 1986. [67] Talay D. et L. Tubaro, Expansion of the global error for numerical schemes solving stochastic dierential equations, Stochastic Analysis and Applications, 8 (4), 483509, 1990. [68] Temam E., Couverture approche d'options exotiques - Pricing des options asiatiques, thse de doctorat de Paris VI, 2001. [69] Xiao Y. J., Contributions aux mthodes arithmtiques pour la simulation acclre, Thse de l'Ecole Nationale des Ponts et Chausses, Paris, 1990. [70] Zhang J., Some ne properties of backward stochastic dierential equations, PhD thesis, Purdue University, 2001.

Vous aimerez peut-être aussi