Académique Documents
Professionnel Documents
Culture Documents
Bruno Bouchard
Universit Paris VI, LPMA, et CREST bouchard@ccr.jussieu.fr
1 Premire
version: 2002
1.4
Notions gnrales . . . . . . . . . . . . . . . . . . . . . . . . Loi uniforme . . . . . . . . . . . . . . . . . . . . . . . . . . . Autres lois . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.3.1 Mthode d'inversion . . . . . . . . . . . . . . . . . . 1.3.2 Mthode du rejet . . . . . . . . . . . . . . . . . . . . 1.3.3 Mthode par transformation . . . . . . . . . . . . . . 1.3.4 Variables corrles et techniques par conditionnement Notion de discrpance . . . . . . . . . . . . . . . . . . . . . 1.4.1 Gnralits . . . . . . . . . . . . . . . . . . . . . . . 1.4.2 Cas des suites uniformment distribues . . . . . . . 1.4.3 Suites discrpance faible . . . . . . . . . . . . . . . Modle de Black-Scholes . . . . . . . . . . Schma de discrtisation . . . . . . . . . . 2.2.1 Discrtisation d'Euler . . . . . . . . 2.2.2 Schma de Milshtein . . . . . . . . Options Asiatiques . . . . . . . . . . . . . 2.3.1 Schmas simples . . . . . . . . . . 2.3.2 Schma avec dveloppement dans le Options barrire . . . . . . . . . . . . . . 2.4.1 Approche naive . . . . . . . . . . . 2.4.2 Approche par les ponts de diusion Options Lookback . . . . . . . . . . . . . . Options Amricaines . . . . . . . . . . . . Contrle antithtique . . . . . Rgularisation du payo . . . Variable de contrle . . . . . . 3.3.1 Motivation et exemples . . . . . . . . . . . . 3 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . modle de . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
. . . . . . . . . . .
. . . . . . . . . . .
. . . . . . . . . . .
. . . . . . . . . . .
. . . . . . . . . . . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . . . . . . . . . . . .
7 9 10 10 11 14 17 18 18 20 21
2 Mthodes de discrtisation
2.1 2.2
2.3
2.4
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Black-Scholes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
23
23 24 24 30 31 31 34 35 35 36 40 41 43 45 46 46
3 Rduction de la variance
43
3.4
57
4.4
57 58 60 60 61 62 63 63 67 71 71 77 79 81 83 84 87 90 91 92 94 96 97
5.2 6.1 6.2 6.3 6.4 6.5 6.6 6.7 6.8 6.9
Approche par calcul de Malliavin . . . . . . . . . . . . 5.1.1 Esprances conditionnelles et densits . . . . . . 5.1.2 Application l'valuation d'options amricaines Mthodes de quantication . . . . . . . . . . . . . . . .
71
6 Complments (exercices)
Simulation d'un CIR : schma exact . . . . . . . . . . . . . . . . . . . . . Simulation d'un CIR : schma d'Euler implicite . . . . . . . . . . . . . . Discrtisation d'EDSR . . . . . . . . . . . . . . . . . . . . . . . . . . . . Approximation du temps de sortie d'une diusion . . . . . . . . . . . . . Algorithme de Robbins Monro . . . . . . . . . . . . . . . . . . . . . . . . Mthode de rejet avec recyclage . . . . . . . . . . . . . . . . . . . . . . . Estimation d'esprances conditionnelles . . . . . . . . . . . . . . . . . . . Variables antithtiques . . . . . . . . . . . . . . . . . . . . . . . . . . . . Un exemple de rduction de variance par intgration par parties et conditionnement . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6.10 Suites uniformes randomises . . . . . . . . . . . . . . . . . . . . . . . .
81
Introduction
Dans les modles sans friction ni contrainte, le prix d'une option europenne, sur un sous-jacent X = (Xt )t0 , de payo actualis g (X ), s'crit comme l'esprance sous une probabilit risque neutre, unique si le march est complet, de sa valeur liquidative : p(0, x) = E [g (X ) | X0 = x]. Il existe de multiples manires d'valuer cette esprance : approche par arbres, par quations aux drives partielles (EDP), . . . Ici, nous nous concentrons sur l'approche Monte-Carlo. Elle consiste simuler un grand nombre de ralisations de g (X ) puis en prendre la moyenne p (0, x), la loi des grands nombres assurant la convergence de p (0, x) vers p(0, x). Le Chapitre 1 est consacr des gnralits sur les mthodes de Monte-Carlo et aux principaux modes de gnration de nombres "alatoires". Si g dpend de toute la trajectoire de X , ou si X est solution d'une quation diffrentielle stochastique (EDS) dont on ne connat pas explicitement la solution, il est gnralement impossible de simuler parfaitement g (X ). Il faut alors recourir une approximation qui correspond une discrtisation en temps. Ces techniques seront tudies dans le Chapitre 2. Mme lorsqu'on sait simuler g (X ), il arrive que la variance de l'estimateur soit trop grande pour que celui-ci soit able. Le Chapitre 3 est consacr aux techniques de rduction de variance. Connatre le prix auquel on peut vendre une option est important, mais il faut ensuite pouvoir se couvrir. La couverture tant dnie partir du delta, la drive de p(0, x) par rapport x, il faut pouvoir l'estimer. Le Chapitre 4 est consacr ce sujet. Il sera l'occasion d'introduire les notions de processus tangent et de drive de Malliavin. Enn, lorsque l'option est de type amricaine, les mthodes de Monte-Carlo standard conduisent estimer un trs grand nombre d'esprances conditionnelles. Nous verrons dans le dernier Chapitre comment la formule d'intgration par parties du calcul de Malliavin permet de les r-crire sous une forme exploitable numriquement. Nous renvoyons [41], [47] et [54] pour une prsentation thorique des techniques d'valuation et de gestion de portefeuille en nance.
Notations
On commence par introduire quelques notations. On indentiera un lment x de Rd au vecteur colonne associ de coordonnes xj , j = 1, . . . , d. On notera Md , l'ensemble des matrices carres de dimension d, de coordonnes aij . On notera Id la matrice identit de Md et ed le vecteur unit de Rd . La norme euclidienne sur Rd ou Md sera note . Pour un lment a de Md , on notera ai le vecteur ligne correspondant sa ime ligne et aj le vecteur colonne correspondant sa j -me colonne. La transpose i d de a Md sera note a . Pour un ensemble de point (xi )d i=1 , on notera Vect[(x )i=1 ] le vecteur colonne de componsantes xi . Pour x Rd , on notera diag [x] la matrice diagonale de Md dont les lments diagonaux sont les xi . Pour une fonction f : Rd Rn , on notera f sa matrice Jacobienne, i.e. (f )ij = f i /xj . Si f : (Rd )k Rn , on notera f , la matrice Jacobienne obtenue en drivant par rapport sa -me composante vectorielle, i.e. ( f (x1 , . . . , xk ))ij = f i (x1 , . . . , xk )/xj . On crira parfois k k simplement x f . On notera Cp (resp. Cb ) l'ensemble des fonctions C k croissance polynomiale (resp. bornes) dont les drives sont galement croissance polynomiale k (resp. bornes). Lorsque la fonction est seulement dnie sur A, on notera C k (A), Cp (A) k et Cb (A). N (m, ) dsignera la loi normale de moyenne m et de matrice de variancecovariance . On notera souvent par C > 0 une constante gnrique qui peut changer de valeur d'une ligne l'autre.
Thorme 1.1.1 (Loi des grands nombres) Soit (Yn )n1 une suite de v.a. relles int1 N
N
Yn E [Y1 ]
n=1
p.s. et dans L1 .
Si en plus les (Yn ) sont de carr intgrable, on peut montrer que la convergence a lieu dans L2 et on obtient un contrle de l'erreur p.s. et de l'erreur L2 .
Thorme 1.1.2 Soit (Yn )n1 une suite de v.a. relles i.i.d. de carr intgrable. On pose
m N := 1 N
N
Yn .
n=1
Alors ,
E |m N E [Y1 ]|2 =
et
1 = lim sup
N
Var (Y1 ) , N
= lim inf
N
1 Identiquement
p.s.
le fait que les Yn E [Y1 ] sont indpendants et centrs. La seconde est connue sous le nom de Loi du Logarithme itr.
Remarque 1.1.3
1 N 1
(Yn m N )2
n=1
2 est un estimateur sans biais de Var (Y1 ). D'aprs le Thorme prcdent, N /N est donc un estimateur sans biais de Var (m N ).
Enn, le thorme de la limite centrale permet de contruire des intervalles de conance asymptotiques.
Thorme 1.1.4 (Thorme de la limite centrale) Soit (Yn )n1 une suite de v.a. relles
1 N 1
N
Yn
n=1
et N :=
(Yn m N )2 .
n=1
Alors,
N m N E [Y 1 ] N 1 N >0 N (0, 1)
en loi .
Remarque 1.1.5
Une estimation seule ne veut rien dire. L'estimateur est une variable alatoire qui a sa propre variance. Deux estimations direntes peuvent conduire deux valeurs trs direntes. Il est donc important de connatre la variance de l'estimateur ou, et c'est encore mieux, de fournir un intervalle de conance. En particulier, lorsque l'on voudra donner un prix d'option calcul par simulation, il faudra toujours le mettre en perspective avec la variance de l'estimateur ou avec un intervalle de conance, de manire pouvoir juger de la prcision du rsultat obtenu.
un+1 = g (un ) n N
o g est une fonction de {0, . . . , M 1} dans lui-mme et u0 , appel graine, est initialiser dans {0, . . . , M 1}. On pose alors
xn =
un [0, 1[ M
nN.
Remarque 1.2.1
1. Il est clair que de telles suites ne permettent pas de gnrer tout les rels entre 0 et 1. 2. Par construction, les suites ainsi contruites sont priodiques de priode au plus gale M . Il faut donc s'assurer que la priode est susamment longue par rapport l'utilisation que l'on compte en faire. On peut choisir A, C et M de manire avoir une priode maximale, voir [25]. 3. Il est ncessaire d'initialiser la graine u0 . Pour obtenir des "tirages" dirents, il faut bien videmment partir d'une graine dirente. On peut par exemple initialiser la graine en utilisant l'horloge de l'ordinateur. Ceci doit se faire en tout dbut de programme. 4. La plupart des gnrateurs pr-programms dans les languages de type C sont de ce type. Il faut toujours vrier que la priode est susemment grande par rapport l'utilisation que l'on veut en faire (RAND MAX en C). Nous ne rentrerons pas plus ici dans la description de ces gnrateurs (voir par exemple [25] pour plus de dtails). Vous pouvez trouver de bons gnrateurs sur internet, en consultant par exemple la version en ligne du livre Numerical Recipes2 .
Remarque 1.2.2
2 http
1. Si U U[0,1] alors (b a)U + a U[a,b] . On passe ainsi d'un gnrateur de U[0,1] un gnrateur de U[a,b] . 2. Si U1 ,. . ., Ud sont indpendantes de mme loi U[0,1] alors (U1 , . . . , Ud ) U[0,1]d .
: //www.library.cornell.edu/nr/nr index.cgi
10
Voici un exemple de programme utilisant le gnrateur rand() du C++. #include<iostream.h> / pour cout / #include <stdlib.h> / pour rand(),..../ #include <time.h> / pour time() / void main( ) { int i ; srand((unsigned)time( NULL )) ; /initialisation de la graine par l'horloge /
/ Ache 100 simulations d'une uniforme sur [0,1] / for( i = 0 ; i < 100 ;i ++ ) cout << (oat) rand()/(RAND MAX ) << "\n" ; / rand() renvoie un nombre entier entre 0 et RAND MAX / }
rpartition FY . On pose
Proposition 1.3.1 Soit Y une variable alatoire relle valeurs dans R de fonction de
1 FY (u) := inf {y R : FY (y ) u} u [0, 1] .
= P [U FY (y )] = FY (y )
pour tout y R.
11
Remarque 1.3.2
y0 1U p0 +
i1
yi 1{Pi1 pj <U Pn
j =0
j =0
pj }
a mme loi que Y . Pour simuler Y , on simule donc U U[0,1] et on utilise la boucle
Remarque 1.3.3
Certains gnrateurs de nombres pseudo-alatoire peuvent renvoyer la valeur 0. C'est par exemple le cas de la fonction ran() en C . Si on n'y prend pas garde, 1 on est alors amen calculer FY (0) ce qui peut poser un problme l'ordinateur et gnrer une erreur si cette quantit n'est pas dnie (comme dans l'exemple ci-dessous). On verra dans la sous-section suivante comment grer ce problme.
Exemple 1.3.4 (Variable support continu) Si Y suit une loi exponentielle E (), >
0, on a : FY (y ) = 1 ey .
Si U U]0,1[ , 1 ln(1 U ) et Y on donc la mme loi. Comme 1 U suit galement une loi U]0,1[ , 1 ln(U ) suit galement une E (). Pour simuler une loi E (), il sut donc de simuler une variable U U]0,1[ et de poser Y = 1 ln(U ). Pour simuler une suite (Yn )nN de variables indpendantes de loi E (), on simule une suite (Un )n1 de variables indpendantes de loi U]0,1[ et on pose Yn = 1 ln(Un ), n 1.
Exemple 1.3.5 (Variable support discret) Si Y suit une loi de Bernouilli de paramtre p, on tire U U[0,1] et on pose Y = 1U p . Si Y suit une loi Binomiale de paramtre (n, p), c'est la somme de n variables de Bernouilli indpendantes de paramtre p. On pose donc
n
=
k=0
1Uk p
12
Alors, (Yn )n1 est une suite de v.a. i.i.d. de loi donne par
(A) = P [Z1 A | Z1 D] , A Rd .
On vrie facilement (voir preuve ci-dessous) que E [1 ] = E [n+1 n ] = 1/ o := P [Z1 D]. Donc, plus est petit et plus il y a de rejet, i.e. plus la simulation est coteuse.
P [ Z 1 A] =
k 1
P [1 = k , Zk A D] (1 )k1 P [Zk A D]
k 1
= P [Z1 A D] /P [Z1 D] .
On suppose maintenant que
n1
P [Zi Ai , i = 1, . . . , n 1] =
i=1
P [Z1 Ai D] /P [Z1 D] .
Etant donn le rsultat prcdent, il sut de montrer que cette proprit implique que
n
P [Zi Ai , i = 1, . . . , n] =
i=1
P [Z1 Ai D] /P [Z1 D] .
Or,
P [Zi Ai , i = 1, . . . , n] =
j 1,kn1
(1 )j 1 P [Z1 An D]
(Zn )n1 une suite de variables alatoires indpendantes suivant d une loi uniforme sur = d i=1 [ai , bi ] R et D tel que P [Z1 D ] > 0. On pose 1 := inf {k 1 : Zk D} n+1 := inf {k > n : Zk D} Yn := Zn n1.
13
Alors, (Yn )n1 est une suite de variables alatoires indpendantes de mme loi uniforme sur D.
Preuve. D'aprs la proposition prcdente, (Yn )n1 est une suite de variables alatoires
indpendantes de mme loi donne par
1 1 (z )dz Rd D
1A (z )1D (z )dz .
Rd
1D (z )dz ) sur Rd .
formments distribues sur D = {y Rd : 0 < y < 1}, il sut de simuler une suite de v.a indpendantes (Un )n1 U[1,1]d et de poser
1 := inf {k 1 : 0 < Uk < 1} n+1 := inf {k > n : 0 < Uk < 1} Yn := Un n1.
Exemple 1.3.8 Lorsque l'on veut simuler une suite (Yn )n1 de v.a. indpendantes uni-
b- Lois densit
La mthode de rejet est galement utilise lorsque l'on ne connat pas l'inverse de la fonction de rpartition de Y mais seulement sa densit fY . La proposition suivante est l'origine d'une premire mthode. Une seconde, plus simple mettre en oeuvre, sera prsente dans la section suivante, voir Proposition 1.3.18.
Proposition 1.3.9 Soit f une densit sur Rd , (Zn )n1 une suite de variables alatoires
indpendantes de densit g sur Rd , et soit (Un )n1 une suite de variables alatoires indpendantes suivant une loi uniforme sur [0, 1], indpendantes de la suite (Zn )n1 . On pose
1 := inf {k 1 : f (Zk ) > aUk g (Zk )} n+1 := inf {k > n : f (Zk ) > aUk g (Zk )} Yn := Zn n1,
o a est un rel x vriant f (z ) ag(z ) pour tout z Rd . Alors, la suite (Yn )n1 est une suite de variables alatoires indpendantes de mme densit f .
14
g ((u)) |det(()(u))| du .
D p.s. o D est un ouvert de Rd . Soit un diomorphisme de D sur un ouvert . Alors Y := (X ) a pour densit f ( 1 ()) det(( 1 )()) 1 () .
h( (x))f (x)dx .
E [h(Y )] =
15
a. Cas Gaussien
En utilisant cette formule et le fait que ( 1 )() = {( )( 1 ())}1 , on obtient directement le rsultat suivant sur lequel repose les deux principales mthodes de simulation de la loi normale : la mthodes de Box-Mller et l'algorithme polaire.
X :=
2 ln(U ) cos(2V ) , Y :=
2 ln(U ) sin(2V ) .
Remarque 1.3.15
Proposition 1.3.16 (Algorithme polaire) Soit (U, V ) uniformment distribue sur {(u, v)
R2 : 0 < u2 + v 2 < 1}, soit R2 := U 2 + V 2 et X := U 2 ln(R2 )/R2 , Y := V 2 ln(R2 )/R2 .
Preuve.
2 ln(R2 ) cos(),
2 ln(R2 ) sin()
suit une gaussienne N (0, I2 ). Or, (cos(), sin()) = (U/R, V /R) par construction. Il est facile partir de ces deux mthodes de simuler une suite de vecteurs gaussiens indpendants de mme loi N (0, Id ) puisque Y = (Y 1 , . . . , Y d ) N (0, Id ) si et seulement si (Y i )d i=1 est une suite de variables alatoires indpendantes de mme loi N (0, 1). Etant donn une matrice dnie positive Md et un vecteur de Rd , on simule galement facilement un vecteur de loi N (, ) en utilisant la procdure de factorisation de Cholesky.
16
Pour simuler un vecteur gaussien de loi N (, ) on procde donc ainsi. On commence par calculer la matrice A en utilisant l'algorithme de dcomposition de Cholesky (voir par exemple [18]). On simule ensuite un vecteur Y N (0, Id ) en utilisant la formule de Box-Mller ou l'algorithme polaire, puis, on calcule + AY .
b. Loi de Poisson
Si (Tk )k1 est une suite i.i.d. de loi exponentielle E (), > 0, alors
:=
n=1
n1{Pn
k=1
Tk 1
Pn+1
k=1
Tk }
P [Y = k ] =
k e , k0. k!
On dduit de l'Exemple 1.3.4 que, si (Uk )k1 est une suite i.i.d de loi U[0,1] , alors
Y
admet comme loi P ().
:=
n=1
n1{Qn+1 Uk e1/ Qn
k=1
k=1
Uk }
(u, v ) R2 : 0 < u2 f a1 + a2
est born. Alors, si (U, V ) est uniformment distribue sur Df , Z := a1 + a2 V /U a pour densit f .
17
f
/|Df |, on dduit du Corollaire 1.3.13 que (U 2 , Z ) a pour densit fU 2 ,Z (w, z ) = 10<wf (z) /(2a2 |Df |). La densit de Z est donc f /(2a2 |Df |). Comme f est dj une densit, on a forcment 2a2 |Df | = 1.
On peux utiliser la mthode du rejet pour simuler le couple (U, V ) uniformment distribu sur D, en partant d'une suite i.i.d. de couples uniformment distribus sur [0, u ] [v , v ] D o u = sup f (x)1/2 , v = inf [(x a1 )f (x)1/2 /a2 ], v = sup[(x
a1 )f (x) /a2 ]. On peut remarquer que si x f (x) et f (x) sont borns alors u , v et v sont bien nis et donc Df est born.
1 /2 2
x R
x R
x R
f (x, y ) = fX (x)f (y | X = x)
o fX est la loi de X et f ( | X = x) est la loi de Y sachant X = x. Pour simuler (X, Y ), on commence donc par simuler X selon fX puis on simule Y (indpendemment) selon la loi f ( | X = x ) o x est la valeur prise par la simulation de X . Lorsque X et Y sont indpendantes, on a simplement f ( | X = x ) = fY et cela revient a simuler X et Y indpendemment, chacun selon sa loi marginale.
fY (y ) =
i0
pi fi (y ) ,
o les fi sont des densits et les pi sont positifs (et donc ont une somme gale 1 car fY est aussi une densit). On peut voir fY (y ) comme la densit marginale du couple (X, Y ) o X a pour loi P[X = i] = pi et Y a pour loi fi conditionnellement {X = i}. On peut donc procder comme ci-dessus. Cela n'a videmment d'intrt que si l'on sait simuler les fi . Par exemple, si Y a pour densit
fY (y ) = f (y ) + (1 )f (y )
o ]0, 1[ et f (resp. f ) est la densit de la loi N (0, 2 ) (resp. N (0, 2 )), on commence par tirer une loi uniforme U sur [0, 1]. Si U , on tire ensuite Y selon la loi N (0, 2 ). Si U > , on tire Y selon la loi N (0, 2 ). Ceci revient poser p1 = , p0
18
= (1 ), f1 = f et f0 = f . X suit alors une loi de Bernouilli de paramtre , i.e. P[X = 1] = . On parle de mlange de gaussiennes.
2me cas.
fY (y ) =
g (y, x)dx ,
o g est une fonction positive. L encore, g est la densit d'un couple (X, Y ) o Y a pour loi marginale fY . On peut donc commencer par simuler X selon sa loi marginale fX (x) = g (y, x)dy puis on simule Y selon g (y, x )/fX ( x) o x est la valeur prise par la simulation de X .
1 lim N N
pour tout rectangles
N 1
(bj aj )
Dnition 1.4.1 Une suite (un )n1 dans [0, 1]d est dite uniforme sur [0, 1]d si pour tout
x [0, 1]d on a 1 lim N N
N d
i 1ui = n x
xi .
i=1
n=1 i=1
Il est important de ne pas confondre suite de v.a. uniformment distribues sur [0, 1]d et suite uniforme sur [0, 1]d . Une suite uniforme sur [0, 1]d n'est pas forcment une suite de v.a. uniformment distribues sur [0, 1]d . Par contre, il est clair, d'aprs la loi des grands nombres, qu'une suite de v.a. uniformment distribues sur [0, 1]d est presque surement uniforme. Etant donne une suite u = (un )n1 uniforme sur [0, 1]d , on dnit les discrpances
Dp (u, N ) := u F (x) FN (x) Lp (Rd ,dx)
p N {+} ,
19
F (x) :=
i=1
et
u FN (x)
1 = N
1yi xi .
n=1 i=1
u A x Rd x, le terme F (x) FN (x) correspond la dirence entre le volume d i thorique du rectangle i=1 [0, x ] et le volume "empiriquement" estim par la suite u. Si u est uniforme sur [0, 1]d , alors cette dirence doit tendre vers 0. La discrpance Dp (u, N ) mesure en quelque sorte la bonne rpartition des points de la suite u dans l'espace [0, 1]d .
(i) u est uniforme sur [0, 1]d (ii) lim Dp (u, N ) = 0 pour tout p N {+} N N 1 4 (iii) La mesure3 u N := N n=1 un converge troitement vers la mesure de Lebesgue sur [0, 1]d .
: [0, 1]d R est variation nie si il existe une mesure (signe) sur [0, 1]d (muni de la tribu borlienne associe) telle que ({1d }) = 0 et
d d
f (x) = f (1)
i=1
[x , 1]
= f (0)
[0, 1]
i=1
[xi , 1]
Remarque 1.4.4
[0,1]|I |
pour tout I = {i1 , . . . , i|I | } {1, . . . , d}, alors f est variation nie.
denote la mesure de Dirac en x N 1 signie que [0,1]d f du N = N n=1 f (un ) tend vers borne. 5 les drives tant prises au sens des distributions.
4 Ceci
x
[0,1]d
20
f (un )
n=1
V (f )D (u, N ) .
Pour calculer E [f (U )], U U[0,1]d , on peut donc utiliser une suite (un )n1 uniforme N 1 sur [0, 1]d et calculer N n=1 f (un ). Plus la discrpance de la suite sera faible et meilleur sera l'approximation de E [f (U )]. C'est une alternative aux mthodes de Monte-Carlo prsentes ci-dessus. Lorsque la suite (un )n1 est purement dterministe, comme c'est le cas pour les suites discrpance faible prsentes ci-dessous, on parle de Quasi-nombres alatoires.
lim sup
N
N D (U, N ) 2 ln ln N = =
N F U (x) F (x) 2 ln ln N N
sup
x[0,1]d
F (x)(1 F (x))
1 . 2
On a en fait
[0, 1] , alors
d
Thorme 1.4.6 Si
(Un )n1 est une suite de v.a. i.i.d. uniformment distribues sur 1 N (U, N ) = D . 2 ln ln N 2
lim sup
N
Par ailleurs,
cd E [D (U, N )] = , N
o cd lorsque d .
Ce rsultat montre en particulier que
D (U, N ) O
ln ln N N
p.s.
21
a- Suite de Halton
Etant donn un nombre premier p 2 et un entier n, il existe une unique dcomposition (dcomposition p-adique) de n sous la forme :
n,p n,p kn,p n = an,p 0 + a1 p + . . . + akn,p p n,p n,p o kn,p est un entier et les an,p k sont des entiers vriant 0 ak p 1 avec akn,p = 0. Cette dcomposition s'obtient facilement en utilisant la rcurrence n,p r0 = n n,p n,p n,p n,p an,p = rk mod p , rk = (rk k 1 ak1 )/p 1 k kn,p n,p avec kn,p = min{k 1 : rk +1 = 0} .
On note ensuite
ui n = pi (n) .
Pour cette suite, on a :
D (u, N )
ln(N )d N
voir par exemple [61]. C'est videmment mieux que ce que l'on obtient avec une suite de v.a. uniformment distribues sur [0, 1]d mais la majoration dpend de la dimension, ce qui n'est pas le cas pour les suites de v.a. uniformment distribues sur [0, 1]d (sauf en moyenne). En pratique, c'est beaucoup moins ecace en grande dimension. Pour d = 1, on parle de suite de Van der Corput.
22
b- Suite SQRT
Pour tout rel x, on pose Ent[x] sa partie entire. Soit p1 , . . . , pd les d premiers nombres entiers. Pour tout n 1 et 1 i d, on pose ui n = n pi Ent[n pi ]. On a alors
(u, N ) = O D
1 N 1
c- Suite de Faure
Soit p,d le plus petit nombre premier impair plus grand que d. On dnit l'application Q qui a un rationel x de la forme
x =
i0
xi +1 pi ,d
associe
Q(x) =
i0
j j i (i )xj mod +1 pi ,d
p,d
et on note Qk l'application obtenue en composant k fois Q avec la convention que Q0 est l'identit. On dnit alors la suite par
ui n = Qi1 (n 1)
On a
D (u, N )
1 n et 1 i d.
1 N
1 d!
p,d 1 2
(voir [69]).
(2.0.1)
Ici, X modlise l'volution de d sous-jacents sur le march (actions par exemples) et W est un mouvement brownien standard d-dimensionnel sur un espace de probabilit ltr complet (, F, P). On suppose que F = {Ft , t [0, T ]} est la ltration naturelle complte de W . En gnral, on supposera que a et b sont lipschitziennes, i.e. qu'il existe K > 0 tel que
K xy
(2.1.1)
o r R+ est le taux sans risque et Md est la matrice de volatilit (suppose inversible pour assurer la compltude du march). Ce systme se r-crit sous la forme :
i R , i = 1, . . . , d , dXti = rXti + Xti i. dWt , X0
(2.1.2)
1 i. 2
t + i. Wt
, i = 1, . . . , d .
(2.1.3)
Pour simuler Xt , il sut donc de simuler la valeur de W en t. Les Wti , i = 1, . . . , d, tant indpendants et de mme loi N (0, t), il sut donc de simuler d variables alatoires indpendantes de loi N (0, t). 23
24
n := (t0 , . . . , ti , . . . , tn )
avec
ti = iT /n .
On notera n t = T /n et n Wi+1 = Wti+1 Wti . L'ide de la discrtisation d'Euler est trs simple. Pour tout i = 1, . . . , n, on a :
ti ti
Xti = Xti1 +
ti1
b(Xs )ds +
ti1
a(Xs )dWs
(2.2.1) (2.2.2)
C'est l'quivalent stochastique du schma d'Euler utilis pour les quations direntielles ordinaires. n se ramne la simulation des accroissements de W , o n Wi La simulation de X N (0, n tId ) pour tout i = 1, . . . , n. On introduit maintenant un schma d'Euler "continu". Pour cela on dnit la fonction
(2.2.3)
n = X0 + X t
0
nn )ds + b(X s
nn )dWs . a(X s
(2.2.4)
25
2.2.1.2 Convergence Lp
n Lp pour A n x, une simple rcurrence montre que, sous l'hypothse (2.0.2), X ti tout i {1, . . . , n} et p 1. On vrie maintenant que ceci est vrai uniformment en n.
sup E
n1
sup
t[0,T ]
tn X
< .
Preuve.
On peut toujours supposer que p est pair et plus grand que 4 en utilisant l'ingalit des normes Lp L2p . On commence par utiliser l'ingalit de Jensen applique l'application convexe x x p pour crire que, pour tout t [0, T ],
n s sup X s t p
1 = 3 sup st 3
p
X0 +
0 p
3p1
X0
+ sup
st 0
nn )dr b(X r
+ sup
s t 0
nn )dWr a(X r
= s
p 0
1 n b(Xn )dr r s
p1 0
nn ) b(X r
dr .
p1 0
n b(X0 ) + K X + K X0 n r s n X n r p
dr
C 1+
0
dr
nn )dWr )tT n Lp pour tout i, on vrie en utilisant (2.0.2) que ( t a(X Comme, n x, X ti r 0 est une martingale continue de carr intgrable. En utilisant l'ingalit de BurkholderDavis-Gundy (Lemme 2.2.2 ci-aprs), l'ingalit de Jensen et (2.0.2), on obtient alors que
s p n a(X n )dWr r t p/2 n a(X n) s t 2
E sup
s t 0
E
0
ds
2 p/2
E tp/21
0 t
n a(X n) s
ds
C 1+
0
nn X s
ds
C 1+
0
n X n s
ds
C 1+
0
n r E sup X r s
ds
26
Il sut maintenant d'appliquer le Lemme de Gronwall (Lemme 2.2.3 ci-aprs) s n p pour conclure. E suprs X r On donne maintenant les deux Lemmes techniques que nous avons utiliss (voir par exemple [40]).
(Mt )t[u,v] une martingale continue sur [u, v ] de carr intgrable. Alors, pour tout m > 0, il existe km et Km > 0, ne dpendant que de m, tels que km E [( M v )m ] E sup Mt
utv 2m
Km E [( M v )m ] .
Lemme 2.2.3 (Lemme de Gronwall) Soit g une fonction continue positive vriant
t
g (t) (t) +
0
g (s)ds t [0, T ],
g (t) (t) +
0
max E
sup
t[ti ,ti+1 )
n tn X X n t
C/ n .
Preuve.
On pose p 4 et pair sans perte de gnralit. En argumentant comme dans le lemme prcdent, on montre que, pour tout i {0, . . . , n 1},
sup
t[ti ,ti+1 )
n tn X X n t
C E np/2+1
ti+1 ti
n b(X n) s
n + a(X n) s
ds
sup
t[ti ,ti+1 )
n tn X X n t
C np/2+1 Cnp/2 ,
ti+1
C 1+E
ti
n X n s
ds
27
Remarque 2.2.5
Les mmes arguments que ceux de la preuve prcdente montrent que, sous (2.0.2), pour tout p 1
1/p 0in1
max E
sup
t[ti ,ti+1 )
Xt Xn t
C/ n .
sup
t[0,T ]
n X t
Xt
C/ n .
Preuve.
On pose p 4 et pair sans perte de gnralit. En argumentant comme dans le lemme prcdent, on montre que
s[0,t]
n s sup X Xs
CE
0
n X n Xs s
ds .
s[0,t]
n Xs sup X s
CE
0
n Xs X s
t
nn X n + X s s
p
ds
C np/2 +
0
n Xr E sup X r
r s
ds
Remarque 2.2.7
On considre un payo qui dpend de la trajectoire de X en un nombre ni de dates (s1 , . . . , sk ), k 1. Si g est lipschitzienne, on obtient comme corollaire du Thorme 2.2.6 p 1/p n n g (Xs1 , . . . , Xs ) E g X C/ n . n , . . . , Xn k s s
1 k
Exemple 2.2.8 La remarque prcdente montre que le schma d'Euler permet d'apXsi
i=1
par
n k A (si )
i=1
1 := k
nn . X s
i
i=1
pour valuer les options sur moyenne du type [A(si )k K ]+ (call sur moyenne de strike i=1 K ), [XT A(si )k ]+ (call avec strike ottant), et les puts correspondants. Le Thorme i=1 2.2.6 nous assure une convergence Lp en 1/ n. De la mme manire, on peut approximer correctement le maximum discret
M ( si )k := max {Xsi , i {1, . . . , k }} i=1
n n k := max X par M . n , i {1, . . . , k } (si )i=1 si
28
n ) g (XT ) E g (X T
C/n .
Ce rsultat est du [66]. On va le dmontrer dans un cadre simpli. Pour cela, on va partiellement utiliser le Thorme de Feynman-Kac que l'on commence par rappeler, voir [40] et [46].
Thorme 2.2.10 (i) Supposons que b et a sont lipschitziennes et qu'il existe une sou 0 = + t
2 1 u ij u b + , (aa ) xj 2 i,j =1 xi xj j =1 j d d
sur [0, T ] Rd
(2.2.5)
g = u(T, )
sur Rd ,
alors
u(t, x) = E [g (XT ) | Xt = x] et g (XT ) = E [g (XT )] +
0 4 4 (ii) Si a Cb4 , b Cb2 et g Cp , alors la rciproque est vraie et u Cp . T
Pour simplier, on suppose que b et a sont bornes, que d = 1 et que la solution u de (2.2.5) est Cb . On a alors par It sur le schma d'Euler continu
n T E g (X ) g (XT ) n T = E u(T, X ) u(0, X0 ) T
= E
0
n ) g (XT ) E g (X T
= E
0
+E
0
29
, a et b sont bornes et On considre maintenant le premier terme. Comme u Cb n E Xt est uniformment born en t [0, T ] et n (Lemme 2.2.1), on obtient, en utilisant le Lemme d'It, que pour tout s [0, T ]
n ) ut (s, X nn ) E ut (s, X s s
C/n .
On obtient le mme type de majoration pour les autres termes, ce qui implique que
n ) g (XT ) E g (X T
et conclut la preuve.
C/n ,
On obtient donc une vitesse de convergence faible en 1/n. Evidemment, l'hypothse 4 n'est pas trs satisfaisante car gnralement non vrie en nance. Le rsultat g Cp prcdent peut tre amlior de la manire suivante.
alors
n T Eg (X ) Eg (XT ) =
Ck C1 + . . . + k + O(nk1 ) , k N . n n
Ce rsultat est trs important en pratique car il permet de ramener la vitesse de convergence en 1/n2 . En eet, d'aprs le thorme prcdent, on a
Remarque 2.2.12
30
mais on aurait p utiliser une approximation d'ordre suprieur. Pour xer les ides, on se place en dimension 1 et on suppose que b = 0. Alors, pour s (ti1 , ti ]
s
a (Xs ) = a Xti1 +
ti1
a(Xt )dWt
Ws Wti1 dWs =
ti1
1 2
Wti Wti1
n t
ti
Wti Wti1
n t
Le terme de drive b ayant une contribution infrieure dans l'erreur d'approximation par rapport au terme de diusion, il n'est pas ncessaire de le corriger. Pour d = 1, on obtient donc le schma d'approximation suivant :
n 0 X = X0 n = X n + b(X n )n t + a(X n ) Wt Wt X ti ti1 ti1 ti1 i i1 1 2 n Wti Wti1 n t + a X ti1 a(Xti1 ) 2
(2.2.8)
, i = 1, . . . , n .
n = X n X ti ti1
(2.2.9)
+
j,l=1
ti ti1
31
Le thorme suivant justie l'introduction de ce schma dans le sens o il permet d'obtenir une vitesse de convergence Lp en 1/n au lieu de 1/ n pour le schma d'Euler.
max E
n Xt X ti i
p 1/p
C/n .
La mise en oeuvre numrique du schma (2.2.9) suppose de savoir simuler correctement t l'intgrale d'It tii1 (Wsj Wtji1 )dWsl ce qui est trs dicile en pratique pour d = 1. En gnral, on n'utilise ce schma pour d 2 que lorsque l'hyposse de commutativit
(2.2.10)
est vrie. Dans ce cas, la formule d'intgration par parties du calcul d'It permet de r-crire (2.2.9) sous la forme :
n = X0 X 0 1 tn = X tn + b(X n )n t + a(X n ) Wt Wt X t t i i 1 i i1 i1 i1 2
d d
Il sut alors de simuler les accroissements de W . On peut dnir des schmas d'ordre suprieur, voir par exemple [43] et [44]. Mais en gnral, ils sont trs diciles mettre en oeuvre numriquement surtout en dimension d > 1. On peut se rfrer [19] pour une discussion sur le sujet. Voir galement [24] pour un expos complet sur le schma d'Euler et le schma de Milshtein.
Remarque 2.2.15
Xs ds .
At :=
0
Xs ds
A0 = 0 , dAt = Xt dt .
32
n dni par l'quation de rcurrence stochastique On approche donc AT par A T n A 0 = X0 n n t = A n n A ti1 + Xti1 t , i {1, . . . , n}. i
Cela revient utiliser l'approximation
T 0
1 Xs ds n
n1
tn . X i
i=0
C/ n .
Dans le modle de Black-Scholes , on peut simuler parfaitement X en un nombre ni de dates. On obtient alors un rsultat plus prcis.
Proposition 2.3.2 Si b(x) = rx, a(x) = diag [x] , et si g est lipschitzienne, alors, pour
tout p 1,
n , XT ) g (AT , XT ) g (A T
Lp
C/n
o
n = 1 A T n
n1
Xti .
i=0
n n = Ati A At A t ti +
(Xs Xti ) ds
ti
n o (A t )tT est le schma d'Euler continu de A. Par ailleurs, en utilisant la version stochastique du thorme de Fubini (voir par exemple [62])
t t s s
(Xs Xti ) ds =
ti ti t ti
rXu du +
ti t
=
ti t
rXu (
u
ds)du +
ti t ti
(
u
=
ti
(t u)rXu du +
33
Rd et
t t
Zt = z +
0
bs ds +
0
as dWs
E
0
bs
+E
as
ds <
Zt
2q
2q
+C
0
Zs
2q
+ bs
2q
+ as
2q
ds .
Lp
En appliquant ce Lemme aux galits prcdentes et en utilisant le fait que Xs uniformment borne sur [0, T ], on obtient que pour tout t [ti , ti+1 ]
est
n At A t
n Ati A ti
+C
ti
n As A s
+ (t s)p ds
n At A t
n Ati A ti
(1 +
C 1 ) + C p+1 n n C 1 ) + C p+1 n n
eC/n ,
n Ati+1 A ti+1
n Ati A ti
(1 +
eC/n .
L'approche prcdente consiste utiliser une mthode de rectangles pour discrtiser l'intgrale. Mme si d'un point de vue thorique, on obtient la mme convergence Lp que pour le schma d'Euler, il est en gnral nettement prfrable d'utiliser une mthode de trapzes en considrant
n = 1 A T n
n1
n + X n X ti ti+1 /2 .
i=0
mtres r = 0.1, = 0.2, T = 1, X0 = K = 100 avec n = 50. Le tableau ci-dessous donne les intervalles de conance simuls pour les deux mthodes, le prix rel tant d'environ 7.04. Nombre de simulations Euler Trapzes
10 000 20 000 50 000 100 000 [6.93 , [6.88 , [6.85 , [6.86 , 7.26] 7.11] 6.99] 6.96] [6.96 , [6.97 , [6.97 , [6.98 , 7.30] 7.21] 7.12] 7.09]
34
(Zt )2q = z 2q +
0
E
0
as (Zs )2q1
ds < ,
de sorte que
t
E (Zt )2q
= z 2q +
0
Zs
2q
Zs bs 2q Zs + as 2 q
+ bs
2q
Zs < bs
Zs
2q
+ bs
2q
e(r
pour obtenir
n1
ti+1
AT =
i=0
Xti
ti n1
e(r
2 /2)(tt )+ (W W ) t ti i
An T :=
i=0
Xti
T rT 2 + 2 + n 2n
ti+1 ti
On procde alors de la manire suivante : on commence par simuler (Wti )n i=1 puis on n n simule AT conditionnellement (Wti )i=1 . Pour cela, on utilise le rsultat suivant qui sera dmontr dans un cadre plus gnral par la suite (Lemme 2.4.3) :
u < v . Conditionnellement (Wu = x, Wv = y ), le processus est un processus gaussien vriant pour u s t v vt tu x+ y, vu vu (v t)(s u) Cov (Wt , Ws | Wu = x, Wv = y ) = . vu E [Wt | Wu = x, Wv = y ] =
(2.3.1) (2.3.2)
35
E
ti
Wt dt | Wti = x, Wti+1 = y
=
ti
E Wt | Wti = x, Wti+1 = y dt
et
ti+1 2
E
ti ti+1
Wt dt
t
| Wti = x, Wti+1 = y
=2
ti ti
la seconde galit tant obtenue en utilisant le Lemme d'It. On en dduit une formule explicite en utilisant (2.3.1) et (2.3.2). En utilisant ce schma, on amliore la vitesse de convergence.
C/n3/2 .
Nous renvoyons [49] et [68] pour les preuves de ces rsultats ainsi que l'tude d'autres approximations.
E [1 >T g (XT )]
:= inf {t [0, T ] : Xt / D}
(2.4.1)
n E 1 n >T g (XT )
(2.4.2)
est l'quivalent discret de . Cette quantit est facilement simulable et on a le rsultat de convergence suivant dmontr dans [34].
36
tement uniformment elliptique2 sur D, alors, pour toute fonction mesurable g borne qui s'annule sur un voisinage de D, on a
n E 1 n >T g (XT ) E [1 >T g (XT )] = O 1 n .
Il s'agit d'un rsultat assez ngatif dans la mesure o l'on perd la vitesse de convergence faible obtenue pour les options vanilla. Nous renvoyons la Section 6.4 pour une tude de la vitesse de convergence de n vers , voir galement [12] pour le cas o la diusion n'est pas uniformment elliptique.
n) E 1 n >T g (X T
n n := inf {t [0, T ] : X t / D}
(2.4.3)
c'est--dire que l'on crit le problme sur le schma d'Euler continu. On a alors le rsultat de convergence suivant dmontr dans [35].
D est un demi-espace, b et a C 5 avec a strictement uniformment elliptique sur D, alors, pour toute fonction mesurable g borne qui s'annule sur un voisinage de D, on a n ) E [1 >T g (XT )] = C1 + o E 1 n >T g (X T n 1 n .
Thorme 2.4.2 Si
On retrouve ainsi une vitesse de convergence faible en 1/n. Par ailleurs, le premier terme dans le dveloppement suggre de mettre en place une mthode de type Romberg an d'obtenir une vitesse en o (1/n) au lieu de 1/n
37
Lemme 2.4.3 On suppose que (x) = (a(x)a (x))1/2 est inversible pour tout x Rd .
n = xi , X n = xi+1 ), le processus (X n )t tt a la loi Alors, conditionnellement (X ti ti+1 t i i+1 de tt xi + (xi )W i
ti tti+1
est un mouvement brownien. C'est un processus gaussien d'esprance xi ti+1 t + o W ti+1 ti (sti )(ti+1 t) tti 2 et de matrice de variance-convariance ( x ) pour tout t xi+1 ti+1 i i s ti ti+1 ti t ti+1 . tn Elments de preuve. Conditionnellement X
i
tn )t tt est un processus = xi , (X i i+1 de diusion homogne qui admet pour densit de transition ph (x, z ) = 1 (2h)d det[ 2 (xi )] exp 1 (z x b(xi )h) ( 2 (xi )) (z x b(xi )h) 2h .
Pour ti s t ti+1
n dx , X n dy , X n dxi+1 | X n = xi P X s t ti+1 ti = psti (xi , x)pts (x, y )pti+1 t (y, xi+1 )dxdydxi+1
n s tn dxi+1 | X tn = xi P X dx, X i+1 i
n dy | X n = x, X n = xi , X n = xi+1 P X t s ti ti+1
Ceci montre que
i+1 pti ,xi
,xi+1
(s, x, t, y ) :=
tn )t tt tn = est la densit de transition du processus (X conditionnellement (X i i+1 i n = xi+1 ). Le reste en dcoule par des calculs directs. xi , X ti+1
Remarque 2.4.4
n , on vrie facilement que En utilisant la proprit de Markov de X n )t tt pour i allant de 0 n 1 sont indpendants conditionnellement les processus (X t i i+1 n, . . . , X n }. {X t0 tn
2.4.2.2 Implmentation
On peut maintenant dcrire la mthode. On commence par simuler le schma d'Euler tn )n (X et on crit i i=1
n T E 1 n >T g (X )
tn )n n) = E E 1 n >T | (X g (X T i i=1
38
n n ce qui signie qu'il faut calculer E 1 n >T | (Xti )i=1 , une fois la trajectoire discrte n )n simule. Evidemment si un des X n n'est pas dans D, il n'y a rien faire et le (X ti i=1 ti tn simuls payo de l'option donne 0. On ne calcule donc cette probabilit que si les X i sont tous dans D. Pour cela, on va utiliser les rsultats de la section prcdente. Tout d'abord, la Remarque 2.4.4 implique que
n1
tn )n E 1 n >T | (X i i=1
=
i=0
Nous allons maintenant montrer que, dans le cas o D est un demi-espace, le calcul est explicite. On crit D sous la forme
(2.4.4)
n n n P t [ti , ti+1 ], X t / D | Xti = xi , Xti+1 = xi+1 tt ( xi ) | W t t = (xi )1 (xi+1 xi ) = P t [ti , ti+1 ], (xi )W i i+1 i
On choisit maintenant une matrice P orthogonale3 telle que P 1 = t = (P W tt )t[t ,t ] a la mme loi que W . Par ailleurs processus W i i i i+1
1 ( xi )
(xi ). Le
tt = (xi )P W tt = (xi )W i i
t1 (xi ) W ti
car le vecteur ligne (xi )P a seulement sa premire composante non nulle, gale (xi ) . En r-injectant ce rsultat dans les galits prcdentes, on obtient
Cette probabilit se calcule facilement en utilisant le principe de rexion du brownien (voir Lemme 2.4.8)
t[ti ,ti+1 ]
t1 1 min W ti a | Wti+1 ti = b
= e2 T a(ab) a 0 et b a
(2.4.5)
xi+1 xi ) xi ) que l'on applique b = ( et a = (( . Puisque l'on ne fait ce calcul que si xi ( xi ) xi ) D, on vrie bien que a 0 et b a. Finalement, on a montr que
3 i.e.
P P = P P = Id .
39
Proposition 2.4.6 Si
(x)2 est inversible pour tout x Rd et si D est donn par (2.4.4), alors pour tout xi , xi+1 D, on a n D | X n = xi , X n = xi+1 P t [ti , ti+1 ], X t ti ti+1 n ( ( xi )) ( ( xi+1 )) = 1 exp 2 T (xi ) 2 .
(2.4.6)
Lorsque D n'est pas un demi-espace, on n'a en gnral plus de forme explicite pour (2.4.6). On peut toutefois essayer d'approcher D par son hyperplan tangent en D (xi ), le projet de xi sur la frontire de D. Si D est de classe C 5 , on retrouve la vitesse en 1/n du Thorme 2.4.2, voir [35].
K ]+
dans le modle de Black-Scholes de paramtres r = 0, = 0.15, T = 1, X0 = 100, K = 90, U = 130. Le tableau ci-dessous donne les intervalles de conance simuls pour les deux mthodes (nave et par pont), le prix rel tant d'environ 9.21. On eectue chaque fois 30.000 simulations. Nombre de pas de temps
10 50 100
Mthode Nave
[9.84 , 9.97] [9.46 , 9.60] [9.40 , 9.54]
La sur-estimation de la mthode nave est agrante : il est absolument ncessaire d'utiliser la mthode tenant compte de la probabilit de sortie de D entre deux dates de discrtisation.
On conclut cette section par le Lemme que l'on a utilis pour obtenir (2.4.5).
W un mouvement brownien unidimensionelle et {FtW , t 0} sa ltration naturelle. Alors pour tout a 0, b a et h > 0 P min Wt a | Wh = b = e h a(ab) .
2
t[0,h]
min Wt a , Wh b
40
W W par la proprit mesurable et que Wh Wa est indpendant de F Comme a est F a a de Markov forte du mouvement brownien, on obtient
t[0,h]
min Wt a , Wh b
= P (a h , Wh Wa a b) = P (a h , Wh 2a b)
P
Finalement, comme
t[0,h]
min Wt a , Wh b
= P (Wh 2a b) .
t[0,h]
min Wt a | Wh = b
P b
mint[0,h] Wt a , Wh b , P (Wh b) b
dans un modle
E g XT , max Xt
t[0,T ]
n , max X n E g X T t
t[0,T ]
n , le maximum du schma d'Euler continu. On Pour cela, il faut pouvoir simuler max X t
t[0,T ]
tn = max X
max
tn max X
(2.5.1)
n | (X n )n max X t ti i=1
= Loi
t[ti ,ti+1 ]
n | X n, X n max X t ti ti+1
dont la fonction de rpartition est donne par la Proposition 2.4.6 avec D = (, M ) (i.e = 1 et = M )
t[ti ,ti+1 ]
= 1 exp 2
41
1 2
xi + xi+1 +
(xi+1 xi )2 2
a2 (xi )T ln(1 U ) n
On en dduit que
n1 t[ti ,ti+1 ]
tn max X
i=0
n = xi , 0 i n) = sachant (X ti
loi
1 Fn (Ui ; xi , xi+1 )
n1 i=0
1 o (Ui )n i=0 est une suite de variables alatoires indpendantes uniformes sur [0, 1]. D'aprs tn , 0 i tn conditionnellement (X (2.5.1) cela permet de simuler parfaitement max X i t[0,T ]
n). On peut procder de la mme manire pour d 1, en considrant les maxima des direntes composantes de X .
p(0, x) =
T[0,T ]
sup E er g (X ) | X0 = x
o X est la solution de (2.0.1) avec b = rX , r > 0 est le taux sans risque et T[0,T ] est l'ensemble des temps d'arrts valeurs dans [0, T ] (voir par exemple [47]). On discrtise n valeurs cette quation naturellement en considrant l'ensemble des temps d'arrts T [0,T ] n . On obtient dans {0 = t0 , t1 , . . . , tn = T } et en remplaant X par son schma d'Euler X alors l'approximation
p n (0, x) =
n T [0,T ]
n) | X n = x . sup E er g (X 0
, i {0, . . . , n 1} .
n ) p(ti , Xt ) p n (ti , X ti i
Lp
C/ n .
On pourra se rfrer [4], [5], [9], [11], [13] et [70] pour une approche similaire applique la discrtisation d'quations forward-backward plus gnrales.
42
XT = X0 exp (r 2 /2)T WT
E
Si
g (XT ) + g (XT ) 2
= E [g (XT )] .
Var
ce qui revient dire que
g (XT ) + g (XT ) 2
<
43
44
on peut obtenir une meilleure prcision en simulant deux fois moins d'accroissement du brownien. En eet, si N est le nombre de simulations par la mthode sans contrle antithtique, alors sous la condition prcdente
Var
N/2
<
Var (g (XT )) , N
g (X )+g (X )
T T avec N/2 trajectoires est ce qui signie que l'estimateur obtenu en simulant 2 plus prcis que celui qui consiste simuler g (XT ) avec N trajectoires. On peut montrer qu'il y a un gain de variance ds que WT g (XT ) est monotone.
avec ingalit stricte si g est strictement monotone sur un domaine de mesure non nulle.
Par dnition de m, on a ( g (w) m) f (w)dw = 0 . On utilise ensuite la monotonie de g pour montrer que pour tout w
modle de Black-Scholes. On prend r = 0, = 0.3, T = 1, X0 = 100, et un strike K = 105. Le tableau suivant rsume les cart-types et les intervalles de conance estims avec et sans contrle antithtique. Le nombre de trajectoires correspond au N ci-dessus. Le prix exact est de 14.88. Nombre de trajectoires
20 000 200 000 1 000 000
Exemple 3.1.2 On applique cette mthode l'valuation d'un put europen dans le
Avec
Sans
0.0256 , [14.83 , 14.93] 0.1163 , [14.62 , 15.08] 0.0181 , [14.85 , 14.92] 0.03684 , [14.77 , 14.91] 0.0080 , [14.87 , 14.90] 0.0165 , [14.85 , 14.91]
45
Le gain est vident, surtout pour un petit nombre de trajectoires. On refait maintenant la mme tude pour le payo (non monotone) [K XT ]+ +[XT K ]+ : Nombre de trajectoires
20 000 200 000 1 000 000
Avec
Sans
0.1723 , [24.40 , 25.08] 0.1349 , [24.57 , 25.10] 0.0554 , [24.72 , 24.93] 0.0421 , [24.66 , 24.83] 0.0247 , [24.71 , 24.80] 0.0188 , [24.72 , 24.79]
tions croissance polynomiale telles que g = n G/x1 xn au sens des distributions, alors :
n
Proposition 3.2.1 On suppose que a sur R pour un > 0. Soient g et G deux fonc-
tn , . . . , X tn E [F ] = E G X n 1
i=1
Preuve.
n ) pour simplier les arguments. Le cas On se restreint au cas o F = g (X T gnral est obtenu de la mme manire. Par construction du schma d'Euler, on a n) E g (X T = E n + b(X n )n t + a(X n ) T g X tn1 tn1 tn1 n 1 /2 R
1/ 2
f ( )d
o f est la densit de la loi N (0, 1). En intgrant par parties, on obtient alors
E [F ] = E
1/2
ce qui donne le rsultat. Ceci permet de rgulariser le payo g en passant une primitive. Le prix payer est n(Wti Wti1 ) l'apparition du poids alatoire n n ) , dont la variance est trs leve si les ti i=1 T a (X sont proches.
ti1
Exemple 3.2.2 Soit g(x) = 1[a,b] (x) avec d = 1. On introduit la fonction G(x) = (x
a)1[a,b] (x) + (b a)1x>b . Alors, G = g et on obtient : n) E g (X T n) = E G(X T n WT Wtn1 tn ) T a(X n1 .
46
On teste cette mthode pour E 1{XT [a,b]} dans le modle de Black-Scholes de paramtres r = 0, = 0.25, T = 1, X0 = 100. On prend a = 95 et b = 105. On passe au ln pour utiliser la formule (3.2.1). Le tableau ci-dessous donne les cart-types et les intervalles de conance simuls avec et sans rgularisation, le prix rel tant d'environ 15.7. Nombre de simulations
10 000 20 000 50 000
Sans
Avec
0.43 , [15.6 , 17.3] 0.18 , [15.3 , 16.0] 0.30 , [15.5 , 16.7] 0.12 , [15.4 , 15.9] 0.24 , [15.6 , 16.5] 0.10 , [15.5 , 15.9]
p N Y
1 := N
F (j ) + Y (j ) .
j =1
Evidemment cet estimateur a les mmes proprits de convergence que p N , mais est plus prcis N x.
est solution de (2.2.1) avec b = 0, i.e. on considre par exemple les prix dans R et X n ] = X0 . La actualiss des actifs sous-jacents au taux sans risque. Dans ce cas, E[X T n est donc un candidat naturel pour servir de variable de contrle. variable (vectorielle) X T On peut alors chercher minimiser sur Rd
n T n Var g (X ) + X T
n ) o g est valeurs = g (X T
47
i,j
. L'op-
En gnral, on ne connat pas explicitement mais on peut essayer de l'approcher numriquement par Monte-Carlo. Dans l'exemple suivant on se place dans le modle de Black-Scholes en dimension 1. On prend r = 0, = 0.3, X0 = 100, T = 1, et on veut valuer un call europen de strike K = 80. Comme le strike est faible par rapport au prix du sous-jacent, on peut s'attendre un forte corrlation entre le payo de l'option et XT . On estime le = 0.825. Le tableau ci-dessous rsume les cart-types et les intervalles de conance estims avec et sans variable de contrle, le prix exact tant de 23.53. Nombre de simulations
5 000 10 000 100 000 500 000 0.0938 , 0.0664 , 0.0208 , 0.0093 ,
Avec
[23.29 , [23.39 , [23.51 , [23.52 , 23.66] 23.65] 23.60] 23.55] 0.3887 , 0.2739 , 0.0851 , 0.0379 ,
Sans
[23.42 , [23.50 , [23.47 , [23.48 , 24.95] 24.57] 23.80] 23.63]
On observe que l'utilisation de la variable de contrle amliore largement la prcision de l'estimateur. Bien entendu, il s'agit d'un cas favorable puisque la corrlation est trs forte. On refait maintenant la mme tude avec un strike K = 150. Dans ce cas, la corrlation n'est plus que de 0.148, le gain de variance est beaucoup plus faible. On obtient les rsultats suivants, le prix exact tant de 1.49, Nombre de simulations
5 000 10 000 100 000 500 000
Avec
Sans
0.06842 , [1.496 , 1.764] 0.0828 , [1.445 , 1.770]] 0.0296 , [1.466 , 1.582] 0.0360 , [1.4592 , 1.600] 0.0210 , [1.470 , 1.552] 0.02567 , [1.468 , 1.568] 0.0092 , [1.477 , 1.513] 0.0113 , [1.475 , 1.519]
Black-Scholes (2.1.1) en dimension 1. Si est faible, on peut suivre l'approche de [42] qui consiste utiliser l'approximation
1 T
T
Xt dt exp
0
1 T
ln(Xt )dt
0
=: ZT ,
o
1 T
T
T + 2 T
Wt dt .
0
(3.3.1)
48
Comme Loi
1 T
T
ln(Xt )dt
0
= N T (r/2 2 /4) , 2 T /3 ,
il est souvent possible de calculer facilement E [g(ZT )]. Par exemple, si g(x) = [x K ]+ , il sut d'utiliser la formule de Black-Scholes avec les paramtres r = r/2 2 /12 et = / 3, en faisant attention corriger le rsultat du facteur d'actualisation. On peut alors se servir de g(ZT ) comme variable de contrle. On teste cette mthode pour valuer un call asiatique de paramtres r = 0.1, = 0.2, T T = 1, X0 = K = 100. On utilise la discrtisation par trapzes pour approcher 0 Xt dt avec n = 50. La formule de Black-Scholes permet de calculer erT E [g(ZT )] = 6.77 et on prend pour variable de contrle
Y = erT E [g (ZT )] e(r
2 /2) T 2 +2 n
Pn1
i=0
(Wti +Wti+1 ) K
Le tableau ci-dessous donne les intervalles de conance simuls avec et sans cette variable de contrle, le prix rel tant d'environ 7.04. Nombre de simulations
10 000 20 000 50 000 100 000
Avec
[7.034 , [7.034 , [7.039 , [7.037 , 7.049] 7.046] 7.045] 7.042]
Sans
[6.957 , [6.970 , [6.974 , [6.980 , 7.296] 7.207] 7.124] 7.086]
de discrtisation de l'quation backward rchie associe au problme d'valuation de l'option amricaine. On donnera dans la Section 5.1.2 une mthode pour estimer par Monte-Carlo les esprances conditionnelles qui apparaissent dans ce schma. Comme le prix de l'option amricaine est fortement corrl celui de l'option europenne, on peut l'utiliser comme variable de contrle dans les modles de type Black-Scholes pour lesquelles on connat le prix exacte de l'europenne. Pour un put amricain de strike K , le schma devient
tn ) = p n (tn , X n tn K X n
+ +
n |X ti
tn , ti+1 ) est le prix de Black-Scholes du put de maturit ti+1 si le sous-jacent vaut o BS (X i n la date ti . On peut galement utiliser le prix de l'option europenne comme variable X ti tn ]+ par BS (X tn , T ) de contrle la place du payo. Ceci revient remplacer [K X i+1 i+1 n , ti+1 ) par BS (X n , T ). et BS (X ti ti
49
F s dWs .
n ), il est donc optimal d'utiliser Y := T F dWs comme variable de Pour F = g (X s T 0 contrle. Evidemment, ceci est compltement thorique puisqu'en gnral on ne connat pas F . Si F = g (XT ), on peut estimer F en utilisant le Thorme 2.2.10 : 1/ On calcule numriquement une approximation u de la solution de (2.2.5) par une mthode de dirences nies. On obtient ainsi une approximation x u du gradient de u par rapport x. 2/ On utilise l'approximation
T n
3/ On pose
Y =
i=1
Comme E[Y ] = 0, on peut s'en servir comme variable de contrle. Evidemment, si l'on pouvait calculer une approximation susamment ne de la solution de (2.2.5), on n'aurait pas besoin d'utiliser de mthode de Monte-Carlo, cf (2.2.6). Toutefois, on peut se restreindre une rsolution grossire de (2.2.5) qui soit susante pour tre utilise dans la mthode de rduction de variance. On peut galement approcher le gradient par celui correspondant un payo/modle proche pour lequel on a une formule explicite. Par exemple, dans un modle volatilit stochastique, on peut approcher le delta en ti par le delta de Black-Scholes correspondant la valeur de la volatilit en ti . Cette approche par EDP s'tend aux options asiatiques, lookback ou barrire. Le cas des options asiatiques est trait simplement en augmentant la taille du processus X , le rsultat est similaire celui du Thorme 2.2.10 pour le processus augment, voir galement [48] Proposition 5.2.11. On pourra consulter [65] pour les options lookback et [35] pour les options barrire.
Remarque 3.3.5
Remarque 3.3.6
50
H (h) := E ( (Z ) h Z )2 .
En crivant les conditions du premier ordre sur ce problme de minimisation strictement dni par convexe et coercif, on dduit que la solution est donne par h
1 n
p.s. Si est au o (Zn )n est une suite i.i.d. de mme loi que Z . Il est clair que n h plus croissance exponentielle, on dduit alors des rsultats gnraux obtenus par [2] que m c N N
2 N
1 := N (m c N
E[Z ]) N (0, v 2 )
N 2 2 2 ( (Zn+1 ) h c n Zn+1 ) (m N ) v p.s. n=1
1 := N
Z ). o v 2 := Var( (Z ) h
51
Thorme 3.4.1 (Girsanov) Soit h un processus adpat valeurs dans Rd tel que
T
hs
0
ds < P p.s.
Soit
h HT := exp
1 2
hs
0
ds +
0
h s dWs
Wh
:= W
0
hs ds
Dans le cas prsent en introduction, on peut choisir h positif de telle sorte que Ph [XT K ] soit grande. On simule XT sous Ph en utilisant l'quation
t t
Xt = X0 +
0
a(Xs )dWsh , 0 t T ,
:= exp
1 2
hs
0
ds +
0
h h s dWs
sous Ph .
r = 0, = 0.25, X0 = 100, T = 1, et on veut valuer un call europen de strike K = 150. Le prix exact est d'environ 0.672. On utilise la mthode avec h = 2.
Nombre de simulations
10 000 100 000
Avec h=2
0.0046 , [0.668 , 0.686] 0.0015 , [0.669 , 0.675]
52
ht =
1 F , t [0, T ] , E[F | Ft ] t
avec F dni comme dans le Thorme 3.3.4. On vrie que h L2 ([0, T ] , dt dP ) h et que E[HT ] = 1. On est donc sous les conditions du Thorme 3.4.1. Soit
t = 1 +
d'o
1 E[F ]
t (F s ) dWs = 1 0 0
s h s dWs
1 = exp 2
hs
0
ds
0
h s dWs
h = HT .
h 1 h 1 On en dduit que (HT ) F = E[F ] de sorte que la variance de (HT ) F est nulle. Comme dans la Section 3.3.2, on peut chercher utiliser les techniques d'EDP pour 1 approcher h et donc HT . Par exemple, pour les options vanilla, si la solution u(t, x) de l'EDP associe (voir Thorme 2.2.10) est susamment rgulire, on aura :
ht =
On peut galement l'approcher par celui d'un payo/modle proche de celui considr, pour lequel la formule est explicite, voir Remarque 3.3.5. C'est par exemple l'approche suivie par [29].
53
On cherche un changement de mesure optimal avec h dterministe et constant, gal hi , sur les intervalles [ti1 , ti ]. On note Z = (Wt1 , Wt2 Wt1 , . . . , Wt Wt1 ) et, par abus de notation, h = (h1 , . . . , h ). Le problme est donc de minimiser sur R la fonctionnelle
H (h) := E
e 2
2 h Z
(Z + h)
H (h) = E e = E e2
1
h h
2 2h Z
(Z + h)2
= E e 2
2 +h Z
2 2h Z
(Z )2
2 h Z
(Z )2 .
Si E[ (Z )2+ ] < pour un > 0, on vrie facilement en utilisant l'ingalit de Holder que H est deux fois continument drivable. En particulier
H (h) = E (h Z )e 2
2 h Z
(Z )2 .
Comme il s'agit d'un problme strictement convexe (calculer la Hessienne) et coercif ds que 0 et = 0 (minorer le log en utilisant l'ingalit de Jensen), il existe un qui en outre est la solution de optimum h
) = E (h Z )e 1 2 H (h
2 h Z
(Z )2 = 0 .
(3.4.1)
Algorithme de Robbins-Monro
D'aprs l'quation (3.4.1), on doit rsoudre un problme du type
f (h) := E [F (h, Z )] = 0
o F est une fonction de R Rd dans R et Z une variable alatoire sur Rd . L'algorithme de Robbins-Monro consiste simuler une suite (Zn )n1 de copies indpendantes de Z et dnir la suite (n )n1 de variables alatoires par
Fn := (k , Yk ; k n) o Yn+1 := F (n , Zn+1 ). On suppose ) = 0 tel que (h h ) f (h) > 0 pour tout h R \ {h }. On qu'il existe h vriant f (h suppose galement que la suite (n )n vrie n =
n1
et
n1
2 n <.
(3.4.2)
54
sont vries dans notre problme 3.4.1. Par Il est clair que les deux conditions sur h ailleurs, on peut toujours choisir (n )n vriant (3.4.2). Par contre la dernire condition E[ Yn+1 2 | Fn ] C (1 + n 2 ) p.s. n'a aucune raison d'tre vrie cause de l'exponentielle intervenant dans la formule. Pour palier ce problme, [3] a propos une version tronque de cet algorithme qui vite l'explosion de la suite n quand la condition d'intgrabilit n'est pas vrie. L'algorithme consiste se donner x1 = x2 et M > 0 tels que max{f (x1 ), f (x2 )} < min{M, inf f (x)} ,
x M
puis une suite de rels (un )n strictment croissante et tendant vers l'inni, avec u0 > M . On dnit ensuite la suite (n )n par
n+1 =
n n+1 Yn+1 xn
si sinon
n1 avec xn = x1 si (n) est pair et x2 sinon, et (n) = k =0 1 k k+1 Yk+1 >u(k) avec (0) = 0. Le rsultat de convergence suivant est dmontr dans [3]. Il discute galement le choix de la suite (un )n .
] < et on dnit l'algorithme prcdent avec F associe au problme (3.4.1). Alors, on peut choisir (un )n et (n )n telles que (3.4.2) soit vrie et (Z )
4+ 2 n E[ Yn+1 n1 2
| Fn ] < p.s.
e 2
n=1
n1
2 (
n1 )
Z n
(Zn + n1 )
et m := E[(Z )] ,
alors
m r N m p.s.
et
2 N (m r N m) N (0, v )
o v 2 =Var e 2
supplmentaires.
2 h Z
) . (Z + h
Preuve. Voir la section 6.5 pour une preuve de la convergence p.s. sous des conditions
Ce rsultat est en fait un cas une application du cas gnral trait dans [2]. En particulier, le thorme de la limite centrale nonc reste vrai si on remplace v 2 par l'estimation
2 N :=
1 N
e 2
n=1
n1
2 (X n1 ) Zn
2 (Zn + n1 )2 (m r N)
55
Pour simplier, on suppose que = 1 et que f (x) = E[F (x, Z )] est borne uniformment par C . On commence par calculer
|2 2n+1 E (n h )Yn+1 | Fn = |n h
2 2 + E n +1 Yn+1 | Fn .
0 2E
n0
)Yn+1 h 2 + n+1 (n h
n0
2 2 E n +1 Yn+1 <
(3.4.4)
Sn :=
k=0
2 2 E n +1 Yn+1 | Fn
est borne p.s. par C et donc converge presque surement en tant que suite croissante. Comme (Zn )n dnie par
|2 + C Sn Zn := |n h
est une sur-martingale par (3.4.3) et qu'une surmartingale borne infrieurement admet |2 )n admet p.s. une limite. On dduit alors de une limite p.s., on en dduit que (|n h )Yn+1 = E )f (n ) , de la condition (3.4.4), de l'identit E (n h (n h
n0 n0
| ] = 0 pour tout de monotonie sur f et des hypothses sur (n )n que P[limn |n h p.s. > 0. Il s'en suit que n h
56
u(0, x) = E [g (X x )] ,
consiste utiliser une mthode de dirences nies, i.e.
58
u (0, x ) de u(0, x ). Dans ce cas, on a : Var u (0, x + ) u (0, x ) 2 1 (Var ( u(0, x + )) + Var ( u(0, x ))) 42 x x Var (g (XT 1 )) Var (g (XT )) + 2 4 N N 1 x = Var (g (XT )) . 2N 2 =
2/ On simule N trajectoires du brownien et on construit X x+ et X x avec les mmes trajectoires. Dans ce cas
x+ x 1 g (XT ) g (XT ) Var N 2 1 x Var (g (XT )) . N Si est petit et g rgulire, la seconde mthode sera en gnral prfrable la premire.
Var
u (0, x + ) u (0, x ) 2
Cette mthode est trs simple mettre en oeuvre mais le choix du n'est pas vident. Si est trop petit, la variance de l'estimateur peut tre trs grande, c'est le cas si le payo est trs irrgulier. Si est trop grand, l'approximation des drives est mauvaise, voir l'Exemple 4.2.4 ci-dessous. Les vitesses de convergence de ces mthodes ont t tudies par [31], [32] et [50]. Typiquement, en utilisant l'approche 2/, on obtient une vitesse de convergence en loi 1 en N si N 4 0 lorsque u est C 3 . Si on utilise un schma de type forward, i.e. 1 ( u(0, x + ) u (0, x))/, on obtient une vitesse en loi en N si N 2 0 lorsque u est C 2. On peut galement consulter [23] pour des rsultats sur les vitesses lorsque l'on remplace X par son schma d'Euler. L'objet des sections suivantes est de donner une interprtation probabiliste de ces sensibilits qui ne fasse par intervenir d'approximation.
59
Preuve.
1 , le rsultat gnral tant obtenu par densit. Tout On suppose que g est Cb d'abord, on remarque que x XT 1 x 2 = e(b /2)T +WT = XT P p.s. x x
On en dduit que
1 x+ x g XT g (XT )
x+ x XT XT
L2 .
1 u x x (0, x) = E [g (XT ) XT ] . x x
Soit f la densite de la loi normale centre rduite. L'quation prcdente se r-crit :
u (0, x) = x =
g
R
xe(b
2 /2
)T +
Tw
2 e(b /2)T +
Tw
f (w)dw
=
R
(4.2.1)
Exercice 4.2.3 Touver une formulation du delta et du gamma pour les options asiaExemple 4.2.4 On utilise le rsultat de (4.2.1) pour estimer
2 x [a,b]} E 1{XT . x2
60
On prend comme paramtres x = 1, = 0.25, r = 0, a = 0.95 et b = 1.05. On donne les intervalles de conance obtenus par l'approche par dirences nies avec direntes valeurs de et par (4.2.1). On fait chaque fois 50.000 simulations. La valeur exacte est d'environ 2.53. Mthode Intervalle estim Par (4.2.1) [2.61 , 2.51] Di. nies = 0.5 [0.32 , 0.31] Di. nies = 0.1 [2.47 , 2.06] Di. nies = 0.05 [3.34 , 1.68] Di. nies = 0.005 [20.31 , 23.91] On observe que le rsultat est extrmement biais pour = 0.5 et = 0.1. Pour = 0.005, il est trop volatil. Mme pour = 0.05, le rsultat est bien moins prcis que celui obtenu par (4.2.1).
direntiation : x x par rapport sa condition initiale x. Le processus Y = X (i) On a driv XT s'appelle x x le processus tangent X . 2 (ii) On a utilis la drive de g xe(b /2)T + T w par rapport w. A une normalisation
x ) par rapport WT . On a ensuite utiliser une intgration prs, cela revient driver g (XT par parties par rapport w, c'est--dire "par rapport " W .
Remarque 4.2.5
Au vu de la remarque prcdente, on a besoin de deux notions : celle de processus tangent, et celle de drivation par rapport au mouvement Brownien. L'objet des sections suivantes est de dnir ces deux notions. On les utilisera ensuite pour gnraliser les rsultats obtenus dans le modle de Black et Scholes.
Thorme 4.3.1 Si a, b Cb1 , alors, pour tout t [0, T ], l'application x Xtx est
) } est solution de l'EDS : p.s. C 1 . Le processus (matriciel) gradient x X x = {( X xj i,j
x,i
d x x b(Xs )x Xs ds + 0
x Xtx = Id +
0
(4.3.1)
j =1
(voir Thorme 39 dans [62].) Le processus x X x est appel processus tangent ou de drive premire.
61
x Xtx = 1 +
Rt
0
x )dW . a (Xs s
Exemple 4.3.3 Si
Scholes, on obtient
x Xtx = diag
e(r
j.
/2)t+ j. Wt
d j =1
En imposant plus de rgularit sur a et b, on peut dnir des processus drive d'ordre suprieur. On considre alors le processus tangent du processus tangent, etc...
x,n , du schma On peut galement dnir le processus drive, x X de X x . Il est obtenu par rcurrence
L'quation (4.3.1) peut tre vue comme limite de (4.3.2) quand le pas de temps tend x,n coincinde avec le schma d'Euler de x X x . vers 0, x X
Par passage par densit, on obtient le rsultat pour toute fonction g dont les drives premires sont croissance polynomiale. On peut galement l'obtenir pour des payos dpendant de la trajectoire de X x aux dates ti .
1 Proposition 4.3.6 Soit g une fonction Cp de Rdn dans R. Alors, n
, . . . , Xtx ) g (Xtx n 1
=
i=1
(4.3.3)
62
ler
Remarque 4.3.7
tx,n , . . . , X tx,n ) E g (X n 1
=
i=1
Scholes en dimension 1. La maturit est 1 et la moyenne est calcule intervalles rguliers de longueur 1/24, i.e. tous les 15 jours. On prend comme paramtre K = 100, X0 = 100, = 0.35 et r = 0.1. On considre n = 24 pas de temps, et on estime le delta par la formule
24
Exemple 4.3.8 On considre un call sur moyenne discrte dans le modle de Black-
E 1A1 K
i=1
i 1 24 (r 2 /2)+Wi 24 e 24
avec
A1 1 := 24
24
i
X0 e 24
i=1
(r 2 /2)+Wi
24
Les rsultats suivants ont t obtenus en utilisant le contrle antithtique. Nombre de simulations
5 000 10 000 50 000
( a) :=
1 On suppose que a, b et a Cp
a E g (XT )
.
=0
63
1/ En considrant comme un processus dterministe, dduire du Thorme 4.3.1 que Za := X a est bien dni et est solution de =0
t Zta = 0 a b(Xs )Zs ds + 0 t d t a a.j (Xs )Zs dWsj , t [0, T ] . j =1 0
a (Xs )dWs +
F =
W sF , . . . , W sF 1 k
avec
kF
j =1
64
2/ C'est beaucoup plus simple, et nous pourrons mener les preuves jusqu'au bout. 3/ Discrtiser des formules obtenues en travaillant sur X ou travailler directement sur n revient gnralement au mme, voir Remarque 4.4.18. le problme discrtis associ X On ne perd donc rien en se plaant tout de suite dans un cadre plus simple grer.
F W + 1[t,T ] F (W ) Dt F := lim = 0
j =1
Cette dnition peut tre comprise comme ceci : on choque lgrement la trajectoire du brownien W en la remplaant par une trajectoire W 1[t,T ] = W + 1[t,T ] , i.e. on "shifte" le brownien de aprs t. On regarde ensuite l'impact de ce choc sur F . On appelle DF le processus drive de Malliavin.
= xe(r
2 /2)s+W
1[t,T ] (s) .
Remarque 4.4.4
Remarque 4.4.6
tx,n j i), et X i
1 tx,n est une fonction dterministe de (Wt , 0 Si b et a Cb , alors X j i S . Sa drive de Malliavin en t peut tre calcule rcursivement :
(4.4.1)
65
On peut observer que le gradient et la drive de Malliavin en t de n X suivent la mme quation, voir Remarque 4.3.5, la condition en n t prs
Remarque 4.4.7
x,n x,n . = 0 = x X Dt X n n t t
Si a(x) est inversible pour tout x Rd , un calcul direct montre que
n,+
L'intrt de cette notion rside dans le fait que la stratgie de couverture d'une option peut s'crire en fonction de la drive de Malliavin du payo.
S , alors
F = E [F ] +
0
E [Dt F | Ft ] dWt .
Pour simplier, on se place dans le cas o d = 1. On suppose galement que F Le cas gnral est obtenu par densit. A sF i1 < t si x, E [F | Ft ] est une )j i1 ). On note sa drive par rapport au deuxime argument. fonction (t, Wt , (WsF j F On a alors pour si1 < t sF i
F 2 Cb .
Preuve.
(t, w, z ) = lim 1 E F z, i + w + , . . . , n + w + F z, i + w, . . . , n + w
0
o est une variable alatoire valeurs dans Rni+1 distribue selon une loi normale N (0, ) avec
F lk = min{sF l t , sk t} .
(t, w, z ) = E
j =i F d'o pour t (sF i1 , si ] kF
j F z, i + w, . . . , n + w
t, Wt , (WsF )j i1 j
= E
j =i
j F (W ) | Ft
= E Dt F (W ) | Ft .
1 ,2 2 Comme F Cb , on peut vrier par des arguments similaires que est Cb par rapport ces deux premiers arguments. En appliquant le Lemme d'It la martingale F (t, Wt , (WsF )j i1 ) sur (sF i1 , si ], on obtient alors j sF i
E F | FsF i
+ = E F | FsF i1 + = E F | FsF i1
sF i1 sF i sF i1
t, Wt , (WsF )j i1 dWt j
E Dt F (W ) | Ft dWt .
66
Cette relation tant vrie pour tout i {1, . . . , k }, en sommant le systme d'quations obtenu, on en dduit que
sF k
F = E F | FsF k
= E [F | F0 ] +
0 T
E Dt F (W ) | Ft dWt .
= E [F ] +
0
E Dt F (W ) | Ft dWt .
S et soit un pro-
E F
0
h t dWt
= E
0
Dt F ht dt .
Preuve. On pose Xt = E [F
T
| Ft ] et Ht = 0 h s dWs . On remarque que H0 = 0. D'aprs le Thorme 4.4.8, on a donc par le Lemme d'It :
T T
F
0
h t dWt
= XT HT =
0
(Xt h t
+ Ht E [Dt F | Ft ]) dWt +
0
E [Dt F | Ft ] ht dt .
On obtient donc
T T T
E F
0
h t dWt
= E
0
E [Dt F | Ft ] ht dt
= E
0
Dt F ht dt
Remarque 4.4.10
Le Thorme 4.4.9 reste vrai, dans une certaine mesure, mme si T h n'est pas adapt. Dans ce cas, l'intgrale 0 h t dWt est dnie en tant qu'intgrale de Skorohod, voir [57]. Lorsque h = F u o F est une variable alatoire FT -mesurable et u est un processus adapt, on obtient, sous certaines hypothses de rgularit et d'intgrabilit, un lien entre l'intgrale d'It et de Skorohod :
T T T
F u t dWt = F
0 0
u t dWt
0
Dt F ut dt .
67
F = E [F ] +
0
E [Dt F | Ft ] dWt .
Dt F =
j =1
(W ) 1[t,T ] (sF j )
=
j =i
j F (W )
Dt F =
t
Ds F ds sF i t
E [Dt F | Ft ] = E
t
Ds F ds | Ft sF i t
= E F
Wt W sF i sF i t
| Ft
S , alors
kF sF i sF i1
F = E [F ] +
i=1
E F
Wt W sF i sF i t
| Ft dWt .
E F
W sF W t
i
sF i t
march complet, en fonction du delta. Retrouver le rsultat de la Proposition 4.2.1 en utilisant la Proposition 4.4.11.
x,n ) . u(0, x) := E g (X T
1 u(0, x) = E T 1 = E T
T 0
dWt
dWt
E g
Xtx,n , . . . , Xtx,n n 1
= E g
Xtx,n , . . . , Xtx,n n 1
0
ht
dWt
ht dt = 1
0
x,n ) . Si on suppose g , a, a1 et b On s'intresse maintenant au gamma de E g (X T susamment rgulires, on obtient en argumentant comme dans la Proposition 4.3.6 et en utilisant la Proposition 4.4.13 que :
T 2u 1 x,n x,n 1 x,n i dWt (0 , x ) = E g ( X ) a ( X ) X n n, + x T t t xi xj T xj 0 T 1 x,n x,n x,n x,n = E g (XT )xj X a(X )1 xi X + T n n, t t T 0
dWt
T 0 T 0
k=1
x,n a(X )1 n t
.k
x,n xj X n t
x,n xi X + n, t ,
dWt
dWt
69
x,n x,n o x est la drive par rapport x , i.e. x X x X . On s'intresse + + = n, n, t t uniquement au premier terme qui fait intervenir g . Pour une processus adapt h de carr intgrable, on note maintenant
T
(ht ) :=
0
h t dWt .
1 E T 1 = E T 1 E T =
T 0 T 0
x,n x,n x,n x,n )Dt X x,n a(X x,n )1 xj X dt a(X )1 xi X g (X T T n n n,+ n,+ t t
t t
T 0
x,n )Dt a(X x,n x,n x,n x,n g (X )1 xi X a(X )1 xj X dt . T n n n,+ n,+ t t
t t
A =
1 x,n ) a(X x,n x,n x,n x,n E g (X )1 xi X a(X )1 xj X n,+ + T n n n, t t t t T T 1 x,n )Dt a(X x,n x,n x,n x,n g (X )1 xi X a(X )1 xj X E . + + dt T n n n, n, t t t t T 0
1 a est inversible sur Rd , a1 Cp , g est croissance polyno-
Proposition 4.4.15 Si
xi xj
x,n ) E g (X T
1 x,n x,n x,n x,n a(X )1 xj X a(X )1 xi X + + n n n, n, t t t t T2 T 1 x,n x,n x,n x,n Dt a(X )1 xi X a(X )1 xj X 2 n,+ + dt n n n, t t t t T 0 1 + T
d
x,n )1 a(X n t
k=1
.k
xi xj X x = 0 et re-
70
( a) :=
,n a E g (X ) T
.
=0
1 . On suppose que a, b et a Cp ,n a 1/ Donner l'quation satisfaite par Z := 2/ Vrier que pour tout t (tn1 , T ] d ,n a Dt Z = T j =1
a X ,n =0 .
3/ En supposant que a1 et g sont croissance polynomiale, dduire de 2/, de la fomulation obtenue dans la Section 4.3.3 pour ( a), du Thorme 4.4.9 et de la Proprit 4.4.5 que
n )a(X n )1 ( a) = E g (X T tn1
n a Z ,n n Wn T T
tn , . . . , X tn . 4/ Etendre cette formulation aux payos de la forme g X n 1 5/ On suppose maintenant que X est solution de (2.1.1) pour d = 1 et + la place X =0 . Faire le lien avec Dt XT et montrer, en utilisant le Thorme de . Calculer 4.4.9 et la Proprit 4.4.5, que (1) = E g (XT )
2 WT 1 WT T
Etendre cette formule au cas d > 1. (On peut galement obtenir cette formule en considrant le "schma d'Euler" de ln(X ). Dans ce cas, il faut faire attention car intervient 1,n " par rapport celle dans le coecient de drift de ln(X ) ce qui modie la forme de "Z obtenue dans 1/). Cette approche a t initie par [27]. Les formules que nous dmontrons ici correspondent la discrtisation des formules obtenues en considrant un payo n . L'tude de ces mthodes a t poursuivie dans [26], voir dpendant de X au lieu de X galement [21]. Des extensions au cas des options barrire et lookback on t obtenues par [36]. On pourra galement consulter [7] qui traite notamment le cas des options asiatiques et [38] qui dveloppe des approches alternatives.
Remarque 4.4.18
Le problme de ce schma est qu' chaque date de discrtisation, il ncessite le calcul d'une esprance conditionnelle. Il faut donc trouver un moyen de les estimer de manire ecace.
n ) | X n = x E (X ti+1 ti
tn )i (X tn x) E 1xX n (X i+1 i t
i
tn x) E 1xX (X n i i t
i
71
n x) i f (X ti
n x) + = f (X ti tn )1 a(X i
Remarque 5.1.2
la forme
i
n x) E 1xX (X n i ti t
E (1 +
Si on note
= 0.
n ) (X ti+1
n X ti
=x
tn )i (X tn x) E 1xX n (X i+1 i t
i
i tn x) E 1xX (X n i t
i
Cette formulation de la densit a t largement utilise par [57] pour tudier la rgularit des densits de variables alatoires. Une tude sur les mthodes de rduction de variance de l'estimateur ainsi obtenu a t mene par [45] en dimension 1. Les fonctions et agissent comme des fonctions de localisation : on slectionne les trajectoires qui ne sont pas trop loignes de x. Typiquement, elles atteignent leur maximum en 0 et dcroissent ensuite rapidement. On peut choisir les fonctions et de manire minimiser la variance intgre des estimateurs du numrateur et dnominateur. Il est montr dans [10] que les fonctions et optimales sont y y de type exponentielle (y ) = e , (y ) = e , o
n.
Si X est le log des prix dans le modle de Black-Scholes, i.e. b(x) = r /2 et a(x) = , on obtient
2
Remarque 5.1.5
n f (Xti x) {n Wi n Wi+1 } . T
73
Preuve du Thorme 5.1.1 On commence par xer [a, b] tel que x [a, b] et on crit
tn ) (X i+1 tn X i tn ) (X tn ) E 1[a,b] (X i i+1 tn ) E 1[a,b] (X i
(5.1.1)
[a, b]
On se concentre sur le numrateur, le dnominateur tant obtenu de la mme manire 1 en remplaant par 1. On suppose que Cb , le rsultat gnral tant obtenu par passage la limite. On pose
n X t
Par la Proprit 4.4.5, la Remarque 4.3.5 et le fait que (0) = 1, on a, pour tout t [0, T ],
On pose
hi,t :=
n T
tn hi,t dt = 0 Dt X i+1
et
ti+1 ti1
n hi,t dt = 1 Dt X ti
(5.1.2)
de sorte que
ti+1 ti1
n X t
n ) (X n ) d 1[a,b] ( ) (X ti ti1
[a,b]
n ) (X n )d . 1X (5.1.3) n (X ti ti1 t
i1
On calcule maintenant
ti+1
Dt hi,t dt =
ti1
n T n T
ti
ti1 ti+1 ti
n T
ti ti1
n )1 dt Dt a(X ti1
= E
n n )1 n Wi a(X ti1 T
n E T =E
ti+1 ti
ti+1 ti
comme Dt n Wi+1 = 1 sur (ti , ti+1 ], on a donc par le Thorme 4.4.9 conditionnellement Fti
ti+1
On a montr que
ti+1
E
ti1
Dt hi,t dt
n ) (X n) + E 1[a,b] (X ti1 ti
[a,b]
n ) (X n ) d , 1X n (X ti ti1 t
i1
tn ) (X tn ) E 1[a,b] (X i i+1
En utilisant (5.1.1), on obtient
=
[a,b]
tn )i (X tn ) E 1X n (X i+1 i1 t
i
d .
n ) | X n [a, b] E (X ti+1 ti
[a,b]
tn )i (X tn ) E 1X n (X i+1 i t
i
d ,
tn ) E 1X n i (X i [a,b] t
i
75
La formulation du Thorme 5.1.1 fournit un estimateur naturel pour l'esprance condi n(j) )N de X n et dnir tionnelle. On peut ainsi considrer N copies indpendantes (X j =1 un estimateur de l'esprance conditionnelle par
n (X tn ) | X E ti i+1
N j =1
n 1X n X n(j ) (Xti+1 )i
(j ) ti ti ti ti
(j )
tn (X i
(j )
tn ) X i
(j ) (X tn(j) X tn ) 1X n X n(j ) i i i
(j ) (j ) sont les oprateurs correspondant la j -me trajectoire simule. En prao i et i tique ces estimateurs risquent d'tre instables cause de la division (ils n'ont d'ailleurs aucune raison d'tre dans L1 !). Il faut donc les corriger lgrement. Si est croissance polynomiale, il est assez facile de construire des polynmes et tels que
n ) E (X n ) | X n (X ti ti+1 ti
n) . (X ti
(X tn ) | X tn E i+1 i
tn ) E (X tn ) | X tn tn ) . (X := (X i i+1 i i
tn est dans tous les Lp , p 1, on obtient ainsi un Comme, d'aprs le Lemme 2.2.1, X i estimateur avec de bonnes proprits d'intgrabilit. On a le rsultat de convergence suivant.
Lp
o C ne dpend pas de n et N .
La preuve de ce rsultat n'est pas trs dicile mais un peu longue. Nous renvoyons [13] pour les dtails et pour l'tude du cas gnral.
Remarque 5.1.7
de
tn , X i
D'aprs la Remarque 5.1.2, si on connat explicitement la densit fX n ti on peut galement utiliser comme estimateur
1 N N j =1
(X n ) | X n = x E ti+1 ti
fX n (x) t
i
76CHAPITRE 5. ESPRANCES CONDITIONNELLES ET OPTIONS AMRICAINES Lorsque d 2, un rsultat similaire celui des Thormes 5.1.1 et 5.1.6 peut tre obtenu mais l'criture de l'estimateur est plus complique. Dans [10], vous trouverez une criture en terme d'intgrales de Skorohod itres. Le cas du modle de Black-Scholes a t tudi par [51], la formulation est alors plus simple. On peut n = X = W . A un nanmoins obtenir une forme lgante de ce rsultat dans le cas o X changement de variable prs, il est souvent possible de se ramener ce cas. On a alors sous des conditions analogues celles du Thorme 5.1.1
Remarque 5.1.8
E (Wti+1 ) | Wti = x
E (Wti+1 )
Qd
=
Wt i (Wt x) i e n {T (n Wi n Wi+1 )+ }
n n Wi + } {T
=1 1x
Qd
=1
1x
Wt i
(Wt x) i
La convergence de l'estimateur Lp est alors en n 4p /N 2p . Dans ce cas particulier, on peut simplier la formulation de l'estimateur puisque l'on connat explicitement la densit des Wti , voir Remarque 5.1.7.
avec
| X1 = x
en dirents points. On donne le rsultat moyen obtenu ainsi que l'cart-type de l'estimateur avec ou sans fonction de localisation.
x \x 0.7
3 2
Densit Valeur exacte Avec localisation Sans localisation Valeur exacte Avec localisation Sans localisation Valeur exacte Avec localisation Sans localisation
1.0
1.3
x1 = 1.3 0.7 1.0 0.29 0.56 0.30[0.03] 0.56[0.02] 0.30[0.41] 0.57[0.43] 0.59 0.70 0.59[0.02] 0.70[0.01] 0.60[0.47] 0.72[0.48] 0.44 0.38 0.44[0.01] 0.38[0.00] 0.45[0.48] 0.40[0.49]
1.3 0.48 0.48[0.01] 0.51[0.44] 0.43 0.45[0.27] 0.47[0.49] 0.18 0.18[0.00] 0.22[0.51]
77
x3 \x2 0.9
Esprance conditionnelle Valeur exacte Avec localisation Sans localisation Valeur exacte Avec localisation Sans localisation Valeur exacte Avec localisation Sans localisation
1.0
1.1
x1 = 0.9 0.9 1.0 17.26 20.56 17.28[1.12] 20.49[1.19] 16.88[5.01] 20.62[7.14] 13.70 16.59 13.72[0.82] 16.59[0.92] 12.97[6.20] 16.08[10.41] 10.88 13.39 10.94[0.85] 13.48[0.90] 10.58[17.54] 13.81[28.01]
1.1 24.05 24.06[1.17] 25.04[11.52] 19.61 19.73[1.00] 21.35[25.48] 16.11 16.32[1.05] 13.19[166.22]
On observe une trs forte volatilit de l'estimateur en l'absence de fonction de localisation. Il est donc absolument ncessaire de l'utiliser. Mme avec celle-ci, la variance reste forte. Cette approche doit donc tre combine avec d'autres techniques de rduction de variance ds que cela est possible.
Si g est lipschitzienne, il est facile de construire une suite de polynmes i (x) = i + 2 i x tels que les (i , i ) sont uniformment borns en i et n et tels que
n ) | X n E g (X tn tn1
et i
n ) n1 (X tn1 tn ) . i1 (X i1
tn ) erT /n tn ) | X tn E g (X i (X i i i1
On peut donc utiliser l'estimateur du Thorme 5.1.6 pour calculer les esprances conditionnelles. L'argorithme utilis est le suivant :
Initialisation :
Rcurrence rtrograde :
Ni
p n(j) ) E n (t1 , X t1
:=
1 N
n( ) ) . p n (t1 , X t1
N1
Comme on fait n approximations de l'esprance conditionnelle, l'erreur est de l'ordre de n fois celle donne par le Thorme 5.1.6, i.e.
0in
Lp
Cn n1/4p /N 1/2p .
On pourra bien videmment, et c'est mme fortement recommand, coupler cet algorithme avec une mthode de rduction de variance de type control variate comme celle propose dans l'Exemple 3.3.3. Tout ceci se gnralise une large classe d'quations forward-backward. La prsentation gnrale de la mthode et les vitesses de convergence sont dues n est de dimension d, la vitesse de convergence devient [13]. Lorsque le processus X n nd/4p /N 1/2p . Cette approche a t initie par [17] et [52] mais en utilisant des outils dirents pour le calcul des esprances conditionnelles, voir aussi [20], [37] et les rfrences de la section 2.6.
1 2 dans le modle de Black-Scholes en dimension 2. On prend X0 = X0 = K = 100, r = 11 12 21 22 0.05, T = 1, = 0.15, = 0, = 0.05 et = 0.10. On s'intresse deux types de moyenne, gomtrique et arithmtique, i.e. aux deux payos : +
Exemple 5.1.12 On utilise cette approche pour valuer un put amricain sur moyenne
geo
1 2 XT XT
et G
arith
2 X 1 + XT K T 2
On crit le prix en fonction du brownien, p(ti , Wti ). Le prix de l'option europenne gomtrique est donn par la formule de Black-Scholes avec dividende valant 6.25%, une volatilit de 7, 07% et un sousjacent correspondant la moyenne gomtrique de X 1 et 1 2 X 2 ( vrier en exercice en considrant la loi de XT XT ). On appelle BS geo (Wti , T ) le prix de l'option europenne sur moyenne gomtrique de maturit T la date ti pour une valeur Wti du Brownien. On considre l'estimateur suivant :
E p(ti+1 , Wti+1 ) | Wti = x = E p(ti+1 , Wti+1 ) 1 BS geo (Wti+1 , T ) 2 Wti+1 Qti (x, Wti ) fWti (x)
79
o
Qti (x, Wti ) :=
1 2 1 2 Hx (Wti )i (Wt1 x1 ) i (Wt2 x2 ) ci (1) i (1) i i
1 et 2 correspondent aux du premier et du second Brownien, fWti est la densit de Wti , voir Remarque 5.1.7, et Hx (y ) = 1 si x1 y 1 et x2 y 2 , 0 sinon. La fonction de localisation est de type exponentielle avec un paramtre estim selon la formule de la Remarque 5.1.4. Le paramtre est le paramtre de corrlation estim, voir l'Exemple 3.3.1. En ce qui concerne le c, on utilise la proprit ( vrier en exercice en utilisant
= 0
et on choisit le c de manire minimiser la variance de l'estimateur. Le prix de l'option amricaine sur moyenne gomtrique vaut environ 1.54. On donne les prix moyens estims et leur cart-type entre [ ]. n n N Gomtrique
5 2 048 1.48 [0.007] 10 2 048 1.52 [0.013] 20 4 096 1.54 [0.014]
Arithmtique
5 2 048 1.38 [0.017] 10 2 048 1.44 [0.029] 20 2 048 1.50 [0.143] 5 8 192 1.37 [0.007] 10 8 192 1.43 [0.009] 20 8 192 1.46 [0.033]
Ci
et on pose
y Rd :
y xi = min y xj
j N
:= Y
i=1
xi 1Ci (Y ) .
80CHAPITRE 5. ESPRANCES CONDITIONNELLES ET OPTIONS AMRICAINES L'erreur de quantication L2 est alors dnie comme
Y Y
= E min Y xi
iN
On dit qu'une grille de quantication N points est optimale si elle minimise l'erreur de quantication sur l'ensemble de toutes les grilles N points.
par un processus L'ide est maintenant d'appliquer cette approche an d'approcher X valeurs sur un espace ni pour lequel les esprances conditionnelles de l'algorithme discret de la Section 2.6 peuvent tre calcules facilement.
Pour chaque k n, on se donne une grille k = (xk,1 , . . . , xk,Nk ) de quantication de t le quanticateur de X t . Si on connat les probabilits de Xtk Nk points. On note X k k transition k t = xk+1,j | X t = xk,j ij := P X k+1 k on peut alors calculer la suite p n = ( pn tk )kn dnie par
k<n.
C'est la contre-partie du schma de discrtisation thorique de la Section 2.6. L'erreur d'approximation de p n est alors contrle par l'erreur de quantication.
Thorme 5.2.1 ([4]) Si g est Lipschitz, alors il existe C > 0 tel que, pour tout k n,
n
C
i=k
t X t X i i
On peut montrer que si la grille est optimale pour chaque k , alors l'erreur de quan2 t X t 2 est de l'ordre de O(N d ). Le problme est videmment de tication E X k k k construire les grilles de quantication optimales et d'estimer les probabilits de transik tion (ij ). Ceci peut-tre fait par des mthodes de gradient stochastique, voir la section 2.5 dans [4]. La page http ://www.proba.jussieu.fr/pageperso/pages/ propose un lien vers des grilles de quantication.
Xtx = x +
o x, a, b, > 0 et W est un mouvement brownien sur l'espace (, F , P) muni de la ltration naturelle F = (Ft )tT engendre par W complte. On suppose que a 2 /2 ce qui implique que X x > 0 P p.s. Par la suite on se donne := {0 = t0 < t1 < . . . < ti < . . . < tn = T } une partition de [0, T ].
1. Peut-on approcher X x par un schma d'Euler classique ? Justiez. 2. Soit 0. On suppose qu'il existe une fonction F Cb1,2 ([0, T ] R+ ; R+ ) vriant
F (t, x) t = (a bx) x F (t, x) + 1 2 x x sur [0, T ] R+ 2 F (t, x) 2 x F (0, x) = e sur R+ ,
2
(6.1.1)
x 2.1. Montrer que supk>0 suptT E Xtx k < o k := inf {t 0 : Xt k } T . x 2.2. Soit t (0, T ], montrer que le processus M dni par Ms := F (t s, Xs ) est une martingale sur [0, t].
e 2L(t)+1 avec L(t) = ( 2 /4b)(1 ebt ) et (t, x) = 4xbebt /( 2 (1 ebt )). Quelle est la transforme de Laplace Ytx de Ytx := Xtx /L(t) ?
2
L(t) (t,x)
82
5.1. Soit N une gaussienne de variance 1 et de moyenne m. Calculer la densit fN 2 de N 2 et sa transforme de Laplace N 2 . 5.2. En dduire une mthode de simulation des accroissements (Xtx Xtx ) lorsque i+1 i i<n 2 4a/ est un entier.
f, (x) =
1 x x e 1x>0 , ()
la densit de la loi Gamma G(, ), o est la fonction Gamma. Comment simuler une variable alatoire (U, V ) de loi uniforme sur D := {(u, v ) (0, )2 : 0 u f, (v/u)} quand > 1 ? On commencera par montrer que D est contenu dans un rectangle . 6.2. On suppose > 1. Soit (U, V ) une variable alatoire uniformment distribue sur D. Quelle est la loi de V /U ? 6.3. Dduire des questions prcdentes une mthode de simulation de copies i.i.d. de loi G(, ) quand > 1. Donner le cot moyen d'un tirage en fonction du volume |D| de D. 6.4. Que faire quand = 1 ? 6.5. On rappelle que, pour tout > 0 et > 0, la transforme de Laplace de la loi G(, ) est donne par
, (y ) = (1 + y/ ) y 0 .
Soit > 0, M une variables alatoire de loi de Poisson de paramtre p > 0 et ( +i )i0 une suite de variables alatoires indpendantes (et indpendantes de M ) telle que +i G(( + i)/2, 1/2) pour chaque i 0. Calculer la transforme de Laplace +2M de +2M := i0 +2i 1i=M . 6.6. Comment simuler des copies i.i.d. de +2M ? 6.7. Dduire des questions prcdentes un mode de simulation des accroissements (Xtx i+1 x Xti )i<n . En pratique cette mthode est assez coteuse numriquement. Lorsque le pas de temps est petit, on prfrera discrtiser l'EDS associe X x en adaptant l'approche par schma d'Euler (voir ce sujet les travaux rcents de [1]).
Remarque :
83
(6.2.1)
o a, b, , x > 0 et (Wt )t0 est un mouvement brownien rel. Soit T > 0 et N N . On pose t = T /N et pour 0 k N , on note tk = kT /N = k t. 1. Quel rsultat assure l'existence d'une unique solution l'quation
Y dt + dYt = a 2 t Y0i = x0
dBt
o (Bt )t0 est un mouvement brownien standard. Que peut-on dire du processus Wt = t 1{Ys 0} 1{Ys <0} dBs ? Vrier que Xt = (Yt )2 est solution de l'quation (6.2.1) pour 0 2 . b= 4a 2. On se donne maintenant (Wt1 , . . . , Wtd )t0 un mouvement brownien valeurs Rd et pour 1 i d on note Yti la solution de
dWti
Wt =
0
1 1{Xs >0} Xs
Ysi dWsi
i=1
+
0
A partir de maintenant, on admet que l'quation (6.2.1) possde une unique solution (Xt )t0 telle que P(t 0, Xt 0) = 1.
df 4. On pose =
2ab 2
> 1 et
x
x > 0, s(x) =
1
y ey/b dy.
(b x) s (x). bx
84
= s(x0 ). 6. Appliquer It s(X ). En dduire que E s Xn k 7. On suppose que > 1. Donner limn+ s(1/n). En dduire limn+ P Xn puis que P(t k , Xt > 0) = 1 en utilisant le k = 1/n lemme de Borel Cantelli (on utilisera une minoration adquate de s(1/n)). Conclure que P(t 0, Xt > 0) = 1.
Wtk+1 Wtk +
N 1 k=0
x0 +
k=0
a(b Xtk+1 )
2 2
t +
2 2
t +
(6.2.2)
pour l'quation (6.2.1). En raison du caractre implicite, il faut vrier que l'quation de rcurrence qui prcde a bien une solution. 11. Vrier que pour x > 0 et w R, l'quation
(1 + at)y 2 wy (ab( 1) + x) = 0
portant sur la variable y admet une unique racine strictement positive f (x, w). t )0kN v12. En dduire l'existence d'une suite de variables strictement positives (X k riant (6.2.2).
St = S0 +
0
(Su )dWu , t T ,
85
o est borne, uniformment lipschitzienne et vrie pour un > 0. On suppose que le taux sans risque est nul.
H2
:= E
0
|t | dt
< .
On note le processus de H2 correspondant au nombre d'units de S dtenues dans le portefeuille. 1.1. Ecrire la dynamique de la richesse X x, associe une dotation initiale x et une stratgie de portefeuille sous la contrainte d'autonancement. 1.2. On suppose partir de maintenant que la gestion du portefeuille entraine un cot continu f , fonction uniformment lipschitzienne de constante de Lipschitz L, qui dpend de la valeur du portefeuille et de celle du sous-jacent S . La dynamique de la richesse s'crit alors
t t x, f (Xu , Su )du + 0 0
Xtx, = x
u dSu .
Montrer que pour tout (x, ) R H2 , X x, appartient l'ensemble S 2 des processus prvisibles vriant
S2
:= E sup |t |
tT
1 2
< .
(6.3.1)
2.1. Montrer que cela revient trouver (Y0 , Z ) o (Y, Z ) S 2 H2 est solution de
t 0
Zu dWu t T
(6.3.2)
On supposera par la suite qu'un tel couple (Y, Z ) existe. 2.2. Montrer que pour tout 0 s t T
t
Ys = E Y t +
s
f (Yu , Su )du | Fs
(6.3.3)
Dans la suite de l'exercice, on tudie une mthode de discrtisation de l'quation (6.3.2). On xe un entier n > 0 et on considre la grille := {ti = ih, i = 0, . . . , n} de [0, T ], o h = T /n. A partir de maintenant, on suppose que g est uniformment lipschitzienne, de constante de Lipschitz L.
3.
86
de S . 3.1. Rappeler la dnition du schma d'Euler S t )0in de manire rtrograde par 3.2. On dnit la suite (Y i tn = g (S tn ) Y t = E Y t + hf (Y t , S t ) | Ft Y i i+1 i+1 i+1 i , i = n 1, . . . , 0 .
(6.3.4)
+ 3L2 (1 + 4/)E
ti
| Fti
3.5. On suppose partir de maintenant que Z S 2 . Montrer que, pour tout i {0, . . . , n 1},
sup
s[ti ,ti+1 ]
|Yti+1 Ys |2
C0 (ti+1 ti ) ,
o C0 est une constante qui ne dpend ni de i ni de (Rem : on peut en fait vrier cette proprit mme si Z / S 2 ). 3.6. En utilisant l'ingalit de Jensen, dduire des questions prcdentes que, pour tout i {0, . . . , n 1},
t Yt |2 max E |Y i i
tn Ytn |2 + h C2 h , C1 E |Y
sup
s[ti ,ti+1 ]
t Ys |2 |Y i+1
? Justier.
H2 tel que 4.1. Montrer qu'il existe un processus Z t hE f (Y t , S t ) | Ft Y i i+1 i+1 i t = Y i+1
ti+1 ti
s dWs . Z
2 2 Ch o C ne dpend pas de h (Rem : on 4.2. Montrer que si f 0, alors Z Z H peut le montrer galement quand f 0).
87
t (Wt Wt ) | Ft . Que proposez4.3. Dans le cas gnrale, i.e. f 0, calculez E Y i+1 i+1 i i vous pour estimer Z et ? dni sur chaque intervalle [ti , ti+1 ) par Z t = (ti+1 ti )1 E ti+1 Zs ds | Ft . 4.4. Soit Z i ti 2 2 En admettant qu'il existe C3 indpendant de h tel que Z Z H2 + Z Z H2 C3 h, t t |2 C4 h , o C4 est indpendant de h. montrer que n1 i+1 E |Zt Z
i=0 ti
i
Remarque :
t )i0 , on simule S et on utilise des esPour simuler les trajectoires (Y i timations de type Monte-Carlo pour approcher les esprances conditionnelles (voir le Chapitre 5).
Xt = X0 +
0
On se donne un maillage := {ti := ih , i n} o n N \ {0} et h := T /n. On note le schma d'Euler (continu) (t) := sup{s : s t} pour t T . Enn, on note X de X associ .
1. a. Rappeler la dnition du schma d'Euler (version continue). b. Donner la dnition du schma de Milschtein de X . c. Le fait que soit constante permet-il d'avoir une majoration du type :
(t) Xt |2 sup E |X
tT
1 2
Ch ,
pour une constante C > 0 indpendante de h ? (justiez brivement). Soit U un rel vriant U > X0 . On note
88
d(x) = (x U ) .
Etant donn > 0, on note
F (x) = d(x)2 / .
Dans tout le reste de l'exercice, C > 0 dsigne une constante gnrique qui peut changer de ligne en ligne mais qui ne dpend pas de h. On note C si elle dpend d'un autre paramtre .
et F (la drive premire et seconde de F ) quand x U . En dduire que l'on peut choisir r > 0 et susamment petit (l'un dpendant de l'autre) de sorte que :
E 1AB c
F (Xs )dWs
b. Montrer que pour tout p 1, il existe une constante Cp > 0 telle que
E
p sup |Xt |p | F 1 T Cp (1 + |X | )1 T . t[ ,T ]
(0, 1), il existe une variable alatoire admettant des moments de tous ordres tel que
T
E 1AB c
F (Xs )dWs | F
1 (T ) 2 P [A B c | F 1 ] T .
et F (X ) = 0 si T , montrer que
89
Ch.
En appliquant le Lemme d'It et des arguments dj utiliss en b., montrer que, pour tout (0, 1), il existe une variable alatoire admettant des moments de tous ordres tel que
1 E [|F (X T ) F (X ) 2 P [ > T | F 1A . )|1AB 1 >T ] (T ]
1
e.
Montrer en utilisant la dnition de et l'ingalit de Tchebychev que, pour tout p 1, il existe Cp > 0 tel que
p t |p Cp hp . P [E c A] Cp hp 2 E sup |Xt X
tT
En dduire que pour tout (0, 1), il existe C, > 0 indpendant de n tel que
P [E c A] C, h1 . (0, 1), il existe une variable alatoire admettant des moments de tous ordres telle que
( )(1) P [ > T | F (T ) 2 1A ] 1E 1A h 2
1 1
g. En supposant (seulement pour cette question) que b = 0, montrer que, pour tout
(utiliser la loi du max d'un mouvement brownien). Donner une indication sur comment traiter le cas b = 0. Par la suite on admettra que ceci est vrai mme si b = 0. admettant des moments de tous ordres telle que
h. On admet maintenant que, pour tout (0, 1), il existe une variable alatoire
( )(1) P [B c | F ] 1E 1A h 2
1
Dduire de cette estimation et des questions prcdentes que, pour tout (0, 1), il existe C > 0 tel que
E [( T )1A ] C h 2 .
5. On admet que, pour tout (0, 1), il existe C > 0 tel que
E [( T )1 < . T ] C h 2
1
90
Donner une majoration de E [|( ) T T |]. mation de T et donner une borne sur l'erreur eectue tenant compte de l'erreur d'approximation de T ainsi que de l'erreur statistique due l'approche par MonteCarlo.
Remarque 6.4.1
Nous renvoyons [12] pour l'tude de la vitesse de convergence du temps de sortie dans un cadre plus gnral. Voir galement [33].
E |Xn+1 x |2 | Fn
|Xn x |2 +
1 E |Yn+1 |2 | Fn . (n + 1)2
2. Montrer qu'il existe une constante C > 0 telle que, pour tout n 1,
n1
Sn :=
k=0
1 E |Yk+1 |2 | Fk (k + 1)2
C P p.s.
En dduire que (Sn )n0 converge presque srement. 3. Dduire de 1. que le processus (Zn )n1 dni par
Zn := |Xn x |2 + C Sn
est une (Fn )n0 -sur-martingale. 4. En utilisant le fait que pour une sur-martingale positive (Wn )n1 , il existe une variable alatoire W telle que limn Wn = W P-p.s., dduire des questions prcdentes que la suite (|Xn x |)n0 admet une limite presque sre. 5. Montrer que pour tout n 1
n
0
k=0
91
E
k=0
|x |2 + C .
7. En utilisant les hypothses faites sur f , montrer que, pour tout > 0,
|xx |>
A :=
lim |Xn x |
Que peut-on dire de limn Xn ? Justiez. 9. On reprend le modle prcdent mais maintenant on dnit (Xn )n0 par X0 = 0 et
Xn+1 = Xn n Yn+1 , n 0 ,
o (n )n0 est une suite relle positive. Quelles conditions doit-on imposer sur la suite (n )n0 pour que Xn converge vers x presque surement ? Justiez brivement. 10. Proposer une mthode base sur des simulations permettant de rsoudre
g (x) = ,
o g est une fonction continue, borne, strictement croissante et g (R).
i+1 := inf {k > i : fX (Zk ) > aUk fZ (Zk )} i+1 := inf {k > i : fX (Zk ) aUk fZ (Zk )} .
1- Donner (sans justication) la loi de (Z1 , . . . , Zn ) ? 2- Dcrire une mthode de rejet permettant d'estimer E [g (X )] .
92 3- Calculer := P [(U1 , Z1 ) D] o
P [Zi Ai , i = 1, . . . , n | n = n + p] =
i=1 Ai
fX (z )dz
et que
p
P [Zi Ai , i = 1, . . . , p | n = n + p] = (a 1)
8- En dduire
p i=1 Ai
(afZ (z ) fX (z ))dz .
E
et
, 1ip,
1 E n
g (Zi ) | n = n + p
i=1
9- En utilisant les rsultats de la question 8., proposer une mthode d'estimation de n E [g (X )] tenant compte de tous les lments de la suite (Zi ) i=1 . Justier.
93
2. On pose n = Tn Tn1 pour n 1. Montrer que les n sont i.i.d. de loi gomtrique de paramtre > 0 prciser. 3. Soit I dni comme en 1. Montrer que, pour toute fonction borne f ,
m N :=
N n=1
1I (Un )
11 N E[f (X ) | X ] P p.s.
(avec la convention 0/0 = 0). 4. On veut estimer la vitesse de convergence L2 de l'estimateur m N . On suppose que |f | fm o fm est une constante relle. On note
AN :=
1 N
1 N
1I (Un )
n=1
A . B
E[|m N r|2 ] 2 E
4.2. Montrer que
A AN BN B
1 2
11 N
+ rE[11 >N ] 2 .
|m N r|11 N =
et en dduire que
AN A B BN 11 N , +r BN BN
|m N r|2 11 N
o C > 0 est une constante indpendante de N . Conclure sur la vitesse de convergence L2 de l'estimateur m N. 5. On se propose maintenant d'utiliser une autre mthode. 5.1. Calculer la loi de la suite (Yn )n1 dnie par
94
5.2. Construire partir de (Yn )n1 un estimateur de E[f (X ) | X ]. Quel est son biais ? Quelle est sa vitesse de convergence L2 ? Comparer avec la mthode prcdente. 6. On suppose maintenant que f est continue. Soit (n )n1 une suite (dterministe) qui-rpartie sur [0, 1], i.e. telle que
1 N
g (n )
n=1 [0,1]
En utilisant l'approche des points 3. et 5. proposer deux modes d'estimation de E[f (X ) | X ] partir de (n )n1 . Justier la convergence des deux mthodes.
3. Nous allons voir que la technique de rduction de variance prcdente s'tend la dimension n 2 et mme la dimension innie. On admet que pour et : Rn1 R croissantes en chacune de leurs variables et bornes, on a
(6.8.1)
o (x) = E [(] f (G1 , . . . , Gn1 , x)) et (x) = E [(] g (G1 , . . . , Gn1 , x)) ?
95
E [(] (Gn )(Gn ))E [(] f (G1 , . . . , Gn1 , Gn ))E [(] g (G1 , . . . , Gn1 , Gn )).
(c) En intgrant l'ingalit (6.8.1) contre une densit bien choisie, vrier que
St (W ) = S0 eWt +(r
2 /2)t
o S0 R + et W = (Wt )t0 est un mouvement brownien standard. On xe une maturit T > 0 et f : R R une fonction de payo monotone, continue et borne. Pour N N , on pose t = T /N et tk = kT /N = k t, k {0, . . . , N }. (a) Quel est le signe de Cov ((, f ) (ST (W )), f (ST (W ))) ?
N (b) On note MT (W ) = 1 N N 1 k=0
Stk (W ).
S0 N 1 N
Wt 1 WtN 2 W 2 Wt1 W t1 , t , . . . , N t t t
o pour n N ,
n
n : (z1 , . . . , zn ) R
k=0
Pk
j =1 zj +k (r
2 /2)t
1 T
T 0
St (W )dt , f
1 T
T 0
St (W )dt
0.
96
2.
Comment simuler Y ?
m N :=
1 N
g (x + Y i ) , N 1 ,
i=1
b. Construire un estimateur m N de m dont la variance vaut N 1 (1 p)2 Var [g (x + Z )]. c. Quel estimateur de m est-il prfrable d'utiliser ? Donner deux raisons direntes.
A partir de maintenant, on insiste sur la dpendence de m en x en notant m(x), et on suppose g continuement drivable drive borne.
e. Discuter les avantages relatifs des estimateurs naturels de m (x) associs aux iden-
97
=(
1 0
On considre une suite (n )n1 valeurs dans [0, 1] et on lui associe la fonction
FN (x) :=
1 N
1n x , x [0, 1] .
n=1
:=
FN F
, p N {}
o F (x) := x sur [0, 1]. (1) a. Montrer que si x ]0, 1[ vrie |FN (x) x| b, b R+ , alors DN b2 /2. (1) () b. Dduire de a. que DN 0 implique DN 0. (p) (q ) c. En dduire que s'il existe p N {} tel que DN 0, alors DN 0 pour tout q N {}. d. Rappeler la dnition d'une suite uniforme sur [0, 1] et montrer qu'une suite est (p) uniforme si et seulement si DN 0 pour tout p N {}. e. En dduire que si (n )n1 est une suite de v.a. indpendantes uniformment distribues N 1 sur [0, 1] alors N n=1 1n x tend vers x uniformment sur [0, 1] p.s. 2. Soit f une fonction relle drive borne sur [0, 1] et U une loi uniforme sur [0, 1]. Montrer que pour p N
1 E[f (U )] N
f (n )
n=1
DN
(p)
1 o q vrie p +1 = 1 (on pensera a utiliser l'galit f (x) = f (0) + 0 f (z )dz ). q 3. En utilisant la loi du log itr2 , montrer que si (n )n est une suite de v.a. indpendantes uniformment distribues sur [0, 1] alors
lim sup
N
N (p) DN 2 ln ln N
, p N
(DN )2 =
2 Soit
(2)
1 N2
(1 max(i , j ))
i,j N
1 N
(1 i2 ) +
i=1
1 . 3
(Xn )n est une suite de v.a. indpendantes de mme loi, d'esprance nulle et de variance gale N 1. On pose SN = ( n=1 Xn )/ N . Alors lim supN SN / 2 ln ln N = 1 p.s.
98
b. On suppose que (n )n1 est une suite de v.a. indpendantes uniformment distribues sur [0, 1]. Montrer que E (DN )2 = 1/(6N ). Que peut-on dire sur E[|E[f (U )]
2 N 1 N n=1 f (n )| ] si f et U sont comme dans la question 2. ? 5. On revient au cas o la suite (n )n1 est dterministe. Etant donne une v.a V n )n par n := {n + V } o {y } uniformment distribue sur [0, 1], on dnit la suite ( dsigne la partie fractionnaire de y . On note
() := D N
N F F
N (x) := 1 F N
1 n x .
n=1
n est de loi uniforme sur [0, 1]. a. Montrer que pour tout n, b. On xe N 1. En dcomposant {1, . . . , N } en J1 := {j N : 0 j + V 1 x} et J2 := {j N : 0 j + V x}, montrer que N (x) x| |F
et en dduire que
sup
0 y1 y 2 1
1 N
() 2D() . D N N N (x) 4(D() )2 pour tout x [0, 1], et que, si f et U c. Montrer que N (x) := Var F N sont comme dans la question 2., alors E |E[f (U )] m N |2 4( f
() 2 1 DN )
Touzi pour leurs conseils et leur aide lors de l'criture de la premire version de ces notes.
Bibliographie
[1] Alfonsi A., On the discretization schemes for the CIR (and Bessel squared) processes, rapport CERMICS [2005-279], 2005. [2] Arouna B., Adaptative Monte Carlo method, a variance reduction technique, prpublication. [3] Arouna B., Robbins-Monro algorithms and variance reduction in nance, The Journal of Computational Finance, 7 (2), 2003. [4] Bally V. et G. Pags, A quantization algorithm for solving multi-dimensional optimal stopping problems, Bernoulli, 9(6), 1003-1049, 2003. [5] Bally V. et G. Pags, Error analysis of the quantization algorithm for obstacle problems, Stochastic Processes and Their Applications, 106(1), 1-40, 2003. [6] Bally V. et D. Talay, The law of the Euler scheme for stochastic dierential equations (I) : convergence rate of the distribution function, Probability Theory and Related Fields, 104, 43-60, 1996. [7] BenHamou E., Application of Malliavin calculus and Wiener chaos to option pricing theory, Phd thesis, The London School of Economics and Political Science, 2000. [8] BenHamou E., An Application of Malliavin Calculus to Continuous Time Asian Options Greeks, preprint, 2000. [9] Bouchard B. et J.-F. Chassagneux, Discrete time approximation for continuously and discretely reected BSDE's, prpublication PMA, 2006. [10] Bouchard B., I. Ekeland et N. Touzi, On the Malliavin approach to Monte Carlo approximation of conditional expectations, Finance and Stochastics, 8 (1), 45-71, 2004. [11] Bouchard B. et R. Elie, Discrete time approximation of decoupled ForwardBackward SDE with jumps, Stochastic Processes and Their Applications, paratre, 2005. [12] Bouchard B. et S. Mnozzi, Strong Approximations of BSDEs in a domain, prpublication Ceremade, 2007. [13] Bouchard B. et N. Touzi, Discrete Time Approximation and Monte-Carlo Simulation of Backward Stochastic Dierential Equations, Stochastic Processes and their Applications, 111 (2), 175-206, 2004. 99
100
BIBLIOGRAPHIE
[14] Bouleau N. et D. Lpingle, Numerical methods for stochastic processes, Wiley series in probability and mathematical statistics, New-York, 1994. [15] Boyle P., M. Broadie et P. Glasserman, Monte-Carlo Methods for security pricing, Journal of Economic Dynamics and Control, 21, 1267-1321, 1997. [16] Broadie M. et J. Detemple, Recent advances in numerical methods for pricing derivative securities, in Numerical Methods in Finance, edt L.G.G. Rogers et D. Talay, Cambridge University Press, Cambridge, U.K, 43-66, 1998. [17] Carriere E., Valuation of the Early-Exercise Price for Options using Simulations and Nonparametric Regression, Insurance : mathematics and Economics, 19, 1930, 1996. [18] Ciarlet P.G., Introduction l'analyse numrique matricielle et l'optimisation, Collection Mathmatiques Appliques pour la Matrise, Masson. [19] Clark J.M.C. et R.J. Cameron, The maximum rate of convergence of discrete approximation for stochastic dierential equations, in Lecture Notes in Control and Information Sciences, Stochastic Dierential Systems, 25, Edt B. Grigelionis, Springer Verlag, Berlin, 1980. [20] Clment E., D. Lamberton, et P. Protter, An analysis of a least squares regression method for American option pricing, Finance and Stochastics, 6, 449-472, 2002. [21] Cvitani c J., J. Ma et J. Zhang, Ecient Computation of Hedging Portfolios for Options with Discontinuous Payos, to appear in Mathematical Finance, 2001. [22] Detemple J., R. Garcia et M. Rindisbacher, Representation formulas for Malliavin derivatives of diusion processes, preprint, 2002. [23] Detemple J., R. Garcia et M. Rindisbacher, Asymptotic Properties of Monte Carlo Estimators of Derivatives, preprint, 2005. [24] Faure O., Simulation du mouvement brownien et des diusions, thse de l'Ecole Nationale des Ponts et Chausses, 1992. [25] Fishman G. S., Monte Carlo. Concepts, Algorithms, and Applications, Springer Series in Operation Research, Springer, 1995. [26] Fourni E. , J.-M. Lasry, J. Lebuchoux et P.-L. Lions, Applications of Malliavin calculus to Monte Carlo methods in nance II, Finance and Stochastics, 5, 201236, 2001. [27] Fourni E. , J.-M. Lasry, J. Lebuchoux, P.-L. Lions et N. Touzi, Applications of Malliavin calculus to Monte Carlo methods in nance, Finance and Stochastics, 3, 391-412, 1999. [28] Fourni E. , J.-M. Lasry et P.-L. Lions, Some nonlinear methods for studying farfrom-the-money contingent claims, in Numerical Methods in Finance, edt L.G.G. Rogers et D. Talay, Cambridge University Press, Cambridge, U.K, 115-145, 1998.
BIBLIOGRAPHIE
101
[29] Fourni E. , J. Lebuchoux et N. Touzi, Small Noise Expansion and Importance Sampling, Asymptotic Analysis, 14, 361-376, 1997. [30] Glasserman P., Monte Carlo methods in nancial engineering, Springer, 2004. [31] Glasserman P. et D.D. Yao, Some guidelines and guarantees for common random numbers, Manag. Sci., 38, 884-908, 1992. [32] Glynn P.W., Optimization of stochastic systems via simulation, in Proceedings of the 1989 Winter simulation Conference, San Diego, Society for Computer Simulation, 90-105, 1989. [33] Gobet E., Schma d'Euler pour diusions tues. Application aux options barrire, thse de l'University Paris VII, 1998. [34] Gobet E., Weak approximation of killed diusion using Euler schemes, Stochastic Processes and their Applications, 87, 167-197, 2000. [35] Gobet E., Euler schemes and half-space approximation for the simulation of diffusion in a domain, ESAIM Probability and Statistics, 5, 261-297, 2001. [36] Gobet E. et A. Kohatsu-Higa, Computation of Greeks for barrier and lookback options using Malliavin calculus, Electronic Communications in Probability, 8, 51-62, 2003. [37] Gobet E., J.P. Lemor et X. Warin, Rate of convergence of empirical regression method for solving generalized BSDE. preprint Ecole Polytechnique, R.I.574, 2005. [38] Gobet E. et R. Munos, Sensitivity analysis using It-Malliavin calculus and martingales. Application to stochastic optimal, SIAM Journal on Control and Optimization, 43(5), 1676-1713, 2005. [39] Jckel P., Monte-Carlo methods in nance, Wiley Finance Series, Wiley, 2002. [40] Karatzas I. et S.E. Shreve, Brownian Motion and Stochastic Calculus. Graduate Texts in Mathematics, 113, Springer-Verlag, New York, 1998. [41] Karatzas I. et S.E. Shreve, Methods of mathematical nance, Applications of Mathematics, Stochastic Modelling and Applied Probability, 39, Springer-Verlag, New York, 1999. [42] Kemna A.G.Z. et A.C.F Vorst, A pricing method for options based on average asset values, J. Banking Finan., 14 (1), 1990. [43] Kloeden P.E. et E. Platen, Numerical solution of stochastic dierential equations, Applications of Mathematics, 23, Springer-Verlag, New York, 1992. [44] Kloeden P.E., E. Platen et H. Schurz, Numerical solution of SDE through computer experiments, Universititext, Springer-Verlag, New York, 1992. [45] Kohatsu-Higa A. et R. Pettersson, Variance reduction methods for simulation of densities on Wiener space, SIAM Journal on Numerical Analysis, to appear, 2001.
102
BIBLIOGRAPHIE
[46] Kunita H., Stochastic dierential equations and stochastic ows of dieomorphisms, Cours de l'cole d't de Saint-Flour, Lec. Notes in Math., 1097, SpringerVerlag, 1982. [47] Lamberton D. et B. Lapeyre, Une introduction au calcul stochastique appliqu la nance, Collection Mathmatiques et Applications, Ellipse, 1991. [48] Lapeyre B., E. Pardoux et R. Sentis, Mthodes de Monte-Carlo pour les quations de transport et de diusion, Mathmatiques et Applications, 29, Springer, 1998. [49] Lapeyre B., E. Temam, Competitive Monte Carlo methods for the pricing of Asian Options, Journal of Computational Finance, 5 (1), 2001. [50] L'Ecuyer P. et G. Perron, On the convergence rates of IPA and FDC derivatives estimators, Operation Research, 42, 643-656, 1994. [51] Lions P.-L. et H. Regnier, Calcul du prix et des sensibilits d'une option amricaine par une mthode de Monte Carlo, preprint, 2001. [52] Longsta F.A. et R.S. Schwartz, Valuing American Options By Simulation : A simple Least-Square Approach, Review of Financial Studies, 14, 113-147, 2001. [53] Malliavin P. et H. Airault, Intgration, analyse de Fourier, Probabilits, analyse gaussienne, Collection Matrise de Mathmatiques pures, Masson. [54] Musiela M. et M. Rutkowski, Martingale methods in nancial modelling, Applications of Mathematics, Stochastic Modelling and Applied Probability, 36, Springer-Verlag, New York, 1997. [55] Newton N. J., Variance reduction for simulated diusions, SIAM Journal on Applied Mathematics, 54 (6), 1780-1805, 1994. [56] Newton N. J., Continuous-time Monte-Carlo methods and variance reduction, in Numerical Methods in Finance, edt L.G.G. Rogers et D. Talay, Cambridge University Press, Cambridge, U.K, 22-42, 1998. [57] Nualart D., The Malliavin Calculus and Related Topics Springer Verlag, Berlin, 1995. [58] Nualart D., Analysis on Wiener space and anticipating stochastic calculus, Lect. Notes Math. 1690, Springer, Berlin, 1998. [59] ksendal B., An Introduction to Malliavin Calculus with Applications to Economics, Lecture Notes from a course given 1996 at the Norwegian School of Economics and Business Administration (NHH), NHH Preprint Series, 1996. [60] Pags G., Multi-step Richardson-Romberg Extrapolation : Remarks on Variance Control and Complexity, prpublication PMA, 2006. [61] Pags G. et Y. J. Xiao, Sequences with low discrepancy and pseudo-random numbers : theoretical remarks and numerical tests, Journal of Statistical Computation and Simulation, 56, pp.163-183, 1997.
BIBLIOGRAPHIE
103
[62] Protter P., Stochastic Integration and Dierential Equations, Applications of Mathematics, Stochastic Modelling and Applied Probability, 21, Springer-Verlag, New York, 1990. [63] Revuz D. et M. Yor, Continuous martingales and Brownian motion, 2nd Ed. Grundlehren der Mathematischen Wissenschaften, 293, Springer, 1994. [64] Rogers L.C.G., Monte Carlo valuation of American options, Mathematical Finance, 12, 271-286, 2002. [65] Seumen-Tonou P., Mthodes numriques probabilistes pour la rsolution d'quations du transport et pour l'valuation d'options exotiques. Thse de doctorat, Universit Provence-Aix-Marseille I, 1997. [66] Talay D., Discrtisation d'une quation direntielle stochastique et calcul approch d'esprances de fonctionnelles de la solution, Mathematical Modelling and Numerical Analysis, 20, 141-179, 1986. [67] Talay D. et L. Tubaro, Expansion of the global error for numerical schemes solving stochastic dierential equations, Stochastic Analysis and Applications, 8 (4), 483509, 1990. [68] Temam E., Couverture approche d'options exotiques - Pricing des options asiatiques, thse de doctorat de Paris VI, 2001. [69] Xiao Y. J., Contributions aux mthodes arithmtiques pour la simulation acclre, Thse de l'Ecole Nationale des Ponts et Chausses, Paris, 1990. [70] Zhang J., Some ne properties of backward stochastic dierential equations, PhD thesis, Purdue University, 2001.