Vous êtes sur la page 1sur 31

Motivation

Etude dun premier algorithme de Robbins-Monro


Importance Sampling Rcursif en dimension nie
Exemples numriques
Estimation de la VaR et de la CVaR par
algorithmes stochastiques
O. Bardou
1
, N. Frikha
1,2
, G. Pags
2
1
Direction de la Recherche et de lInnovation GDFSuez,
2
Universit Pierre et Marie Curie, Paris VI
Journes Jeunes Probabilistes et Statisticiens
O. Bardou, N. Frikha, G. Pags Estimation de la VaR et de la CVaR par algorithmes stochastiques
Motivation
Etude dun premier algorithme de Robbins-Monro
Importance Sampling Rcursif en dimension nie
Exemples numriques
Plan
1
Motivation
Mesures de risque sur un portefeuille
Dnition et Calcul de la VaR et de la CVaR
2
Etude dun premier algorithme de Robbins-Monro
Convergence p.s.
Vitesse de convergence
Problmes
3
Importance Sampling Rcursif en dimension nie
Applique au calcul desprance
Applique au calcul du couple VaR-CVaR
4
Exemples numriques
O. Bardou, N. Frikha, G. Pags Estimation de la VaR et de la CVaR par algorithmes stochastiques
Motivation
Etude dun premier algorithme de Robbins-Monro
Importance Sampling Rcursif en dimension nie
Exemples numriques
Mesures de risque sur un portefeuille
Dnition et Calcul de la VaR et de la CVaR
Simulation dun portefeuille Gaz
On considre un portefeuille simple compos dune
consommation la date T=1 an, C
T
que lon dsire couvrir.
Achat sur le march de gaz spot au prix S
g
T
dune quantit
C
T
.
S
g
T
= S
g
0
e

1
2

2
T+W
g
T
,
C
T
= a +b T
T
, dT
t
= T
t
dt +dW
T
t
.
Vente un prix xe K de cette quantit de gaz.
On couvre cette position risque (on tente de minimiser un
certain risque) par lachat de
0
= 100 units de spot gaz.
L := F(X) = V =
_
S
g
T
K
_
C
T

0
_
S
g
T
S
0
_
o X ^ (0, I
2
).
O. Bardou, N. Frikha, G. Pags Estimation de la VaR et de la CVaR par algorithmes stochastiques
Motivation
Etude dun premier algorithme de Robbins-Monro
Importance Sampling Rcursif en dimension nie
Exemples numriques
Mesures de risque sur un portefeuille
Dnition et Calcul de la VaR et de la CVaR
10 000 simulations de la perte du portefeuille
Histogram of Portfolio
Portf values
F
r
e
q
u
e
n
c
y
200 0 200 400 600
0
5
1
0
1
5
2
0
2
5
3
0
3
5

:=VaR

est la perte qui ne sera pas dpasse dans %


des cas.
P(L

) = = .95,

265.2,
C

:=CVaR

donne plus dinformation sur la distribution


des pertes maximales.
C

:= E[L[L

] , C

372.6.
O. Bardou, N. Frikha, G. Pags Estimation de la VaR et de la CVaR par algorithmes stochastiques
Motivation
Etude dun premier algorithme de Robbins-Monro
Importance Sampling Rcursif en dimension nie
Exemples numriques
Mesures de risque sur un portefeuille
Dnition et Calcul de la VaR et de la CVaR
Laquelle des deux choisir ?
La VaR

est largement utilise par les praticiens.


Cependant, elle nest pas sous-additive ce qui pnalise la
diversication. De plus, elle ne tient pas compte de la
queue de la distribution au del la VaR

.
La CVaR

possde de meilleures proprits. Cest une


mesure de risque cohrente (c.f. Artzner, Delbaen, Eber &
Heath (1999)).
Lorsque 1, estimer ces deux quantits devient difcile
(venements rares). De plus, dans la pratique, le nombre
de simulations est souvent limit car les portefeuilles sont
trs complexes.
O. Bardou, N. Frikha, G. Pags Estimation de la VaR et de la CVaR par algorithmes stochastiques
Motivation
Etude dun premier algorithme de Robbins-Monro
Importance Sampling Rcursif en dimension nie
Exemples numriques
Convergence p.s.
Vitesse de convergence
Problmes
VaR-CVaR comme solutions dun problme
doptimisation convexe
Soit (0, 1) et L := (X) o X est une v.a. valeur dans R
d
.
On suppose que (X) est continue et E[[(X)[] < +.

:= VaR

, o P((X)

) =
C

:= CVaR

= E[(X)[(X)

] .
vrient (Rockafellar & Uryasev)
C

= V(

) = min
R
V() et

= argmin
R
V()
o V est la fonction convexe, drivable
V : +
1
1
E
_
((X) )
+

.
O. Bardou, N. Frikha, G. Pags Estimation de la VaR et de la CVaR par algorithmes stochastiques
Motivation
Etude dun premier algorithme de Robbins-Monro
Importance Sampling Rcursif en dimension nie
Exemples numriques
Convergence p.s.
Vitesse de convergence
Problmes
Recherche de zero stochastique...
An destimer

, il suft de trouver un zero de V

= argmin
R
V() =
_
R [ V

() = 0
_
.
o V() = E
_
v (, X) := +
1
1
((X) )
+
_
et,
V

() = E
_
v

(, X)
_
= E
_
H(, X) := 1
1
1
1
{(X)}
_
O. Bardou, N. Frikha, G. Pags Estimation de la VaR et de la CVaR par algorithmes stochastiques
Motivation
Etude dun premier algorithme de Robbins-Monro
Importance Sampling Rcursif en dimension nie
Exemples numriques
Convergence p.s.
Vitesse de convergence
Problmes
par une procdure de dosage (Robbins-Monro)
Soit X
n
X, i.i.d. et (
n
)
n1
une suite positive rlle (pas de
lalgorithme) telle que :

n1

n
= + et

n1

2
n
< +. (1)
On dnit alors lalgorithme stochastique (
n
)
n1
par :

n
=
n1

n
H (
n1
, X
n
) , n 1,
0
L
1
(P) .
Alors, il existe

: (, /, P) V

= 0,

L
2
(P) tel que :

n
a.s.

, n +.
O. Bardou, N. Frikha, G. Pags Estimation de la VaR et de la CVaR par algorithmes stochastiques
Motivation
Etude dun premier algorithme de Robbins-Monro
Importance Sampling Rcursif en dimension nie
Exemples numriques
Convergence p.s.
Vitesse de convergence
Problmes
Pourquoi ? Thorme de Robbins-Monro
Soit H : R
q
R
d
R
d
borlienne, X v.a. valeurs dans R
d
tel
que E[[H(z, X)[] < +, z R
q
. On dnit h(z) = E[H(z, X)].
On suppose h continue et que T

:= h = 0 vrie
z R
d
\T

, z

, z z

, h(z)) > 0.
Soit (
n
)
n1
une suite dterministe satisfaisant (1).On suppose
que H vrie
z R
d
, E[[H(z, X)[
2
] C(1 +[z[
2
)
Alors la procdure dnie pour n 1 par
Z
n
= Z
n1

n
H(Z
n1
, X
n
),
satisfait :
z

, tel que Z
n
a.s.
z

et z

a.s.
O. Bardou, N. Frikha, G. Pags Estimation de la VaR et de la CVaR par algorithmes stochastiques
Motivation
Etude dun premier algorithme de Robbins-Monro
Importance Sampling Rcursif en dimension nie
Exemples numriques
Convergence p.s.
Vitesse de convergence
Problmes
Estimation de la CVaR par procdure compagnon
Pour calculer la CVaR, il suft destimer la quantit
C

:= V (

) = E[v (

, X)]
1
n
n

k=1
v (

, X
k
) .
On peut utiliser les mmes innovations en calculant
(rcursivement) la quantit :
C
n
:=
1
n
n

k=1
v (
k1
, X
k
) = C
n1

1
n
(C
n1
v (
n1
, X
n
))
=
1
n
n

k=1
V (
k1
)
. .
a.s.
V(

)
+
1
n
n

k=1
v (
k1
, X
k
) V(
k1
)
. .
Bruit :
N
n
n
a.s.
0
O. Bardou, N. Frikha, G. Pags Estimation de la VaR et de la CVaR par algorithmes stochastiques
Motivation
Etude dun premier algorithme de Robbins-Monro
Importance Sampling Rcursif en dimension nie
Exemples numriques
Convergence p.s.
Vitesse de convergence
Problmes
Une procdure globale VaR-CVaR
On peut modier lgrement la procdure compagnon C
n
:
C
n
= C
n1

n
(C
n1
v (
n1
, X
n
))
Maintenant, la procdure globale Z
n
:= (
n
, C
n
) scrit :
Z
n
= Z
n1

n
H
g
(Z
n1
, X
n
)
avec H
g
(z, x) =
_
1
1
1
1
{(x)}
, C v(, x)
_
. Le pas de
lalgorithme doit tre choisi tel que :

n1

n
= + et

n1

2
n
< +.
O. Bardou, N. Frikha, G. Pags Estimation de la VaR et de la CVaR par algorithmes stochastiques
Motivation
Etude dun premier algorithme de Robbins-Monro
Importance Sampling Rcursif en dimension nie
Exemples numriques
Convergence p.s.
Vitesse de convergence
Problmes
Quel pas choisir ?
(
n
)
_
Cn
1
_
, C > 0 permet dobtenir la convergence et
la vitesse de convergence faible optimale : TCL la
vitesse

n si C est choisi correctement. La condition fait


intervenir f
(X)
(

). Le choix de C est dlicat.


(
n
) (Cn
p
),
1
2
< p < 1 permet de saffranchir de la
condition sur C. La procdure converge. Cependant, la
vitesse dans le TCL nest pas optimale
_

1
2
n
_
.
La solution courament utilise est le principe de
moyennisation de Ruppert et Polyak. Il permet dobtenir la
meilleure vitesse de convergence asymptotique.
O. Bardou, N. Frikha, G. Pags Estimation de la VaR et de la CVaR par algorithmes stochastiques
Motivation
Etude dun premier algorithme de Robbins-Monro
Importance Sampling Rcursif en dimension nie
Exemples numriques
Convergence p.s.
Vitesse de convergence
Problmes
Principe de moyennisation de Ruppert et Polyak
Il consiste calculer la procdure de Robbins-Monro avec un
pas lentement dcroissant
n
=

1
n
p
avec
1
2
< p < 1
Z
n
= Z
n1

n
H
g
(Z
n1
, X
n
) , n 1, Z
0
L
1
(P) .,
et calculer de manire adaptative la moyenne empirique
Z
n
de Z
n
Z
n
=
1
n
n

k=1
Z
n1
+
1
n
_
Z
n1
Z
n1
_
, n 1, Z
0
= 0.
Alors, sous certaines hypothses classiques, on a :

n
_
Z
n
z

_
L
^ (0, ) .
O. Bardou, N. Frikha, G. Pags Estimation de la VaR et de la CVaR par algorithmes stochastiques
Motivation
Etude dun premier algorithme de Robbins-Monro
Importance Sampling Rcursif en dimension nie
Exemples numriques
Convergence p.s.
Vitesse de convergence
Problmes
Vitesse de convergence de cette premire version de
lalgorithme VaR-CVaR
Soit
n
=

1
n
p
avec
1
2
< p < 1. On suppose que f
(X)
(

) > 0. Si
a > 1, E
_
[(X)[
2a
_
< +, (X) est continue alors

n
_

n

C
n
C

_
L
^ (0, ) , n +.
o est la matrice de covariance asymptotique dnit par

1,1
=
(1 )
f
2
(X)(

2,2
=
1
(1 )
2
Var
_
((X)

)
+
_
O. Bardou, N. Frikha, G. Pags Estimation de la VaR et de la CVaR par algorithmes stochastiques
Motivation
Etude dun premier algorithme de Robbins-Monro
Importance Sampling Rcursif en dimension nie
Exemples numriques
Convergence p.s.
Vitesse de convergence
Problmes
Diffrents problmes
Convergence lente dans les cas qui nous intressent :
1 P((X)

) = 1 0 (venements rares)

n
=
n1

n
_
1
1
1
1
{(X
n
)
n1
}
_
(X) peut tre un portefeuille complexe, difcile simuler.
On dispose dun nombre limit de simulations en pratique.
En pratique, on doit combiner le premier algorithme avec
une procdure dimportance sampling, an daugmenter la
probabilit que (X) dpasse

.
O. Bardou, N. Frikha, G. Pags Estimation de la VaR et de la CVaR par algorithmes stochastiques
Motivation
Etude dun premier algorithme de Robbins-Monro
Importance Sampling Rcursif en dimension nie
Exemples numriques
Applique au calcul desprance
Applique au calcul du couple VaR-CVaR
Calcul desprance et Rduction de variance par I.S.
On sintresse un grand problme en probabilits
numriques, lestimation de E[F(X)].
F : R
d
R, avec P
X
(dx) = p(x)
d
(dx), alors R
d
,
E[F(X)] = E
_
F(X +)
p(X +)
p(X)
_
On choisit an de minimiser la variance, i.e. le moment
dordre 2 :
Q() := E
_
F
2
(X +)
p
2
(X +)
p
2
(X)
_
= E
_
F
2
(X)
p(X)
p(X )
_
O. Bardou, N. Frikha, G. Pags Estimation de la VaR et de la CVaR par algorithmes stochastiques
Motivation
Etude dun premier algorithme de Robbins-Monro
Importance Sampling Rcursif en dimension nie
Exemples numriques
Applique au calcul desprance
Applique au calcul du couple VaR-CVaR
I.S. pour les fonctions de densits log-concave
Lemaire & Pags (2009). On suppose que R
d
, Q() < ,
p est log-concave et lim
|x|+
p(x) = 0.
Alors, Q est nie, convexe et lim
||+
Q() = +. Par
consquent,
argmin
R
d
Q() =
_
R
d
[ Q() = 0
_
,=
Pour diffrencier Q, on suppose que
C > 0, E
_
F
2
(X)e
C|X|
a1
_
< +et
b [1, 2] tel que
_

_
(i )
|p(x)|
p(x)
= O([x[
b1
) , [x[
(ii ) > 0, log(p(x)) +[x[
b
est convexe.
O. Bardou, N. Frikha, G. Pags Estimation de la VaR et de la CVaR par algorithmes stochastiques
Motivation
Etude dun premier algorithme de Robbins-Monro
Importance Sampling Rcursif en dimension nie
Exemples numriques
Applique au calcul desprance
Applique au calcul du couple VaR-CVaR
Version projete
Arouna dans un cadre gaussien utilise le gradient de Q
an de dnir un algorithme stochastique
Q() = E
_

_
F
2
(X)
p(X)
p
2
(X )
p(X )
. .
K(,X)
_

_
Cependant, lalgorithme explose car lhypothse de sous
linarit nest pas vrie :
E[[K(, X)[] C (1 +[[) .
Solution : projeter lalgorithme an de le forcer rester
dans un compact (projection a la Chen). Convergence
p.s. avec un TCL (c.f. Lelong 2007) une fois que la phase
de stabilisation sest termine.
O. Bardou, N. Frikha, G. Pags Estimation de la VaR et de la CVaR par algorithmes stochastiques
Motivation
Etude dun premier algorithme de Robbins-Monro
Importance Sampling Rcursif en dimension nie
Exemples numriques
Applique au calcul desprance
Applique au calcul du couple VaR-CVaR
Lemaire&Pags : version non projete
On excute un troisime changement de variable. Cette fois-ci
apparat dans la fonction F
Q() = E
_

_
F(X )
p
2
(X )
p(X)p(X 2)
p(X 2)
p(X 2)
. .
K(,X)
_

_
.
On suppose quon a un contrle de F linni :
x R
d
, [F(x)[ C e
a|x|
.
Alors, lalgorithme dnit par

n
=
n1

n
e
2a(||
2
+1)2||
b
H (
n1
, X
n
) , n 1.
converge p.s. vers

argmin
R
d
Q() (+TCL classique).
O. Bardou, N. Frikha, G. Pags Estimation de la VaR et de la CVaR par algorithmes stochastiques
Motivation
Etude dun premier algorithme de Robbins-Monro
Importance Sampling Rcursif en dimension nie
Exemples numriques
Applique au calcul desprance
Applique au calcul du couple VaR-CVaR
2 variances minimiser
Il sagit ici dutiliser un algorithme dI.S. an de minimiser les
deux variances dans le TCL :
Q
1
() := E
_
1
(X)

p(X)
p(X )
_
Q
2
() := E
_
((X)

)
2
+
p(X)
p(X )
_
On minimise les deux variances en implmentant deux
algorithmes stochastiques :

n
=
n1

n
K
3
(

,
n1
, X
n
) ,
0
R
d

n
=
n1

n
K
4
(

,
n1
, X
n
) ,
0
R
d
.
Alors, on a convergence

n
a.s.

et
n
a.s.

.
O. Bardou, N. Frikha, G. Pags Estimation de la VaR et de la CVaR par algorithmes stochastiques
Motivation
Etude dun premier algorithme de Robbins-Monro
Importance Sampling Rcursif en dimension nie
Exemples numriques
Applique au calcul desprance
Applique au calcul du couple VaR-CVaR
2 variances minimiser
Il sagit ici dutiliser un algorithme dI.S. an de minimiser les
deux variances dans le TCL :
Q
1
() := E
_
1
(X)

p(X)
p(X )
_
Q
2
() := E
_
((X)

)
2
+
p(X)
p(X )
_
On minimise les deux variances en implmentant deux
algorithmes stochastiques :

n
=
n1

n
K
3
(
n1
,
n1
, X
n
) ,
0
R
d

n
=
n1

n
K
4
(
n1
,
n1
, X
n
) ,
0
R
d
.
Alors, on a convergence

n
a.s.

et
n
a.s.

.
O. Bardou, N. Frikha, G. Pags Estimation de la VaR et de la CVaR par algorithmes stochastiques
Motivation
Etude dun premier algorithme de Robbins-Monro
Importance Sampling Rcursif en dimension nie
Exemples numriques
Applique au calcul desprance
Applique au calcul du couple VaR-CVaR
On injecte les paramtres dI.S. adaptativement
On modie la premire procdure VaR-CVaR en translatant
lalgorithme VaR-CVaR :
H
1
(, , x) := e
||
b
_
1
1
1
1
{(x+)}
p(x +)
p(x)
_
H
2
(, C, , x) := C v(, , x)
avec, v(, , x) := +
1
1
((x +) )
+
p(x+)
p(x)
. Lalgorithme
global scrit :

n
=
n1

n
H
1
(
n1
,
n1
, X
n
)
C
n
= C
n1

n
H
2
(
n1
, C
n1
,
n1
, X
n
)

n
=
n1

n
K
3
(
n1
,
n1
, X
n
)

n
=
n1

n
K
4
(
n1
,
n1
, X
n
)
O. Bardou, N. Frikha, G. Pags Estimation de la VaR et de la CVaR par algorithmes stochastiques
Motivation
Etude dun premier algorithme de Robbins-Monro
Importance Sampling Rcursif en dimension nie
Exemples numriques
Applique au calcul desprance
Applique au calcul du couple VaR-CVaR
TCL avec vitesse asymptotique optimale

n
_

n

C
n
C

_
L
^ (0,

) , n +.
avec,
Variance Asymptotique (sans rduction de variance)

1,1
=
(1 )
f
2
(X)(

2,2
=
1
(1 )
2
Var
_
((X)

)
+
_
O. Bardou, N. Frikha, G. Pags Estimation de la VaR et de la CVaR par algorithmes stochastiques
Motivation
Etude dun premier algorithme de Robbins-Monro
Importance Sampling Rcursif en dimension nie
Exemples numriques
Applique au calcul desprance
Applique au calcul du couple VaR-CVaR
TCL avec vitesse asymptotique optimale

n
_

n

C
n
C

_
L
^ (0,

) , n +.
avec,

1,1
=
Var
_
1 (X +

p(X+

)
p(X)
_
f
2
(X)(

2,2
=
1
(1 )
2
Var
_
((X +

)
+
p(X +

)
p(X)
_
O. Bardou, N. Frikha, G. Pags Estimation de la VaR et de la CVaR par algorithmes stochastiques
Motivation
Etude dun premier algorithme de Robbins-Monro
Importance Sampling Rcursif en dimension nie
Exemples numriques
Applique au calcul desprance
Applique au calcul du couple VaR-CVaR
Cas Gaussien :
On suppose que X ^ (0, I
d
), alors la procdure dI.S.
devient :
p
2
(X )
p(X)p(X 2)
p(X 2)
p(X 2)
= e
||
2
(2 X)
do il vient,
K
3
(, , x) = 1
{(X)}
(2 X) ,
K
4
(, , x) = e
2a
(
||
2
+1
)
((X ) )
2
+
(2 x)
O. Bardou, N. Frikha, G. Pags Estimation de la VaR et de la CVaR par algorithmes stochastiques
Motivation
Etude dun premier algorithme de Robbins-Monro
Importance Sampling Rcursif en dimension nie
Exemples numriques
Exemples numriques
On se place dans le cadre gaussien. X ^ (0, I
d
)(d = 60) :
Position courte dans une centrale Gaz-Electricit et 30
positions longues sur des calls electricit.
(X) =
30

k=1
_
e
r (Tt
k
)
_
S
e
t
k
h
R
S
g
t
k
C
_
+
P
c
0
e
rT
_
+e
rT
C
0
e
r (Tt
k
)
_
S
e
t
k
K
_
+
O. Bardou, N. Frikha, G. Pags Estimation de la VaR et de la CVaR par algorithmes stochastiques
Motivation
Etude dun premier algorithme de Robbins-Monro
Importance Sampling Rcursif en dimension nie
Exemples numriques
Portefeuille : Gaz-Electricit
Number of steps VaR CVaR RV
VaR
RV
CVaR
10 000 95% 115.7 150.5 3.4 6.8
99% 169.4 196 8.4 12.9
99.5% 186.3 213.2 13.5 20.3
100 000 95% 118.7 150.5 4.5 8.7
99% 169.4 195.4 12.6 17.5
99.5% 188.8 212.9 15.6 29.5
500 000 95% 119.2 150.4 5 9.2
99% 169.8 195.7 13.1 18.6
99.5% 188.7 212.8 17 29
O. Bardou, N. Frikha, G. Pags Estimation de la VaR et de la CVaR par algorithmes stochastiques
Motivation
Etude dun premier algorithme de Robbins-Monro
Importance Sampling Rcursif en dimension nie
Exemples numriques
Conclusion 1/2
Convergence rapide de lalgorithme VaR-CVaR et une
rduction de variance efcace surtout lorsque 1
La procdure dI.S. sampling converge rapidement 10
000-20 000 pas sufsent pour obtenir une bonne
approximation de

et

.
On peut appliquer la transformation dEsscher lorsque le
vecteur X nest pas gaussien : X NIG(, , , )
O. Bardou, N. Frikha, G. Pags Estimation de la VaR et de la CVaR par algorithmes stochastiques
Motivation
Etude dun premier algorithme de Robbins-Monro
Importance Sampling Rcursif en dimension nie
Exemples numriques
Conclusion 2/2
On peut galement tendre la mthode au cadre des
diffusions (Thorme de Girsanov) pour des pertes qui
dpendent de toute la trajectoire dun processus
X = (X
t
)
t [0,T]
.
Lalgorithme peut tre utilis avec des suites
discrpances faibles. On peut dmontrer la convergence
sous des hypothses raisonnables. La vitesse thorique
est plus difcile obtenir. Les simulations montrent un gain
important compar aux suites pseudo-alatoires.
Couverture en march incomplet par minimisation de
CVaR en utilisant les approximations stochastiques.
O. Bardou, N. Frikha, G. Pags Estimation de la VaR et de la CVaR par algorithmes stochastiques
Motivation
Etude dun premier algorithme de Robbins-Monro
Importance Sampling Rcursif en dimension nie
Exemples numriques
M. Duo
Algorithmes Stochastiques.
Springer, 1996.
H. J. Kushner & Clark D. S.
Stochastic Approximation Methods for constrained and
unconstrained systems.
Springer, 1978.
V. Lemaire & G. Pags
Unconstrained Recursive Importance Sampling
Journal of Applied Probability,
O. Bardou, N. Frikha, G. Pags Estimation de la VaR et de la CVaR par algorithmes stochastiques
Motivation
Etude dun premier algorithme de Robbins-Monro
Importance Sampling Rcursif en dimension nie
Exemples numriques
O. Bardou, N. Frikha & G. Pags
Computing VaR and CVaR using stochastic approximation
and adaptive unconstrained importance sampling
Monte Carlo Methods and Applications, (15)3, 173-210.
O. Bardou, N. Frikha, G. Pags Estimation de la VaR et de la CVaR par algorithmes stochastiques

Vous aimerez peut-être aussi