Vous êtes sur la page 1sur 32

Méthode de Stein et Transformation de Zéro

Biais : Application au pricing des CDOs

Nicole El Karoui Ying Jiao

Fev 2021
Motivation

I Les produits de base du marché du crédit.


I Credit Default Swap CDS
I Produits du type CDOs (collateralized debt obligations) : rôle
important pour restructurer des risques.

I Les CDOs permettent aux institutions financières de transférer


leurs risques de crédit, aux investisseurs d’ investir selon leur
goût de risque, en particulier, sur des produits non-classiques
avec taux de rendement plus élevé .
CDO Diagram

I Legende : Diagrame des tranches


CDOs

I Portefeuille sous-jacent de CDOs : une centaine de noms


susceptibles au risque de défaut.

I Terme clé à calculer : la perte totale


Pn
LT = i=1 Ni (1 − Ri )11{τi ≤T } où Ni est le nominal de chaque
nom et Ri le taux de recouvrement.
I Tranches de CDOs : barrière inférieure Kd et supérieure Ku .

I Prix d’une tranche de CDO : call spread


E[(LT − Kd )+ ] − E[(LT − Ku )+ ].

I Objectif : méthode rapide et robuste pour pricer ces produits de


grande taille n ≈ 100. Important pour pricing, hedging et calcul
de VaR.
Modèle à facteurs

I Modèle standard du marché : modèle à facteurs avec défauts


conditionnellement indépendants et contagieux
(Andersen-Sidenius-Basu (2003), Gregory-Laurent (2004)).

I Modèle à facteur normal


q : vision du copule Gaussien
{τi ≤ t} = {ρi Y + 1 − ρ2i Yi ≤ N −1 (αi (t))} où Y et Yi suivent
N(0, 1) indépendantes et αi (t) probabilité de défaut moyenne
avant t.

I Etant donné Y (non nécessairement normal), LT s’écrit comme


somme des variables aléatoires indépendantes
Pn
LT = i=1 Li 11 N −1 (αi (T ))−ρi Y .
Yi ≤ √ 2
1−ρ
i

I Portefeuille homogène avec Li constants, LT suit la loi binomiale.


Méthodes d’approximation

I Théorème asymptotique : approximations gaussienne ou


poissonnienne.
I Approximation gaussienne en finance :
Perte totale d’un portefeuille homogène (Vasicek (1991)),
application aux CDOs (Shelton (2004)). Approximation binomiale -
normale

Pricing d’option, cas symétrique (Diener-Diener (2004)).

I Difficulté : n ≈ 100 et petite probabilité de défaut.

I Solution : combiner approximations gaussienne et


poissonnienne et donner un terme correcteur dans chaque cas.
Méthode de Stein
et
Transformation de zéro biais
Transformation de zéro biais

Définition et propriété (Goldstein-Reinert (1997))


Soit X une v. a. d’espérance zéro et de variance var(X ) = σ 2 , on dit
que X ∗ a la distribution zéro-biais de X si

E[Xf (X )] = σ 2 E[f 0 (X ∗ )] (1)

pour toute fonction f absolument continue t.q. E[Xf (X )] est bien


définie. X ∗ existe, sa distribution est unique avec la fonction de
densité pX ∗ (x) = E[X 1{X >x} ]/σ 2 .

I Observation de Stein (1972) : Z ∼ N(0, σ 2 ), ssi


E[Zf (Z )] = σ 2 E[f 0 (Z )].
La méthode de Stein et l’approximation
normale
L’équation de Stein (1972)
Pour mesurer l’approximation normale de E[h(X )], l’idée de Stein est
d’utiliser fh définie par

h(x) − Φσ (h) = xfh (x) − σ 2 fh0 (x) (2)

où Φσ (h) = E[h(Z )] avec Z ∼ N(0, σ 2 ).

I Proposition (Stein) : Si h est une fonction absolument continue,


alors

E[h(X )] − Φσ (h) = σ 2 E f 0 (X ∗ ) − f 0 (X )
 
h h

≤ σ 2 kfh00 k E |X ∗ − X | .
 
Fonction de solution fh

I Solution de l’équation de Stein (2) :

1  x2  Z ∞ t2
fh (x) = 2
exp 2
h̄(t)e− 2σ2 dt
σ 2σ x

où h̄ = h − Φσ (h).
I Fonction fh est un ordre de plus dérivable que h.

I Estimations sur normes de fh etde ces dérivée pour



2π 1
Iα = 1{x≤α} : 0 < |fIα (x)| ≤ min 4σ , |x| et

1 α 1
|fI0α | ≤ , |xfI0α | ≤ max + 1, 2 .
σ2 σ 2 σ
Exemple et estimations

I Exemple (Bernoulli asymétrique) : Soit X une v.a. telle que


P(X = q) = p et P(X = −p) = q avec q = 1 − p. On a E(X ) = 0
and var(X ) = pq. De plus, X ∗ ∼ U[−p, q].

I Si X et X ∗ sont indépendantes, alors, pour toute fonction paire g,


on a
1  s
E g(X ∗ − X ) = E X G(X s )
  
2
(3)

Rx
où G(x) = 0
g(t)dt, X s = X − X
e et X
e est une copie
indépendante de X .

En particulier, E[|X ∗ − X |] = 4σ1 2 E |X s |3 √1


  
I ∼O n
.
1 1
E[|X ∗ − X |k ] = 2(k +1)σ
 s k+2  
2 E |X | ∼O √ k .
n
Somme des variables aléatoires
indépendantes

Théorème (Goldstein-Reinert) : transformation de zéro biais


Soit W = X1 + · · · + Xn où Xi sont des v.a. indépendantes
2
d’espérance zéro et var(W ) = σW < ∞. La transformation zéro biais
de W est donnée par
W ∗ = W (I) + XI∗

où I est un indice aléatoire à valeurs dans {1, · · · , n} avec probabilité


P(I = i) = σi2 /σW
2
. W (i) = W − Xi et Xi∗ suit la distribution de zéro
biais de Xi . De plus, W (i) , Xi , Xi∗ et I sont mutuellement
indépendantes.

I Ici, W et W ∗ ne sont pas indépendantes.


1
Pn 1
E |W ∗ − W |k = 2(k+1)σ
   s k+2  
2 i=1 E |Xi | ∼O √ k
n
.
W
Technique de l’espérance conditionelle

I Pour obtenir un ordre de plus dans les estimations, par exemple,


Pn σ2
E[XI |X1 , · · · , Xn ] = i=1 σ2i Xi , alors,
W
Pn σ6
E[E[XI |X1 , · · · , Xn ]2 ] = i=1 σ4i est de l’ordre O( n12 ). Pourtant,
W
E[XI2 ] est de l’ordre O( n1 ).

Proposition
Soient f : R → R et g : R2 → R deux fonctions telles que les
variances de f (W ) et de g(Xi , Xi∗ ) existent, alors

E[f (W )g(XI , X ∗ )] − E[f (W )]E[g(XI , X ∗ )]



I I
n
1
X σi4 ∗
 21
≤ var(f (W )) 2 var(g(Xi , Xi )) .
σ4
i=1 W
Estimation pour la fonction d’indicatrice
I Plus délicate de traiter des fonctions moins régulière.
I (Berry-Esseen) Soit Iα = 1{x≤α} , alors

1 
|E[Iα (W )] − NσW (α)| ∼ O √ .
n

ecrire Iα (W ) − NσW (α) = Iα (W ) − Iα (W ∗ ) + Iα (W ∗ ) − NσW (α)


 

premier terme : E[Iα (W (i) + Xi ) − Iα (W (i) + Xi∗ )] =


P(α − max(Xi , Xi∗ ) < W (i) ≤ α − min(Xi , Xi∗ )).

utiliser l’inéqualité de concentration (Chen et Shao (2001))


P(a ≤ W ≤ b) ≤ 2(b−a) + O √1n .

W σ

deuxième terme : par transformation de zéro biais et estimation


précédente.

coefficients de borne dépend de |f | et |xf 0 |.


Correction “asymétrique” gaussienne
Théorème
Soient X1 , · · · , Xn des variables aléatoires d’espérance zéro telles
que E[Xi4 ](i = 1, · · · , n) existent. Si fh a une dérivée d’ordre 3, alors
l’approximation normale ΦσW (h) de h(W ) admet le correcteur :
 2 
1 x 
Ch = 2 E[XI∗ ]ΦσW 2
− 1 xh(x) . (4)
σW 3σW

1
Pn
Rappelons que E[XI∗ ] = 2
2σW i=1 E[Xi3 ].
L’erreur de l’approximation corrigée est bornée par
1 X n
(3)
E (Xis )4
 
E[h(W )] − ΦσW (h) − Ch ≤ fh

12
i=1
v ! (5)
n n u n
1 X X
s 3
 s 3  1 uX 6
+ 2
E[|Xi | ] E |Xi | + t σi .
4σW σ
i=1 i=1 i=1
Remarques

I Pour Bernoulli asymétrique i.i.d. : correcteur de l’ordre O( √1n ) ;


erreur de l’ordre O( n1 ).
I Dans le cas symétrique, E[XI∗ ] = 0, alors Ch = 0 pour toute
fonction h. Ch peut être vu comme un correcteur asymétrique.
I Skew joue un rôle important.
I Premier terme du polynôme de Gram-Charlier dans le terme
d’espérance.
Etapes de preuve

I Développement autour de la perte totale W

2
E[h(W )] − ΦσW (h) = σW E[fh00 (W )(XI∗ − XI )]
h i
(3)
2
E fh ξW + (1 − ξ)W ∗ ξ(W ∗ − W )2 .

+ σW

I par l’indépendance, E[fh00 (W )XI∗ ] = E[XI∗ ]E[fh00 (W )] =


E[XI∗ ]ΦσW (fh00 ) + E[XI∗ ] E[fh00 (W )] − ΦσW (fh00 ) .


I utiliser technique de l’espérance conditionelle


E[fh00 (W )XI ] = cov fh00 (W ), E[XI |X1 , · · · , Xn ] .


I ecrire ΦσW (fh00 ) en terme


  de h et obtenir   
1 x2
2
Ch = σ W E[XI∗ ]ΦσW fh00 = 2
σW
E[XI∗ ]ΦσW 2
3σW
− 1 xh(x) .
Fonction “call”

I Fonction call Ck (x) = (x − k)+ : absolument continue avec


Ck0 (x) = 1{x>k} . Hypothèse non satisfaite.

Théorème
Soient X1 , · · · , Xn des v. a. telles que E[Xi ] = 0 et que E(Xi4 ) existent.
Alors, l’erreur du premier ordre pour la fonction call est ≡ O( n1 ),

E[(W − k )+ ] − Φσ ((x − k )+ ) − 1 E[X ∗ ]kφσ (k ) ∼ O( 1 ).



W I W
(6)
3 n
0 00
Les coefficients de borne de l’erreur dépendent de |fCk |, |xfCk | et de
B(W , k ) qui est la borne d’erreur de l’approximation normale pour
E[1{W ≤k} ].
Normale ou Poisson

I La méthodologie s’applique aux d’autres distributions.


I Méthode de Stein dans le cadre poissonnien : Chen (1975).

I Observation : une v.a. Λ prenant des valeurs entières positive


suit la loi de Poisson P(λ) ssi pour toute fonction g bornée,
E[Λg(Λ)] = λE[g(Λ + 1)].
I Equation de Stein-Poisson : h(y ) − Pλ (h) = yg(y ) − λg(y + 1)
où Pλ (h) = E[h(Λ)] avec Λ ∼ P(λ).
I Y : v.a. positive prenant valeurs entières avec E[Y ] = λ.
Y ∗ suit la distribution zéro biais poissonnienne de Y si pour toute
fonction f bornée, E[Yg(Y )] = λE[g(Y ∗ + 1)].
Correction poissonnienne
Pn
I Soit V = i=1 Yi où Yi des v.a. positives entières, alors

E[h(V )] − PλV (h) = λV E gh (V ∗ + 1) − gh (V + 1) .


 

où gh est la solution de l’equation de Poisson.


I Correcteur poissonnien de PλV (h) pour E[h(V )] :

λV
ChP = PλV ∆2 h E YI∗ − YI
  
2

où ∆h(x) = h(x + 1) − h(x) et I indice aléatoire prenant valeur


dans {1, · · · , n} avec P(I = i) = λi /λW .
I Pour fonction call h = (x − k )+ , ∆2 h(x) = 1{x=k −1} , alors
σV2 −λV −λV bkc−1
ChP = 2(bkc−1)! e λV .
Tests numériques : E[(Wn − k )+ ]

I E[(Wn − k)+ ] en fonction de n avec σW = 1 et k = 1 (correction


gaussienne maximale) pour portefeuille homogène.
Deux graphes : p = 0.1 et p = 0.01 respectivement.
I Oscillation de courbe binomiale autour de courbe normale
corrigée.
I Approximation poissonnienne corrigée reste très robuste même
pour p = 0.1.
Tests numériques : E[(Wn − k )+ ]
I Legend : binomial (noir), normale (magenta), normale corrigée
(vert), Poisson (bleu) et Poisson corrigée (rouge). p = 0.1.
Approximation of E[(Wn−1)+], where p=0.1
0.15
binomial
normal
normal with correction
0.14 poisson
poisson with correction

0.13

0.12

0.11

0.1

0.09

0.08
0 50 100 150 200 250 300 350 400 450 500
n
Tests numériques : E[(Wn − k )+ ]
I Legend : binomial (noir), normale (magenta), normale corrigée
(vert), Poisson (bleu) et Poisson corrigée (rouge). p = 0.01.
Approximation of E[(Wn−1)+], where p=0.01
0.22
binomial
normal
normal with correction
0.2 poisson
poisson with correction

0.18

0.16

0.14

0.12

0.1

0.08
0 50 100 150 200 250 300 350 400 450 500
n
Correction d’ordre supérieur

I La régularité de h joue un rôle important.


L’approximation d’ordre 2 est donnée par

C(2, h) = ΦσW (h) + Ch


 6
5x 4 5x 2 

x
+ Φ σW − + (h(x) − Φ σW (h)) E[XI∗ ]2
18σW8
6σW6 4
2σW (7)
 4 2 

1 x 3x
h(x) E[(XI∗ )2 ] − E[XI2 ] .

+ Φσ W 6
− 4
2 4σW 2σW

I Pour la fonction call, c’est difficile de contrôler les erreurs.


Applications aux CDOs
En collaboration avec David KURTZ (Calyon, Londres).
Application aux CDOs

1
Pn
I Perte en pourcentage lT = n i=1 (1 − Ri )1{τi ≤T } .
Barrières des tranches : K = 3%, 6%, 9%, 12%.
I Normalisation gaussienne pour ξi = 1{τi ≤T } : soit Xi = √ ξi −pi
npi (1−pi )
1
où pi = P(ξi = 1). Alors E[Xi ] = 0 et var[Xi ] = n.

I Supposant Ri = 0 et pi = p. Soit p(Y ) = pi (Y ) = P(τi ≤ T |Y ),


alors
r
p(Y )(1 − p(Y )) 
E (lT − K )+ |Y = E (W − k (n, p(Y )))+ |Y .
  
n

Pn (K −p) n
où W = i=1 Xi et k(n, p) = √ .
p(1−p)

I Contrainte poissonnienne : Ri déterministe.


Tests numériques : Domaine de validité

I Erreur conditionelle de E[(lT − K )+ ], en fonction de K /p,


n = 100.

I Portefeuille inhomogène avec pi log-normale avec espérance p.


I Domaine de validité : Poisson quand np ≤ 15 et Gauss sinon.
I Erreur maximale : quand k autour de la perte moyenne.
Tests numériques : Domaine de validité

I Legend : erreur gaussienne corrigée (bleu), erreur


poissonnienne corrigée (rouge). np=5 et np=20.

np=5 np=20

0.020% 0.012%
0.010%
0.015% 0.008%
0.010% 0.006%
0.004%
0.005% 0.002%
0.000%
0.000% -0.002% 0% 100% 200% 300%
-0.005% 0% 100% 200% 300% -0.004%
-0.006%
-0.010% -0.008%
Error Gauss Error Poisson Error Gauss Error Poisson
Tests numériques : Ri stochastique

I Erreur conditionelle de E[(lT − K )+ ], en fonction de K /p pour


l’approximation gaussienne corrigée, avec taux de recouvrement
Ri aléatoire.

I Ri : loi de Beta avec moyen 50% et variance 26%, indépendantes


(Moody’s).

I Correcteur dépend du moment d’ordre 3 de Ri .


I Interval de confiance 95% par Monte Carlo 1 million simulation.
Tests numériques : Ri stochastique

I Approximation gaussienne est plus robust quand p est grand


comme dans le cas standard. np=5 et np=20.

np=5 np=20
0.004% 0.006%
0.003%
0.004%
0.002%
0.001% 0.002%
0.000%
0.000%
-0.001% 0% 100% 200% 300%
-0.002% -0.002% 0% 100% 200%
-0.003%
-0.004%
-0.004%
-0.005% -0.006%
Lower MC Bound Gauss Error Upper MC Bound Lower MC Bound Gauss Error Upper MC Bound
Résultats empiriques du marché

I Observation du “smile” de corrélation au marché.


I Modèle de corrélation paramétrique “propriétaire” de ρ(Y ) pour
réproduire le smile.
I Notre méthode d’approximation adaptée à tous les modèles
conditionellement indépendants, pas forcément dans le cadre
normal.
I Temps de calcul largement diminué.
Résultats empiriques du marché

I Erreur des prix en bp (10−4 ) par approximations Gauss-Poisson


corrigées avec corrélation locale réaliste.

Break Even Error

1.40

1.20

1.00

0.80

0.60

0.40

0.20

-
0-3 3-6 6-9 9-12 12-15 15-22 0-100
-0.20

Break Even Error

Vous aimerez peut-être aussi