Vous êtes sur la page 1sur 10

MASTER ISIFAR 2ème Année Année universitaire 2008-2009

Réassurance et valeurs extrêmes

Philippe Soulier

1 Objectif

L’objectif du cours est l’étude statistique de quantités d’intérêt pour la réassurance. La


réassurance ayant pour but la couverture des sinistres de très grand coût, la théorie statistique
utile est la théorie des valeurs extrêmes. Ces notes présentent un bref rappel des éléments
essentiels de la théorie des valeurs extrêmes univariées et des méthodes statistiques pour des
observations i.i.d.

2 Lois de valeurs extrêmes univariées

Définition

Soit F une fonction de répartition sur R. On dit que F appartient au domaine d’attraction
du maximum d’une loi G si il existe des suites an et bn telles que
lim F n (bn + an x) = G(x) , (1)
n→∞

en tout point de continuité de la loi limite G, ou encore


 
max1≤i≤n Xi − bn
lim P ≤ x = G(x)
n→∞ an
pour une suite de variables i.i.d. de loi F .

Caractérisation des lois limites possibles

Les lois limites possibles sont les lois de valeurs extrêmes généralisées (GEV) Gγ,µ,σ , γ, µ ∈ R,
σ > 0, définies par
Gγ,µ,σ (x) = exp{−(1 + γ(x − µ)/σ)−1/γ } , si γ 6= 0 ,
−(x−µ)/σ
G0 (x) = e−e ,
définies pour x tel que 1 + γ(x − µ)/σ > 0. On note Gγ = Gγ,0,1 et la loi G0 est appelée loi
de Gumbel. Si X suit la loi Gγ,µ,σ , alors (X − µ)/σ suit la loi Gγ .
Les lois de valeurs extrêmes sont aussi les lois max-stables. Soit G une fonction de répartition
telle qu’il existe des suites {an } et {bn } vérifiant
Gn (bn + an x) = G(x)
pour tout x, alors G est une loi GEV.

1
Caractérisation des domaines d’attraction

Soit F une fonction de répartition. On dit que F est dans le domaine d’attraction du maximum
de la loi Gγ , noté F ∈ M DA(Gγ ) si (1) a lieu avec G = Gγ .
Soit U la fonction croissante définie sur [1, ∞[ par
 ←
→ 1
U (t) = F (1 − 1/t) = (t) .
1−F
Alors F est dans le domaine d’attraction de la loi Gγ si et seulement si il existe une fonction
ψ telle que
U (tx) − U (t)
lim∗ = hγ (x) (2)
t→t ψ ◦ U (t)
où t∗ = sup{t ∈ R , F (t) < 1} et
(
x tγ −1
si γ 6= 0 ,
Z
γ−1 γ
hγ (x) = t dt =
1 log(t) si γ = 0 .

La fonction ψ est appelée fonction auxiliaire et est définie à équivalence asymptotique près,
i.e. si ψ̃ vérifie limt→∞ ψ(t)/ψ̃(t) = 1, alors on peut remplacer ψ par ψ̃ dans (2). Les suites
normalisantes de la condition (1) peuvent être choisies de la façon suivante :

bn = U (n) , an = ψ(bn ) = ψ ◦ U (n) .

On distingue les trois domaines γ < 0, γ = 0 et γ > 0.


• Cas γ > 0. Le support de la loi F est non borné, i.e. t∗ = ∞. La fonction F̄ est alors à
variation régulière d’indice 1/γ à l’infini et la fonction U est à variation régulière d’indice
γ à l’infini. On peut choisir pour fonction auxiliaire ψ(x) = γx.
• Cas γ = 0. Le support de la loi F peut-être borné ou non borné. Dans le cas t∗ = ∞ (loi
non bornée), la fonction auxiliaire ψ(x) vérifie limx→∞ ψ(x)/x = 0 et si F est dérivable, on
peut choisir ψ = F̄ /F 0 .
• Cas γ < 0. Ce cas est ramené au cas γ > 0 car une variable X est dans le domaine
d’attraction de la loi Gγ si et seulement si le support de la loi de X est borné, i.e. t∗ < ∞
et (t∗ − X)−1 est dans le domaine d’attraction de la loi G−γ .

Lois de Pareto généralisées

La condition (1) est équivalente à la convergence des excès conditionnels qui peut s’exprimer
de façon équivalente par l’une ou l’autre des limites suivantes

lim P(X > t + ψ(t)x | X > t) = − log Gγ (x) , (3)


t→t∗
lim nP(X > U (n) + ψ ◦ U (n)x) = − log Gγ (x) . (4)
n→∞

La fonction 1 − log Gγ (x) est une fonction de répartition. Pour µ ∈ R et σ > 0, on définit la
loi de Pareto généralisée Pγ,µ,σ par Pγ,µ,σ (x) = 1 − log Gγ ((x − µ)/σ)

2
Convergence des moments

Si γ ≥ 0 et p < 1/γ,
∞ ∞
E[(X − x)p | X > x]
Z Z
p
lim = x d{− log Gγ (x)} = p xp−1 {− log Gγ (x)} dx
x→∞ ψ(x)p
(0 0
p! si γ = 0 ,
= R∞
p 0 xp−1 (1 + γx)−1/γ dx si γ > 0 .

Pour 0 ≤ γ < 1 et p = 1, on a

E[X − x | X > x] 1
lim = . (5)
x→∞ ψ(x) 1−γ

Statistiques d’ordre

Soit X1 , . . . , Xn des variables aléatoires i.i.d. de loi F . Les statistiques d’ordre de l’échantillon,
notées X(n:1) , . . . , X(n:n) , sont les observations ordonnées en croissant.
Si F appartient au domaine d’attraction d’une loi de valeurs extrêmes Gγ , alors on peut
étudier le comportement asymptotique de la k-ème plus grande observation X(n:n−k+1) dans
le cas où k est fixe et dans le cas où k → ∞ pas trop vite.
• Pour tout entier k fixé,
Z (1+γx)−1/γ
1
lim P(X(n:n−k+1) ≤ U (n) + ψ ◦ U (n)x) = uk−1 e−u du
n→∞ (k − 1)! 0

• Si kn est une suite croissante d’entiers telle que kn → ∞ et kn /n → 0 (une telle suite est
appelée suite intermédiaire), alors

X(n:n−kn ) − U (n/kn )
→0,
ψ ◦ U (n/kn )

la convergence ayant lieu en probabilité.

Exemples

• La loi exponentielle appartient au domaine d’attraction de la loi de Gumbel. On le prouve


en utilisant la caractérisation (3), car on a pour tout t, x > 0

P(X > t + x | X > t) = e−x .

La limite (3) est donc une égalité stricte pour tout t. C’est la propriété caractéristique de
la loi exponentielle. la fonction auxiliaire est donc ψ ≡ 1.
• La loi normale centrée réduite est dans le domaine d’attraction de la loi de Gumbel. On
peut choisir pour fonction auxiliaire ψ(x) = 1/x.

3
• Loi de Pareto. Une variable aléatoire positive X est dite de type Pareto si sa fonction de
survie F̄ (x) = P(X > x) est de la forme
F̄ (tx)
lim = x−α
t→∞ F̄ (t)

pour un α > 0 et pour tout x > 0. On dit que F̄ est à variation régulière à l’infini d’indice
−α. Le réel α est appelé l’indice de Pareto ou de queue de la loi de X, et X est dans le
domaine d’attraction de la loi Gγ avec γ = 1/α > 0. Il suffit de vérifier (3) en choisissant
pou fonction auxiliaire ψ(x) = γx :
F̄ (t + tx)
lim = (1 + γx)−1/γ .
t→∞ F̄ (t)
• Loi uniforme. La loi uniforme sur [0, 1] est dans le domaine d’attraction de la loi G−1 . On
peut calculer directement
 
lim P n{ max Ui − 1} ≤ x = ex
n→∞ 1≤i≤n

pour tout x < 0. Soit


 
lim P max Ui ≤ 1 − 1/n + x/n = G−1 (x) .
n→∞ 1≤i≤n

On a donc la limite (1) avec an = 1/n et bn = 1 − 1/n. On peut aussi voir que 51 − U )−1
est une loi de type Pareto d’indice −1.

3 Estimation

3.1 Estimation de l’indice des valeurs extrêmes

Méthode du maximum de vraisemblance

Soit X1 , . . . , Xn sont des observations i.i.d. de la loi Gγ,µ,σ . Si γ 6= 0, la log-vraisemblance est


n n 
Xi − µ −1/γ
 X   X 
1 Xi − µ
`n (γ, µ, σ) = −n log σ − +1 log 1 + γ − 1+γ .
γ σ σ
i=1 i=1
Pour γ = 0, la log-vraisemblance est
n
X n
X
`n (0, µ, σ) = −n log σ − exp(−(Xi − µ)/σ) − (Xi − µ)/σ .
i=1 i=1
L’estimateur du maximum de vraisemblance maximise `. Il est toujours bien défini si γ > −1
et asymptotitiquement normal si γ > −1/2.
Si les observations Y1 , . . . , Yn sont issues d’une loi F ∈ M DA(Gγ ), on les regroupe par blocs
de taille k et on définit m = [n/k] et des pseudo-observations X1 , · · · , Xm par
Xi = max Y(i−1)k+j , 1 ≤ i ≤ m .
1≤j≤k

On peut alors appliquer la procédure du maximum de vraisemblance aux pseudo-observations


Yi .

4
Méthode des excès

Etant données n observations i.i.d. de la loi F ∈ M DA(Gγ ), cette méthode dite méthode
POT (peaks over threshold) consiste à ne conserver que les observations dépassant un cer-
tain seuil (threshold), soit déterministe et le nombre d’observation conservées est aléatoire,
soit une statistique d’ordre X(n:n−k) et le nombre d’observations conservées est k. Pour ces
observations, on utilise la limite (3) qui justifie l’approximation pour x grand et y > x,

P(X > y)
≈ (1 + γ(y − x)/σ)−1/γ (6)
P(X > x)

avec σ = ψ(x). La loi des observations plus grande que x étant précisément la loi conditionnelle
sachant X > x, on applique la méthode du maximum de vraisemblance à ces observations
considérées comme suivant la loi de Pareto généralisée Pγ,x,σ . Si l’on a choisit le seuil X(n:n−k)
les observations sont donc Yj = X(n:n−j+1) − X(n:n−k) , 1 ≤ j ≤ k. La log-vraisemblance est
donc
 k
X  
1 γYj
`(γ, σ) = −k log σ − +1 log 1 + , (γ 6= 0) ,
γ σ
j=1
k
1X
`(0, σ) = −k log σ − Yj .
σ
j=1

On obtient un estimateur de γ en maximisant la log-vraisemblance.

Estimateur de Hill

Si γ > 0, on définit un estimateur de γ par


k
1X
γ̂Hill = log X(n:n−j+1) − log X(n:n−k) .
k
j=1

Cet estimateur est consistant pour toute suite intermediaire k, et asymptotiquement normal
si l’on peut convenablement choisir la suite k, en fonction de conditions dites du second ordre.

3.2 Estimation de quantiles extrêmes

Soit p ∈]0, 1[. Le quantile x(p) d’ordre 1 − p est défini par 1 − F (x(p)) = p. Si p est très petit
par rapport au nombre d’observations, i.e. p  1/n, une estimation empirique est impossible.
Un modèle semi-paramétrique est nécessaire. Ceci signifie que l’on va modéliser la queue de
distribution par une loi de valeurs extrêmes, tandis que des probabilités non extrêmes seront
estimées empiriquement, soit avec la fonction de répartition empirique Fn définie par
n
X
Fn (x) = n−1 1{Xi ≤x} . (7)
i=1

5
Si la loi des observations est dans le domaine d’attraction d’une loi de valeurs extrêmes, on
peut utiliser la méthode des excès. On utilise l’approximation (6)

p = P(X > x(p)) ≈ (1 + γ(y − x)/σ)−1/γ P(X > x) . (8)

On estime les paramètres γ et σ de la loi de Pareto généralisée avec les plus grandes observa-
tions, et pour un seuil x choisi en fonction des observations (et donc aléatoire) x = X(n:n−k) ,
on estime la probabilité de dépassement du seuil par

\ k
P(X > x) = 1 − Fn (X(n:n−k) ) = .
n
Pour des estimateurs γ̂ et σ̂ de γ et σ, l’estimateur du quantil extrême x̂(p) est caractérisé
par
k
p= (1 + γ̂(x̂(p) − X(n:n−k) )/σ̂)−1/γ̂ ,
n
soit
σ̂ n o
x̂(p) = X(n:n−k) + (k/np)γ̂ − 1 .
γ̂

Dans le cas γ > 0, on peut choisir ψ(x) = γx. On prend donc σ̂ = γ̂X(n:n−k) et

x̂(p) = X(n:n−k) (k/np)γ̂ .

Si l’on a accepté l’hypothèse γ = 0, on a l’estimateur du quantile

x̂(p) = X(n:n−k) + σ̂ log(k/np) .

3.3 Estimation de la prime nette

En réassurance une quantité d’intérêt est la prime nette, c’est-à-dire la fonction

Π(R) = exp[(X − R)+ ] = E[X − R | X > R]P(X > R) ,

où x+ = max(x, 0). Si la loi F des sinistres appartient au domaine d’attraction d’une loi de
valeurs extrêmes, Pour R grand et 0 ≤ γ < 1, la relation (5) suggère l’approximation

ψ(R)
Π(R) ≈ P(X > R) . (9)
1−γ

Si F ∈ M DA(Gγ ) avec γ > 0, on a ψ(R) = γR. On choisit pour seuil R = X(n:n−k) , on estime
la probabilité P(X > R) empiriquement comme en (8) et on remplace γ par un estimateur γ̂
dans (9). On obtient alors un estimateur de la prime nette pour R = X(n:n−k) défini par

\ γ̂ k
Π(X(n:n−k) ) = X .
1 − γ̂ n (n:n−k)

6
3.4 Lois de type Weibull

Le domaine d’attraction de la loi de Gumbel est très vaste et l’approximation peut-être très
mauvaise. Pour obtenir de meilleures approximations, on peut se restreindre aux lois de type
Weibull.
Une fonction de répartition F est dite de type Weibull si
β +o(xβ )
F̄ (x) = e−cx , c, β > 0 .

Le paramètre β est appelé paramètre de forme. Une loi de type Weibull est dans le domaine
d’attraction de la loi de Gumbel avec pour fonction auxiliaire
1 1−β
ψ(x) = x .

Un estimateur de β est donné par
Pk
i=1 {log X(n:n−i+1) − log X(n:n−k) }
β̂ = Pk
i=1 {log log(n/i) − log log(n/(k + 1))}

L’estimateur β̂ est consistant pour toute suite intermédiaire, et asymptotiquement normal si


l’on peut convenablement choisir la suite k, en fonction de conditions dites du second ordre.
Les quantiles extrêmes d’ordre 1/n sont estimés par
 1/β̂
log(1/p)
x̂(p) = X(n:n−k) .
log(n/k)

4 Cas de dépendance temporelle

Soit X1 , . . . , Xn , . . . une suite de variables de même loi F ∈ M DA(Gγ ). Si les variables sont de
plus indépendantes, il existe des suites an et bn telles que (max1≤i≤n Xi −bn )/an converge vers
la loi Gγ . Que peut-on dire si les observations ne sont pas indépendantes ? Dans certains cas,
il existe un réel θ ∈]0, 1] appelé indice extrémal de la suite {Xi } tel que (max1≤i≤n Xi −bn )/an
converge vers la loi Gθγ , i.e.
 
lim P max Xi ≤ bn + an x = Gθγ (x) .
n→∞ 1≤i≤n

Si θ = 1, la dépendance temporelle ne modifie pas le comportement asymptotique du maxi-


mum. Si θ < 1, la dépendance implique des différences par rapport au cas i.i.d. Par exemple,
pour obtenir une approximation des quantiles extrêmes, on doit tenir alors compte de la
dépendance. Soit x(p) le quantile d’ordre 1 − p de Gγ , i.e. Gγ (x(p)) = 1 − p. On a alors
l’approximation
 
P max Xi ≤ bn + an x(p) ≈ Gθγ (x(p)) = (1 − p)θ > (1 − p) .
1≤i≤n

Le quantile approché xθ (p) de max1≤i≤n Xi est donc inférieur à x(p).

7
Exemple Soit Yi une suite i.i.d. de loi F ∈ M DA(Gγ ) et soit Xi = max(Yi , Yi+1 ). Alors
l’indice extrémal de la suite {Xi } est 1/2.

5 Lois de valeurs extrêmes multivariées

Soit (X (1) , . . . , X (d) ) un vecteur aléatoire de loi F . On dit que F est dans le domaine d’at-
(i)
traction du maximum d’une loi de valeurs extrêmes multivariée G si il existe des suites an ,
(i)
bn , 1 ≤ i ≤ d telles que
(1) (1) (d) (i)
!
max1≤i≤n Xi − bn max1≤i≤n Xi − bn
lim P (1)
≤ x1 , . . . , (i)
≤ xd = G(x1 , . . . , xd ) ,
n→∞ an an
(1) (d)
pour une suite i.i.d. (Xi , . . . , Xi ) de vecteurs aléatoires de loi F .
Par transformation marginale, on peut en théorie toujours se ramener au cas où les lois
marginales de F sont identiques et dans le domaine d’attraction d’une loi Gγ avec γ > 0. On
peut alors caractériser les lois limites multivariées G possibles. Pour simplifier les notations,
on se restreint au cas d = 2.

Théorème Soit F la fonction de répartition bivariée d’un couple (X, Y ) de lois marginales
égales H ∈ M DA(Gγ ) avec γ > 0. Soit an une suite vérifiant limn→∞ nP(X > an ) = 1. La
loi F est dans un domaine d’attraction du maximum si et seulement si il existe une mesure ν
sur Rd+ telle que
 
max1≤i≤n Xi max1≤i≤n Yi
lim P ≤ x, ≤ y = exp{−ν[([0, x] × [0, y])c ]} ,
n→∞ an an
ou de façon équivalente
 
X Y P (X > tx ou Y > ty)
lim nP > x ou > y = lim = ν[([0, x] × [0, y])c ] ,
n→∞ an an t→∞ P(X > t)
et la mesure ν a les propriétés suivantes :
ν(A) < ∞ si A est séparé de 0, (10)
∀t > 0 , ν(tA) = t−1/γ ν(A) . (11)
Plus généralement, on a, pour tout ensemble A séparé de 0,
 
(X, Y ) P ((X, Y ) ∈ tA)
lim nP ∈ A = lim = ν(A) , (12)
n→∞ an t→∞ P(X > t)

Exemples
• Si X et Y sont indépendantes, alors
       
X Y X Y X Y
nP > x ou > y = nP > x + nP > y − nP > x et >y
an an an an an an
→ x−1/γ + y −1/γ .

8
La mesure νind est donc portée par les axes [0, ∞] × {0} et {0} × [0, ∞], c’est-à-dire que pour
tout A ⊂ R2+ , séparé de 0, si l’on pose A1 = A ∩ [0, ∞[×{0} et A2 = A ∩ {0} × [0, ∞[,
Z Z
1 1
νind (A) = x−1/γ−1 dx + y −1/γ−1 dy .
γ A1 γ A2

En particulier, si A ne touche pas les axes, i.e. A1 = A2 = ∅, alors νind (A) = 0.


• Si X = Y (comonotonie), alors la mesure limite νc est portée par la diagonale ∆ = {(x, y) ∈
R2+ | x = y} et pour tout A, on a
Z
1
νc (A) = y −1/γ−1 dy .
γ A∩∆

• Soit U, V, W trois variables i.i.d. dans le domaine d’attraction de la loi Gγ et soit Y = U + V


et Y = V + W . Alors (X, Y ) est dans le domaine d’attraction d’une loi bivariée et la mesure
ν est caractérisée par
1
ν(([0, x] × [0, c])c ) = {x−1/γ + (x ∧ y)−1/γ + y −1/γ } .
2
On en déduit la relation ν = 12 {νind + νc }.

Applications
• Probabilité de défaut simultané. Soit X et Y deux variables aléatoires représentés des risques
(actifs financiers, coûts de sinistres, etc.) On s’intérésse à la probabilité de défaut simultané :
P(X > D1 et Y > D2 ) lorsque les seuils D1 et D2 sont grands, ce que l’on formalise en
considérant des seuils dilatés an D1 et an D2 , avec nP(X > an ) ∼ 1. On a alors

lim nP(X > an D1 et an Y > D2 ) = ν(]D1 , ∞[×]D2 , ∞[) .


n→∞

Il reste donc à calculer ν(]D1 , ∞[×]D2 , ∞[) dans chacun des trois exemples précédents.
– Indépendance. On a vu que ν(]D1 , ∞[×]D2 , ∞[) = 0 et donc

lim nP(X > an D1 et an Y > D2 ) = 0 .


n→∞

En première approximation, la probabilité de défault simultané est négligeable devant la


probabilité d’un seul défaut.
– Comonotonie.

lim nP(X > an D1 et Y > an D2 ) = ν(]D1 , ∞[×]D2 , ∞[) = (D1 ∨ D2 )−α .


n→∞

– Cas X = U + V , Y = V + W , U, V, W i.i.d.
1
lim nP(X > an D1 et Y > an D2 ) = ν(]D1 , ∞[×]D2 , ∞[) = (D1 ∨ D2 )−α .
n→∞ 2
• Portefeuille. Soit X et Y les coûts unitaires de deux contrats détenus en quantité a et b
dans un portefeuille. Le coût total du portefeuille est aX + bY . On s’intéresse à la probabilité

9
que le coût total dépasse un seuil D : P(aX + bY > D). Soit A = {(x, y) ∈ R2+ | ax + by > 1}.
On a alors

lim nP(aX + bY > an D) = D−1/γ ν(A) .


n→∞

On va déterminer dans les trois exemples précédents la valeur de ν(A) pour quantifier l’influ-
ence de la dépendance.
– Indépendance.

νind (A) = a1/γ + b1/γ .

– Comonotonie.

νc (A) = (a + b)1/γ .

– Cas X = U + V , Y = V + W , U, V, W i.i.d.
1
ν(A) = {a1/γ + b1/γ + (a + b)1/γ } .
2
• Prime nette. Si γ < 1, on peut calculer la prime nette pour un contrat où le réassureur
intervient si X + Y dépasse la rétention R, soit
Z ∞ Z ∞
Π(R) = E[(X + Y − R)+ ] = P(X + Y > x) dx = R P(X + Y > Rt) dt
R 1

En posant At = {(x, y) ∈ R2+ | x + y > t}, la limite (12) et la propriété d’homogénéité (11)
permettent l’approximation
Z
P(X + Y > Rt)
Π(R) = RP(X > R) dt
1 P(X > R)
Z Z
RP(X > R)
∼ RP(X > R) ν(At ) dt = RP(X > R)ν(A1 ) t−1/γ dt = ν(A1 ) .
1 1 1−γ

Il reste à calculer ν(A1 ) dans les trois exemples précédents.


– Indépendance.

νind (A1 ) = 2 .

– Comonotonicité.

νc (A1 ) = 21/γ .

– Cas X = U + V , Y = V + W , U, V, W i.i.d.

ν(A1 ) = 1 + 21/γ−1 .

La prime est minimale dans le cas de l’indépendance et maximale pour la comonotonicité.

10

Vous aimerez peut-être aussi